Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 8 maja 2026 10:28
  • Data zakończenia: 8 maja 2026 10:38

Egzamin niezdany

Wynik: 17/40 punktów (42,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 16 GB.
B. 1 modułu 32 GB.
C. 2 modułów, każdy po 8 GB.
D. 1 modułu 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 2

Użytkownik uszkodził płytę główną z gniazdem dla procesora AM2. Płytę z uszkodzeniami można wymienić na model z gniazdem, nie zmieniając procesora oraz pamięci

A. AM1
B. FM2+
C. FM2
D. AM2+
Odpowiedź AM2+ jest prawidłowa, ponieważ gniazdo AM2+ jest kompatybilne z procesorami AM2, co oznacza, że użytkownik nie musi wymieniać swojego procesora ani pamięci. Gniazdo AM2+ obsługuje te same procesory, co AM2, a dodatkowo wprowadza wsparcie dla szybszych pamięci RAM DDR2 oraz DDR3, co może zwiększyć wydajność systemu. W praktyce, jeśli użytkownik zdecyduje się na wymianę płyty głównej na model AM2+, uzyska możliwość przyszłej modernizacji, wykorzystując nowsze procesory, które mogą być stosowane w tym gnieździe. To podejście jest zgodne z najlepszymi praktykami branżowymi, gdzie planowanie przyszłych ulepszeń jest kluczowe dla maksymalizacji wartości inwestycji w sprzęt komputerowy. Dobrą praktyką jest również dokładne sprawdzenie specyfikacji płyty głównej przed zakupem, aby upewnić się, że będzie ona wspierać pożądane komponenty.

Pytanie 3

Który z poniższych protokołów nie jest wykorzystywany do konfiguracji wirtualnej sieci prywatnej?

A. SSTP
B. PPTP
C. L2TP
D. SNMP
L2TP, PPTP i SSTP to protokoły, które są fundamentalne w kontekście konfiguracji wirtualnych sieci prywatnych. L2TP jest protokołem tunelowym, który często jest używany w połączeniu z IPsec, co zapewnia wysoki poziom bezpieczeństwa. W praktyce oznacza to, że L2TP samodzielnie nie zapewnia szyfrowania, ale w połączeniu z IPsec oferuje kompleksowe rozwiązanie dla bezpiecznego przesyłania danych. PPTP, pomimo krytyki za lukę w bezpieczeństwie, jest często stosowany ze względu na łatwość konfiguracji i szybkość implementacji, co sprawia, że jest popularny w mniej wymagających środowiskach. SSTP, z kolei, wykorzystuje protokół HTTPS do tunelowania, co czyni go bardziej odpornym na blokady stosowane przez niektóre sieci. W kontekście SNMP, wielu użytkowników myli jego zastosowanie, sądząc, że może on pełnić funkcję zabezpieczania połączeń VPN. To nieporozumienie wynika z faktu, że SNMP jest protokołem zarządzania, a nie tunelowania czy szyfrowania. Zrozumienie, że SNMP służy do monitorowania i zarządzania urządzeniami sieciowymi, a nie do zabezpieczania komunikacji, jest kluczowe dla efektywnego zastosowania technologii sieciowych. Często myśli się, że każde narzędzie używane w kontekście sieci powinno mieć zdolności zabezpieczające, co prowadzi do błędnych wniosków i wyborów technologicznych.

Pytanie 4

W jakiej topologii fizycznej sieci każde urządzenie ma dokładnie dwa połączenia, jedno z najbliższymi sąsiadami, a dane są przesyłane z jednego komputera do kolejnego w formie pętli?

A. Pierścień
B. Siatka
C. Gwiazda
D. Drzewo
Topologia drzewa, będąca strukturą hierarchiczną, składa się z głównego węzła (root) oraz gałęzi, które mogą mieć wiele połączeń, ale nie tworzą one zamkniętej pętli, co czyni ją niewłaściwą odpowiedzią na zadane pytanie. W praktyce, topologie drzewiaste są często wykorzystywane w sieciach rozległych (WAN) oraz w lokalnych sieciach komputerowych (LAN), umożliwiając łatwe skalowanie i organizację urządzeń w zrozumiałą strukturę, ale nie spełniają wymagań dotyczących połączeń w topologii pierścienia. Natomiast topologia gwiazdy polega na centralnym węźle, do którego podłączone są wszystkie inne urządzenia. Tego typu struktura ułatwia zarządzanie siecią oraz diagnostykę, ale nie zapewnia bezpośredniego połączenia między urządzeniami, co jest kluczowym elementem w sieciach pierścieniowych. Wreszcie, topologia siatki, gdzie każde urządzenie może być połączone z wieloma innymi, gwarantuje wysoką niezawodność poprzez redundancję połączeń, ale również nie tworzy zamkniętej pętli, co jest fundamentalnym wymogiem dla sieci pierścieniowej. Błędem myślowym, który prowadzi do błędnych odpowiedzi, jest mylenie połączeń one-to-one z bardziej złożonymi strukturami, które nie spełniają podstawowych zasad definiujących topologię pierścienia.

Pytanie 5

Zidentyfikuj urządzenie przedstawione na ilustracji

Ilustracja do pytania
A. odpowiada za transmisję ramki pomiędzy segmentami sieci z wyborem portu, do którego jest przesyłana
B. jest odpowiedzialne za generowanie sygnału analogowego na wyjściu, który jest wzmocnionym sygnałem wejściowym, kosztem energii pobieranej z zasilania
C. jest przeznaczone do przechwytywania oraz rejestrowania pakietów danych w sieciach komputerowych
D. umożliwia konwersję sygnału z okablowania miedzianego na okablowanie optyczne
Analizując przedstawione odpowiedzi, warto zrozumieć, dlaczego niektóre z nich są nieprawidłowe w kontekście urządzenia widocznego na obrazku. Przede wszystkim, przechwytywanie i nagrywanie pakietów danych w sieciach komputerowych to proces wykonywany przez oprogramowanie typu sniffer lub specjalistyczne urządzenia monitorujące, które nie mają fizycznych portów do konwersji mediów. Tego typu sprzęt jest używany do celów analitycznych i diagnostycznych w sieciach, co zdecydowanie różni się od funkcji konwersji sygnałów między miedzią a światłowodem. Kolejna funkcja, jaką jest przekazywanie ramek między segmentami sieci z doborem portu, jest typowa dla przełączników sieciowych, które operują na warstwie 2 modelu OSI i są wyposażone w porty umożliwiające przekazywanie danych w oparciu o adresy MAC. To zupełnie inny typ urządzenia, które działa w ramach sieci lokalnych, a nie konwertuje sygnały. Odpowiedź dotycząca wytwarzania sygnału analogowego również nie dotyczy konwertera mediów. Wzmocniony sygnał analogowy jest produktem wzmacniaczy audio lub RF, które są projektowane do całkowicie odmiennych zastosowań niż konwersja sygnałów cyfrowych w sieciach komputerowych. Typowe błędy w takich pytaniach wynikają z nieznajomości funkcji i zastosowań poszczególnych urządzeń w infrastrukturze sieciowej. Kluczem do zrozumienia zagadnienia jest znajomość podstawowych zasad działania sieci i charakterystyki urządzeń używanych w różnych jej segmentach, co pozwala na właściwe ich rozlokowanie w projektowanej sieci.

Pytanie 6

Jak nazywa się protokół bazujący na architekturze klient-serwer oraz na modelu żądanie-odpowiedź, który jest używany do transferu plików?

A. SSH
B. ARP
C. FTP
D. SSL
Każda z pozostałych opcji reprezentuje różne protokoły i technologie, które nie są przeznaczone bezpośrednio do udostępniania plików w architekturze klient-serwer. Protokół SSH (Secure Shell) jest używany głównie do bezpiecznego zdalnego logowania i zarządzania systemami, co czyni go nieodpowiednim do przesyłania plików w tradycyjny sposób. Choć SSH może być używane w kontekście transferu plików przez SFTP, to sam protokół nie jest bezpośrednio związany z udostępnianiem plików, a jego główną funkcją jest zapewnienie bezpiecznego dostępu do urządzeń. SSL (Secure Sockets Layer) to protokół używany do zabezpieczania transmisji danych przez sieć, ale nie jest to protokół transferu plików. Jego rolą jest szyfrowanie połączeń, co pozwala na bezpieczną wymianę informacji, jednak nie dotyczy bezpośrednio samego udostępniania plików. Protokół ARP (Address Resolution Protocol) działa na niższym poziomie sieciowym, odpowiadając za mapowanie adresów IP na adresy MAC i nie ma żadnego związku z transferem plików. Typowym błędem myślowym jest mylenie funkcji różnych protokołów oraz nieznajomość ich zastosowań w praktyce. Warto pamiętać, że wybór odpowiedniego protokołu transferu plików powinien opierać się na jego specyficznych możliwościach oraz zgodności z wymaganiami dotyczącymi bezpieczeństwa i efektywności."

Pytanie 7

Zasadniczym sposobem zabezpieczenia danych przechowywanych na serwerze jest

A. uruchomienie ochrony systemu
B. automatyczne wykonywanie kompresji danych
C. tworzenie kopii zapasowej
D. ustawienie punktu przywracania systemu
Tworzenie kopii bezpieczeństwa danych jest podstawowym mechanizmem ochrony danych znajdujących się na serwerze, ponieważ pozwala na ich odzyskanie w przypadku awarii, ataku cybernetycznego czy przypadkowego usunięcia. Regularne tworzenie kopii zapasowych jest uznawane za najlepszą praktykę w zarządzaniu danymi, a standardy takie jak ISO 27001 podkreślają znaczenie bezpieczeństwa danych. Przykładem wdrożenia tej praktyki może być stosowanie rozwiązań takich jak systemy RAID, które przechowują dane na wielu dyskach, lub zewnętrzne systemy kopii zapasowych, które wykonują automatyczne backupy. Oprócz tego, ważne jest, aby kopie bezpieczeństwa były przechowywane w różnych lokalizacjach, co zwiększa ich odporność na awarie fizyczne. Nie należy również zapominać o regularnym testowaniu odtwarzania danych z kopii zapasowych, co zapewnia pewność ich integralności i użyteczności w krytycznych momentach. Takie podejście nie tylko minimalizuje ryzyko utraty danych, ale także pozwala na szybsze przywrócenie ciągłości działania organizacji.

Pytanie 8

Jakie urządzenie sieciowe umożliwia połączenie sieci LAN z WAN?

A. Hub
B. Repeater
C. Switch
D. Router
Router to takie ważne urządzenie w sieciach. Jego główną rolą jest łączenie różnych sieci, znaczy to, że podłącza na przykład naszą domową sieć lokalną do internetu. Jak to działa? Router patrzy na adresy IP w pakietach danych i decyduje, gdzie je wysłać. Przykładowo, kiedy korzystasz z laptopa lub telefonu, router łączy to wszystko z siecią globalną, co pozwala ci na dostęp do różnych stron czy zasobów online. Oprócz tego, router może też działać jak zapora (firewall), co jest super ważne dla bezpieczeństwa. A jeśli chodzi o NAT, to dzięki temu wiele urządzeń w twoim domu może korzystać z jednego adresu IP. No i pamiętaj, żeby regularnie aktualizować oprogramowanie routera. To pomaga, żeby wszystko działało sprawnie i bezpiecznie.

Pytanie 9

Złośliwe programy komputerowe, które potrafią replikować się same i wykorzystują luki w systemie operacyjnym, a także mają zdolność modyfikowania oraz uzupełniania swojej funkcjonalności, nazywamy

A. wirusy
B. robaki
C. rootkity
D. trojany
Jest sporo pomyłek, gdy chodzi o wirusy i robaki, bo to całkiem różne rzeczy. Wirus to program, który potrzebuje, żeby ktoś go aktywował albo musiałby być w inny program wbudowany, żeby się rozprzestrzenić. Wirus może uszkodzić pliki, przez co jest groźniejszy, ale nie potrafi się sam przemieszczać po sieci. Trojany też nie działają jak robaki, bo one udają normalne programy, żeby wkręcić użytkownika, ale też nie rozprzestrzeniają się same. Rootkity to zestaw narzędzi, które pozwalają na dostęp do systemu bez zezwolenia, ale również nie mają zdolności do kopiowania. Ważne jest, żeby umieć rozróżnić te wszystkie różnice, bo to klucz do skutecznych zabezpieczeń. Nie można mylić robaków z wirusami lub innymi rodzajami złośliwego oprogramowania, bo to może prowadzić do błędnych decyzji w ochronie komputerów.

Pytanie 10

Który z poniższych zapisów stanowi właściwy adres w wersji IPv6?

A. 2001:DB8::BAF::FE94
B. 2001.DB8.BAF.FE94
C. 2001-DB8-BAF-FE94
D. 2001:DB8::BAF:FE94
Wybór adresu IPv6, który nie jest zgodny z przyjętymi standardami, może prowadzić do poważnych problemów z komunikacją w sieciach komputerowych. W przypadku adresu 2001:DB8::BAF::FE94 występuje błąd polegający na podwójnym użyciu podwójnego dwukropka (::), co nie jest dozwolone. Podwójny dwukropek może być użyty tylko raz w adresie IPv6, aby zastąpić jedną lub więcej sekwencji zer, co oznacza, że jego wielokrotne użycie w jednym adresie prowadzi do niejednoznaczności i błędów w interpretacji adresu przez routery i inne urządzenia sieciowe. Podobnie, zapis 2001-DB8-BAF-FE94 używa myślników zamiast dwukropków, co również narusza standardy RFC 4291. Poprawne zapisywanie adresów IPv6 wymaga stosowania wyłącznie dwukropków jako separatorów, a nie myślników czy kropek, co jest częstym błędem wynikającym z mylenia konwencji zapisu. Zapis 2001.DB8.BAF.FE94 również nie spełnia norm, gdyż użycie kropek jako separatorów jest typowe dla adresów IPv4, co może prowadzić do zamieszania i nieporozumień w kontekście protokołów sieciowych. W związku z tym, klasyczne błędy w adresacji IPv6 mogą wynikać z braku zrozumienia zasad składni i struktury tego formatu adresów, co jest kluczowe dla prawidłowego działania współczesnych sieci komputerowych.

Pytanie 11

Przedstawione narzędzie jest przeznaczone do

Ilustracja do pytania
A. wykonywania zakończeń kablowych w złączach LSA.
B. usuwania izolacji.
C. zaciskania złączy RJ45.
D. instalacji modułu Krone w gniazdach.
Niewłaściwe rozpoznanie funkcji narzędzia związanego z zakończeniami kablowymi może prowadzić do błędnych założeń dotyczących jego zastosowania. Narzędzia do ściągania izolacji są przeznaczone do usuwania zewnętrznej powłoki izolacyjnej z przewodów, co jest pierwszym krokiem przygotowania kabla do montażu. Nie są jednak wykorzystywane do samego zakończenia kabli w złączach. Narzędzia do zaciskania wtyków RJ45 służą do montażu końcówek na kablach sieciowych, głównie w kablach typu skrętka, co jest niezbędne w instalacjach sieciowych do łączenia przewodów z urządzeniami sieciowymi. Z kolei narzędzia do montażu modułu Krone w gniazdach wykorzystywane są do wtykowego montażu przewodów w złączach modułowych, ale działają na innej zasadzie niż przedstawione narzędzie LSA. Różnice te mogą prowadzić do nieporozumień związanych z funkcjonalnością narzędzi, jeśli nie zostaną prawidłowo zidentyfikowane. Zrozumienie specyfiki każdego narzędzia jest kluczowe w profesjonalnych instalacjach sieciowych, gdzie precyzyjne działanie wpływa na jakość i niezawodność całego systemu. Wiedza na temat właściwego zastosowania tych narzędzi jest istotna dla zapewnienia optymalnych wyników i uniknięcia problemów związanych z nieprawidłowym montażem, takich jak przerywanie sygnału czy uszkodzenie przewodów.

Pytanie 12

Jakie oprogramowanie służy do sprawdzania sterowników w systemie Windows?

A. replace
B. sfc
C. verifier
D. debug
Wybrane odpowiedzi sfc, debug oraz replace nie odnoszą się do kwestii weryfikacji sterowników w systemie Windows. Sfc, czyli System File Checker, jest narzędziem, które monitoruje integralność plików systemowych i naprawia uszkodzone lub brakujące pliki, co ma na celu zapewnienie stabilności i bezpieczeństwa samego systemu, a nie konkretnego monitorowania i analizowania sterowników. Debug, z kolei, to narzędzie do analizy i debugowania programów, które jest stosowane głównie przez programistów do diagnostyki kodu, a nie do weryfikacji działania sterowników systemowych. Natomiast replace to polecenie używane w kontekście zamiany plików, które również nie jest związane z testowaniem i analizą sterowników. Typowe błędy myślowe obejmują mylenie różnych narzędzi systemowych i ich funkcji, co prowadzi do wyciągania błędnych wniosków na temat ich zastosowania. Kluczowe jest zrozumienie, że każde z tych narzędzi pełni specyficzną rolę, a ich zastosowanie musi być zgodne z określonymi potrzebami diagnostycznymi systemu. W kontekście analizy sterowników, Driver Verifier jest jedynym odpowiednim narzędziem, które dostarcza informacji niezbędnych do rozwiązania problemów związanych z ich działaniem.

Pytanie 13

Poleceniem systemu Linux służącym do wyświetlenia informacji, zawierających aktualną godzinę, czas działania systemu oraz liczbę zalogowanych użytkowników, jest

A. uptime
B. echo
C. history
D. chmod
To pytanie potrafi nieźle zmylić, bo każdy z wymienionych programów ma coś wspólnego z informacją wyświetlaną w terminalu, ale ich funkcje są zupełnie inne. 'chmod' to polecenie odpowiedzialne za zmianę uprawnień do plików i katalogów – decyduje, kto może czytać, pisać albo wykonywać dany plik. Jest bardzo ważne w kontekście bezpieczeństwa, ale nie ma żadnego związku z pokazywaniem aktualnej godziny czy liczby użytkowników. 'history' z kolei pozwala przeglądać historię wcześniejszych poleceń w bieżącej sesji terminala, co jest bardzo wygodne, gdy chce się wrócić do jakiejś komendy sprzed kilku minut czy godzin. Jednak nie wyświetli żadnych informacji o stanie systemu, jego czasie działania czy zalogowanych użytkownikach. Często spotykam się z tym, że osoby uczące się Linuksa mylą 'echo' z poleceniami systemowymi, bo 'echo' wyświetla dowolny tekst (albo wartość zmiennej), który podamy po nim. Jednak to narzędzie służy raczej do prostego wypisywania komunikatów czy budowania skryptów, a nie do raportowania parametrów pracy systemu. Wydaje mi się, że często wybiera się którąś z tych komend przez skojarzenie z wyświetlaniem informacji, ale w praktyce jedynie 'uptime' w czytelny sposób pokazuje aktualny czas, długość działania systemu od ostatniego uruchomienia oraz liczbę zalogowanych użytkowników. Zwracanie uwagi na precyzyjny opis funkcji dostępnych poleceń to podstawa pracy z powłoką systemową – łatwo wtedy unikać takich pomyłek.

Pytanie 14

Jak nazywa się serwer Windows, na którym zainstalowano usługę Active Directory?

A. kontrolerem domeny
B. serwerem DHCP
C. serwerem plików
D. serwerem WWW
Serwer Windows z zainstalowaną usługą Active Directory nazywa się kontrolerem domeny, ponieważ pełni kluczową rolę w zarządzaniu infrastrukturą informatyczną w organizacjach. Kontroler domeny jest odpowiedzialny za przechowywanie obiektów, takich jak konta użytkowników, komputery oraz zasoby sieciowe, a także za autoryzację i uwierzytelnianie użytkowników, co zapewnia bezpieczeństwo i kontrolę dostępu do zasobów. Korzystając z Active Directory, administratorzy mogą centralnie zarządzać politykami bezpieczeństwa, przypisywać uprawnienia oraz konfigurować zasady grupowe, co jest zgodne z najlepszymi praktykami w zakresie zarządzania systemami informatycznymi. Przykładem zastosowania kontrolera domeny może być organizacja, w której pracownicy logują się do swoich komputerów za pomocą tych samych poświadczeń, co umożliwia im dostęp do wspólnych zasobów i aplikacji w sposób bezpieczny i efektywny. Warto zaznaczyć, że kontrolery domeny mogą być zreplikowane w środowisku, co zwiększa niezawodność i dostępność usług.

Pytanie 15

W jakim gnieździe należy umieścić procesor INTEL CORE i3-4350- 3.60 GHz, x2/4, 4MB, 54W, HD 4600, BOX, s-1150?

Ilustracja do pytania
A. rys. C
B. rys. A
C. rys. B
D. rys. D
Wybór nieodpowiedniego gniazda dla procesora Intel Core i3-4350 może skutkować nieprawidłowym funkcjonowaniem komputera lub nawet fizycznym uszkodzeniem procesora bądź płyty głównej. Procesory te wymagają gniazda LGA 1150 co oznacza że jakiekolwiek inne gniazda takie jak LGA 1151 lub LGA 1155 nie będą kompatybilne z tym modelem. Gniazdo LGA 1150 charakteryzuje się specyficznym układem styków i mechanizmem mocującym który nie pasuje do innych rodzajów gniazd. Próba montażu w nieodpowiednim gnieździe może prowadzić do niebezpiecznych zwarć i trudności ze stabilnością systemu. Pomyłki te często wynikają z braku znajomości specyfikacji technicznych oraz z mylenia podobnie wyglądających gniazd co podkreśla znaczenie dokładnego sprawdzania dokumentacji technicznej. Świadomość poprawnego standardu gniazda jest kluczowa nie tylko dla zapobiegania uszkodzeniom ale także dla maksymalizacji wydajności systemu i wykorzystania pełnego potencjału procesora co jest szczególnie istotne w profesjonalnych zastosowaniach gdzie wymagana jest wysoka niezawodność i wydajność.

Pytanie 16

Który interfejs bezprzewodowy, komunikacji krótkiego zasięgu pomiędzy urządzeniami elektronicznymi, korzysta z częstotliwości 2,4 GHz?

A. FireWire
B. USB
C. IrDA
D. Bluetooth
Prawidłowa odpowiedź to Bluetooth, bo jest to bezprzewodowy interfejs krótkiego zasięgu, który standardowo pracuje w paśmie 2,4 GHz (dokładniej w nielicencjonowanym paśmie ISM 2,4–2,4835 GHz). Bluetooth został zaprojektowany właśnie do komunikacji pomiędzy urządzeniami elektronicznymi na niewielkie odległości – typowo kilka metrów, czasem kilkanaście, zależnie od klasy mocy urządzenia. W praktyce używasz go codziennie: słuchawki bezprzewodowe, głośniki, klawiatury i myszy, połączenie telefonu z samochodem, udostępnianie internetu z telefonu na laptop – to wszystko jest oparte na Bluetooth. Z mojego doświadczenia wynika, że w serwisie czy przy konfiguracji sprzętu dobrze jest kojarzyć, że jeśli urządzenie paruje się, ma profil audio, HID albo udostępnia port COM „wirtualnie”, to prawie na pewno chodzi o Bluetooth. Warto też wiedzieć, że Bluetooth korzysta z techniki skakania po częstotliwościach (FHSS – Frequency Hopping Spread Spectrum), żeby zmniejszyć zakłócenia i współdzielić pasmo 2,4 GHz z Wi‑Fi czy kuchenkami mikrofalowymi. Nowsze wersje, jak Bluetooth Low Energy (BLE), są zoptymalizowane pod niskie zużycie energii, więc świetnie nadają się do czujników IoT, opasek sportowych, smartwatchy. W sieciach i konfiguracji sprzętu dobrą praktyką jest świadome zarządzanie interfejsami 2,4 GHz (Wi‑Fi i Bluetooth), np. unikanie nadmiernego zagęszczenia urządzeń w jednym pomieszczeniu, aktualizacja sterowników BT oraz wyłączanie nieużywanych interfejsów ze względów bezpieczeństwa. Znajomość tego, że Bluetooth to 2,4 GHz, pomaga też przy diagnozie zakłóceń – jeśli w biurze „rwie” Wi‑Fi 2,4 GHz, a jest masa urządzeń BT, to od razu wiadomo, gdzie szukać problemów.

Pytanie 17

Pojemność pamięci 100 GiB odpowiada zapisowi

A. 10240000 KiB
B. 102400 MiB
C. 12400 MiB
D. 100240000 KiB
W tym zadaniu kluczowy problem polega zwykle na pomieszaniu dwóch różnych światów: zapisu dziesiętnego używanego w marketingu producentów dysków oraz zapisu binarnego, który jest standardem w systemach operacyjnych i w informatyce technicznej. Przedrostki z literką „i” w środku, takie jak KiB, MiB, GiB, są zdefiniowane przez normy IEC i oznaczają potęgi liczby 2, a nie 10. 1 GiB to nie jest 1000 MiB, tylko 1024 MiB. Jeśli ktoś próbuje 100 GiB przeliczyć tak, jakby to były „zwykłe” gigabajty dziesiętne i używa mnożenia lub dzielenia przez 1000, to automatycznie dostaje wyniki, które nie zgadzają się z tym, co pokazują systemy operacyjne. To typowy błąd myślowy: traktowanie wszystkich przedrostków jako dziesiętnych, bo tak jesteśmy uczeni przy kilometrach czy kilogramach. Drugi częsty problem to „zgubienie” jednego kroku przeliczenia. Żeby przejść z GiB do KiB, trzeba zrobić dwa etapy: najpierw GiB na MiB (mnożenie przez 1024), a dopiero potem MiB na KiB (znowu mnożenie przez 1024). Jeśli ktoś pomnoży tylko raz albo pomyli kolejność, wychodzą liczby typu 10240000 KiB czy 100240000 KiB, które na pierwszy rzut oka wyglądają sensownie, bo są duże i mają dużo zer, ale po dokładnym sprawdzeniu widać, że nie wynikają z poprawnych potęg liczby 2. Z mojego doświadczenia wynika, że uczniowie często kierują się „intuicją liczbową” zamiast policzyć dokładnie: biorą 100, dodają kilka zer i liczą, że będzie dobrze. W informatyce takie podejście mści się przy planowaniu pojemności dysków, RAM-u czy przy konfiguracji maszyn wirtualnych. Dobre praktyki branżowe podkreślają, żeby zawsze jasno rozróżniać GB od GiB i przy obliczeniach technicznych trzymać się notacji binarnej, bo jest powiązana z architekturą pamięci komputera. Jeśli wynik nie jest wielokrotnością 1024 przy przejściu między KiB, MiB i GiB, to warto się zatrzymać i jeszcze raz prześledzić obliczenia, zamiast ufać temu, że „liczba wygląda ładnie”.

Pytanie 18

Jak nazywa się technika modyfikowania ramek sieciowych polegająca na oznaczaniu ich identyfikatorem sieci VLAN nadawcy według standardu IEEE 802.1Q?

A. Odtwarzanie ramek.
B. Kasowanie adresów.
C. Znakowanie ramek.
D. Nadpisywanie adresów.
Prawidłowo, chodzi o znakowanie ramek (VLAN tagging) zgodnie ze standardem IEEE 802.1Q. W tej technice do zwykłej ramki Ethernet dodawane jest dodatkowe pole tagu VLAN, czyli znacznik, który zawiera m.in. identyfikator VLAN (VID – VLAN ID, 12 bitów). Dzięki temu przełącznik wie, do której sieci wirtualnej dana ramka należy. Z mojego doświadczenia, bez takiego tagowania nie dałoby się sensownie łączyć wielu VLAN-ów na jednym fizycznym łączu między switchami czy między switchem a routerem – właśnie takie łącze nazywamy trunkiem (802.1Q trunk). Standard IEEE 802.1Q dokładnie opisuje strukturę tej zmodyfikowanej ramki. Do środka ramki wstrzykiwane jest 4-bajtowe pole Tag Control Information (TCI), które zawiera m.in. ID VLAN, priorytet 802.1p oraz bit CFI/DEI. W praktyce wygląda to tak: host wysyła zwykłą ramkę Ethernet, a dopiero przełącznik na porcie trunk dokleja tag 802.1Q, gdy ramka ma przejść przez łącze obsługujące wiele VLAN-ów. Drugi przełącznik na końcu trunka odczytuje tag, wie do którego VLAN ramkę przypisać i odpowiednio ją dalej rozsyła. W sieciach firmowych znakowanie ramek jest podstawą segmentacji logicznej – można na jednym kablu puścić ruch np. VLAN-u biurowego, gościnnego Wi-Fi i VLAN-u zarządzającego. Dobre praktyki mówią, żeby ruch użytkowników wpuszczać na porty access (bez tagu), a tagowanie zostawiać dla łączy między urządzeniami aktywnymi. Warto też pamiętać, że błędna konfiguracja tagowania może prowadzić do tzw. VLAN hoppingu, więc w kontekście bezpieczeństwa poprawne użycie 802.1Q ma spore znaczenie.

Pytanie 19

Podczas realizacji projektu sieci LAN zastosowano medium transmisyjne zgodne ze standardem Ethernet 1000Base-T. Które z poniższych stwierdzeń jest prawdziwe?

A. To standard sieci optycznych, którego maksymalny zasięg wynosi 1000m
B. Ten standard pozwala na transmisję typu full-duplex przy maksymalnym zasięgu 100m
C. Ten standard pozwala na transmisję typu half-duplex przy maksymalnym zasięgu 1000m
D. To standard sieci optycznych, które działają na światłowodzie wielomodowym
Odpowiedzi, które sugerują, że standard 1000Base-T działa w trybie half-duplex i ma zasięg 1000 m, są po prostu błędne. Ten standard nie obsługuje half-duplex w efektywny sposób, bo jest zaprojektowany do pracy w pełnej dwukierunkowości. To znaczy, że urządzenia mogą jednocześnie wysyłać i odbierać dane. A jeśli chodzi o zasięg, to maksymalnie to 100 m, a nie 1000 m. Żeby mieć dłuższe połączenia, używamy innych standardów, na przykład 1000Base-LX, który jest przeznaczony dla światłowodów. Jeśli chodzi o optykę, to odpowiedzi wskazujące na standardy sieci optycznych są mylące, ponieważ 1000Base-T jest stworzony z myślą o medium miedzianym. Wiele osób ma problem ze zrozumieniem różnic między typami medium transmisyjnego, co prowadzi do błędnych wniosków. Warto też pamiętać, że standardy sieciowe są definiowane przez organizacje, takie jak IEEE, co zapewnia ich spójność w różnych zastosowaniach. Dlatego ważne jest, aby projektanci sieci znali te różnice i ich znaczenie w kontekście budowy efektywnych systemów komunikacyjnych.

Pytanie 20

Jak nazywa się proces dodawania do danych z warstwy aplikacji informacji powiązanych z protokołami funkcjonującymi na różnych poziomach modelu sieciowego?

A. Enkapsulacja
B. Fragmentacja
C. Dekodowanie
D. Multipleksacja
Segmentacja jest procesem, który polega na dzieleniu danych na mniejsze części, zwane segmentami, w celu ich efektywnego przesyłania przez sieć. Choć segmentacja jest ważnym elementem w warstwie transportowej, to nie obejmuje całego procesu dodawania informacji na różnych poziomach modelu sieciowego, co jest istotą enkapsulacji. Ponadto, dekodowanie odnosi się do procesu interpretacji przesyłanych danych przez odbiorcę, co jest odwrotnością enkapsulacji. W kontekście protokołów sieciowych, dekodowanie nie dodaje nowych informacji do danych, a jedynie je odczytuje. Multipleksacja z kolei to technika, która umożliwia przesyłanie wielu sygnałów przez ten sam kanał komunikacyjny, również nie jest związana z procesem dodawania informacji do danych. Typowym błędem myślowym jest mylenie tych pojęć z enkapsulacją, co prowadzi do nieporozumień dotyczących sposobu, w jaki dane są przygotowywane do przesyłu. Szczególnie w kontekście projektowania protokołów i systemów komunikacyjnych, ważne jest, aby zrozumieć rolę każdego z tych procesów oraz ich odpowiednie zastosowania i różnice. Właściwe zrozumienie ogólnych zasad ich działania jest kluczowe dla budowy wydajnych i bezpiecznych systemów sieciowych.

Pytanie 21

Router przypisany do interfejsu LAN dysponuje adresem IP 192.168.50.1. Został on skonfigurowany w taki sposób, aby przydzielać komputerom wszystkie dostępne adresy IP w sieci 192.168.50.0 z maską 255.255.255.0. Jaką maksymalną liczbę komputerów można podłączyć w tej sieci?

A. 253
B. 256
C. 255
D. 254
Wybierając odpowiedź 256, można mylnie sądzić, że jest to maksymalna liczba adresów IP dostępnych w sieci. Rzeczywistość jest jednak inna; w przypadku sieci z maską 255.255.255.0 co prawda mamy do czynienia z 256 adresami, ale nie wszystkie z nich mogą być przypisane do urządzeń. Pierwszy adres w puli (192.168.50.0) jest adresem identyfikującym sieć i nie może być używany jako adres dla hosta, a ostatni adres (192.168.50.255) to adres rozgłoszeniowy, który również nie może być przypisany do konkretnego urządzenia. Ta zasada dotyczy wszystkich sieci, w których mamy do czynienia z maską podsieci, gdzie dwa adresy są zawsze zarezerwowane. W odpowiedzi 255 również występuje podobne nieporozumienie; nie uwzględnia ona drugiego zarezerwowanego adresu. Natomiast odpowiedzi 254 i 253 są o tyle bliskie, że 254 odnosi się do liczby adresów, które mogą być przypisane, ale nie bierze pod uwagę adresu routera, co w praktyce ogranicza liczbę dostępnych adresów do 253. Kluczowe jest zrozumienie tych zasad podczas projektowania sieci, aby nie tylko prawidłowo przydzielać adresy IP, ale także zapewnić, że każdy z hostów ma unikalny adres w sieci, co jest niezbędne do jej prawidłowego funkcjonowania.

Pytanie 22

Zgodnie z normą TIA/EIA-568-B.1 kabel UTP 5e z przeplotem powstaje poprzez zamianę lokalizacji w wtyczce 8P8C następujących par żył (odpowiednio według kolorów):

A. biało-zielony i zielony z biało-niebieskim i niebieskim
B. biało-zielony i zielony z biało-brązowym i brązowym
C. biało-pomarańczowy i pomarańczowy z biało-zielonym i zielonym
D. biało-pomarańczowy i pomarańczowy z biało-brązowym i brązowym
Zrozumienie, które pary przewodów powinny być zamienione w wtyczce 8P8C jest kluczowe dla prawidłowego zakończenia kabli UTP. Wybór pary biało-pomarańczowy i pomarańczowy z inną parą, jak biało-brązowy i brązowy, skutkuje niepoprawnym ułożeniem, które może prowadzić do zakłóceń w transmisji danych. Schematy kolorów w kablach UTP są zaprojektowane w taki sposób, aby zapewnić optymalną transmisję sygnału w danym standardzie. Zamiana par, które nie są przewidziane w normie, może powodować niewłaściwe współdziałanie sygnałów, co skutkuje degradacją jakości połączenia oraz zwiększeniem liczby błędów w transmisji. Takie błędy mogą prowadzić do spadku wydajności sieci oraz problemów z kompatybilnością urządzeń. W przypadku zastosowań, gdzie wymagana jest wysoka przepustowość, nieprawidłowe zakończenie kabli może być szczególnie problematyczne, jako że nawet niewielkie zakłócenia mogą prowadzić do znacznych opóźnień w przesyłaniu danych. Dlatego kluczowe jest przestrzeganie ustalonych norm i praktyk, aby zapewnić stabilność oraz niezawodność sieci teleinformatycznych.

Pytanie 23

Jaką rolę pełni usługa NAT działająca na ruterze?

A. Przekształcanie adresów stosowanych w sieci LAN na jeden lub więcej publicznych adresów
B. Przesył danych korekcyjnych RTCM z wykorzystaniem protokołu NTRIP
C. Synchronizacja czasu z serwerem NTP w internecie
D. Autoryzacja użytkownika z wykorzystaniem protokołu NTLM oraz jego danych logowania
Usługa NAT (Network Address Translation) realizuje tłumaczenie adresów IP używanych w sieci lokalnej (LAN) na adresy publiczne, co jest kluczowe w kontekście współczesnych sieci komputerowych. Główną funkcją NAT jest umożliwienie wielu urządzeniom w sieci lokalnej korzystania z jednego lub kilku adresów IP w Internecie. Jest to niezwykle istotne, zwłaszcza w obliczu ograniczonej puli adresów IPv4. NAT pozwala na ukrycie struktury wewnętrznej sieci, co zwiększa bezpieczeństwo, ponieważ zewnętrzni użytkownicy nie mają dostępu do prywatnych adresów IP. Przykładem zastosowania NAT jest sytuacja, gdy domowy router łączy różne urządzenia, takie jak smartfony, laptopy i tablety, z Internetem, używając jednego publicznego adresu IP. Dodatkowo NAT ułatwia zarządzanie ruchami sieciowymi, a także pozwala na łatwiejsze wdrażanie polityk bezpieczeństwa i priorytetów ruchu. Zgodnie z dobrymi praktykami, NAT powinien być skonfigurowany w sposób minimalizujący opóźnienia oraz maksymalizujący przepustowość, co jest kluczowe dla wydajności sieci.

Pytanie 24

Aby zminimalizować wpływ zakłóceń elektromagnetycznych na przesyłany sygnał w projektowanej sieci komputerowej, co należy zastosować?

A. cienki przewód koncentryczny
B. gruby przewód koncentryczny
C. światłowód
D. ekranowaną skrętkę
Wybór ekranowanej skrętki jako metody przesyłu sygnału w sieci komputerowej może wydawać się atrakcyjny, jednakże nie jest to rozwiązanie idealne w kontekście zakłóceń elektromagnetycznych. Ekranowana skrętka, mimo iż oferuje pewien poziom ochrony przed zakłóceniami, nadal jest podatna na interferencje, zwłaszcza w intensywnie zakłóconych środowiskach. Podobnie, cienki i gruby przewód koncentryczny, choć mają swoje zastosowanie w transmisji sygnałów, w przypadku sieci komputerowych charakteryzują się ograniczoną szerokością pasma i większą podatnością na zakłócenia. Przewody koncentryczne, szczególnie te cienkie, mogą wprowadzać zniekształcenia sygnału oraz ograniczać odległości efektywnego przesyłania. Wiele osób może zakładać, że przewody te są wystarczające dla standardowych aplikacji, jednak w praktyce, zwłaszcza przy rosnących wymaganiach dotyczących przepustowości, stają się one niewystarczające. Błąd myślowy polega na niepełnym zrozumieniu, że w erze szybko rozwijających się technologii transmisji danych, takich jak 5G czy IoT, standardy przesyłu muszą być dostosowywane do rosnących potrzeb, a światłowody oferują elastyczność i wydajność, której żadne z pozostałych rozwiązań nie są w stanie zapewnić.

Pytanie 25

Które z poniższych zdań charakteryzuje protokół SSH (Secure Shell)?

A. Sesje SSH prowadzą do przesyłania danych w formie zwykłego tekstu, bez szyfrowania
B. Protokół do pracy zdalnej na odległym komputerze nie zapewnia szyfrowania transmisji
C. Sesje SSH nie umożliwiają weryfikacji autentyczności punktów końcowych
D. Bezpieczny protokół terminalu sieciowego oferujący usługi szyfrowania połączenia
Protokół SSH (Secure Shell) jest bezpiecznym protokołem terminalu sieciowego, który umożliwia zdalne logowanie się i zarządzanie systemami w sposób zaszyfrowany. W przeciwieństwie do wielu innych protokołów, które przesyłają dane w formie niezaszyfrowanej, SSH zapewnia integralność danych oraz poufność poprzez zastosowanie silnego szyfrowania. Przykładowo, SSH wykorzystuje algorytmy szyfrujące takie jak AES (Advanced Encryption Standard) do ochrony przesyłanych informacji, co czyni go kluczowym narzędziem w administracji systemami. Organizacje korzystają z SSH do zdalnego zarządzania serwerami, co minimalizuje ryzyko przechwycenia danych przez osoby trzecie. Dodatkowo, SSH obsługuje uwierzytelnianie kluczem publicznym, co zwiększa bezpieczeństwo połączenia eliminując ryzyko ataków typu „man-in-the-middle”. Dobrą praktyką jest również korzystanie z SSH w konfiguracji, która wymusza użycie kluczy zamiast haseł, co znacząco zwiększa poziom bezpieczeństwa. Doświadczeni administratorzy systemów powinni być zaznajomieni z konfiguracją SSH, aby maksymalnie wykorzystać jego możliwości i zabezpieczyć swoje środowisko.

Pytanie 26

Aby zminimalizować różnice w kolorach pomiędzy zeskanowanymi obrazami prezentowanymi na monitorze a ich wersjami oryginalnymi, należy przeprowadzić

A. kadrowanie skanera
B. interpolację skanera
C. modelowanie skanera
D. kalibrację skanera
Modelowanie skanera odnosi się do procesu, w którym tworzone są matematyczne modele reprezentujące działanie skanera. Chociaż jest to ważny element inżynierii obrazowania, sam proces modelowania nie rozwiązuje problemu różnic kolorystycznych. Interpolacja skanera to technika stosowana do uzupełniania brakujących danych w zeskanowanych obrazach, ale nie ma związku z kolorami oryginału. Kadrowanie skanera to z kolei czynność polegająca na przycinaniu zdjęć, co również nie wpływa na odwzorowanie kolorów, a jedynie na ich wymiary. Często popełnianym błędem jest mylenie procesów związanych z obróbką obrazu z tymi, które dotyczą kalibracji. Niezrozumienie, że kalibracja jest kluczowa dla odpowiedniego odwzorowania kolorów, prowadzi do konsekwencji w postaci niedokładności w wydrukach i publikacjach. W praktyce, jeśli skanowanie nie zostanie odpowiednio skalibrowane, efekty będą niezadowalające, a użytkownicy mogą zauważyć znaczne różnice kolorystyczne między skanowanymi obrazami a ich oryginałami, co podważa jakość pracy w obszarze grafiki i fotografii.

Pytanie 27

W którym programie należy zmodyfikować ustawienia, aby użytkownik komputera mógł wybrać z menu i uruchomić jeden z kilku systemów operacyjnych zainstalowanych na jego komputerze?

A. CMD
B. QEMU
C. GRUB
D. GEDIT
Wiele osób słysząc o wyborze systemu operacyjnego czy zarządzaniu komputerem, automatycznie myśli o narzędziach typu CMD czy nawet QEMU. To bardzo częsty błąd, bo te programy służą do czegoś zupełnie innego. CMD, czyli Windowsowy wiersz poleceń, to narzędzie do obsługi poleceń tekstowych, skryptów czy automatyzacji różnych zadań, ale nie ma żadnych funkcji związanych z zarządzaniem startem kilku systemów na jednym komputerze. Moim zdaniem, to typowy błąd wynikający z utożsamiania CMD z administracją systemu, ale na poziomie bootowania nie ma ono żadnego zastosowania. QEMU to z kolei emulator i maszyna wirtualna, często wykorzystywana do testowania i uruchamiania różnych systemów operacyjnych w wirtualizowanym środowisku. Owszem, można za jego pomocą odpalić wiele systemów, ale to przecież nie jest wybór systemu przy starcie komputera, tylko uruchamianie systemów gościnnych na już działającym systemie hosta. To zupełnie inne zastosowanie: wirtualizacja, a nie bootowanie fizycznych systemów z menu wyboru. Z kolei GEDIT to zwyczajny edytor tekstu, bardzo przydatny w Linuksie do edycji plików konfiguracyjnych, ale sam z siebie nie posiada żadnych funkcji wyboru czy zarządzania wieloma systemami operacyjnymi podczas startu komputera. Tu można wpaść w pułapkę myślenia, że skoro edytuje się pliki GRUB-a za pomocą GEDIT, to sam edytor ma związek z wyborem systemów – to jednak tylko narzędzie pomocnicze. Moim zdaniem, klucz do zrozumienia tego zagadnienia tkwi w odróżnieniu programów użytkowych lub administracyjnych od specjalistycznych narzędzi niskiego poziomu, takich jak bootloadery. Dobrą praktyką jest, by zawsze szukać dedykowanych narzędzi dla danego etapu działania systemu – a wybór OS przy starcie komputera to właśnie domena bootloadera, a nie emulatora, terminala czy edytora tekstu.

Pytanie 28

W celu zainstalowania systemu openSUSE oraz dostosowania jego ustawień, można skorzystać z narzędzia

A. YaST
B. GEdit
C. Evolution
D. Brasero
YaST (Yet another Setup Tool) to potężne narzędzie konfiguracyjne, które jest integralną częścią dystrybucji openSUSE. Jego główną funkcją jest umożliwienie użytkownikom zarówno instalacji systemu operacyjnego, jak i zarządzania jego ustawieniami po instalacji. YaST oferuje graficzny interfejs użytkownika oraz tryb tekstowy, co czyni go dostępnym zarówno dla początkujących, jak i zaawansowanych użytkowników. Dzięki YaST można łatwo zarządzać pakietami oprogramowania, konfigurować urządzenia sieciowe, ustawiać zasady bezpieczeństwa, a także administracyjnie zarządzać użytkownikami systemu. Na przykład, podczas instalacji openSUSE, YaST prowadzi użytkownika przez poszczególne etapy procesu, takie jak wybór języka, partycjonowanie dysków oraz wybór środowiska graficznego. To narzędzie jest zgodne z najlepszymi praktykami w dziedzinie zarządzania systemami, umożliwiając efektywne i zorganizowane podejście do administracji systemem operacyjnym.

Pytanie 29

Jak nazywa się protokół oparty na architekturze klient-serwer oraz modelu żądanie-odpowiedź, wykorzystywany do przesyłania plików?

A. FTP
B. ARP
C. SSH
D. SSL
Protokół SSL (Secure Socket Layer) to technologia zabezpieczeń, która umożliwia nawiązywanie zaszyfrowanych połączeń w Internecie. Jego głównym celem jest ochrona przesyłanych danych przed nieautoryzowanym dostępem, co czyni go kluczowym w kontekście zabezpieczania komunikacji, ale nie jest protokołem do transferu plików. Z kolei SSH (Secure Shell) to protokół służący do zdalnego logowania oraz zarządzania systemami operacyjnymi, oferujący szyfrowanie oraz autoryzację, ale również nie jest przeznaczony wyłącznie do przesyłania plików. ARP (Address Resolution Protocol) ma zupełnie inne zadanie, bowiem odpowiada za mapowanie adresów IP na adresy MAC w lokalnej sieci, co jest kluczowe dla komunikacji w warstwie łącza danych, a nie transferu plików. Typowym błędem myślowym prowadzącym do wyboru błędnej odpowiedzi jest mylenie funkcji protokołów oraz ich zastosowań; użytkownicy często mogą pokusić się o klasyfikowanie protokołów według ich ogólnych funkcji, zamiast skupić się na ich specyficznych zastosowaniach. Zrozumienie, że protokoły takie jak SSL i SSH pełnią inne role w architekturze sieci, jest kluczowe dla efektywnego korzystania z technologii internetowych.

Pytanie 30

W systemie Linux polecenie chown służy do

A. zmiany właściciela pliku
B. przemieszczania pliku
C. regeneracji systemu plików
D. modyfikacji parametrów pliku
Polecenie chown w systemie Linux jest kluczowym narzędziem do zarządzania uprawnieniami plików i katalogów, umożliwiającym zmianę właściciela pliku. Dzięki niemu administratorzy mogą przypisać plik lub katalog do innego użytkownika lub grupy, co jest istotne w kontekście bezpieczeństwa systemu. Na przykład, jeśli plik został stworzony przez jednego użytkownika, ale musi być dostępny dla innego, który ma wykonywać określone operacje, chown pozwala na taką zmianę. Przykład użycia: polecenie 'chown nowy_użytkownik plik.txt' zmienia właściciela pliku 'plik.txt' na 'nowy_użytkownik'. Dobrą praktyką jest regularna kontrola właścicieli plików, aby zapobiegać nieautoryzowanemu dostępowi i dbać o integralność systemu plików. Zmiana właściciela jest również istotna w kontekście grup użytkowników, gdzie można przypisać pliki do określonych grup, co ułatwia współpracę w zespołach.

Pytanie 31

Modułem pamięci RAM, kompatybilnym z płytą główną GIGABYTE GA-X99- ULTRA GAMING/ X99/ 8x DDR4 2133, ECC, max 128GB/ 4x PCI-E 16x/ RAID/ USB 3.1/ S-2011-V3/ATX, jest pamięć

A. HPE 32GB (1x16GB) Dual Rank x4 PC3L-10600R (DDR3-1333) Registered CAS-9 , Non-ECC
B. HPE 32GB (1x32GB) Quad Rank x4 PC3-14900L (DDR3-1866) Load Reduced CAS-13 Memory Kit
C. HPE 16GB (1x16GB) Dual Rank x4 PC3-14900R (DDR3-1866) Registered CAS-13 Memory Kit
D. HPE 32GB (1x32GB) Quad Rank x4 DDR4-2133 CAS-15-15-15 Load Reduced Memory Kit, ECC
Tutaj wybór odpowiedniej pamięci RAM sprowadza się nie tylko do pojemności czy parametrów, ale też do zgodności standardów, które płyta główna obsługuje. Płyta GIGABYTE GA-X99-ULTRA GAMING wspiera wyłącznie pamięci DDR4, co jest obecnie już takim rynkowym minimum w tej klasie sprzętu. Dodatkowo, obsługuje pamięci o taktowaniu 2133MHz, a więc dokładnie taka, jaką oferuje wybrany moduł. Co ważne, wsparcie dla ECC (Error Correcting Code) oraz pamięci Load Reduced (LRDIMM) jest zgodne ze specyfikacją tej płyty, co pozwala budować bardziej stabilne, wydajne zestawy szczególnie do zastosowań profesjonalnych, np. w serwerach, stacjach roboczych czy mocnych PC dla twórców. Z moich obserwacji wynika, że wiele osób nie docenia roli stabilności w długotrwałym użytkowaniu – a pamięci ECC+LRDIMM naprawdę robią robotę przy dużych obciążeniach, gdzie każdy błąd może być kosztowny. Warto też pamiętać, że dobierając RAM warto sugerować się nie tylko samym taktowaniem, ale też tym, czy płyta dobrze obsługuje konkretne typy modułów (Registered, Unbuffered, Load Reduced, itd.), bo czasami można się zdziwić – nawet jak fizycznie pasuje, sprzęt po prostu nie ruszy. Generalnie, jeśli chodzi o X99 – najlepiej trzymać się wytycznych producenta i wybierać dokładnie takie pamięci, jak opisane w tej odpowiedzi. To po prostu działa bezproblemowo i pozwala wyciągnąć maksimum z platformy.

Pytanie 32

Licencja oprogramowania open source oraz wolnego, to rodzaj licencji

A. GNU GPL
B. OEM
C. Trial
D. Adware
GNU General Public License, czyli GNU GPL, to naprawdę znana licencja, jeśli chodzi o wolne i otwarte oprogramowanie. Daje ludziom możliwość korzystania, modyfikowania i dzielenia się oprogramowaniem, co jest mega ważne dla rozwoju projektów, które każdy może ogarnąć. Dobrym przykładem jest system operacyjny Linux, który jest w całości na tej licencji. Dzięki temu, programiści mogą robić swoje poprawki, dostosowywać system pod siebie czy nawet wymyślać nowe aplikacje korzystając z istniejących rozwiązań. Licencja GNU GPL zachęca do współpracy i dzielenia się doświadczeniem w technicznym świecie, co znacznie przyspiesza rozwój nowych pomysłów. Co więcej, ta licencja chroni użytkowników przed tym, że twórcy zamkną kod źródłowy, co daje im większą wolność w korzystaniu z programów. Generalnie, stosowanie licencji wolnego oprogramowania sprzyja zaufaniu i transparentności wśród użytkowników i deweloperów.

Pytanie 33

Którego narzędzia można użyć, aby prześledzić trasę, którą pokonują pakiety w sieciach?

A. nslookup
B. ping
C. tracert
D. netstat
Prawidłowo wskazane narzędzie to „tracert” (w systemach Windows) albo jego odpowiednik „traceroute” w systemach Linux/Unix. To polecenie służy dokładnie do tego, o co chodzi w pytaniu: do prześledzenia trasy, jaką pakiety IP pokonują od Twojego komputera do wskazanego hosta w sieci. Działa to tak, że narzędzie wysyła pakiety z rosnącą wartością pola TTL (Time To Live) w nagłówku IP. Każdy router po drodze zmniejsza TTL o 1, a gdy TTL spadnie do zera, urządzenie odsyła komunikat ICMP „Time Exceeded”. Dzięki temu „tracert” jest w stanie wypisać listę kolejnych routerów (skoków, tzw. hopów), przez które przechodzi ruch. W praktyce używa się tego narzędzia do diagnostyki problemów z łącznością: można zobaczyć, na którym etapie trasy pojawiają się opóźnienia, utrata pakietów albo całkowity brak odpowiedzi. Administratorzy sieci, zgodnie z dobrymi praktykami, często łączą wyniki „tracert” z „ping” i „netstat”, żeby mieć pełniejszy obraz sytuacji – ale to właśnie „tracert” pokazuje fizyczną/logiczna ścieżkę przez poszczególne routery. Moim zdaniem warto pamiętać też o ograniczeniach: niektóre routery nie odpowiadają na ICMP albo są filtrowane przez firewalle, więc nie każda trasa będzie pokazana w 100%. Mimo to, w diagnozowaniu problemów z routingiem, przeciążeniami łączy międzymiastowych czy międzynarodowych, „tracert” jest jednym z podstawowych, klasycznych narzędzi, które nadal są standardem w pracy administratora i serwisanta sieci.

Pytanie 34

Pamięć, która nie traci danych, może być elektrycznie kasowana i programowana, znana jest pod skrótem

A. IDE
B. RAM
C. ROM
D. EEPROM
Odpowiedzi RAM, ROM i IDE nie są poprawne w kontekście pytania o pamięć, która jest nieulotna, elektrycznie kasowana i programowana. RAM (Random Access Memory) to pamięć ulotna, która traci swoje dane po wyłączeniu zasilania, co czyni ją nieodpowiednią dla zastosowań wymagających trwałej pamięci. ROM (Read-Only Memory) to pamięć, która jest zaprogramowana w procesie produkcji i nie pozwala na kasowanie ani programowanie po tym etapie, co również odbiega od definicji przedstawionej w pytaniu. IDE (Integrated Development Environment) nie odnosi się do pamięci, a raczej do oprogramowania używanego do rozwoju aplikacji, co sprawia, że ta odpowiedź jest zupełnie nieadekwatna. Pojawienie się błędnych odpowiedzi często wynika z nieporozumienia dotyczącego funkcji i typów pamięci. Kluczowe jest zrozumienie, że różne typy pamięci mają różne właściwości i zastosowania, co jest fundamentalne dla projektowania systemów elektronicznych. Dlatego tak ważne jest, aby dokładnie poznać różnice między pamięcią ulotną a nieulotną oraz możliwości programowania i kasowania w kontekście projektowania systemów embedded.

Pytanie 35

Jakie funkcje posiada program tar?

A. obsługa pakietów
B. pokazywanie listy aktywnych procesów
C. archiwizowanie plików
D. ustawianie parametrów karty sieciowej
Program tar (tape archive) jest standardowym narzędziem w systemach Unix i Linux, które służy do archiwizowania plików. Jego głównym zadaniem jest tworzenie jednego pliku archiwum z wielu plików i katalogów, co ułatwia ich przechowywanie i przenoszenie. Tar jest niezwykle przydatny w sytuacjach, gdy trzeba zarchiwizować duże zbiory danych, na przykład podczas tworzenia kopii zapasowych, przenoszenia aplikacji między serwerami czy też przygotowywania plików do dystrybucji. W praktyce, użytkownicy często wykorzystują tar w połączeniu z innymi narzędziami, takimi jak gzip lub bzip2, aby kompresować archiwa i zaoszczędzić miejsce na dysku. Dobrą praktyką jest również dodawanie opcji do tar, takich jak -v (verbose), aby monitorować postęp archiwizacji. Rekomenduje się regularne archiwizowanie ważnych danych za pomocą narzędzi takich jak tar, co jest zgodne z zasadami zarządzania danymi i bezpieczeństwa, a także z politykami dotyczącymi tworzenia kopii zapasowych.

Pytanie 36

Cena wydrukowania jednej strony tekstu to 95 gr, a koszt przygotowania jednej płyty CD wynosi 1,54 zł. Jakie wydatki poniesie firma, tworząca płytę z prezentacjami oraz 120-stronicowy poradnik?

A. 120,95 zł
B. 154,95 zł
C. 145,54 zł
D. 115,54 zł
Wybór niewłaściwej odpowiedzi może wynikać z kilku powszechnych błędów myślowych. Często osoby rozwiązujące tego typu zadania mogą mylić koszty jednostkowe i całkowite, co prowadzi do nieprawidłowych obliczeń. Na przykład, odpowiedzi takie jak 154,95 zł mogą pochodzić z pomyłkowego dodania całkowitych kosztów płyty CD i wydruku stron, bez uwzględnienia, że koszt wydruku powinien być obliczony na podstawie ilości stron. Z kolei kwoty takie jak 145,54 zł mogą wynikać z błędnego dodawania kosztów, gdzie niepoprawnie oblicza się ilość stron lub cenę jednostkową. Zrozumienie, jak prawidłowo obliczać koszty, jest kluczowe w zarządzaniu finansami. W praktyce, każde przedsiębiorstwo powinno mieć jasno określone procedury obliczania kosztów, co pozwoli na ich kontrolowanie oraz planowanie budżetu. Niezrozumienie tego procesu może prowadzić do wydatków przekraczających planowane budżety, co może negatywnie wpłynąć na płynność finansową firmy. Zastosowanie dobrych praktyk, takich jak dokładna analiza kosztów operacyjnych i regularne przeglądy wydatków, mogą pomóc w uniknięciu takich sytuacji.

Pytanie 37

Scandisk to narzędzie, które wykorzystuje się do

A. oczyszczania dysku
B. sprawdzania dysku
C. formatowania dysku
D. defragmentacji dysku
Scandisk to narzędzie systemowe, które jest wykorzystywane do diagnostyki i naprawy błędów na dyskach twardych oraz nośnikach pamięci. Jego główną funkcją jest sprawdzanie integralności systemu plików oraz fizycznego stanu dysku. Scandisk skanuje dysk w poszukiwaniu uszkodzonych sektorów oraz problemów z systemem plików, takich jak błędy logiczne, które mogą prowadzić do utraty danych. Przykładem zastosowania Scandisk może być sytuacja, w której użytkownik doświadcza problemów z dostępem do plików, co może być sygnałem uszkodzeń na dysku. W ramach dobrych praktyk, regularne używanie narzędzi takich jak Scandisk może pomóc w zapobieganiu poważniejszym problemom z danymi i zwiększyć stabilność systemu operacyjnego. Standardy branżowe rekomendują korzystanie z takich narzędzi w celu zminimalizowania ryzyka awarii sprzętu oraz utraty ważnych informacji, co czyni Scandisk istotnym elementem zarządzania dyskiem i bezpieczeństwa danych.

Pytanie 38

Do utworzenia skompresowanego archiwum danych w systemie Linux można użyć polecenia

A. tar -xvf
B. tar -tvf
C. tar -jxvf
D. tar -zcvf
Wielu użytkowników tar myśli, że każda kombinacja opcji pozwoli osiągnąć upragniony efekt, czyli utworzenie skompresowanego archiwum. Jednak różnice są znaczące. Wariant z -jxvf wykorzystuje kompresję bzip2 (opcja -j), która jest nieco wydajniejsza kompresyjnie od gzipa, ale działa wolniej. W praktyce jednak, gdy oczekuje się domyślnej, szybkiej kompresji i szerokiej kompatybilności, branża poleca raczej gzip (-z), bo pliki .tar.gz są rozpoznawane w każdej dystrybucji Linuksa, a nawet na systemach Windows przez narzędzia takie jak 7-Zip. Bzip2 jest dobry przy archiwizacji większych danych, gdzie liczy się nieco lepszy stopień kompresji, ale na co dzień -z jest pewniejszy. Jeśli ktoś wybrał -tvf, to warto wiedzieć, że ta opcja wcale nie tworzy archiwum, tylko je przegląda (listuje zawartość). To często używany skrót do szybkiego podejrzenia, co siedzi w archiwum, ale nie do kompresowania. Z kolei -xvf wykorzystuje się do rozpakowywania archiwum – to bardzo częsty błąd początkujących: próbują użyć tej opcji do tworzenia archiwum, a dostają komunikat o błędzie lub efekt odwrotny do zamierzonego. Faktycznie, tar jest trochę specyficzny, bo te flagi są krótkie i łatwo je pomylić. W mojej opinii najwięcej problemów bierze się stąd, że ludzie zapamiętują tylko sekwencję liter, a nie faktyczne znaczenie opcji. Zawsze warto sięgać do man tar, żeby upewnić się, która opcja co robi. W środowisku zawodowym, niepoprawny wybór opcji może skutkować błędną automatyzacją backupów czy nawet utratą danych, więc dobrze kształtować nawyk świadomego korzystania z tych poleceń. Tar to potężne narzędzie, ale trzeba wiedzieć dokładnie, co się robi, bo potem konsekwencje mogą być bolesne.

Pytanie 39

Która z kopii w trakcie archiwizacji plików pozostawia ślad archiwizacji?

A. Przyrostowa
B. Różnicowa
C. Zwykła
D. Całkowita
Wybór kopii normalnej, całkowitej lub przyrostowej w kontekście archiwizacji plików często prowadzi do mylnego rozumienia mechanizmów przechowywania danych. Kopia normalna jest pełnym zbiorem danych w danym momencie, co oznacza, że zawiera wszystkie pliki. Chociaż jest to podejście bardzo proste, ma wady, ponieważ każda operacja wymaga znacznej ilości czasu i przestrzeni dyskowej. Przyrostowa kopia zapasowa, z drugiej strony, zapisuje tylko te zmiany, które zaszły od ostatniej kopii zapasowej, co czyni ją efektywną, ale nie oznacza pozostawienia znacznika archiwizacji. Z kolei kopia całkowita archiwizuje wszystkie dane, co w praktyce wystarcza do zachowania ich integralności, ale również generuje duże obciążenie dla systemu. W związku z tym, wiele osób myli te różne metody, nie zdając sobie sprawy z ich fundamentalnych różnic. Kluczowym błędem jest założenie, że każda kopia może pełnić tę samą rolę, co prowadzi do nieefektywności w zarządzaniu danymi. W branży IT, zrozumienie tych różnic jest kluczowe dla skutecznego zarządzania danymi oraz zapewnienia ich bezpieczeństwa, a także zgodności z najlepszymi praktykami archiwizacji.

Pytanie 40

Jak należy postąpić z wiadomością e-mail od nieznanej osoby, która zawiera podejrzany załącznik?

A. Otworzyć wiadomość i odpowiedzieć, pytając o zawartość załącznika
B. Nie otwierać wiadomości, od razu ją usunąć
C. Otworzyć załącznik i zapisać go na dysku, a następnie przeskanować plik programem antywirusowym
D. Otworzyć załącznik, a jeśli znajduje się w nim wirus, natychmiast go zamknąć
Usuwanie wiadomości od nieznanych nadawców, zwłaszcza tych, które zawierają niepewne załączniki, to kluczowy element w utrzymaniu bezpieczeństwa w sieci. Wiele złośliwego oprogramowania jest rozprzestrzenianych poprzez phishing, gdzie cyberprzestępcy podszywają się pod znane źródła w celu wyłudzenia danych osobowych lub zainstalowania wirusów na komputerach użytkowników. Kluczową zasadą bezpieczeństwa jest unikanie interakcji z wiadomościami, które budzą wątpliwości co do ich autentyczności. Na przykład, jeśli otrzymasz e-mail od nieznanego nadawcy z załącznikiem, który nie został wcześniej zapowiedziany, najlepiej jest go natychmiast usunąć. Standardy bezpieczeństwa IT, takie jak te określone przez NIST (National Institute of Standards and Technology), podkreślają znaczenie weryfikacji źródła wiadomości oraz unikania podejrzanych linków i plików. Działania te pomagają minimalizować ryzyko infekcji złośliwym oprogramowaniem i utratą danych. Warto również zainwestować w oprogramowanie antywirusowe oraz edukację na temat rozpoznawania zagrożeń. Przyjmowanie proaktywnego podejścia do bezpieczeństwa informacji jest niezbędne w dzisiejszym, technologicznym świecie.