Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 29 marca 2026 00:12
  • Data zakończenia: 29 marca 2026 00:29

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Urządzenie, które pozwala komputerom na bezprzewodowe łączenie się z siecią komputerową przewodową, to

A. koncentrator
B. modem
C. punkt dostępowy
D. regenerator
Punkt dostępowy (ang. access point) to urządzenie, które pełni kluczową rolę w tworzeniu bezprzewodowych sieci komputerowych. Jego głównym zadaniem jest umożliwienie komputerom, laptopom i innym urządzeniom mobilnym łączności z przewodową siecią lokalną (LAN). Działa on jako przekaźnik, który konwertuje sygnały radiowe na sygnał sieciowy i odwrotnie. Dzięki temu, urządzenia bezprzewodowe mogą korzystać z zasobów i usług dostępnych w sieci przewodowej. Typowym zastosowaniem punktów dostępowych jest ich umieszczanie w biurach, uczelniach czy miejscach publicznych, gdzie zapewniają dostęp do Internetu. W standardzie IEEE 802.11, który definiuje zasady komunikacji w sieciach WLAN, punkty dostępowe są niezbędne do zapewnienia stabilnej i wydajnej komunikacji bezprzewodowej. Warto także wspomnieć o technikach zarządzania, takich jak WDS (Wireless Distribution System), które pozwalają na rozbudowę sieci i zwiększenie jej zasięgu poprzez integrację wielu punktów dostępowych.

Pytanie 2

Ile symboli routerów i przełączników występuje na diagramie?

Ilustracja do pytania
A. 8 przełączników i 3 rutery
B. 4 przełączniki i 3 rutery
C. 4 przełączniki i 8 ruterów
D. 3 przełączniki i 4 rutery
Prawidłowa odpowiedź wskazuje 4 przełączniki i 3 rutery. To kluczowe, by zrozumieć strukturę sieci komputerowej i jej komponenty. Przełączniki służą do łączenia urządzeń w tej samej podsieci i pracują na warstwie 2 modelu OSI. Rutery natomiast działają na warstwie 3 i są używane do łączenia różnych sieci. Na schemacie widzimy wyraźne rozgraniczenie między tymi urządzeniami dzięki ich symbolom. Prawidłowe rozpoznanie ich ilości jest istotne dla prawidłowej konfiguracji i diagnozowania sieci. W praktyce, wiedza o liczbie i rodzaju użytych urządzeń pozwala na ich efektywne zarządzanie, a także planowanie rozbudowy infrastruktury. Używanie właściwych urządzeń zgodnie z ich przeznaczeniem zgodnie z najlepszymi praktykami branżowymi, takimi jak te opisane w dokumentach IEEE, zapewnia stabilność i wydajność sieci. Dlatego znajomość funkcji i umiejętność rozróżniania przełączników i ruterów jest niezbędna dla każdego specjalisty IT, co może bezpośrednio wpływać na jakość i bezpieczeństwo sieci komputerowej.

Pytanie 3

Aby dezaktywować transmitowanie nazwy sieci Wi-Fi, należy w punkcie dostępowym wyłączyć opcję

A. Wide Channel
B. Filter IDENT
C. UPnP AV
D. SSID
Odpowiedź SSID (Service Set Identifier) jest prawidłowa, ponieważ to właśnie ta funkcja pozwala na rozgłaszanie lub ukrywanie nazwy sieci bezprzewodowej. W przypadku, gdy administratorzy sieci chcą zwiększyć bezpieczeństwo, decydują się na wyłączenie rozgłaszania SSID, co sprawia, że nazwa sieci nie jest widoczna dla użytkowników próbujących połączyć się z siecią. W praktyce oznacza to, że urządzenia muszą znać dokładną nazwę sieci, aby nawiązać połączenie, co może chronić przed nieautoryzowanym dostępem. Zgodnie z najlepszymi praktykami w branży, takie działanie ogranicza możliwość dostępu do sieci tylko dla znanych urządzeń, co jest szczególnie ważne w środowiskach, gdzie bezpieczeństwo danych jest kluczowe. Wyłączenie rozgłaszania SSID jest często stosowane w sieciach korporacyjnych oraz w miejscach publicznych, gdzie ochrona prywatności i danych jest priorytetem.

Pytanie 4

Na ilustracji przedstawiono tylną stronę

Ilustracja do pytania
A. routera
B. mostu
C. modemu
D. koncentratora
Tylna część urządzenia przedstawiona na rysunku to router co można rozpoznać po charakterystycznych portach WAN i LAN które pozwalają na jednoczesne połączenie z siecią zewnętrzną i lokalną Router jest kluczowym elementem infrastruktury sieciowej w biurach i domach umożliwiającym kierowanie ruchem danych między sieciami wykorzystuje tablice routingu i różne protokoły sieciowe dla optymalizacji przepływu danych W praktyce routery mogą obsługiwać różne funkcje takie jak firewall zarządzanie pasmem czy tworzenie sieci VPN co zwiększa bezpieczeństwo i wydajność sieci Zgodnie ze standardami IEEE routery są urządzeniami warstwy trzeciej modelu OSI co oznacza że operują na poziomie sieci dostarczając inteligentne funkcje routingu które są nieosiągalne dla innych urządzeń sieciowych jak mosty czy koncentratory które operują na niższych warstwach Routery często posiadają także funkcje bezprzewodowe obsługujące standardy Wi-Fi co pozwala na elastyczne tworzenie sieci bezprzewodowych integrując różne urządzenia końcowe w jednym punkcie dostępu

Pytanie 5

Zjawisko przekazywania tokena (ang. token) występuje w sieci o fizycznej strukturze

A. gwiazdy
B. magistrali
C. siatki
D. pierścienia
Przekazywanie żetonu w sieci o strukturze fizycznej pierścienia jest kluczowym mechanizmem działania tej topologii. W topologii pierścienia każdy węzeł (urządzenie) jest połączony z dwoma innymi, tworząc zamknięty cykl. W takim układzie dane są przesyłane w formie żetonu, który krąży w sieci. Gdy węzeł otrzymuje żeton, może go wykorzystać do przesłania swoich danych, a następnie przekazuje go dalej. Przykładami zastosowania tej topologii są starsze sieci Token Ring, które były powszechnie używane w biurach. Taki system ogranicza kolizje, ponieważ tylko jeden węzeł ma prawo do nadawania w danym momencie, co zwiększa efektywność transmisji. W praktyce, aby tak zbudowana sieć działała sprawnie, kluczowe jest przestrzeganie zasad dotyczących synchronizacji czasowej oraz zarządzania pasmem, co jest zgodne z najlepszymi praktykami w projektowaniu sieci komputerowych. Również standardy takie jak ISO/IEC 8802-3 określają zasady działania w takiej strukturze, co potwierdza jej zastosowanie w profesjonalnych środowiskach.

Pytanie 6

Jak nazywa się magistrala, która w komputerze łączy procesor z kontrolerem pamięci i składa się z szyny adresowej, szyny danych oraz linii sterujących?

A. FSB – Front Side Bus
B. AGP – Accelerated Graphics Port
C. PCI – Peripheral Component Interconnect
D. ISA – Industry Standard Architecture
FSB, czyli Front Side Bus, jest kluczowym elementem architektury komputera, który pełni funkcję magistrali łączącej procesor z kontrolerem pamięci. W skład FSB wchodzą szyna adresowa, szyna danych oraz linie sterujące, co pozwala na efektywną wymianę informacji pomiędzy procesorem a pamięcią operacyjną. FSB jest istotne dla wydajności systemu, ponieważ zapewnia odpowiednią przepustowość dla danych przesyłanych pomiędzy kluczowymi komponentami. Na przykład, w systemach opartych na procesorach Intel, FSB pozwala na synchronizację pracy CPU z pamięcią RAM, co jest kluczowe dla realizacji zadań obliczeniowych. W praktyce, lepsze parametry FSB przekładają się na szybsze działanie aplikacji, co jest szczególnie zauważalne w wymagających zadaniach, takich jak edycja wideo czy gry komputerowe. Warto również zauważyć, że w miarę rozwoju technologii, FSB został zastąpiony przez inne standardy, takie jak QPI (QuickPath Interconnect) w nowszych architekturach, co wskazuje na ciągły postęp i innowacje w dziedzinie projektowania systemów komputerowych.

Pytanie 7

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 32 GB.
B. 2 modułów, każdy po 16 GB.
C. 2 modułów, każdy po 8 GB.
D. 1 modułu 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 8

Jaką funkcję pełni serwer ISA w systemie Windows?

A. Rozwiązuje nazwy domen
B. Służy jako system wymiany plików
C. Pełni funkcję firewalla
D. Jest serwerem stron WWW
ISA Server (Internet Security and Acceleration Server) pełni kluczową rolę jako firewall oraz rozwiązanie do zarządzania dostępem do Internetu w systemie Windows. Jego podstawowym zadaniem jest filtrowanie ruchu sieciowego, co pozwala na ochronę sieci lokalnej przed nieautoryzowanym dostępem oraz atakami z zewnątrz. ISA Server implementuje różnorodne mechanizmy zabezpieczeń, w tym proxy, NAT (Network Address Translation) oraz filtrację na poziomie aplikacji. Przykładem zastosowania ISA Server może być ochrona sieci firmowej, gdzie administratorzy mogą definiować zasady dostępu do zasobów internetowych, a także monitorować i rejestrować ruch. W praktyce oznacza to, że organizacje mogą skutecznie zarządzać dostępem do Internetu, blokować potencjalnie złośliwe witryny oraz ograniczać dostęp do aplikacji niezgodnych z polityką bezpieczeństwa. Dobrą praktyką w kontekście zabezpieczeń jest regularne aktualizowanie reguł i polityk w celu dostosowania ich do zmieniającego się krajobrazu zagrożeń. Ponadto, stosowanie ISA Server w połączeniu z innymi rozwiązaniami zabezpieczającymi, takimi jak systemy IDS/IPS, pozwala na stworzenie wielowarstwowej architektury bezpieczeństwa, co jest zgodne z aktualnymi standardami branżowymi.

Pytanie 9

Osoba planuje unowocześnić swój komputer poprzez zwiększenie pamięci RAM. Zainstalowana płyta główna ma specyfikacje przedstawione w tabeli. Wybierając dodatkowe moduły pamięci, powinien pamiętać, aby

Parametry płyty głównej
ModelH97 Pro4
Typ gniazda procesoraSocket LGA 1150
Obsługiwane procesoryIntel Core i7, Intel Core i5, Intel Core i3, Intel Pentium, Intel Celeron
ChipsetIntel H97
Pamięć4 x DDR3- 1600 / 1333/ 1066 MHz, max 32 GB, ECC, niebuforowana
Porty kart rozszerzeń1 x PCI Express 3.0 x16, 3 x PCI Express x1, 2 x PCI
A. w obrębie jednego banku były ze sobą zgodne tak, aby osiągnąć najwyższą wydajność
B. były to cztery moduły DDR4, o wyższej częstotliwości niż obecnie zainstalowana pamięć RAM
C. były to trzy moduły DDR2, bez systemu kodowania korekcyjnego (ang. Error Correction Code)
D. dokupione moduły miały łączną pojemność przekraczającą 32 GB
Wybór zgodnych modułów pamięci RAM w obrębie jednego banku jest kluczowy dla osiągnięcia optymalnej wydajności systemu komputerowego. W przypadku płyty głównej H97 Pro4 z przedstawionymi parametrami, ilość banków pamięci pozwala na zainstalowanie czterech modułów DDR3 o maksymalnej pojemności 32 GB i częstotliwości do 1600 MHz. Kluczowe jest, aby moduły pamięci były kompatybilne między sobą, co oznacza, że powinny mieć tę samą prędkość, pojemność i najlepiej pochodzić od tego samego producenta, co minimalizuje ryzyko problemów z kompatybilnością i maksymalizuje wydajność. Stosowanie zgodnych modułów pozwala na pełne wykorzystanie trybu dual-channel, który znacznie przyspiesza transfer danych pomiędzy pamięcią a procesorem. Praktyczne zastosowanie tej wiedzy w codziennym użytkowaniu komputera przejawia się w skróconych czasach ładowania aplikacji i lepszej wielozadaniowości systemu. Dobre praktyki branżowe wskazują także na regularne aktualizowanie biosu płyty głównej w celu uzyskania najnowszych rozwiązań kompatybilności pamięci.

Pytanie 10

Na schemacie przedstawiono sieć o strukturze

Ilustracja do pytania
A. magistrali
B. gwiazd
C. siatek
D. drzew
Topologia magistrali to struktura sieciowa, w której wszystkie urządzenia są podłączone do jednego wspólnego medium transmisyjnego, najczęściej kabla, nazywanego magistralą. W tego typu sieci każde urządzenie może komunikować się bezpośrednio z innym poprzez to wspólne medium, co upraszcza proces instalacji i zmniejsza koszty materiałowe. Główna zaleta topologii magistrali to jej prostota i efektywność w małych sieciach, gdzie dane są przesyłane w jednym kierunku i nie ma potrzeby skomplikowanego zarządzania ruchem. Współczesne przykłady zastosowania to starsze sieci Ethernet, gdzie przesyłanie danych odbywa się w postaci ramek. Standardy takie jak IEEE 802.3 opisują specyfikacje dla sieci tego typu. Magistrala jest korzystna tam, gdzie wymagane są ekonomiczne rozwiązania w prostych konfiguracjach. Jednakże w miarę wzrostu liczby urządzeń mogą pojawić się problemy z przepustowością oraz kolizjami danych, dlatego w dużych sieciach często wybiera się inne topologie. Dodatkową korzyścią jest łatwość diagnozowania problemów przy użyciu narzędzi takich jak analizatory sygnałów, co przyspiesza proces rozwiązywania problemów technicznych.

Pytanie 11

Jak nazywa się protokół bazujący na architekturze klient-serwer oraz na modelu żądanie-odpowiedź, który jest używany do transferu plików?

A. FTP
B. SSH
C. SSL
D. ARP
Protokół FTP (File Transfer Protocol) jest standardowym rozwiązaniem stosowanym do przesyłania plików w architekturze klient-serwer. Umożliwia on transfer danych pomiędzy komputerami w sieci, co czyni go jednym z najpopularniejszych protokołów do udostępniania plików. FTP działa na zasadzie żądania-odpowiedzi, gdzie klient wysyła żądania do serwera, a serwer odpowiada na te żądania, wysyłając pliki lub informacje na temat dostępnych zasobów. Przykładem praktycznego zastosowania FTP jest użycie go przez webmasterów do przesyłania plików na serwery hostingowe. Umożliwia to łatwe zarządzanie plikami strony internetowej. Dodatkowo, w kontekście bezpieczeństwa, często używa się jego rozszerzonej wersji - FTPS lub SFTP, które oferują szyfrowanie danych w trakcie transferu, zgodne z najlepszymi praktykami branżowymi. Zastosowanie protokołu FTP jest kluczowe w wielu dziedzinach, w tym w zarządzaniu danymi w chmurze oraz w integracji systemów informatycznych."

Pytanie 12

Który z systemów operacyjnych przeznaczonych do sieci jest dostępny na zasadach licencji GNU?

A. Linux
B. Unix
C. OS X Server
D. Windows Server 2012
Linux jest systemem operacyjnym, który jest udostępniony na licencji GNU General Public License (GPL), co oznacza, że jego kod źródłowy jest publicznie dostępny i może być modyfikowany oraz rozpowszechniany. Licencja ta umożliwia każdemu użytkownikowi na używanie, modyfikowanie oraz dystrybucję oprogramowania, co sprzyja innowacjom i rozwojowi technologii. Dzięki temu Linux stał się podstawą dla wielu dystrybucji, takich jak Ubuntu, Fedora czy Debian, które są szeroko stosowane w różnych środowiskach, od komputerów osobistych, przez serwery, aż po urządzenia wbudowane. Przykładem zastosowania Linuxa w praktyce jest jego dominacja w środowiskach serwerowych, gdzie zapewnia stabilność, bezpieczeństwo oraz elastyczność. Wiele dużych firm oraz organizacji wybiera Linux ze względu na niski koszt licencji i możliwość dostosowania systemu do swoich specyficznych potrzeb, co czyni go idealnym wyborem w kontekście rozwoju technologii open-source.

Pytanie 13

Aby móc zakładać konta użytkowników, komputerów oraz innych obiektów i centralnie gromadzić o nich informacje, należy zainstalować rolę na serwerze Windows

A. usługi Domain Name System w usłudze Active Directory
B. usługi domenowe Active Directory
C. usługi certyfikatów Active Directory
D. Active Directory Federation Service
Usługi domenowe Active Directory (AD DS) są kluczowym elementem infrastruktury serwerowej w systemach Windows. Umożliwiają one centralne zarządzanie obiektami, takimi jak konta użytkowników i komputery, a także zapewniają mechanizmy autoryzacji i uwierzytelniania. Dzięki AD DS administratorzy mogą tworzyć i zarządzać użytkownikami oraz grupami, co jest niezbędne do zapewnienia bezpieczeństwa i organizacji w sieci. Na przykład, w firmach korzystających z Active Directory, administratorzy mogą przypisywać różne poziomy dostępu do zasobów w zależności od ról użytkowników, co ułatwia zarządzanie uprawnieniami. Z perspektywy dobrych praktyk, stosowanie AD DS jest zgodne z zasadą minimalnych uprawnień, co zwiększa bezpieczeństwo całej infrastruktury. Ponadto, AD DS wspiera replikację danych między kontrolerami domeny, co zapewnia dostępność i odporność na awarie w przypadku problemów z serwerem. Ostatecznie, rola ta jest fundamentem dla tworzenia i zarządzania złożonymi środowiskami IT, co czyni ją niezbędną w większości organizacji.

Pytanie 14

Jakie polecenie systemu Windows przedstawione jest na ilustracji?

    Adres fizyczny           Nazwa transportu
===========================================================
    00-23-AE-09-47-CF        Nośnik rozłączony
    00-23-4D-CB-B4-BB        Brak
    00-23-4D-CB-B4-BB        Nośnik rozłączony
A. route
B. netsatat
C. getmac
D. net view
Polecenie getmac w systemie Windows służy do wyświetlenia adresów fizycznych, znanych również jako adresy MAC, oraz powiązanej z nimi nazwy transportu dla wszystkich interfejsów sieciowych w systemie. Adres MAC to unikalny identyfikator przypisany do interfejsu sieciowego, służący do komunikacji w sieciach lokalnych. Narzędzie getmac jest szczególnie użyteczne w zarządzaniu siecią i diagnostyce, ponieważ umożliwia szybkie zidentyfikowanie urządzeń oraz ich aktualnego stanu, co jest kluczowe przy rozwiązywaniu problemów związanych z połączeniami sieciowymi. Możliwość uzyskania adresów MAC bezpośrednio z wiersza poleceń ułatwia administratorom sieci zarządzanie urządzeniami i kontrolowanie ich dostępności w sieci. Dobra praktyka branżowa w zakresie zarządzania siecią obejmuje regularne monitorowanie i dokumentowanie adresów MAC, co pozwala na szybką reakcję w przypadku wykrycia nieautoryzowanych urządzeń. Narzędzie getmac może być zautomatyzowane w skryptach, co jest powszechnie stosowane w większych środowiskach IT do regularnego monitorowania zasobów sieciowych. Praktycznym przykładem zastosowania jest użycie tego narzędzia do weryfikacji stanu połączeń sieciowych oraz diagnostyki problemów z siecią, takich jak brak dostępu do internetu czy anomalia w ruchu sieciowym.

Pytanie 15

Liczbie 16 bitowej 0011110010101110 wyrażonej w systemie binarnym odpowiada w systemie szesnastkowym liczba

A. 3CAE
B. 3CBE
C. 3DFE
D. 3DAE
Liczba 16-bitowa 0011110010101110 zapisana w systemie dwójkowym odpowiada liczbie szesnastkowej 3CAE. Aby przeliczyć liczbę z systemu binarnego na szesnastkowy, możemy podzielić dane na grupy po cztery bity, co jest standardową praktyką, ponieważ każda cyfra szesnastkowa odpowiada czterem bitom. W tym przypadku mamy: 0011 (3), 1100 (C), 1010 (A), 1110 (E). Tak więc 0011 1100 1010 1110 daje nam 3CAE w systemie szesnastkowym. Umiejętność konwersji liczb między systemami liczbowymi jest niezwykle ważna w dziedzinie informatyki i programowania, szczególnie w kontekście niskopoziomowego programowania, obliczeń w systemach wbudowanych oraz przy pracy z protokołami sieciowymi. Przykładowo, w programowaniu w języku C, często korzysta się z konwersji między tymi systemami przy manipulacji danymi w pamięci. Wiedza na temat systemów liczbowych jest również istotna w zakresie kryptografii oraz analizy danych, gdzie precyzyjna reprezentacja wartości jest kluczowa.

Pytanie 16

Poleceniem systemu Linux służącym do wyświetlenia informacji, zawierających aktualną godzinę, czas działania systemu oraz liczbę zalogowanych użytkowników, jest

A. echo
B. chmod
C. history
D. uptime
Polecenie uptime jest jednym z podstawowych narzędzi do szybkiego uzyskania informacji o stanie systemu Linux bez konieczności przekopywania się przez różne pliki czy logi. Wywołując je w terminalu, otrzymujesz od razu kilka ważnych danych: aktualną godzinę, jak długo system działa nieprzerwanie od ostatniego uruchomienia (czyli tzw. czas uptime), liczbę aktualnie zalogowanych użytkowników oraz średnie obciążenie procesora z ostatnich 1, 5 i 15 minut. To bardzo praktyczne narzędzie, szczególnie podczas administrowania serwerami lub diagnozowania problemów ze stabilnością. Moim zdaniem uptime świetnie sprawdza się też przy monitoringu środowisk produkcyjnych – pozwala szybko zorientować się, czy system nie był przypadkiem restartowany niedawno, co może być ważne np. po aktualizacjach. Przykładowo, gdy ktoś zgłasza, że coś przestało działać, szybki rzut oka na uptime pozwala stwierdzić, czy powodem był restart. Standardy branżowe zalecają korzystanie z prostych, szybkoroszczytowych narzędzi takich właśnie jak uptime podczas podstawowego audytu systemu. Jeśli chcesz zagłębić się bardziej, uptime często jest używany razem z poleceniami takimi jak w, top czy who – razem tworzą bardzo fajny zestaw do pierwszej analizy kondycji systemu. Dość powiedzieć, że nawet automatyczne skrypty monitorujące wykorzystują wyjście uptime do raportowania dostępności i stabilności systemu. Osobiście polecam zapamiętać to polecenie, bo jest naprawdę wygodne i uniwersalne.

Pytanie 17

Jakie zadanie realizuje układ oznaczony strzałką na diagramie karty graficznej?

Ilustracja do pytania
A. Określa widoczność oraz nakładanie się obiektów na ekranie
B. Oblicza kolory każdego wyświetlanego piksela
C. Oblicza wygląd i położenie wielokątów, z których zbudowany jest obiekt
D. Realizuje obliczenia oświetlenia, uwzględniając lokalizację źródła światła
Układ zaznaczony strzałką to silnik geometryczny na karcie graficznej który pełni kluczową rolę w obliczaniu wyglądu i położenia wielokątów z których zbudowany jest obiekt w grafice 3D. Silnik geometryczny przetwarza dane dotyczące wierzchołków i krawędzi w przestrzeni trójwymiarowej co jest pierwszym etapem w renderowaniu grafiki 3D. Umożliwia to przekształcenia liniowe jak translacja rotacja czy skalowanie oraz operacje bardziej złożone jak rzutowanie perspektywiczne. Dzięki temu możliwe jest uzyskanie realistycznych efektów wizualnych w grach komputerowych symulacjach czy wizualizacjach inżynieryjnych. Silnik geometryczny współpracuje z układem renderującym który zajmuje się dalszym etapem przetwarzania jak rasteryzacja. Współczesne karty graficzne stosują zaawansowane techniki jak teselacja czy cieniowanie wierzchołków co dodatkowo zwiększa poziom realizmu i szczegółowości generowanego obrazu. Poprawne zrozumienie funkcji silnika geometrycznego jest kluczowe dla optymalizacji wydajności i jakości grafiki co jest standardem w branży gier komputerowych i grafiki 3D.

Pytanie 18

W celu konserwacji elementów z łożyskami oraz ślizgami w urządzeniach peryferyjnych wykorzystuje się

A. sprężone powietrze
B. powłokę grafitową
C. smar syntetyczny
D. tetrową szmatkę
Smar syntetyczny jest optymalnym rozwiązaniem do konserwacji elementów łożyskowanych oraz ślizgowych w urządzeniach peryferyjnych ze względu na swoje wyjątkowe właściwości tribologiczne. Charakteryzuje się niskim współczynnikiem tarcia, wysoką odpornością na ścinanie oraz stabilnością termiczną, co sprawia, że jest idealny do zastosowań w warunkach wysokotemperaturowych i dużych obciążeń. Przykładowo, w silnikach elektrycznych lub napędach mechanicznych, smar syntetyczny zmniejsza zużycie elementów ściernych, co wydłuża żywotność urządzeń. Zgodnie z normą ISO 6743, smary syntetyczne są klasyfikowane według różnych wymagań aplikacyjnych, co pozwala na dobór odpowiedniego produktu do specyficznych warunków pracy. Użycie smaru syntetycznego jest również zgodne z najlepszymi praktykami w zakresie utrzymania ruchu, co przyczynia się do zwiększenia efektywności energetycznej oraz zmniejszenia kosztów operacyjnych.

Pytanie 19

Jaką topologię fizyczną sieci ilustruje zamieszczony rysunek?

Ilustracja do pytania
A. Magistrali
B. Pełnej siatki
C. Gwiazdy
D. Podwójnego pierścienia
Topologia gwiazdy to jedna z najpopularniejszych struktur fizycznych stosowanych w sieciach komputerowych. Jej charakterystyczną cechą jest centralne urządzenie, takie jak przełącznik czy koncentrator, do którego podłączone są wszystkie pozostałe urządzenia sieciowe. Każde urządzenie w sieci ma dedykowane połączenie z centralnym węzłem, co pozwala na łatwe zarządzanie przepływem danych i minimalizuje ryzyko kolizji danych. Topologia gwiazdy ułatwia również diagnozowanie problemów sieci, ponieważ awaria jednego łącza lub urządzenia nie wpływa na działanie pozostałej części sieci. W praktyce, topologia gwiazdy jest powszechnie stosowana w sieciach lokalnych (LAN) ze względu na jej efektywność, niezawodność i łatwość skalowania. Dodatkowo, topologia ta wspiera standardy takie jak Ethernet, co czyni ją kompatybilną z szeroką gamą sprzętu sieciowego dostępnego na rynku. Dzięki tym właściwościom jest preferowaną opcją w wielu przedsiębiorstwach i instytucjach, zapewniając stabilne i bezpieczne środowisko pracy dla użytkowników.

Pytanie 20

Który standard Ethernet określa Gigabit Ethernet dla okablowania UTP?

A. 1000 Base-TX
B. 100 GBase-TX
C. 10 GBase-TX
D. 10 Base-TX
Odpowiedź 1000 Base-TX jest poprawna, ponieważ definiuje standard Gigabit Ethernet dla okablowania UTP (Unshielded Twisted Pair). Standard ten umożliwia przesyłanie danych z prędkością 1 Gb/s na zasięgu do 100 metrów, co czyni go odpowiednim dla nowoczesnych sieci lokalnych. W praktyce, 1000 Base-TX korzysta z czterech par skręconych przewodów, co pozwala na efektywne wykorzystanie istniejącej infrastruktury kablowej, często stosowanej w biurach i domach. Standard ten jest zgodny z kategorią 5e i wyższymi, co zapewnia właściwą jakość sygnału i minimalizację zakłóceń. Warto zaznaczyć, że technologia ta jest szeroko stosowana w aplikacjach wymagających dużej przepustowości, takich jak przesyłanie wideo w wysokiej rozdzielczości czy aplikacje w chmurze, gdzie szybki transfer danych jest kluczowy. Zastosowanie standardu 1000 Base-TX w praktyce pozwala na rozwój infrastruktury sieciowej oraz jej przyszłą modernizację.

Pytanie 21

Aby uzyskać na ekranie monitora odświeżanie obrazu 85 razy w ciągu sekundy, trzeba częstotliwość jego odświeżania ustawić na

A. 8,5 Hz
B. 85 kHz
C. 0,085 kHz
D. 850 Hz
Prawidłowo – żeby monitor odświeżał obraz 85 razy na sekundę, częstotliwość odświeżania powinna wynosić 85 Hz, a to dokładnie 0,085 kHz (bo 1 kHz to 1000 Hz). To są podstawy elektroniki i technologii wyświetlaczy, które przydają się podczas konfiguracji sprzętu komputerowego, zwłaszcza jeżeli ktoś pracuje w grafice, gra na komputerze albo po prostu chce mieć płynny obraz bez migotania. W praktyce, im wyższa częstotliwość odświeżania monitora, tym bardziej komfortowa praca dla oczu, szczególnie przy dynamicznych scenach w grach lub filmach. Często spotyka się monitory 60 Hz, 75 Hz, ale 85 Hz to już dość przyjemny standard w niektórych środowiskach pracy. Branżowe normy – np. standard VESA – też jasno określają, że częstotliwość odświeżania podaje się właśnie w Hz albo w kHz, gdy wartości są wysokie, żeby uniknąć długich liczb. Z mojego doświadczenia czasem ludzie zamieniają jednostki i stąd pojawiają się nieporozumienia. Tak czy inaczej, dla 85 odświeżeń na sekundę, 0,085 kHz jest poprawną i najczytelniejszą odpowiedzią. Warto to zapamiętać, bo przeliczanie Hz na kHz i odwrotnie to dosłownie codzienność w każdej pracy związanej z elektroniką czy IT. Zresztą, nawet nie mając specjalistycznego sprzętu, przy zakupie monitora dobrze rozumieć te wartości i umieć je przeliczać. Najlepiej po prostu pamiętać, że kHz to 1000 Hz – i już się nie pomylisz.

Pytanie 22

Na ilustracji zaprezentowano

Ilustracja do pytania
A. tester płyt głównych
B. sondę logiczną
C. czujnik temperatury
D. impulsator
Tester płyt głównych, znany również jako karta POST, to narzędzie diagnostyczne służące do identyfikacji problemów w komputerze na poziomie płyty głównej. Jest szczególnie użyteczne w przypadku, gdy komputer nie potrafi uruchomić się do systemu operacyjnego, a standardowe metody diagnozy zawiodły. Karta POST jest podłączana do slotu PCI lub PCIE na płycie głównej i przy uruchomieniu systemu wyświetla kody POST (Power-On Self-Test) na wyświetlaczu LED. Te kody reprezentują różne etapy testu uruchamiania, a każda nieprawidłowość jest sygnalizowana określonym kodem. Umożliwia to szybkie zidentyfikowanie problematycznego komponentu lub sekcji płyty głównej. Karty te są zgodne z międzynarodowymi standardami diagnostycznymi i są szeroko stosowane przez techników serwisowych i specjalistów IT. Prawidłowe stosowanie testerów płyt głównych wymaga znajomości specyfikacji BIOS-u oraz umiejętności interpretacji kodów POST, co jest kluczowe dla efektywnego rozwiązywania problemów sprzętowych w komputerach.

Pytanie 23

Adres IP jest przypisywany przełącznikowi warstwy drugiej w celu

A. skonfigurowania portu bezpieczeństwa
B. ograniczenia pasma na portach
C. uzyskania zdalnego dostępu
D. konfiguracji domeny rozgłoszeniowej
Odpowiedź "uzyskania zdalnego dostępu" jest prawidłowa, ponieważ przełączniki warstwy drugiej, takie jak przełączniki Ethernet, nie wymagają przypisania adresu IP do funkcjonowania w swojej podstawowej roli, czyli przekazywaniu ramek w obrębie tej samej sieci lokalnej. Jednakże, aby zarządzać przełącznikiem zdalnie poprzez protokoły takie jak SSH czy HTTP, konieczne jest nadanie mu adresu IP. W praktyce, administratorzy sieci często przypisują adresy IP do przełączników w celu ułatwienia monitorowania, konfiguracji oraz diagnostyki. Przykładem może być sytuacja, w której administrator musi zdalnie zaktualizować konfigurację przełącznika, co nie byłoby możliwe bez przydzielonego adresu IP. Wszelkie standardy zarządzania urządzeniami sieciowymi, takie jak SNMP (Simple Network Management Protocol), również bazują na posiadaniu adresu IP, co pozwala na efektywne zarządzanie infrastrukturą sieciową. Dobrą praktyką jest przypisywanie adresów IP do urządzeń w sieci lokalnej w sposób zorganizowany, co ułatwia późniejsze działania administracyjne i diagnostyczne.

Pytanie 24

Jakiego rodzaju adresację stosuje protokół IPv6?

A. 64-bitową
B. 32-bitową
C. 128-bitową
D. 256-bitową
Protokół IPv6 stosuje adresację 128-bitową, co jest znaczącym ulepszeniem w porównaniu do 32-bitowej adresacji IPv4. Dzięki temu możliwe jest przydzielenie ogromnej liczby unikalnych adresów IP, co jest niezbędne przy rosnącej liczbie urządzeń podłączonych do Internetu. W praktyce oznacza to, że IPv6 może obsłużyć około 340 undecylionów (3.4 x 10³⁸) adresów, co praktycznie eliminuje ryzyko wyczerpania się dostępnej przestrzeni adresowej. Wprowadzenie 128-bitowej adresacji pozwala także na lepsze wsparcie dla mobilności, autokonfiguracji i bezpieczeństwa sieciowego dzięki wbudowanym funkcjom, takim jak IPSec. W kontekście administracji i eksploatacji systemów komputerowych, znajomość i umiejętność zarządzania IPv6 jest kluczowa, ponieważ coraz więcej sieci przechodzi na ten protokół, aby sprostać wymaganiom nowoczesnych technologii i liczby urządzeń IoT.

Pytanie 25

Jakiej klasy należy adres IP 130.140.0.0?

A. Należy do klasy B
B. Należy do klasy D
C. Należy do klasy C
D. Należy do klasy A
Adres 130.140.0.0 należy do klasy B, ponieważ jego pierwszy oktet (130) mieści się w zakresie od 128 do 191, co jest charakterystyczne dla tej klasy. Klasa B jest zazwyczaj wykorzystywana w większych sieciach, gdzie potrzebna jest możliwość obsługi zarówno dużej liczby adresów hostów, jak i segmentacji sieci. W przypadku klasy B, 16 bitów jest przeznaczonych na identyfikację sieci, a pozostałe 16 bitów na identyfikację hostów, co pozwala na stworzenie 16,384 różnych sieci, z maksymalnie 65,534 hostami w każdej z nich. Przykładem zastosowania adresów z klasy B mogą być instytucje edukacyjne lub średniej wielkości przedsiębiorstwa, które potrzebują więcej adresów IP niż te, które są dostępne w klasie C, ale nie tak wiele jak te, które oferuje klasa A. W praktyce klasę B często wykorzystuje się w większych organizacjach, gdzie liczba urządzeń w sieci przekracza możliwości klas niższych. Zrozumienie klasyfikacji adresów IP jest kluczowe dla projektowania skutecznych i skalowalnych sieci, a znajomość ich zakresów umożliwia efektywne zarządzanie infrastrukturą sieciową.

Pytanie 26

Najczęstszą przyczyną niskiej jakości wydruku z drukarki laserowej, która objawia się widocznym rozmazywaniem tonera, jest

Ilustracja do pytania
A. zacięcie papieru
B. uszkodzenie rolek
C. zbyt niska temperatura utrwalacza
D. zanieczyszczenie wnętrza drukarki
Zbyt niska temperatura utrwalacza w drukarce laserowej może prowadzić do sytuacji gdzie toner nie jest prawidłowo wtopiony w papier co skutkuje rozmazywaniem wydruków. Drukarki laserowe działają poprzez elektrostatyczne nanoszenie tonera na papier który następnie przechodzi przez utrwalacz czyli grzałkę. Utrwalacz musi osiągnąć odpowiednią temperaturę aby toner mógł trwale połączyć się z papierem. Jeśli temperatura jest zbyt niska toner nie utrwala się poprawnie i może być łatwo rozmazany. Standardowe temperatury dla urządzeń biurowych wynoszą zazwyczaj od 180 do 210 stopni Celsjusza. Z tego powodu utrzymanie prawidłowego poziomu ciepła w utrwalaczu jest kluczowe dla jakości wydruku i trwałości dokumentów. Częstym objawem problemów z utrwalaniem jest właśnie rozmazywanie się wydrukowanego tekstu lub grafiki. Regularna konserwacja drukarki oraz monitorowanie jej ustawień może zapobiec takim problemom. Praktyczne podejście do diagnostyki problemów z drukarką może obejmować testowanie i kalibrację elementów grzewczych oraz sprawdzanie jakości komponentów takich jak folie teflonowe w module utrwalacza.

Pytanie 27

W celu zapewnienia jakości usługi QoS, w przełącznikach warstwy dostępu stosuje się mechanizm

A. nadawania wyższych priorytetów niektórym typom danych
B. zapobiegającego występowaniu pętli w sieci
C. określania liczby urządzeń, które mogą łączyć się z danym przełącznikiem
D. zastosowania kilku portów jako jednego logicznego połączenia jednocześnie
Nadawanie priorytetu określonym rodzajom danych jest kluczowym elementem zapewnienia jakości usług (QoS) w sieciach komputerowych, zwłaszcza w przełącznikach warstwy dostępu. QoS polega na zarządzaniu ruchem sieciowym w sposób, który pozwala na optymalne wykorzystanie dostępnych zasobów oraz minimalizowanie opóźnień i utraty pakietów. W praktyce oznacza to, że ruch krytyczny, na przykład VoIP (Voice over IP) czy transmisje wideo, może być traktowany priorytetowo w stosunku do mniej istotnych danych, takich jak transfer plików czy przeglądanie stron www. Przełączniki warstwy dostępu mogą implementować mechanizmy takie jak oznaczanie pakietów za pomocą protokołów takich jak 802.1Q dla VLAN-ów oraz 802.1p dla klasyfikacji ruchu. Dzięki temu administratorzy mogą konfigurować przełączniki tak, aby odpowiednie typy ruchu były przesyłane z wyższym priorytetem, co zapewnia lepszą jakość usług i zadowolenie użytkowników. Wprowadzenie systemu QoS w sieci jest zgodne z dobrymi praktykami branżowymi, które podkreślają znaczenie planowania zasobów oraz ich efektywnego zarządzania.

Pytanie 28

Która z opcji konfiguracji ustawień konta użytkownika o ograniczonych uprawnieniach w systemie Windows jest dostępna dzięki narzędziu secpol?

A. Blokadę wybranych elementów w panelu sterowania
B. Zezwolenie na zmianę czasu systemowego
C. Odebranie możliwości zapisu na płytach CD
D. Czyszczenie historii ostatnio otwieranych dokumentów
Odpowiedź 'Zezwolenie na zmianę czasu systemowego' jest prawidłowa, ponieważ przystawka secpol (Local Security Policy) w systemie Windows pozwala na zarządzanie i konfigurowanie wielu polityk bezpieczeństwa, w tym uprawnień użytkowników. W kontekście zmiany czasu systemowego, ta opcja jest kluczowa, ponieważ pozwala administratorom na kontrolowanie, którzy użytkownicy mają prawo do modyfikacji czasu i daty systemowej. Może to mieć znaczenie w kontekście synchronizacji z serwerami czasu czy w sytuacjach, gdy zmiana czasu mogłaby wpłynąć na logikę aplikacji czy systemów zabezpieczeń. W rzeczywistych zastosowaniach, ograniczenie tego uprawnienia dla użytkowników z ograniczonymi prawami może pomóc w utrzymaniu spójności operacyjnej oraz zapobieganiu potencjalnym nadużyciom, co jest zgodne z najlepszymi praktykami w zakresie zarządzania bezpieczeństwem systemów IT.

Pytanie 29

Jak nazywa się licencja oprogramowania pozwalająca na bezpłatne dystrybucję aplikacji?

A. shareware
B. MOLP
C. OEM
D. freware
Odpowiedź 'freware' jest poprawna, ponieważ odnosi się do kategorii oprogramowania, które jest udostępniane użytkownikom za darmo, co pozwala na jego swobodne rozpowszechnianie. W praktyce, użytkownicy mogą pobierać, instalować i używać tego oprogramowania bez konieczności ponoszenia żadnych kosztów. Przykłady oprogramowania freeware obejmują popularne narzędzia, takie jak GIMP, które jest darmową alternatywą dla Photoshopa, czy VLC Media Player, który pozwala na odtwarzanie różnorodnych formatów multimedialnych. Ważne jest, aby pamiętać, że freeware różni się od oprogramowania open source, które nie tylko jest darmowe, ale także umożliwia użytkownikom dostęp do kodu źródłowego i jego modyfikację. Standardy branżowe podkreślają znaczenie transparentności oraz dostępności oprogramowania, co jest zgodne z ideą freeware, która promuje innowacyjność i współpracę w społeczności technologicznej.

Pytanie 30

Jakie są nazwy licencji, które umożliwiają korzystanie z programu w pełnym zakresie, ale ograniczają liczbę uruchomień do określonej, niewielkiej ilości od momentu instalacji?

A. Adware
B. Box
C. Trialware
D. Donationware
Trialware to rodzaj licencji, która pozwala użytkownikom na korzystanie z oprogramowania przez określony czas lub do momentu osiągnięcia limitu uruchomień. Głównym celem trialware jest umożliwienie potencjalnym klientom przetestowania funkcji i możliwości programu przed podjęciem decyzji o zakupie. Zazwyczaj oferuje on pełną funkcjonalność, aby użytkownik mógł ocenić wartość oprogramowania. Przykładowo, wiele programów do edycji grafiki oraz aplikacji biurowych dostępnych jest w wersjach trialowych, które po upływie określonego czasu lub po wykorzystaniu limitu uruchomień przestają działać. W branży oprogramowania przyjęto standard, że trialware powinno być jasno oznaczone, aby użytkownik wiedział, że korzysta z wersji testowej, co jest zgodne z dobrą praktyką transparentności wobec klientów. Dobrze zaprojektowany trialware nie tylko przyciąga nowych użytkowników, ale również buduje zaufanie w marce, co może prowadzić do wyższej konwersji na płatne subskrypcje lub licencje.

Pytanie 31

W technologii Ethernet 100Base-TX do przesyłania danych używane są żyły kabla UTP podłączone do pinów:

A. 1,2,3,6
B. 4,5,6,7
C. 1,2,3,4
D. 1,2,5,6
Odpowiedź 1,2,3,6 jest poprawna, ponieważ w standardzie Ethernet 100Base-TX do transmisji danych wykorzystywane są cztery żyły kabla UTP, które są przypisane do odpowiednich pinów w złączu RJ45. W przypadku 100Base-TX, zdefiniowane są następujące pary żył: para A (żyła 1 i 2) oraz para B (żyła 3 i 6). Użycie pary 1-2 do transmisji oraz pary 3-6 do odbioru umożliwia pełnodupleksową transmisję, co oznacza, że dane mogą być przesyłane i odbierane jednocześnie. Standard ten jest zgodny z normą IEEE 802.3u, która definiuje specyfikacje dla różnych prędkości Ethernet, w tym 100 Mbps. W praktyce, zastosowanie 100Base-TX jest szerokie, obejmując sieci lokalne (LAN) w biurach, szkołach oraz innych instytucjach, gdzie wymagana jest stabilna i szybka komunikacja. Przykładem może być podłączenie komputerów do switchów, gdzie każde urządzenie korzysta z odpowiednich pinów w złączach RJ45, co zapewnia optymalną wydajność sieci.

Pytanie 32

Aby w edytorze Regedit przywrócić stan rejestru systemowego za pomocą wcześniej utworzonej kopii zapasowej, należy użyć funkcji

A. Eksportuj.
B. Załaduj gałąź rejestru.
C. Kopiuj nazwę klucza.
D. Importuj.
Funkcja „Importuj” w edytorze Regedit to podstawowy sposób przywracania zawartości rejestru systemowego na komputerach z systemem Windows, jeśli wcześniej została utworzona kopia zapasowa w postaci pliku .reg. Cały proces polega na odczytaniu pliku zawierającego zapisane ustawienia rejestru i wprowadzeniu ich z powrotem do systemu. W praktyce, jeżeli coś pójdzie nie tak – np. podczas eksperymentowania z konfiguracją systemu lub instalacji problematycznych programów – możliwość przywrócenia kopii zapasowej przez „Importuj” nieraz potrafi uratować sytuację. Co ciekawe, to właśnie ta opcja jest rekomendowana przez Microsoft i znajdują ją też we wszystkich oficjalnych poradnikach z zakresu bezpieczeństwa i administracji systemami Windows. Importując plik .reg, użytkownik wczytuje do rejestru wszystkie wartości i klucze zapisane w kopii – to działa dosyć szybko i praktycznie nie wymaga specjalistycznej wiedzy. Moim zdaniem nie ma prostszego sposobu na cofnięcie niechcianych zmian niż właśnie wykorzystanie tej funkcji. Dobra praktyka mówi, by zawsze przed każdą większą zmianą w rejestrze zrobić eksport, a w razie kłopotów – po prostu zaimportować z powrotem zapisany plik. Warto pamiętać, że import nie kasuje pozostałych ustawień rejestru, tylko nadpisuje te obecne wpisami z pliku. To rozwiązanie szczególnie przydatne dla administratorów szkolnych pracowni komputerowych czy osób, które często personalizują system. Lepiej kilka minut poświęcić na backup i nauczyć się korzystać z „Importuj” niż ryzykować długotrwałe naprawy systemu!

Pytanie 33

Który z poniższych programów nie służy do diagnozowania sieci komputerowej w celu wykrywania problemów?

A. ping
B. traceroute
C. getfacl
D. nslookup
Odpowiedź 'getfacl' jest poprawna, ponieważ jest to narzędzie służące do zarządzania listami kontroli dostępu (ACL) w systemach Unix i Linux. Jego główną funkcją jest umożliwienie administratorom sprawdzania i modyfikowania praw dostępu do plików i katalogów, a nie testowanie sieci komputerowej. Przykładem użycia 'getfacl' może być sytuacja, gdy administrator chce zweryfikować, jakie uprawnienia mają określone pliki w systemie, aby zapewnić odpowiednią ochronę danych. W kontekście testowania sieci, narzędzia takie jak ping, traceroute czy nslookup są właściwe, ponieważ są one zaprojektowane do diagnozowania problemów z połączeniami sieciowymi, identyfikując, gdzie mogą występować problemy w komunikacji między urządzeniami. Standardy branżowe w obszarze bezpieczeństwa i zarządzania systemami często zalecają użycie tych narzędzi w procesie diagnostyki sieci, co czyni 'getfacl' nieodpowiednim wyborem w tym kontekście.

Pytanie 34

Co oznacza skrót 'RAID' w kontekście systemów komputerowych?

A. Random Access Identification Device
B. Rapid Application Integration Development
C. Redundant Array of Independent Disks
D. Remote Access Internet Dashboard
Skrót 'RAID' oznacza 'Redundant Array of Independent Disks'. Jest to technologia używana do zwiększenia niezawodności i wydajności przechowywania danych w systemach komputerowych poprzez łączenie wielu dysków twardych w jedną logiczną jednostkę magazynującą. RAID oferuje różne poziomy, takie jak RAID 0, RAID 1, RAID 5, które różnią się sposobem rozkładania danych i nadmiarowości. Na przykład, RAID 1 polega na mirroringu, czyli odbiciu danych na dwa lub więcej dysków, co zapewnia ochronę przed utratą danych w przypadku awarii jednego z nich. RAID 5, z kolei, wykorzystuje striping z parzystością, co oznacza, że dane są dzielone na bloki, a dodatkowe informacje parzystości są wykorzystywane do ich odtworzenia w razie awarii jednego dysku. RAID jest szeroko stosowany w serwerach, systemach NAS i innych profesjonalnych rozwiązaniach IT, gdzie niezawodność przechowywania danych jest kluczowa. Dobre praktyki branżowe zalecają stosowanie RAID w środowiskach, gdzie przerwy w dostępie do danych mogą prowadzić do znaczących strat.

Pytanie 35

Które z podanych poleceń w systemie Windows XP umożliwia sprawdzenie aktualnej konfiguracji adresu IP systemu Windows?

A. configip
B. ipconfig
C. ipedit
D. tcpconfig
Odpowiedź 'ipconfig' jest prawidłowa, ponieważ jest to polecenie używane w systemach Windows do wyświetlania konfiguracji sieciowych komputera, w tym informacji o adresach IP, maskach podsieci oraz bramach domyślnych. Użycie 'ipconfig' jest kluczowe dla administratorów systemów, którzy potrzebują diagnozować problemy z siecią. Przykładowo, wpisując 'ipconfig /all', uzyskujemy szczegółowe informacje na temat wszystkich interfejsów sieciowych, co pozwala na szybkie zidentyfikowanie potencjalnych konfliktów adresów IP lub problemów z połączeniem. Dzieje się to w kontekście standardów TCP/IP, które są fundamentem komunikacji w sieciach komputerowych. Dobre praktyki zalecają regularne monitorowanie konfiguracji IP, aby zapewnić prawidłowe działanie sieci i uniknąć problemów związanych z łącznością, co jest szczególnie istotne w organizacjach z rozbudowaną infrastrukturą sieciową.

Pytanie 36

Jakie środowisko powinien wybrać administrator sieci, aby zainstalować serwer dla stron WWW w systemie Linux?

A. vsftpd
B. MySQL
C. Apache
D. proftpd
Apache to jeden z najpopularniejszych serwerów stron WWW, który jest szeroko stosowany w środowisku Linux. Jego wybór jako środowiska do instalacji serwera WWW wynika z jego wszechstronności, wydajności oraz obsługi wielu dodatkowych modułów, które znacznie rozszerzają jego funkcjonalność. Apache jest zgodny z wieloma standardami webowymi, co czyni go idealnym rozwiązaniem dla różnorodnych aplikacji internetowych. Dzięki architekturze modułowej, administratorzy mogą łatwo dodawać funkcje, takie jak obsługa PHP, SSL, a także integrację z bazami danych. Przykładem zastosowania Apache jest hostowanie dynamicznych stron internetowych, takich jak blogi, sklepy internetowe, czy portale informacyjne. Ponadto, Apache jest znany z solidnej dokumentacji oraz aktywnej społeczności, co ułatwia rozwiązywanie problemów i wdrażanie najlepszych praktyk w zarządzaniu serwerami WWW. Warto również zwrócić uwagę na narzędzia do monitorowania i zarządzania, takie jak mod_status, które pozwala na śledzenie wydajności serwera w czasie rzeczywistym oraz optymalizację jego ustawień.

Pytanie 37

Jakie protokoły są klasyfikowane jako protokoły transportowe w modelu ISO/OSI?

A. ARP, DNS
B. TCP, UDP
C. ICMP, IP
D. FTP, POP
TCP (Transmission Control Protocol) i UDP (User Datagram Protocol) to kluczowe protokoły warstwy transportowej w modelu ISO/OSI. TCP jest protokołem połączeniowym, co oznacza, że zapewnia niezawodność transmisji danych poprzez segmentację, retransmisję utraconych pakietów i kontrolę błędów. Przykładem zastosowania TCP jest przeglądanie stron internetowych, gdzie ważne jest, aby wszystkie dane dotarły w odpowiedniej kolejności i nie były uszkodzone. Z kolei UDP jest protokołem bezpołączeniowym, co sprawia, że jest szybszy, ale mniej niezawodny. Używa się go w aplikacjach, gdzie szybkość jest kluczowa, na przykład w transmisji strumieniowej wideo czy w grach online, gdzie niewielkie opóźnienia są akceptowalne, a utrata pojedynczych pakietów danych nie jest krytyczna. Zarówno TCP, jak i UDP są zgodne z normami IETF (Internet Engineering Task Force) i są standardowymi protokołami w komunikacji sieciowej.

Pytanie 38

Aby po załadowaniu systemu Windows program Kalkulator uruchamiał się automatycznie, konieczne jest dokonanie ustawień

A. funkcji Snap i Peak
B. harmonogramu zadań
C. pliku wymiany
D. pulpitu systemowego
Harmonogram zadań w systemie Windows to zaawansowane narzędzie, które umożliwia automatyzację zadań, takich jak uruchamianie aplikacji w określonych momentach. Aby skonfigurować automatyczne uruchamianie programu Kalkulator przy starcie systemu, należy otworzyć Harmonogram zadań, utworzyć nowe zadanie, a następnie wskazać, że ma się ono uruchamiać przy starcie systemu. Użytkownik powinien określić ścieżkę do pliku kalkulatora (calc.exe) oraz ustawić odpowiednie warunki, takie jak uruchamianie zadania tylko wtedy, gdy komputer jest zasilany z sieci elektrycznej. Użycie Harmonogramu zadań jest zgodne z najlepszymi praktykami administracyjnymi, ponieważ pozwala na zarządzanie różnymi procesami w sposób zautomatyzowany, co zwiększa efektywność operacyjną systemu. Dodatkowo, użytkownik może dostosować parametry zadania, co pozwala na lepsze zarządzanie zasobami systemowymi oraz ich optymalizację.

Pytanie 39

Po stwierdzeniu przypadkowego usunięcia ważnych danych na dysku twardym, aby odzyskać usunięte pliki, najlepiej

A. zainstalować na tej samej partycji co pliki program do odzyskiwania usuniętych danych np. Recuva.
B. przeskanować system programem antywirusowym, a następnie użyć narzędzia chkdsk.
C. odinstalować oraz ponownie zainstalować sterowniki dysku twardego, zalecane przez producenta.
D. podłączyć dysk do zestawu komputerowego z zainstalowanym programem typu recovery.
Podejście z podłączeniem dysku do innego komputera, w którym już jest zainstalowany program do odzyskiwania danych, to faktycznie najbezpieczniejsza i najskuteczniejsza metoda na ratowanie przypadkowo usuniętych plików. Główna zaleta tej metody polega na tym, że minimalizujesz ryzyko nadpisania usuniętych danych – każde zapisywanie nowych plików (np. instalacja programów, aktualizacje) na tej samej partycji może trwale zniszczyć szansę na odzyskanie. W branży IT to praktycznie złoty standard – jeśli ktoś poważnie traktuje bezpieczeństwo danych, zawsze najpierw odłącza nośnik, na którym doszło do utraty, a potem działa na kopii lub z innego środowiska. Moim zdaniem zdecydowanie lepiej na zimno wyciągnąć dysk i użyć specjalistycznych narzędzi typu recovery na innym komputerze, bo wtedy całkowicie unikasz ingerencji w system plików, z którego chcesz coś uratować. Praktyka pokazuje, że nawet darmowe programy typu Recuva, TestDisk czy PhotoRec przy takim podejściu potrafią przywrócić naprawdę dużo – pod warunkiem, że nie dopuści się do nadpisania sektorów. Warto też pamiętać, że profesjonaliści często najpierw robią sektor po sektorze obraz dysku (np. za pomocą ddrescue), a dopiero potem bawią się w odzyskiwanie, żeby w razie czego mieć zawsze surową kopię przed jakimikolwiek próbami odzysku. To trochę jak z archeologią cyfrową – każdy nieprzemyślany ruch może bezpowrotnie coś zniszczyć. Z mojego doświadczenia, zachowanie zimnej krwi i przestrzeganie tych zasad daje największą szansę na sukces.

Pytanie 40

W dwóch sąsiadujących pomieszczeniach w pewnej firmie występują bardzo silne zakłócenia elektromagnetyczne. Aby osiągnąć jak największą przepustowość podczas działania istniejącej sieci LAN, jakie medium transmisyjne powinno zostać użyte?

A. kabel telefoniczny
B. fale elektromagnetyczne w zakresie podczerwieni
C. skrętkę nieekranowaną
D. kabel światłowodowy
Kabel światłowodowy jest najlepszym rozwiązaniem w przypadku silnych zakłóceń elektromagnetycznych, jak te występujące w przyległych pomieszczeniach. Dzięki wykorzystaniu światła jako medium transmisyjnego, kable światłowodowe są całkowicie odporne na zakłócenia elektromagnetyczne, co zapewnia nieprzerwaną i wysoką przepustowość danych. W zastosowaniach biznesowych, gdzie stabilność i prędkość połączenia są kluczowe, światłowody stają się standardem. Przykłady ich zastosowania obejmują centra danych oraz infrastruktury telekomunikacyjne, gdzie duża ilość danych musi być przesyłana w krótkim czasie. Co więcej, światłowody mogą przesyłać sygnały na dużą odległość bez znacznej degradacji jakości, co jest istotne w dużych biurowcach czy kampusach. Według standardów IEEE, światłowody są zalecane do zastosowań w sieciach lokalnych, zwłaszcza tam, gdzie wymagane są wysokie prędkości oraz niezawodność, co czyni je najlepszym wyborem w warunkach dużych zakłóceń.