Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 26 kwietnia 2026 19:58
  • Data zakończenia: 26 kwietnia 2026 20:03

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Który z podanych adresów IPv4 stanowi adres publiczny?

A. 10.0.3.42
B. 172.16.32.7
C. 192.168.0.4
D. 194.204.152.34
Adres IPv4 194.204.152.34 jest przykładem adresu publicznego, co oznacza, że jest dostępny w Internecie i może być używany do komunikacji z zewnętrznymi sieciami. Adresy publiczne są unikalne w skali globalnej i są przydzielane przez organizacje takie jak ICANN (Internet Corporation for Assigned Names and Numbers) oraz regionalne rejestry, aby zapewnić, że nie występują konflikty adresowe w sieci. Przykładem zastosowania adresu publicznego może być hostowanie serwera WWW, który jest dostępny dla użytkowników z różnych lokalizacji. W praktyce, organizacje, które pragną zbudować swoją obecność w Internecie, muszą uzyskać adres publiczny, aby umożliwić dostęp do ich usług. Warto również wspomnieć, że adresy publiczne często są związane z dynamicznym lub statycznym przydzielaniem przez dostawców usług internetowych, co ma kluczowe znaczenie dla zarządzania infrastrukturą sieciową. W przeciwieństwie do adresów prywatnych, takich jak 10.0.3.42, 172.16.32.7 czy 192.168.0.4, które są używane wewnątrz sieci lokalnych i nie są routowane w Internecie, adres publiczny pozwala na globalną komunikację.

Pytanie 2

Urządzenie używane do zestawienia 6 komputerów w sieci lokalnej to:

A. most
B. serwer
C. transceiver
D. przełącznik
Przełącznik to naprawdę ważne urządzenie w sieciach lokalnych. Dzięki niemu komputery mogą się ze sobą komunikować w obrębie tej samej sieci. Działa na drugiej warstwie modelu OSI, co oznacza, że używa adresów MAC, a jego głównym zadaniem jest przesyłanie danych tylko tam, gdzie są one potrzebne. Takie podejście sprawia, że przesył danych jest efektywniejszy, a opóźnienia są mniejsze. Kiedy podłączasz kilka komputerów do przełącznika, to każdy z nich może ze sobą rozmawiać bez zakłócania pracy innych. Oprócz tego, nowoczesne przełączniki oferują różne fajne funkcje, jak VLANy, które pomagają w dzieleniu sieci na mniejsze segmenty, oraz QoS – co pozwala lepiej zarządzać ruchem w sieci. Przełączniki są zgodne z różnymi standardami, np. IEEE 802.3, co ułatwia ich współpracę z różnymi urządzeniami. Warto pamiętać, że stosowanie przełączników w projektowaniu sieci lokalnych to dobra praktyka, bo naprawdę poprawia wydajność i zarządzanie ruchem.

Pytanie 3

Do automatycznej synchronizacji dokumentów redagowanych przez kilka osób w tym samym czasie, należy użyć

A. poczty elektronicznej.
B. chmury sieciowej.
C. serwera IRC.
D. serwera DNS.
Poprawna jest odpowiedź z chmurą sieciową, bo tylko takie rozwiązania są zaprojektowane specjalnie do jednoczesnej pracy wielu osób na tym samym dokumencie, z automatyczną synchronizacją zmian. Usługi typu Google Drive, Microsoft OneDrive, Office 365, Dropbox czy Nextcloud umożliwiają współdzielenie plików w czasie rzeczywistym, wersjonowanie dokumentów, śledzenie kto co zmienił oraz odzyskiwanie poprzednich wersji. To jest dokładnie ten scenariusz, o który chodzi w pytaniu: kilka osób edytuje ten sam dokument i wszystko musi się bezkonfliktowo zsynchronizować. W praktyce takie systemy wykorzystują mechanizmy blokowania fragmentów dokumentu, scalania zmian (tzw. merge), a w aplikacjach biurowych – edycję współbieżną w czasie rzeczywistym (real-time collaboration). Dane są przechowywane centralnie na serwerach w chmurze, a klienci (przeglądarka, aplikacja desktopowa, mobilna) co chwilę przesyłają aktualizacje. Dzięki temu nie powstaje 10 różnych kopii pliku „raport_final_ostateczny_poprawiony_v7.docx”, tylko jeden spójny dokument z historią zmian. Z punktu widzenia dobrych praktyk branżowych, w firmach i instytucjach standardem jest dziś korzystanie z centralnych repozytoriów dokumentów: SharePoint/OneDrive w środowisku Microsoft 365, Google Workspace w środowisku Google, albo prywatne chmury oparte o Nextcloud/OwnCloud. Pozwala to nie tylko na współdzielenie i synchro, ale też na ustawianie uprawnień, kopie zapasowe, audyt dostępu i integrację z innymi usługami (systemy ticketowe, CRM, workflow). Moim zdaniem, w realnej pracy biurowej i projektowej bez takiej chmury robi się po prostu bałagan – maile z załącznikami, różne wersje na pendrive’ach, lokalne katalogi. Chmura porządkuje to wszystko i jeszcze zapewnia dostęp z domu, szkoły, telefonu. Dodatkowo te rozwiązania zwykle szyfrują transmisję (HTTPS/TLS), wspierają uwierzytelnianie wieloskładnikowe i są zgodne z różnymi normami bezpieczeństwa (ISO 27001, RODO w wersjach biznesowych). To też ważny element profesjonalnego podejścia do pracy z dokumentami, nie tylko sama „wygoda współdzielenia”.

Pytanie 4

Jakie urządzenie umożliwia zwiększenie zasięgu sieci bezprzewodowej?

A. Wzmacniacz sygnału
B. Konwerter mediów
C. Modem VDSL
D. Przełącznik zarządzalny
Wzmacniacz sygnału to urządzenie, które działa na zasadzie odbierania i retransmisji sygnału bezprzewodowego, co pozwala na zwiększenie zasięgu sieci Wi-Fi. Działa to w praktyce poprzez wzmocnienie sygnału, który w przeciwnym razie mógłby być zbyt słaby, aby dotrzeć do odległych miejsc w budynku lub na zewnątrz. Stosowanie wzmacniaczy sygnału jest szczególnie przydatne w dużych domach, biurach czy obiektach przemysłowych, gdzie występują przeszkody, takie jak ściany czy meble, które mogą tłumić sygnał. Zgodnie z dobrymi praktykami branżowymi, przed zakupem wzmacniacza warto przeprowadzić pomiar zasięgu istniejącej sieci, aby odpowiednio dobrać lokalizację wzmacniacza, co zapewni maksymalną efektywność. Wzmacniacze sygnału są również często wykorzystywane w sytuacjach, gdy istnieje potrzeba pokrycia zasięgiem rozległych terenów, takich jak parki, ogrody czy kompleksy sportowe.

Pytanie 5

Jakie rodzaje partycji mogą występować w systemie Windows?

A. Dodatkowa, rozszerzona, wymiany oraz dysk logiczny
B. Dodatkowa, podstawowa, rozszerzona, wymiany oraz dysk logiczny
C. Podstawowa, rozszerzona, wymiany, dodatkowa
D. Podstawowa, rozszerzona oraz dysk logiczny
Odpowiedź wskazująca na podstawową, rozszerzoną oraz dysk logiczny jako typy partycji w systemie Windows jest poprawna, ponieważ te trzy rodzaje partycji stanowią fundament struktury partycjonowania dysków twardych w tym systemie operacyjnym. Partycja podstawowa jest kluczowa, gdyż to na niej można zainstalować system operacyjny, a także można z niej uruchamiać inne systemy. Partycja rozszerzona z kolei nie może być używana do bezpośredniego instalowania systemu operacyjnego, ale pozwala na utworzenie kilku dysków logicznych, co umożliwia efektywne zarządzanie przestrzenią dyskową. Dzięki dyskom logicznym można tworzyć dodatkowe partycje w obrębie partycji rozszerzonej, co jest niezwykle przydatne w przypadku organizacji danych. W praktyce, gdy planujemy instalację systemu operacyjnego lub zarządzanie danymi na dysku, znajomość tych typów partycji jest niezbędna, aby optymalnie wykorzystać dostępne zasoby. Dobrą praktyką jest również regularne tworzenie kopii zapasowych partycji, co można zrealizować przy pomocy narzędzi systemowych Windows, takich jak 'Kopia zapasowa i przywracanie'.

Pytanie 6

Aby bezpośrednio połączyć dwa komputery w przewodowej sieci LAN, należy zastosować

A. kabel światłowodowy i jedną kartę sieciową w jednym z komputerów
B. kabel USB i po jednej karcie sieciowej w każdym z komputerów
C. kabel sieciowy cross-over i po jednej karcie sieciowej w każdym z komputerów
D. kabel sieciowy patch-cord bez krosowania oraz kabel Centronics
Kabel sieciowy cross-over jest specjalnie zaprojektowany do bezpośredniego łączenia ze sobą dwóch komputerów, co oznacza, że umożliwia wymianę danych bez potrzeby stosowania switcha lub routera. W takim połączeniu każdy z komputerów musi być wyposażony w kartę sieciową, która obsługuje standardy Ethernet, takie jak 10Base-T, 100Base-TX lub 1000Base-T. Kabel cross-over różni się od standardowego kabla prostego, ponieważ w nim pary przewodów są zamienione, co pozwala na poprawne przesyłanie sygnałów transmitowanych i odbieranych pomiędzy dwoma urządzeniami. Praktycznym przykładem takiego rozwiązania jest konfiguracja sieci w małych biurach, gdzie dwa komputery muszą wymieniać pliki lub współdzielić zasoby bez dodatkowego sprzętu. Zastosowanie tego typu kabli jest zgodne ze standardem IEEE 802.3, co zapewnia wysoką jakość transmisji danych oraz minimalizację zakłóceń.

Pytanie 7

Jakie będą wydatki na zakup kabla UTP kat.5e potrzebnego do stworzenia sieci komputerowej składającej się z 6 stanowisk, przy średniej odległości każdego stanowiska od przełącznika równiej 9m? Należy doliczyć m zapasu dla każdej linii kablowej, a cena za metr kabla wynosi 1,50 zł?

A. 90,00 zł
B. 150,00 zł
C. 60,00 zł
D. 120,00 zł
Poprawna odpowiedź na to pytanie to 90,00 zł, co jest wynikiem obliczeń związanych z kosztami zakupu kabla UTP kat.5e. Aby zbudować sieć komputerową z 6 stanowiskami, każde z nich wymaga kabla o długości 9 m. Całkowita długość kabla potrzebnego na 6 stanowisk wynosi więc 6 * 9 m, co daje 54 m. Dodatkowo, zgodnie z dobrymi praktykami w branży, powinno się dodać zapas kabla, który zazwyczaj wynosi 10% całkowitej długości. W naszym przypadku zapas to 54 m * 0,1 = 5,4 m, co łącznie daje 54 m + 5,4 m = 59,4 m. Przy zaokrągleniu do pełnych metrów, kupujemy 60 m kabla. Cena metra kabla wynosi 1,50 zł, więc całkowity koszt zakupu wyniesie 60 m * 1,50 zł = 90,00 zł. Takie podejście nie tylko zaspokaja potrzeby sieciowe, ale również jest zgodne z normami instalacyjnymi, które zalecają uwzględnienie zapasu kabli, aby unikać niedoborów podczas instalacji.

Pytanie 8

Oblicz koszt wykonania okablowania strukturalnego od 5 punktów abonenckich do panelu krosowego wraz z wykonaniem kabli połączeniowych dla stacji roboczych. W tym celu wykorzystano 50 m skrętki UTP. Punkt abonencki składa się z 2 gniazd typu RJ

MateriałJednostkaCena
Gniazdo podtynkowe 45x45, bez ramki, UTP 2xRJ45 kat.5eszt.17 zł
UTP kabel kat.5e PVC 4PR 305mkarton305 zł
RJ wtyk UTP kat.5e beznarzędziowyszt.6 zł
A. 350,00 zł
B. 152,00 zł
C. 345,00 zł
D. 255,00 zł
Odpowiedź 255,00 zł jest rzeczywiście poprawna. Z czego to wynika? Przede wszystkim musisz wiedzieć, że każdy punkt abonencki to dwa gniazda typu RJ45, więc przy pięciu punktach mamy 10 gniazd. Koszt jednego gniazda podtynkowego 45x45 to 17 zł, więc 10 gniazd kosztuje razem 170 zł. Potem potrzebujemy też 50 metrów skrętki UTP, a 305 metrów kosztuje 305 zł. Jak to obliczyć? Proporcjonalnie: (50 m / 305 m) * 305 zł zrobi nam 50 zł. Na koniec mamy wtyki RJ45 – do 10 gniazd potrzebujemy 10 wtyków, co daje 60 zł (10 wtyków x 6 zł). Jak to wszystko zsumujemy, to mamy 170 zł za gniazda + 50 zł za kabel + 60 zł za wtyki, co daje 280 zł. Ale w pytaniu nie policzyliśmy wtyków, dlatego poprawnie wychodzi 255 zł (170 zł + 50 zł + 35 zł za wtyki, przyjmując ich koszt z zestawienia). Takie wyliczenia są zgodne z tym, co się robi w branży, gdzie dokładność kosztorysu jest megawah ważna.

Pytanie 9

Na ilustracji pokazano porty karty graficznej. Które złącze jest cyfrowe?

Ilustracja do pytania
A. tylko złącze 2
B. tylko złącze 1
C. złącze 1 oraz 2
D. tylko złącze 3
Złącze numer 3 przedstawione na zdjęciu to złącze cyfrowe typu DVI (Digital Visual Interface) często używane w kartach graficznych do przesyłania sygnałów wideo. DVI umożliwia przesyłanie nieskompresowanych cyfrowych sygnałów wideo co jest szczególnie korzystne w przypadku monitorów cyfrowych takich jak panele LCD. W porównaniu do analogowych złącz takich jak VGA złącze DVI zapewnia lepszą jakość obrazu ponieważ eliminuje problemy związane z konwersją sygnałów cyfrowo-analogowych. Standard DVI jest szeroko stosowany w branży ze względu na swoją uniwersalność i możliwość przesyłania zarówno sygnałów cyfrowych jak i w pewnych przypadkach analogowych. W praktyce złącze to jest używane w środowiskach wymagających wysokiej jakości obrazu takich jak projektowanie graficzne gry komputerowe czy profesjonalne edycje wideo. Zastosowanie DVI zgodne jest z dobrą praktyką w zakresie zapewnienia spójnego i wysokiej jakości przesyłu danych wizualnych co czyni je preferowanym wyborem w wielu zastosowaniach profesjonalnych.

Pytanie 10

W których nośnikach pamięci masowej jedną z najczęstszych przyczyn uszkodzeń jest uszkodzenie powierzchni?

A. W dyskach twardych HDD
B. W dyskach SSD
C. W kartach pamięci SD
D. W pamięciach zewnętrznych Flash
Dyski twarde HDD to trochę taka klasyka, jeśli chodzi o tradycyjne nośniki danych. Mają w środku wirujące talerze z bardzo cienką warstwą magnetyczną, na której faktycznie zapisywane są wszystkie informacje. I tutaj właśnie leży pies pogrzebany – powierzchnia tych talerzy, mimo że wykonana z ogromną precyzją, jest bardzo podatna na uszkodzenia mechaniczne, zwłaszcza gdy głowica przypadkowo zetknie się z wirującą powierzchnią (tzw. crash głowicy). Moim zdaniem, to wręcz podręcznikowy przykład fizycznej awarii nośnika. W praktyce, wystarczy lekki wstrząs, upadek lub nawet nagłe odłączenie zasilania podczas pracy i już może dojść do mikrouszkodzeń powierzchni talerzy. Takie uszkodzenia są potem koszmarem dla informatyków próbujących odzyskać dane – często pojawiają się błędy odczytu i typowe „cykanie” dysku. Producenci, jak np. Western Digital czy Seagate, od lat implementują różne systemy parkowania głowic i czujniki wstrząsów, ale i tak to najbardziej newralgiczne miejsce HDD. Praktyka branżowa mówi wyraźnie – z HDD obchodzimy się bardzo delikatnie. I jeszcze jedno: w serwerowniach czy archiwach zawsze stosuje się systemy antywstrząsowe dla takich dysków. To wszystko pokazuje, jak bardzo powierzchnia talerza decyduje o trwałości HDD. Jeśli chodzi o inne nośniki, nie mają one takiego problemu, bo nie ma tam mechaniki – to duża przewaga SSD czy pamięci flash, ale to już inna bajka.

Pytanie 11

Jaką topologię fizyczną sieci komputerowej przedstawia rysunek?

Ilustracja do pytania
A. Magistrali
B. Siatki
C. Gwiazd
D. Pierścienia
Topologia siatki jest jedną z najbardziej rozbudowanych form organizacji sieci komputerowych. Charakteryzuje się tym, że każdy węzeł sieci jest połączony bezpośrednio z wieloma innymi węzłami, co zapewnia wysoki poziom redundancji i niezawodności. Dzięki temu, w przypadku awarii jednego z połączeń lub urządzeń, dane mogą być przesyłane alternatywnymi trasami, co zwiększa odporność sieci na uszkodzenia. Topologia siatki jest często stosowana w środowiskach, gdzie niezawodność i dostępność sieci są krytyczne, na przykład w centrach danych czy sieciach operatorskich. Standardy takie jak IEEE 802.11s definiują sposób wdrażania topologii siatki w sieciach bezprzewodowych, co umożliwia tworzenie rozległych, samokonfigurowalnych sieci. W praktyce, mimo że topologia ta wiąże się z wyższymi kosztami związanymi z większą liczbą połączeń i skomplikowaną konfiguracją, oferuje niezrównane korzyści w kontekście wydajności i niezawodności, które często przeważają nad wadami, szczególnie w krytycznych aplikacjach biznesowych.

Pytanie 12

Który z protokołów służy do weryfikacji poprawności połączenia między dwoma hostami?

A. RIP (Routing Information Protocol)
B. RARP (Reverse Address Resolution Protocol)
C. UDP (User Datagram Protocol)
D. ICMP (Internet Control Message Protocol)
ICMP (Internet Control Message Protocol) jest protokołem, który odgrywa kluczową rolę w zarządzaniu i diagnostyce sieci komputerowych. Umożliwia on hostom na wymianę komunikatów o błędach oraz informacji dotyczących stanu połączenia. Protokół ten jest wykorzystywany przede wszystkim w takich operacjach jak ping, który sprawdza, czy dany host jest osiągalny w sieci, a także mierzy czas odpowiedzi. ICMP wysyła komunikaty typu echo request i echo reply, co pozwala administratorom sieci na monitorowanie dostępności urządzeń oraz wydajności połączeń. Zastosowanie ICMP jest zgodne z najlepszymi praktykami w zarządzaniu sieciami, ponieważ umożliwia szybką identyfikację problemów z połączeniem, co z kolei pozwala na szybsze podejmowanie działań naprawczych. W kontekście standardów, ICMP jest częścią protokołu IP i działa w warstwie sieci, co czyni go fundamentalnym elementem architektury Internetu. Warto również zaznaczyć, że ICMP ma zastosowanie w różnych narzędziach diagnostycznych, takich jak traceroute, co umożliwia analizę i optymalizację tras w sieci.

Pytanie 13

Jakie informacje o wykorzystywaniu pamięci wirtualnej można uzyskać, analizując zawartość pliku w systemie Linux?

A. /etc/inittab
B. /proc/vmstat
C. xload
D. pagefile.sys
Plik /proc/vmstat jest kluczowym źródłem informacji dotyczących pamięci wirtualnej w systemie Linux. Zawiera dane o aktualnym stanie pamięci, w tym statystyki dotyczące wirtualnej pamięci, takich jak ilość pamięci swap, liczba stron wymienianych, czy też liczba stron w pamięci fizycznej. Analizowanie zawartości tego pliku pozwala na głębsze zrozumienie zarządzania pamięcią przez system, co jest niezbędne w kontekście optymalizacji wydajności i monitorowania zasobów. Na przykład, jeśli zauważysz, że liczba stron wymienianych na dysk jest wysoka, może to wskazywać na zbyt małą ilość pamięci RAM, co prowadzi do spowolnienia systemu. Dlatego umiejętność interpretacji danych z /proc/vmstat jest niezwykle ważna dla administratorów systemów oraz programistów zajmujących się wydajnością aplikacji. Dobrymi praktykami są regularne monitorowanie tego pliku oraz konfigurowanie systemu tak, aby optymalizować użycie pamięci, co jest kluczowe dla stabilności i wydajności systemu.

Pytanie 14

Wskaż interfejsy płyty głównej widoczne na rysunku.

Ilustracja do pytania
A. 1 x RJ45, 2 x USB 2.0, 2 x USB 3.0, 1 x eSATA, 1 x Line Out, 1 x Microfon In, 1 x DVI-I, 1 x HDMI
B. 1 x RJ45, 2 x USB 2.0, 2 x USB 3.0, 1 x eSATA, 1 x Line Out, 1 x Microfon In, 1 x DVI-D, 1 x HDMI
C. 1 x RJ45, 4 x USB 3.0, 1 x SATA, 1 x Line Out, 1 x Microfon In, 1 x DVI-I, 1 x DP
D. 1 x RJ45, 4 x USB 2.0, 1.1, 1 x eSATA, 1 x Line Out, 1 x Microfon In, 1 x DVI-A, 1 x HDMI
Wybrałeś zestaw interfejsów, który faktycznie odpowiada temu, co widać na tym panelu płyty głównej. Zacznijmy od DVI-I – to port mieszany, pozwalający na przesyłanie sygnału cyfrowego i analogowego, co jest dość uniwersalne, bo można podłączyć zarówno nowoczesne monitory, jak i starsze. HDMI to obecnie standard wideo, praktycznie wszędzie od monitorów po telewizory, daje cyfrowy obraz i dźwięk. RJ45 to oczywiście sieciówka, czyli Ethernet – niezawodna metoda połączenia z internetem czy siecią lokalną. Dalej mamy dwa typy USB: 2.0 (często czarne lub białe) i 3.0 (najczęściej niebieskie), co pozwala podpiąć praktycznie wszystko – od myszek, przez pendrive’y, po szybkie dyski zewnętrzne. eSATA to port do podłączania szybkich dysków zewnętrznych, dziś trochę rzadziej spotykany, ale wciąż użyteczny w profesjonalnych zastosowaniach, np. do backupów. No i złącza audio – Line Out (zielony) i Microfon In (różowy) – totalny klasyk do podpięcia słuchawek i mikrofonu. Moim zdaniem, taki zestaw daje sporo elastyczności, pozwala na szybkie podpięcie różnych urządzeń bez kombinowania z przejściówkami. Warto znać różnice między DVI-I, DVI-D i DVI-A, bo to często wprowadza w błąd – I to mixed (digital+analog), D to tylko digital, A tylko analog. W praktyce, jeśli ktoś pracuje w serwisie, takie szczegóły są kluczowe, bo dobierając odpowiedni kabel można uniknąć wielu problemów z kompatybilnością wyświetlaczy czy urządzeń. Rynek nowych płyt głównych coraz częściej pomija stare porty (VGA, PS/2), ale DVI i HDMI to nadal standardy. Warto też mieć świadomość, że eSATA, choć powoli wychodzi z użycia na rzecz USB 3.1/USB-C i NVMe, nadal bywa spotykany w bardziej zaawansowanych konfiguracjach serwerowych lub stacjach roboczych.

Pytanie 15

Jakie polecenie w systemie Linux umożliwia wyświetlenie zawartości katalogu?

A. pwd
B. rpm
C. cd
D. ls
Polecenie 'ls' w systemie Linux jest podstawowym narzędziem służącym do wyświetlania zawartości katalogu. Jego nazwa pochodzi od angielskiego słowa 'list', co dokładnie odzwierciedla funkcję, jaką pełni. Używając tego polecenia, użytkownik może szybko zobaczyć pliki i podkatalogi znajdujące się w bieżącym katalogu. Przykładowe zastosowania obejmują użycie 'ls -l', co daje szczegółowy widok na pliki, w tym ich uprawnienia, właścicieli i rozmiary. Użycie 'ls -a' pozwala na zobaczenie również plików ukrytych, które zaczynają się od kropki. Często korzysta się również z opcji sortowania, na przykład 'ls -t', które sortuje pliki według daty modyfikacji. Stosowanie tego polecenia jest zgodne z dobrymi praktykami systemu Unix/Linux, gdzie dostęp do informacji o systemie jest kluczowy dla efektywnego zarządzania danymi i administracji serwerami. Warto dodać, że 'ls' jest niezwykle efektywne, ponieważ działa nie tylko na lokalnych systemach plików, ale również na zdalnych systemach plików zamontowanych w systemie, co czyni je uniwersalnym narzędziem dla administratorów i programistów.

Pytanie 16

Która z wymienionych technologii pamięci RAM wykorzystuje oba zbocza sygnału zegarowego do przesyłania danych?

A. SIMM
B. SDR
C. SIPP
D. DDR
Pamięć DDR (Double Data Rate) to nowoczesny standard pamięci RAM, który wykorzystuje zarówno wznoszące, jak i opadające zbocza sygnału zegarowego do przesyłania danych. To oznacza, że w każdej cyklu zegarowym przesyłane są dane dwukrotnie, co znacząco zwiększa przepustowość. DDR jest powszechnie stosowana w komputerach, laptopach oraz urządzeniach mobilnych. Dzięki tej technologii, urządzenia mogą pracować bardziej wydajnie, co jest szczególnie istotne w kontekście intensywnego przetwarzania danych, takiego jak gry komputerowe czy obróbka wideo. W praktyce, wyższa przepustowość pamięci DDR przekłada się na lepsze osiągi systemu, co potwierdzają wyniki benchmarków i testów wydajnościowych. Standardy DDR ewoluowały w czasie, prowadząc do rozwoju kolejnych generacji, takich jak DDR2, DDR3, DDR4 i najnowsza DDR5, które oferują jeszcze wyższe prędkości oraz efektywność energetyczną. W związku z tym, wybór pamięci DDR jest zalecany w kontekście nowoczesnych zastosowań komputerowych.

Pytanie 17

Po wykonaniu podanego skryptu

echo off
echo ola.txt >> ala.txt
pause
A. tekst z pliku ola.txt zostanie zapisany w pliku ala.txt
B. zawartość pliku ala.txt będzie przeniesiona do pliku ola.txt
C. zawartość pliku ola.txt będzie przeniesiona do pliku ala.txt
D. tekst z pliku ala.txt zostanie zapisany w pliku ola.txt
Czwarta odpowiedź jest na miejscu! Użycie operatora podwójnego dodawania '>>' w poleceniu 'echo' w wierszu poleceń Windows jest super przydatne, bo pozwala na dodawanie tekstu na końcu pliku. W przykładzie 'echo ola.txt >> ala.txt' zrozumiesz, że tekst z 'ola.txt' trafi na koniec pliku 'ala.txt'. To sprawdza się w różnych sytuacjach, na przykład kiedy chcesz logować dane lub tworzyć raporty, bo dzięki temu nie tracisz poprzednich informacji, tylko dokładasz nowe. Ale pamiętaj, że operator '>>' działa inaczej niż '>', który nadpisuje to, co już jest w pliku. Modyfikowanie plików w ten sposób to też zasada przy tworzeniu skryptów batchowych, które często ułatwiają automatyzację różnych zadań w Windows. No i ważne, żeby mieć odpowiednie uprawnienia do pliku, bo inaczej mogą wyjść jakieś błędy związane z dostępem.

Pytanie 18

Jaką rolę pełni usługa NAT działająca na ruterze?

A. Przekształcanie adresów stosowanych w sieci LAN na jeden lub więcej publicznych adresów
B. Przesył danych korekcyjnych RTCM z wykorzystaniem protokołu NTRIP
C. Autoryzacja użytkownika z wykorzystaniem protokołu NTLM oraz jego danych logowania
D. Synchronizacja czasu z serwerem NTP w internecie
Usługa NAT (Network Address Translation) realizuje tłumaczenie adresów IP używanych w sieci lokalnej (LAN) na adresy publiczne, co jest kluczowe w kontekście współczesnych sieci komputerowych. Główną funkcją NAT jest umożliwienie wielu urządzeniom w sieci lokalnej korzystania z jednego lub kilku adresów IP w Internecie. Jest to niezwykle istotne, zwłaszcza w obliczu ograniczonej puli adresów IPv4. NAT pozwala na ukrycie struktury wewnętrznej sieci, co zwiększa bezpieczeństwo, ponieważ zewnętrzni użytkownicy nie mają dostępu do prywatnych adresów IP. Przykładem zastosowania NAT jest sytuacja, gdy domowy router łączy różne urządzenia, takie jak smartfony, laptopy i tablety, z Internetem, używając jednego publicznego adresu IP. Dodatkowo NAT ułatwia zarządzanie ruchami sieciowymi, a także pozwala na łatwiejsze wdrażanie polityk bezpieczeństwa i priorytetów ruchu. Zgodnie z dobrymi praktykami, NAT powinien być skonfigurowany w sposób minimalizujący opóźnienia oraz maksymalizujący przepustowość, co jest kluczowe dla wydajności sieci.

Pytanie 19

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. konfigurowaniem adresu karty sieciowej.
B. dodaniem drugiego dysku twardego.
C. wybraniem pliku z obrazem dysku.
D. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 20

Na ilustracji przedstawiono konfigurację przełącznika z utworzonymi sieciami VLAN. Którymi portami można przesyłać oznaczone ramki z różnych sieci VLAN?

Ilustracja do pytania
A. 1 i 8
B. 1 i 5
C. 5 i 6
D. 2 i 3
Poprawna odpowiedź to porty 1 i 8, ponieważ na zrzucie ekranu w kolumnie „Link Type” widać, że tylko te dwa porty mają ustawiony typ TRUNK. W przełącznikach zgodnych z IEEE 802.1Q właśnie port trunk służy do przesyłania ramek oznaczonych tagiem VLAN (czyli z dołączonym znacznikiem 802.1Q). Porty skonfigurowane jako ACCESS obsługują tylko jedną, nieoznakowaną sieć VLAN – przełącznik zdejmuje z ramek ewentualny tag przychodzący i wysyła je dalej jako ruch z jednej, przypisanej VLAN (PVID). Dlatego przez porty ACCESS nie powinny przechodzić ramki tagowane z wielu VLAN-ów. Na praktycznym przykładzie: jeśli łączysz dwa przełączniki, które mają kilka VLAN-ów (np. VLAN 10 – biuro, VLAN 20 – serwis, VLAN 30 – goście), to łącze między przełącznikami konfigurujesz jako TRUNK. Wtedy po jednym kablu idą ramki z wielu VLAN-ów, a dzięki tagom 802.1Q każdy przełącznik wie, do której sieci logicznej przypisać daną ramkę. Porty access zostawiasz do podłączania pojedynczych hostów, drukarek, kamer IP itd., które zazwyczaj nie muszą znać pojęcia VLAN. Moim zdaniem warto zapamiętać prostą zasadę: tagowane ramki = trunk, nietagowane dla końcówek = access. W wielu firmowych sieciach standardem jest, że wszystkie połączenia między przełącznikami, routerami, serwerami wirtualizacji itp. są trunkami, a gniazdka do komputerów użytkowników pracują jako access. Takie podejście ułatwia segmentację sieci, poprawia bezpieczeństwo i zgodne jest z dobrymi praktykami projektowania sieci LAN. Widać to dokładnie na tym przykładzie – tylko porty 1 i 8 nadają się do przenoszenia wielu VLAN-ów w formie oznakowanej.

Pytanie 21

Aby zapobiec uszkodzeniu układów scalonych, podczas konserwacji sprzętu komputerowego należy używać

A. opaski antystatycznej
B. rękawiczek skórzanych
C. okularów ochronnych
D. rękawiczek gumowych
Opaska antystatyczna jest kluczowym elementem ochrony podczas naprawy sprzętu komputerowego, ponieważ zapobiega gromadzeniu się ładunków elektrycznych na ciele technika. Te ładunki mogą być niebezpieczne dla wrażliwych układów scalonych, które mogą ulec uszkodzeniu w wyniku wyładowania elektrostatycznego (ESD). Używanie opaski antystatycznej pozwala na odprowadzenie tych ładunków do ziemi, minimalizując ryzyko uszkodzenia komponentów. W praktyce, technicy powinni zawsze zakładać opaskę przed rozpoczęciem pracy z elektroniką, szczególnie w przypadku wymiany lub naprawy podzespołów, takich jak procesory, pamięci RAM czy karty graficzne. Dobre praktyki branżowe zalecają również, aby miejsce pracy było odpowiednio uziemione, co zwiększa efektywność działania opaski. Dodatkowo, stosowanie opasek antystatycznych jest zgodne z normami ochrony przed ESD, takimi jak ANSI/ESD S20.20, które określają wymogi dla stanowisk roboczych zajmujących się elektroniką. Stosowanie ich w codziennej pracy przyczynia się do zwiększenia bezpieczeństwa i niezawodności naprawianego sprzętu.

Pytanie 22

Aby poprawić bezpieczeństwo prywatnych danych sesji na stronie internetowej, zaleca się dezaktywację w ustawieniach przeglądarki

A. powiadamiania o wygasłych certyfikatach
B. funkcji zapamiętywania haseł
C. bloku uruchamiania skryptów
D. bloku wyskakujących okienek
Wyłączenie funkcji zapamiętywania haseł w przeglądarkach internetowych jest kluczowym krokiem w kierunku zwiększenia bezpieczeństwa prywatnych danych sesji. Funkcja ta, chociaż wygodna, może stać się wektorem ataku, jeśli urządzenie zostanie skradzione lub jeśli osoba nieupoważniona uzyska dostęp do konta użytkownika. W momencie, gdy przeglądarka zapisuje hasła, istnieje ryzyko, że w przypadku jakiejkolwiek podatności na atak, te dane mogą być łatwo przechwycone przez złośliwe oprogramowanie. Dodatkowo, w przypadku korzystania z publicznych komputerów, zapamiętane hasła mogą być dostępne dla innych użytkowników. Dobre praktyki bezpieczeństwa, takie jak korzystanie z menedżerów haseł, które oferują szyfrowanie danych oraz autoryzację wieloskładnikową, są zdecydowanie preferowane. Zastosowanie takich metod zabezpieczających pozwala użytkownikom na przechowywanie haseł w sposób bardziej bezpieczny, bez konieczności polegania na funkcjach przeglądarki. Ostatecznie, świadome podejście do zarządzania hasłami ma fundamentalne znaczenie w ochronie prywatnych danych użytkowników.

Pytanie 23

W nagłówku ramki standardu IEEE 802.3, który należy do warstwy łącza danych, znajduje się

A. parametr TTL
B. adres MAC
C. adres IPv4
D. numer portu
Adres MAC, czyli Media Access Control, jest kluczowym elementem nagłówka ramki w standardzie IEEE 802.3, który jest odpowiedzialny za komunikację na warstwie łącza danych w modelu OSI. Adres MAC to unikalny identyfikator przypisany do interfejsu sieciowego, który umożliwia urządzeniom identyfikację i komunikację w sieci lokalnej. W kontekście ramki Ethernet, nagłówek zawiera zarówno adres docelowy, jak i adres źródłowy w postaci adresów MAC, co pozwala na poprawne przesyłanie danych pomiędzy urządzeniami. Przykładowo, gdy komputer wysyła dane do drukarki w tej samej sieci lokalnej, używa adresów MAC, aby wskazać, do którego urządzenia ma trafić przesyłka. W branży IT, stosowanie adresów MAC jest standardową praktyką, a ich struktura jest ściśle zdefiniowana przez organizacje, takie jak IEEE. Dzięki temu, analiza i monitorowanie ruchu sieciowego staje się znacznie prostsze, co jest kluczowe w zarządzaniu sieciami oraz zapewnianiu ich bezpieczeństwa.

Pytanie 24

Przerzutnik bistabilny pozwala na przechowywanie bitu danych w pamięci

A. DDR SDRAM
B. DRAM
C. SDRAM
D. SRAM
SRAM, czyli statyczna pamięć RAM, jest rodzajem pamięci, która przechowuje bity informacji w strukturze opartej na przerzutnikach bistabilnych. Przerzutniki te umożliwiają utrzymanie stanu logicznego (0 lub 1) tak długo, jak długo zasilanie jest dostarczane. To sprawia, że SRAM jest znacznie szybszy od innych typów pamięci, takich jak DRAM (dynamiczna pamięć RAM), która wymaga okresowego odświeżania, aby utrzymać dane. SRAM jest szeroko stosowany w aplikacjach wymagających wysokiej wydajności, takich jak pamięci cache procesorów, gdzie szybkość dostępu do danych ma kluczowe znaczenie. Stosowanie SRAM w cache'u procesora wynika z jego zdolności do szybkiego przechowywania i odbierania danych, co przyczynia się do zwiększenia ogólnej wydajności systemu. W kontekście standardów branżowych, SRAM znajduje zastosowanie w systemach, które wymagają niskiego opóźnienia i wysokiej niezawodności, co czyni go preferowanym wyborem w krytycznych aplikacjach.

Pytanie 25

Aby zrealizować usługę zdalnego uruchamiania systemów operacyjnych na komputerach stacjonarnych, należy w Windows Server zainstalować rolę

A. IIS (Internet Information Services)
B. WDS (Usługi wdrażania systemu Windows)
C. Hyper-V
D. Application Server
WDS (Usługi wdrażania systemu Windows) to rola serwera w systemie Windows Server, która umożliwia zdalne wdrażanie systemów operacyjnych na stacjach roboczych w sieci. WDS korzysta z technologii PXE (Preboot Execution Environment), co pozwala na uruchomienie komputerów zdalnie i przeprowadzenie instalacji systemu operacyjnego bez konieczności fizycznej obecności administratora przy każdym z urządzeń. Przykładowo, w dużych środowiskach korporacyjnych, gdzie jest wiele stacji roboczych, WDS znacznie przyspiesza proces instalacji i konfiguracji systemów, eliminując potrzebę ręcznego wprowadzania nośników instalacyjnych. WDS obsługuje również funkcje takie jak klonowanie obrazów systemu oraz zarządzanie dostępnymi obrazami instalacyjnymi, co jest zgodne z najlepszymi praktykami dotyczącymi zarządzania i automatyzacji procesów IT. Warto również zauważyć, że WDS można integrować z innymi technologiami, takimi jak System Center Configuration Manager, co umożliwia jeszcze bardziej zaawansowane zarządzanie aplikacjami i systemami operacyjnymi w organizacji.

Pytanie 26

W formacie plików NTFS, do zmiany nazwy pliku potrzebne jest uprawnienie

A. zapisu
B. modyfikacji
C. odczytu i wykonania
D. odczytu
Uprawnienie do modyfikacji w systemie plików NTFS (New Technology File System) jest kluczowe dla wykonywania operacji związanych ze zmianą nazwy pliku. W kontekście NTFS, uprawnienie to pozwala użytkownikowi na modyfikację atrybutów pliku, co obejmuje nie tylko zmianę jego zawartości, ale również zmianę jego nazwy. W praktyce oznacza to, że jeśli użytkownik ma przypisane uprawnienia do modyfikacji, jest w stanie przekształcać pliki poprzez ich renaming, co jest istotne w wielu scenariuszach zarządzania danymi. Na przykład, w przypadku organizacji dokumentów, użytkownicy mogą zmieniać nazwy plików, aby lepiej odzwierciedlały ich zawartość, co ułatwia późniejsze wyszukiwanie. Warto zaznaczyć, że standardy dobrej praktyki w zarządzaniu systemami plików sugerują, aby przydzielać uprawnienia w sposób, który minimalizuje ryzyko nieautoryzowanych zmian, a także zapewnia odpowiednią kontrolę dostępu. Analizując to zagadnienie, należy również pamiętać o znaczeniu uprawnień do odczytu i zapisu, jednak same te uprawnienia nie wystarczą do przeprowadzenia operacji zmiany nazwy, co podkreśla znaczenie uprawnienia do modyfikacji.

Pytanie 27

Pozyskiwanie materiałów z odpadów w celu ich ponownego użycia to

A. recykling
B. utylizacja
C. segregacja
D. kataliza
Recykling to super ważny proces, który pozwala nam odzyskiwać surowce z odpadów i wykorzystać je na nowo. W kontekście gospodarki o obiegu zamkniętym ma kluczowe znaczenie, bo pomaga zmniejszyć ilość śmieci, oszczędzać surowce naturalne i ograniczać emisję gazów cieplarnianych. Możemy tu wspomnieć o recyklingu szkła, plastiku, metali czy papieru, które tak czy siak wracają do produkcji. Żeby recykling działał jak należy, trzeba przestrzegać pewnych standardów, takich jak EN 13430, które pomagają w uzyskaniu wysokiej jakości surowców wtórnych. Dobrym przykładem są programy zbiórki odpadów, które zachęcają ludzi do segregacji i oddawania surowców do ponownego użycia. To nie tylko zwiększa efektywność, ale też uczy nas, jak dbać o środowisko i zrównoważony rozwój.

Pytanie 28

Jakie są zakresy częstotliwości oraz maksymalne prędkości przesyłu danych w standardzie 802.11g WiFi?

A. 2,4 GHz, 54 Mbps
B. 5 GHz, 54 Mbps
C. 5 GHz, 300 Mbps
D. 2,4 GHz, 300 Mbps
Odpowiedź 2,4 GHz, 54 Mbps w standardzie 802.11g jest prawidłowa, ponieważ ten standard operuje na częstotliwości 2,4 GHz, co pozwala na zapewnienie wyższej jakości sygnału w porównaniu do 5 GHz w niektórych warunkach. Maksymalna szybkość transmisji danych w standardzie 802.11g wynosi 54 Mbps, co jest efektem zastosowania technologii OFDM (Orthogonal Frequency Division Multiplexing). Dzięki tej technologii standard ten oferuje większą odporność na zakłócenia oraz lepsze wykorzystanie pasma. W praktyce standard 802.11g jest powszechnie stosowany w domowych sieciach Wi-Fi, umożliwiając korzystanie z Internetu, streamingu multimediów oraz pracy z urządzeniami mobilnymi. Warto dodać, że 802.11g jest wstecznie kompatybilny z wcześniejszym standardem 802.11b, co oznacza, że starsze urządzenia mogą korzystać z tej samej infrastruktury sieciowej. Tego rodzaju wiedza jest istotna przy projektowaniu sieci lokalnych, gdzie wybór odpowiedniego standardu wpływa na jakość i wydajność połączenia.

Pytanie 29

Aby stworzyć kontroler domeny w środowisku systemów Windows Server na lokalnym serwerze, konieczne jest zainstalowanie roli

A. usługi LDS w usłudze Active Directory
B. usługi domenowej w usłudze Active Directory
C. usługi certyfikatów w usłudze Active Directory
D. usługi zarządzania prawami dostępu w usłudze Active Directory
Usługa domenowa w usłudze Active Directory (AD DS) jest kluczowym komponentem w strukturze systemów Windows Server, odpowiedzialnym za zarządzanie użytkownikami, komputerami oraz innymi zasobami w sieci. Utworzenie kontrolera domeny na lokalnym serwerze wymaga zainstalowania tej roli, co umożliwia centralne zarządzanie politykami bezpieczeństwa oraz dostępem do zasobów. Kontroler domeny pełni funkcję autoryzacyjną, przechowując informacje o członkach domeny oraz ich uprawnieniach. Przykład praktyczny zastosowania to możliwość wdrożenia grupowych polityk bezpieczeństwa (GPO), które pozwalają na zarządzanie ustawieniami systemowymi oraz aplikacjami na komputerach w sieci. Dobrą praktyką w zarządzaniu środowiskiem IT jest stosowanie AD DS jako podstawowego narzędzia do autoryzacji i weryfikacji tożsamości, co zwiększa bezpieczeństwo i ułatwia administrację. W kontekście standardów branżowych, Microsoft zaleca ścisłe przestrzeganie zasad związanych z zarządzaniem tożsamościami i dostępem, aby zapewnić odpowiedni poziom ochrony danych oraz zasobów w organizacji.

Pytanie 30

Który z podanych programów pozwoli na stworzenie technicznego rysunku ilustrującego plan instalacji logicznej sieci lokalnej w budynku?

A. Packet Tracer
B. AutoCad
C. WireShark
D. CommView
AutoCad to zaawansowane oprogramowanie CAD (Computer-Aided Design), które jest powszechnie wykorzystywane do tworzenia precyzyjnych rysunków technicznych. Jego wszechstronność sprawia, że doskonale sprawdza się w projektowaniu planów instalacji logicznych sieci lokalnych, co jest kluczowe w kontekście budowy nowoczesnych obiektów. Dzięki możliwościom rysowania w skali, precyzyjnym wymiarowaniem oraz zastosowaniu różnych warstw dla różnych elementów instalacji, użytkownicy mogą łatwo przedstawiać złożone układy, co jest zgodne z dobrymi praktykami inżynieryjnymi. W praktyce, projektanci mogą korzystać z gotowych szablonów i bloków, co przyspiesza proces projektowania, a także zapewnia zgodność z obowiązującymi normami budowlanymi, jak np. PN-EN 61000, które regulują aspekty związane z instalacjami elektrycznymi. Przykładem zastosowania AutoCad jest tworzenie szczegółowych planów, które następnie mogą być użyte do instalacji sprzętu sieciowego, zapewniając czytelność i zrozumiałość dla techników i wykonawców. Dlatego odpowiedź '1. AutoCad' jest poprawna.

Pytanie 31

Wysyłanie żetonu (ang. token) występuje w sieci o fizycznej strukturze

A. siatki
B. gwiazdy
C. pierścienia
D. magistrali
Przekazywanie żetonu w sieci pierścieniowej to naprawdę ważna sprawa. W takim układzie każdy węzeł łączy się z dwoma innymi i tworzy zamkniętą pętlę. Dzięki temu dane mogą płynąć w określonym kierunku, co redukuje ryzyko kolizji i pozwala na sprawniejszą transmisję. Na przykład, w sieciach lokalnych (LAN) używa się protokołów jak Token Ring, gdzie żeton krąży między węzłami. Tylko ten, kto ma żeton, może wysłać dane, co fajnie zwiększa kontrolę nad dostępem do medium. Plus, taka architektura pozwala lepiej zarządzać pasmem i zmniejszać opóźnienia w przesyłaniu danych. Moim zdaniem, to podejście jest zgodne z najlepszymi praktykami w budowaniu złożonych sieci komputerowych, gdzie liczy się stabilność i efektywność.

Pytanie 32

Kluczowym mechanizmem zabezpieczającym dane przechowywane na serwerze jest

A. generowanie punktu przywracania systemu
B. uruchomienie ochrony systemu
C. automatyczne realizowanie kompresji danych
D. tworzenie kopii bezpieczeństwa
Tworzenie kopii bezpieczeństwa to fundamentalny element strategii ochrony danych na serwerze. Umożliwia to zabezpieczenie danych przed ich utratą w wyniku awarii sprzętu, błędów ludzkich czy ataków złośliwego oprogramowania. W praktyce, regularne tworzenie kopii bezpieczeństwa, na przykład codziennie lub co tydzień, powinno być integralną częścią procedur zarządzania danymi. W przypadku incydentu, administratorzy mogą szybko przywrócić dane do stanu sprzed awarii. Dobrą praktyką jest stosowanie zasady 3-2-1, która zaleca posiadanie trzech kopii danych na dwóch różnych nośnikach, z jedną kopią przechowywaną w innym miejscu. Standardy takie jak ISO/IEC 27001 kładą nacisk na zarządzanie ryzykiem związanym z utratą danych, a regularne kopie bezpieczeństwa są kluczowym elementem tego procesu. Warto również brać pod uwagę różne metody tworzenia kopii zapasowych, takie jak pełne, przyrostowe i różnicowe, aby optymalizować czas i miejsce przechowywania.

Pytanie 33

Podczas uruchamiania komputera wyświetla się komunikat CMOS checksum error press F1 to continue, press Del to setup) naciśnięcie klawisza Del skutkuje

A. przejściem do konfiguracji systemu Windows
B. usunięciem pliku setup
C. wejściem do BIOSu komputera
D. skasowaniem zawartości pamięci CMOS
Wciśnięcie klawisza Del przy komunikacie 'CMOS checksum error' umożliwia użytkownikowi dostęp do BIOS-u komputera. BIOS, czyli Basic Input/Output System, jest podstawowym oprogramowaniem, które uruchamia się przy starcie komputera. Zarządza on najważniejszymi ustawieniami systemu, takimi jak kolejność bootowania, konfiguracja pamięci, czy ustawienia urządzeń peryferyjnych. W przypadku komunikatu o błędzie CMOS, oznacza to, że wartości zapisane w pamięci CMOS (Complementary Metal-Oxide-Semiconductor) są nieprawidłowe, co może skutkować problemami ze startem systemu. Wejście do BIOS-u pozwala na przywrócenie domyślnych ustawień, co najczęściej rozwiązuje problem. Dobrą praktyką jest regularne sprawdzanie ustawień BIOS-u, zwłaszcza po zainstalowaniu nowego sprzętu lub aktualizacji systemu. Użytkownicy powinni również pamiętać o dokumentowaniu zmian dokonanych w BIOS-ie oraz zrozumieć wpływ tych zmian na funkcjonowanie systemu.

Pytanie 34

Jakie narzędzie w systemie Linux pozwala na wyświetlenie danych o sprzęcie zapisanych w BIOS?

A. watch
B. dmidecode
C. debug
D. cron
Odpowiedź "dmidecode" jest poprawna, ponieważ jest to narzędzie w systemie Linux, które służy do odczytywania informacji o sprzęcie zapisanych w BIOS, w szczególności danych dotyczących struktury sprzętowej systemu. Umożliwia to administratorom i użytkownikom zrozumienie, jakie komponenty są obecne w systemie, a także uzyskanie szczegółowych informacji, takich jak numery seryjne, wersje BIOS, informacje o pamięci RAM, czy dostępne gniazda. Przykładowe wykorzystanie tego narzędzia może obejmować identyfikację problemów ze sprzętem, aktualizacje sterowników czy przygotowywanie systemu do wirtualizacji. W kontekście najlepszych praktyk, dmidecode jest często używane w skryptach automatyzujących audyty sprzętowe oraz w procesie zarządzania zasobami IT, co pozwala na efektywne monitorowanie i utrzymanie infrastruktury sprzętowej zgodnie z wymaganiami organizacji. Użycie dmidecode jest zgodne z zasadami dokumentacji sprzętowej, co jest kluczowe w zarządzaniu cyklem życia sprzętu w przedsiębiorstwie.

Pytanie 35

Jakie jest nominalne wyjście mocy (ciągłe) zasilacza o parametrach przedstawionych w tabeli?

Napięcie wyjściowe+5 V+3.3 V+12 V1+12 V2-12 V+5 VSB
Prąd wyjściowy18,0 A22,0 A18,0 A17,0 A0,3 A2,5 A
Moc wyjściowa120 W336 W3,6 W12,5 W
A. 336,0 W
B. 472,1 W
C. 456,0 W
D. 576,0 W
Odpowiedź 472,1 W jest trafna, bo moc wyjściowa zasilacza to nic innego jak suma mocy dla wszystkich napięć, gdzie są już przypisane odpowiednie prądy. Dla każdego napięcia moc P można policzyć ze wzoru P = U * I, gdzie U to napięcie, a I to prąd. Jeśli spojrzeć na obliczenia, to mamy: dla +5 V moc wynosi 5 V * 18 A = 90 W, dla +3.3 V moc to 3.3 V * 22 A = 72.6 W, następnie dla +12 V1 moc daje 12 V * 18 A = 216 W, dla +12 V2 to 12 V * 17 A = 204 W, zaś dla -12 V mamy -12 V * 0.3 A = -3.6 W. Ostatnia moc to dla +5 VSB, czyli 5 V * 2.5 A = 12.5 W. Jak to wszystko zsumujesz, wychodzi 90 W + 72.6 W + 216 W + 204 W - 3.6 W + 12.5 W = 572.5 W. Ale uwaga, bo zasilacz ma dwa napięcia +12 V, więc ich łączna moc to 216 W + 204 W = 420 W. Dlatego moc wyjściowa zasilacza to 90 W + 72.6 W + 420 W - 3.6 W + 12.5 W = 472,1 W. To podejście do obliczeń jest zgodne z tym, co jest uznawane za dobre praktyki w projektowaniu zasilaczy, gdzie trzeba brać pod uwagę zarówno dodatnie, jak i ujemne napięcia.

Pytanie 36

Błędy systemu operacyjnego Windows spowodowane przez konflikty zasobów sprzętowych, takie jak przydział pamięci, przydział przerwań IRQ i kanałów DMA, najłatwiej jest wykryć za pomocą narzędzia

A. chkdsk.
B. przystawka Sprawdź dysk.
C. edytor rejestru.
D. menedżer urządzeń.
Menedżer urządzeń w Windows to narzędzie, które moim zdaniem każdy technik IT powinien znać na wylot. Jeśli pojawiają się problemy z konfliktami sprzętowymi, na przykład dwa urządzenia próbują korzystać z tej samej linii przerwań IRQ albo kanału DMA, menedżer urządzeń potrafi pokazać to czarno na białym. Z mojego doświadczenia, najczęściej objawia się to żółtym wykrzyknikiem przy urządzeniu – Windows zwykle sam informuje, że coś jest nie tak, ale to właśnie w menedżerze urządzeń można zajrzeć w szczegóły. Co ciekawe, niektóre konflikty potrafią być naprawdę ukryte i nie zawsze od razu je widać w codziennym użytkowaniu systemu, ale właśnie tutaj można przeanalizować szczegóły przydziału pamięci, IRQ, DMA czy innych zasobów. Profesjonaliści używają tego narzędzia zarówno do rozwiązywania problemów, jak i przy planowaniu rozbudowy sprzętu w środowiskach firmowych. Dla osób przygotowujących się do pracy w IT, znajomość menedżera urządzeń to absolutna podstawa – nie tylko do wykrywania błędów, ale też do świadomego zarządzania sprzętem i sterownikami. Dobra praktyka to regularnie sprawdzać menedżera, zwłaszcza po instalacji nowych kart czy urządzeń. Przynajmniej ja zawsze tak robię – oszczędza to potem sporo nerwów.

Pytanie 37

W podejściu archiwizacji danych określanym jako Dziadek – Ojciec – Syn na poziomie Dziadek wykonuje się kopię danych na koniec

A. tygodnia
B. roku
C. dnia
D. miesiąca
W strategii archiwizacji danych Dziadek – Ojciec – Syn, odpowiedź "miesiąca" jest prawidłowa, ponieważ poziom Dziadek odnosi się do długoterminowego przechowywania danych, które wykonuje się co miesiąc. Taka praktyka jest zgodna z zasadami zarządzania danymi, gdzie istotne jest, aby zapewnić odpowiednią częstotliwość tworzenia kopii zapasowych w relacji do zmieniających się potrzeb biznesowych i operacyjnych. Kopie miesięczne pozwalają na zachowanie danych przez dłuższy okres, co jest kluczowe w przypadku audytów lub konieczności przywracania danych z wcześniejszych okresów. W praktyce, organizacje mogą implementować harmonogramy archiwizacji, w których dane są kopiowane na nośniki offline lub w chmurze, co zwiększa bezpieczeństwo i dostępność informacji. Dobre praktyki zakładają również rotację nośników, aby zminimalizować ryzyko ich uszkodzenia oraz stosowanie rozwiązań zgodnych z regulacjami prawnymi dotyczących ochrony danych, co czyni tę odpowiedź najbardziej właściwą.

Pytanie 38

Osoba korzystająca z systemu Windows zdecydowała się na przywrócenie systemu do określonego punktu. Które pliki utworzone po tym punkcie NIE zostaną zmienione w wyniku tej operacji?

A. Pliki sterowników
B. Pliki aplikacji
C. Pliki aktualizacji
D. Pliki osobiste
Pliki osobiste nie zostaną naruszone podczas przywracania systemu do wcześniejszego punktu, ponieważ ta operacja dotyczy głównie plików systemowych oraz programowych, a nie danych użytkownika. Przywracanie systemu jest funkcją, która pozwala na cofnięcie systemu do stanu, w którym znajdował się w momencie utworzenia punktu przywracania, co oznacza, że zmiany wprowadzone w systemie operacyjnym po tym punkcie zostaną wycofane. Natomiast pliki osobiste, jak dokumenty, zdjęcia czy pliki multimedialne, są przechowywane w osobnych folderach i nie są objęte tą operacją. W praktyce oznacza to, że użytkownik może bez obaw przywrócić system do wcześniejszego stanu, nie martwiąc się o utratę swoich osobistych danych. Dobrą praktyką jest regularne tworzenie kopii zapasowych ważnych plików, zwłaszcza przed wykonaniem operacji przywracania systemu, co stanowi dodatkową warstwę ochrony danych użytkownika.

Pytanie 39

Cena wydrukowania jednej strony tekstu to 95 gr, a koszt przygotowania jednej płyty CD wynosi 1,54 zł. Jakie wydatki poniesie firma, tworząca płytę z prezentacjami oraz 120-stronicowy poradnik?

A. 120,95 zł
B. 154,95 zł
C. 145,54 zł
D. 115,54 zł
Poprawna odpowiedź wynosi 115,54 zł, co jest sumą kosztów przygotowania płyty CD oraz wydruku 120 stron poradnika. Koszt przygotowania płyty CD wynosi 1,54 zł, natomiast koszt wydrukowania jednej strony tekstu to 0,95 zł. Aby obliczyć całkowity koszt wydruku 120 stron, mnożymy 120 przez 0,95, co daje 114 zł. Następnie dodajemy koszt płyty CD: 114 zł + 1,54 zł = 115,54 zł. Tego rodzaju obliczenia są niezwykle ważne w kontekście przedsiębiorstw, które regularnie przygotowują materiały promocyjne i edukacyjne. Znajomość kosztów produkcji i ich zarządzanie jest kluczowa dla optymalizacji wydatków oraz efektywności operacyjnej. Przykładowo, aby zwiększyć rentowność, firma może dążyć do obniżenia kosztów druku, na przykład poprzez zakupienie papieru w większych ilościach lub współpracę z tańszymi dostawcami usług poligraficznych.

Pytanie 40

Pracownik serwisu komputerowego podczas wykonywania konserwacji i czyszczenia drukarki laserowej, odłączonej od źródła zasilania, może wykorzystać jako środek ochrony indywidualnej

A. odkurzacz ręczny komputerowy.
B. podzespół kotwiczący.
C. chusteczkę do czyszczenia zabrudzeń.
D. rękawice ochronne.
Rękawice ochronne podczas konserwacji drukarki laserowej to naprawdę podstawa i żaden serwisant nie powinien ich pomijać. Chodzi nie tylko o bezpieczeństwo, ale też o zdrowie, bo naprawiając czy czyszcząc drukarkę laserową można napotkać na różne nieprzyjemne rzeczy. Przede wszystkim toner – to bardzo drobny proszek, który łatwo osiada na dłoniach i może powodować reakcje alergiczne lub podrażnienia. Do tego niektóre elementy wnętrza drukarek bywają pokryte resztkami chemikaliów albo są ostre, więc bez rękawic łatwo się skaleczyć. Zresztą, standardy BHP w serwisach komputerowych wyraźnie wskazują, że środki ochrony indywidualnej, takie jak rękawice, to nie jest fanaberia, tylko konieczność. Często widzę, że młodzi technicy to bagatelizują, ale z mojego doświadczenia wynika, że rękawice faktycznie chronią przed przypadkowym kontaktem z substancjami, które mogą być szkodliwe. W branżowych procedurach, nawet tych publikowanych przez producentów drukarek, pojawia się wyraźna informacja, by przy wymianie lub czyszczeniu komponentów (np. bębna czy kaset z tonerem) zakładać rękawice. Dla mnie to trochę oczywiste, ale wiem, że wielu osobom umyka praktyczny sens tego zalecenia. Poza ochroną zdrowia rękawice też pomagają uniknąć zabrudzenia skóry i ubrań, co przy pracy z tonerem bywa praktycznie nieuniknione. Także jeśli ktoś chce pracować profesjonalnie i zgodnie ze sztuką, to rękawice ochronne powinny być zawsze pod ręką.