Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 30 kwietnia 2026 14:21
  • Data zakończenia: 30 kwietnia 2026 14:33

Egzamin zdany!

Wynik: 29/40 punktów (72,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Co symbolizuje graficzny znak przedstawiony na ilustracji?

Ilustracja do pytania
A. zamknięty kanał kablowy
B. otwarty kanał kablowy
C. gniazd telekomunikacyjne
D. główny punkt dystrybucyjny
Symbol przedstawiony na rysunku jest powszechnie stosowany w dokumentacji technicznej związanej z instalacjami teletechnicznymi i odnosi się do gniazd telekomunikacyjnych. Gniazda te są kluczowymi elementami infrastruktury telekomunikacyjnej, umożliwiającymi podłączanie urządzeń takich jak telefony, modemy, czy komputery do sieci. W praktyce gniazda telekomunikacyjne są instalowane w ścianach budynków w miejscach dostosowanych do potrzeb użytkowników, zapewniając łatwy dostęp do sieci. Standardy branżowe, takie jak TIA/EIA-568, regulują specyfikacje dotyczące ich instalacji i oznaczeń, aby zapewnić kompatybilność i funkcjonalność w różnych środowiskach. Symboliczne przedstawienie gniazd telekomunikacyjnych w dokumentacji technicznej ułatwia projektantom i instalatorom szybkie identyfikowanie kluczowych punktów połączeń w planach budynku. Dzięki temu można zaplanować efektywne rozmieszczenie infrastruktury sieciowej, co jest szczególnie istotne w dużych obiektach komercyjnych lub biurowych, gdzie niezawodność sieci jest priorytetem. Właściwe rozpoznanie takich symboli pozwala na poprawne zrozumienie i realizację projektów teletechnicznych zgodnie z najlepszymi praktykami i standardami branżowymi.

Pytanie 2

ARP (Adress Resolution Protocol) jest protokołem, który umożliwia przekształcenie adresu IP na

A. nazwę domenową
B. nazwę komputera
C. adres IPv6
D. adres sprzętowy
Wybór odpowiedzi, która wskazuje na odwzorowanie adresu IP na nazwę domenową, nazwę komputera lub adres IPv6, może wynikać z nieporozumienia dotyczącego funkcji, jakie pełni protokół ARP. ARP nie jest wykorzystywany do tłumaczenia nazw domenowych na adresy IP; do tego celu wykorzystuje się protokół DNS (Domain Name System). DNS działa na wyższej warstwie modelu OSI i ma na celu umożliwienie użytkownikom korzystania z przyjaznych nazw zamiast trudnych do zapamiętania adresów IP. Odnosząc się do konceptu nazw komputerów, warto zauważyć, że są one również rozwiązywane przez DNS, a nie przez ARP, który skupia się wyłącznie na odwzorowywaniu adresów IP na adresy sprzętowe. Co więcej, adres IPv6, będący następcom IPv4, wymaga innego podejścia i nie jest bezpośrednio związany z ARP. Dla IPv6 istnieje protokół NDP (Neighbor Discovery Protocol), który pełni podobną rolę, ale w kontekście nowego adresowania. Typowym błędem jest zatem mylenie różnych protokołów i ich funkcji, co prowadzi do nieprawidłowych wniosków o zastosowaniach ARP. Dobrze zrozumiane różnice między tymi protokołami są kluczowe dla efektywnego zarządzania sieciami komputerowymi oraz zapewnienia ich bezpieczeństwa.

Pytanie 3

Aby zapobiec uszkodzeniom układów scalonych przy serwisie sprzętu komputerowego, należy korzystać z

A. opaski antystatycznej
B. okularów ochronnych
C. skórzanych rękawiczek
D. gumowych rękawiczek
Opaska antystatyczna jest kluczowym elementem ochrony przy naprawach sprzętu komputerowego, ponieważ ma na celu zminimalizowanie ryzyka uszkodzenia układów scalonych w wyniku wyładowań elektrostatycznych (ESD). Wyładowania te mogą prowadzić do trwałego uszkodzenia komponentów elektronicznych, co jest szczególnie niebezpieczne w przypadku wrażliwych układów scalonych. Opaska antystatyczna działa na zasadzie przewodzenia ładunków elektrycznych ze skóry technika do uziemienia, co zapobiega gromadzeniu się ładunków na ciele. W praktyce, podczas pracy z komputerami, technicy powinni nosić taką opaskę, aby zachować bezpieczeństwo zarówno dla urządzeń, jak i dla samego siebie. Dobrą praktyką jest również stosowanie mat antystatycznych oraz uziemionych narzędzi, co razem pozwala na stworzenie bezpiecznego środowiska pracy. Warto pamiętać, że nieprzestrzeganie tych zasad może prowadzić do kosztownych napraw i strat związanych z uszkodzonym sprzętem.

Pytanie 4

Sieć komputerowa, która obejmuje wyłącznie urządzenia jednej organizacji, w której dostępne są usługi realizowane przez serwery w sieci LAN, takie jak strony WWW czy poczta elektroniczna to

A. Infranet
B. Internet
C. Extranet
D. Intranet
Intranet to wewnętrzna sieć komputerowa, która jest ograniczona do jednego podmiotu, najczęściej organizacji lub firmy. Umożliwia ona pracownikom dostęp do zasobów, takich jak serwery, aplikacje, a także usługi, takie jak poczta elektroniczna czy strony internetowe, które są dostępne tylko dla użytkowników wewnętrznych. Dzięki zastosowaniu protokołów internetowych, takich jak TCP/IP, intranet może wykorzystywać te same technologie, co Internet, zapewniając jednocześnie wyższy poziom bezpieczeństwa i kontroli nad danymi. W praktyce intranety są wykorzystywane do wymiany informacji, komunikacji oraz współpracy w ramach organizacji. Jako przykład, wiele firm korzysta z intranetu do hostowania wewnętrznych portali, które mogą zawierać dokumentację, ogłoszenia czy umożliwiać dostęp do narzędzi zarządzania projektami. Zastosowanie intranetów jest zgodne z dobrymi praktykami w zakresie zarządzania informacjami, zapewniając efektywność i bezpieczeństwo w obiegu danych.

Pytanie 5

Które zdanie opisujące domenę Windows jest prawdziwe?

A. Grupa połączonych komputerów korzystających ze wspólnych informacji o kontach użytkowników.
B. Usługa polegająca na zamianie adresów IP na MAC.
C. Usługa polegająca na przekierowywaniu połączeń.
D. Grupa komputerów połączonych ze sobą oraz współpracujących na równych prawach.
W tym pytaniu bardzo łatwo pomylić różne pojęcia sieciowe i systemowe, bo brzmią podobnie, ale dotyczą zupełnie innych warstw działania sieci i systemu. Domena Windows to nie jest żadna pojedyncza usługa sieciowa typu zamiana adresów IP na MAC. Tym zajmuje się protokół ARP działający na niższym poziomie sieci, niezależnie od tego, czy w ogóle mamy domenę Windows, czy tylko prostą sieć domową. Mylenie domeny z taką funkcją wynika często z ogólnego skojarzenia „domena – sieć – adresy”, ale to zupełnie inna bajka. Równie mylące jest traktowanie domeny jak zwykłej grupy komputerów współpracujących na równych prawach. Taki opis pasuje raczej do tzw. sieci równorzędnej (peer-to-peer) albo do klasycznej grupy roboczej w Windows, gdzie każdy komputer zarządza swoimi lokalnymi kontami i nie ma centralnego miejsca przechowywania informacji o użytkownikach. W domenie jest dokładnie odwrotnie: pojawia się nadrzędny element – kontroler domeny – który trzyma bazę kont, haseł i uprawnień, a stacje robocze są wobec niego podrzędne w sensie administracyjnym. To jest fundament administracji w większych środowiskach. Czasem też domenę myli się z usługą typu przekierowywanie połączeń czy routingiem. Takie skojarzenie bierze się z tego, że nazwa „domena” pojawia się w wielu kontekstach, np. domena DNS, domena internetowa, ale w Windows Domain chodzi o logikę zarządzania użytkownikami i zasobami, a nie o przekazywanie pakietów. Przekierowywanie połączeń realizują routery, firewalle, serwery proxy czy usługi typu port forwarding, natomiast domena Windows opiera się na Active Directory, Kerberosie, LDAP i zasadach grup. Kluczowy błąd myślowy przy tych odpowiedziach polega na skupieniu się na samej sieci i ruchu sieciowym, zamiast na zarządzaniu tożsamością użytkowników i ich uprawnieniami w środowisku Windows. Domena to przede wszystkim centralne uwierzytelnianie i autoryzacja, a nie mechanizmy transmisji danych.

Pytanie 6

Firma świadcząca usługi sprzątania potrzebuje drukować faktury tekstowe w czterech kopiach równocześnie, na papierze samokopiującym. Jaką drukarkę powinna wybrać?

A. Igłową
B. Atramentową
C. Termosublimacyjną
D. Laserową
Drukarki igłowe są idealnym rozwiązaniem dla sytuacji, w których konieczne jest drukowanie na papierze samokopiującym, zwłaszcza w przypadku faktur. Działają one na zasadzie uderzeń głowicy drukującej w papier, co pozwala na jednoczesne przeniesienie obrazu na kilka warstw papieru. Dzięki temu można łatwo uzyskać kilka egzemplarzy dokumentu bez potrzeby ponownego drukowania. W kontekście wydajności, drukarki igłowe są również znane z niskich kosztów eksploatacji, co sprawia, że są preferowane w biurach, gdzie generuje się duże ilości dokumentów. Warto zauważyć, że w wielu branżach, takich jak logistyka czy rachunkowość, drukowanie na papierze samokopiującym w formie faktur jest standardem, co potwierdza wysoką użyteczność takiego sprzętu. Wybór drukarki igłowej gwarantuje również większą trwałość wydruków, co jest kluczowe w kontekście archiwizacji dokumentów.

Pytanie 7

Dokument mający na celu przedstawienie oferty cenowej dla inwestora dotyczącej przeprowadzenia robót instalacyjnych w sieci komputerowej, to

A. przedmiar robót
B. specyfikacja techniczna
C. kosztorys ślepy
D. kosztorys ofertowy
Kosztorys ofertowy to bardzo ważny dokument, który pokazuje inwestorowi szczegółową ofertę cenową na wykonanie konkretnych robót, jak na przykład instalacja sieci komputerowej. W takim kosztorysie są zawarte wszystkie prace, materiały i inne koszty związane z realizacją projektu. Moim zdaniem, to kluczowy element, kiedy przychodzi do przetargów, bo umożliwia porównanie ofert od różnych wykonawców. Oprócz samej ceny, warto, żeby taki dokument mówił też o terminach realizacji i warunkach płatności. W branży budowlanej dobrze jest, gdy kosztorys jest przygotowany zgodnie z aktualnymi regulacjami prawnymi i normami, bo wtedy można mu zaufać. Przykładowo, kiedy jest przetarg na sieć LAN w biurowcu, każdy wykonawca powinien dostarczyć swoją ofertę z kosztorysem, co ułatwia inwestorowi podjęcie świadomej decyzji.

Pytanie 8

Który z wymienionych formatów płyt głównych charakteryzuje się najmniejszymi wymiarami?

A. Mini ATX
B. Mini ITX
C. Micro BTX
D. Flex ATX
Mini ITX to format płyty głównej zaprojektowany z myślą o minimalizacji rozmiarów, co czyni go jednym z najmniejszych standardów dostępnych na rynku. Jego wymiary wynoszą 170 x 170 mm, co pozwala na budowę kompaktowych komputerów, idealnych do zastosowań takich jak HTPC (Home Theater PC), komputery do gier w małych obudowach oraz urządzenia IoT. W standardzie Mini ITX liczba złącz oraz komponentów jest ograniczona, co wymusza na projektantach stosowanie innowacyjnych rozwiązań w zakresie chłodzenia oraz zarządzania energią. Ze względu na swoje rozmiary, płyty w tym formacie często są wykorzystywane w systemach wymagających niskiego poboru mocy, co jest istotne w kontekście ekologii i oszczędności energetycznej. Warto również zauważyć, że Mini ITX jest kompatybilny z wieloma komponentami, co pozwala na elastyczność w budowie systemu. Obecnie, wiele producentów oferuje obudowy skonstruowane specjalnie z myślą o płytach Mini ITX, co przyczynia się do ich rosnącej popularności wśród entuzjastów komputerowych.

Pytanie 9

Jakie zagrożenia eliminują programy antyspyware?

A. programy działające jako robaki
B. programy szpiegujące
C. ataki typu DoS oraz DDoS (Denial of Service)
D. oprogramowanie antywirusowe
Programy antyspyware są specjalistycznymi narzędziami zaprojektowanymi w celu wykrywania, zapobiegania i usuwania programów szpiegujących. Te złośliwe oprogramowania, znane również jako spyware, mają na celu zbieranie informacji o użytkownikach bez ich zgody, co może prowadzić do naruszenia prywatności oraz kradzieży danych. Oprogramowanie antyspyware skanuje system w poszukiwaniu takich programów i blokuje ich działanie, stosując różne metody, takie jak monitorowanie aktywności systemowej, analizy zachowań aplikacji czy porównywanie znanych sygnatur szkodliwego oprogramowania. Przykładem praktycznym może być sytuacja, w której użytkownik instaluje darmowy program, który mimo korzystnej funkcjonalności, zawiera elementy spyware. Program antyspyware wykryje takie zagrożenie i zablokuje instalację lub usunie już zainstalowane komponenty, co jest zgodne z najlepszymi praktykami w zakresie zabezpieczeń IT, które zalecają regularne skanowanie systemu oraz aktualizację oprogramowania bezpieczeństwa.

Pytanie 10

Polecenie chmod +x test

A. pozwala na uruchomienie pliku test przez każdego użytkownika.
B. ustawia pełną kontrolę nad wszystkimi plikami znajdującymi sie w katalogu test.
C. odbiera wszystkim użytkownikom prawo do zapisu do pliku test.
D. nadaje prawo do odczytu pliku test jego właścicielowi.
Polecenie chmod +x test to jeden z najczęściej wykorzystywanych sposobów na nadanie plikowi wykonywalności w systemach Linux i Unix. Chodzi tutaj o to, że przy użyciu tej komendy bezpośrednio ustawiasz atrybut wykonywalności (execute) dla wszystkich użytkowników, czyli właściciela, grupy oraz pozostałych. Bardzo często używa się tego polecenia, gdy na przykład pobierzesz jakiś skrypt (np. bashowy albo Pythonowy), który domyślnie nie ma uprawnień do uruchamiania. Dopiero po wpisaniu chmod +x możesz go odpalić jako ./test. W codziennej administracji systemami to takie must-have narzędzie. Zwróć uwagę, że +x nie modyfikuje żadnych innych uprawnień – nie dodaje praw do odczytu ani zapisu, więc jeśli plik nie może być odczytany przez danego użytkownika, to samo +x nie wystarczy. Moim zdaniem to bardzo elegancki sposób na kontrolę, kto może wywołać plik jako program. W praktyce spotkasz się też czasem z chmod 755, który nadaje prawa wykonywania i odczytu właścicielowi, grupie i innym, ale +x to taki szybki skrót, kiedy chcesz tylko pozwolić na uruchomienie bez zmiany innych uprawnień. Dobrą praktyką jest nadawanie wykonywalności tylko wtedy, gdy rzeczywiście plik ma być programem lub skryptem, żeby niepotrzebnie nie otwierać ryzyka przypadkowego uruchomienia. To podejście jest mocno zakorzenione w filozofii bezpieczeństwa Linuksa.

Pytanie 11

W czterech różnych sklepach ten sam model komputera oferowany jest w różnych cenach. Gdzie można go kupić najtaniej?

A. Cena netto Podatek Informacje dodatkowe 1800 zł 23% Rabat 25%
B. Cena netto Podatek Informacje dodatkowe 1600 zł 23% Rabat 15%
C. Cena netto Podatek Informacje dodatkowe 1500 zł 23% Rabat 5%
D. Cena netto Podatek Informacje dodatkowe 1650 zł 23% Rabat 20%
Analizując pozostałe oferty, można zauważyć, że wyniki mogą prowadzić do fałszywych wniosków. Przykładowo, oferta z ceną 1500 zł z 5% rabatem, po obliczeniu, daje finalną kwotę wynoszącą 1425 zł, jednak to nie uwzględnia podatku VAT, który następnie zostanie dodany. Po uwzględnieniu 23% VAT, cenę końcową trzeba obliczyć jako 1425 zł + 23% = 1754,75 zł, co prowadzi do wyższej kwoty zakupu. Podobnie w ofercie 1600 zł z 15% rabatem, po odjęciu rabatu, otrzymujemy 1360 zł, a po naliczeniu podatku, 1673,60 zł, co również jest wyższą ceną niż w poprawnej odpowiedzi. Oferta 1650 zł z 20% rabatem choć na pierwszy rzut oka wydaje się droższa, w rzeczywistości daje najniższą finalną kwotę po uwzględnieniu VAT. W przypadku 1800 zł z 25% rabatem, finalna cena wynosi 1350 zł, co po dodaniu VAT daje kwotę 1665 zł. W ocenie cenowej ważne jest, aby dokładnie przeliczać wszystkie dostępne rabaty, podatki oraz inne możliwe zniżki. Niezrozumienie tego procesu może prowadzić do błędnych decyzji zakupowych, dlatego kluczowe jest zwracanie uwagi na szczegóły, a nie tylko na ceny netto.

Pytanie 12

Jakie polecenie jest używane do ustawienia konfiguracji interfejsu sieciowego w systemie Linux?

A. ifconfig
B. networking
C. ipconfig
D. interfaces
Polecenie 'ifconfig' jest jednym z podstawowych narzędzi używanych do konfiguracji interfejsów sieciowych w systemach operacyjnych Linux. Umożliwia ono użytkownikom wyświetlanie i modyfikowanie parametrów interfejsów sieciowych, takich jak adresy IP, maska sieciowa, stan interfejsu i inne istotne informacje. Przykładowe zastosowanie polecenia to 'ifconfig eth0 up', co aktywuje interfejs o nazwie 'eth0'. Dodatkowo, 'ifconfig' pozwala na przypisanie adresu IP do interfejsu, co jest kluczowe w kontekście komunikacji w sieci. Warto również zauważyć, że mimo że 'ifconfig' jest szeroko stosowane, w nowszych wersjach systemów Linux zaleca się używanie polecenia 'ip', które jest bardziej uniwersalne i oferuje szerszy zakres funkcji. Zrozumienie działania 'ifconfig' jest fundamentalne dla każdego administratora systemu oraz dla pracy z sieciami w środowisku Linux, co podkreśla jego znaczenie w dobrych praktykach branżowych.

Pytanie 13

Główną rolą serwera FTP jest

A. udostępnianie plików
B. monitoring sieci
C. zarządzanie kontami poczty
D. synchronizacja czasu
Serwer FTP (File Transfer Protocol) jest protokołem sieciowym, którego podstawową funkcją jest umożliwienie przesyłania plików pomiędzy komputerami w sieci, najczęściej w internecie. FTP jest używany do przesyłania danych w obie strony — zarówno do pobierania plików z serwera na lokalny komputer, jak i do wysyłania plików z komputera na serwer. W praktyce serwery FTP są często wykorzystywane przez firmy do udostępniania zasobów, takich jak dokumenty, zdjęcia czy oprogramowanie, zarówno dla pracowników, jak i klientów. Użycie protokołu FTP w kontekście tworzenia stron internetowych pozwala programistom na łatwe przesyłanie plików stron na serwery hostingowe. Warto również zauważyć, że w kontekście bezpieczeństwa, nowoczesne implementacje FTP, takie jak FTPS (FTP Secure) lub SFTP (SSH File Transfer Protocol), zapewniają dodatkowe warstwy zabezpieczeń, szyfrując przesyłane dane, co jest zgodne z najlepszymi praktykami w zakresie ochrony informacji. Z tego względu, zrozumienie roli serwera FTP jest kluczowe w zarządzaniu zasobami w sieci.

Pytanie 14

Jakie informacje o wykorzystywaniu pamięci wirtualnej można uzyskać, analizując zawartość pliku w systemie Linux?

A. pagefile.sys
B. /proc/vmstat
C. xload
D. /etc/inittab
Odpowiedzi xload, /etc/inittab oraz pagefile.sys nie są związane z bezpośrednim monitorowaniem statystyk użycia pamięci wirtualnej w systemie Linux. xload to narzędzie graficzne, które wizualizuje obciążenie CPU oraz pamięci, ale nie dostarcza szczegółowych danych na temat pamięci wirtualnej. Narzędzie to wspiera użytkowników w ogólnym monitorowaniu wydajności, jednak jego funkcjonalność jest ograniczona i nie zastępuje analizy danych z plików systemowych. Plik /etc/inittab jest plikiem konfiguracyjnym, który nie ma związku z pamięcią operacyjną ani wirtualną. Zawiera informacje na temat poziomów uruchamiania i procesów startowych, co czyni go zupełnie nieprzydatnym w kontekście analizy pamięci. Natomiast pagefile.sys to plik wymiany używany w systemach Windows, a nie w Linuxie. Tego typu błędne odpowiedzi mogą wynikać z nieporozumienia dotyczącego architektury systemów operacyjnych i ich specyficznych plików konfiguracyjnych. W praktyce, korzystanie z narzędzi i plików związanych z danym systemem operacyjnym jest kluczowe przy monitorowaniu i zarządzaniu pamięcią; każda platforma ma swoje unikalne zasoby, które należy znać i umieć wykorzystać.

Pytanie 15

Jakie narzędzie w systemie Windows umożliwia kontrolę prób logowania do systemu?

A. programów
B. zabezpieczeń
C. systemu
D. instalacji
Dziennik zabezpieczeń w systemie Windows to kluczowe narzędzie odpowiedzialne za monitorowanie i rejestrowanie prób logowania oraz innych istotnych zdarzeń związanych z bezpieczeństwem. Odpowiedź "zabezpieczeń" (#3) jest prawidłowa, ponieważ dziennik ten zbiera informacje o wszystkich próbach logowania, zarówno udanych, jak i nieudanych, co jest niezbędne dla administratorów systemów w celu analizy potencjalnych incydentów bezpieczeństwa. Użycie dziennika zabezpieczeń pozwala na śledzenie aktywności użytkowników oraz identyfikację nieautoryzowanych prób dostępu. Przykładowo, administrator może wykorzystać informacje z dziennika zabezpieczeń do audytu działań użytkowników oraz do przeprowadzania analiz ryzyka, co jest zgodne z najlepszymi praktykami w zakresie zarządzania bezpieczeństwem informacji (np. ISO 27001). Dziennik ten jest również użyteczny w kontekście spełniania wymogów regulacyjnych, takich jak RODO, gdzie monitorowanie dostępu do danych osobowych jest kluczowym elementem zgodności. Regularna analiza dziennika zabezpieczeń jest istotna dla utrzymania wysokiego poziomu bezpieczeństwa w organizacji.

Pytanie 16

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 16 GB.
B. 1 modułu 16 GB.
C. 1 modułu 32 GB.
D. 2 modułów, każdy po 8 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 17

W skład sieci komputerowej wchodzą 3 komputery stacjonarne oraz drukarka sieciowa, połączone kablem UTP z routerem mającym 1 x WAN oraz 5 x LAN. Które z urządzeń sieciowych pozwoli na podłączenie dodatkowych dwóch komputerów do tej sieci za pomocą kabla UTP?

A. Konwerter mediów
B. Terminal sieciowy
C. Modem
D. Przełącznik
Modem to urządzenie, które konwertuje sygnały cyfrowe na analogowe i vice versa, co pozwala na komunikację z Internetem poprzez linie telefoniczne, kable koncentryczne lub inne media transmisyjne. Jego główną funkcją jest łączenie sieci lokalnej z dostawcą Internetu, a nie rozbudowa lokalnych sieci LAN. Użytkownicy często mylą rolę modemu, sądząc, że może on wspierać dodatkowe połączenia w sieci lokalnej, podczas gdy jego zadaniem jest tylko zapewnienie dostępu do Internetu. Przykładowo, w sytuacji, gdy sieć lokalna wymaga podłączenia większej liczby urządzeń, modem nie rozwiąże tego problemu. Z kolei terminal sieciowy to urządzenie mniej powszechnie używane w kontekście lokalnych sieci komputerowych; jest to zazwyczaj sprzęt do komunikacji z serwerami, a nie urządzenie do rozbudowy sieci. Współczesne sieci opierają się na standardach Ethernet, a konwertery mediów, choć istotne, mają za zadanie konwersję między różnymi typami mediów transmisyjnych. Typowe błędy myślowe obejmują utożsamianie urządzeń z funkcjami, które nie są dla nich charakterystyczne. Aby prawidłowo rozbudować sieć, taki jak w omawianym przypadku, konieczne jest zrozumienie specyficznych funkcji poszczególnych urządzeń i odpowiednie ich dobieranie do wymagań infrastruktury sieciowej.

Pytanie 18

Jakie polecenie służy do obserwowania lokalnych połączeń?

A. netstat
B. host
C. route
D. dir
Polecenie 'netstat' jest narzędziem w systemach operacyjnych, które umożliwia monitorowanie aktywnych połączeń sieciowych oraz portów na lokalnym komputerze. Dzięki temu administratorzy mogą uzyskać szczegółowe informacje o tym, które aplikacje korzystają z określonych portów, a także o stanie połączeń TCP/IP. Używając opcji takich jak -a, -n czy -o, użytkownicy mogą wyświetlić wszystkie aktywne połączenia oraz ich statusy, co jest niezwykle przydatne w diagnostyce problemów sieciowych. Przykładowo, polecenie 'netstat -an' wyświetli wszystkie połączenia oraz nasłuchujące porty w formacie numerycznym, co ułatwia identyfikację problemów z komunikacją. W praktyce, to narzędzie jest standardem w zarządzaniu sieciami, pozwala na monitorowanie i zarządzanie połączeniami sieciowymi, co jest kluczowe dla zapewnienia bezpieczeństwa i wydajności infrastruktury IT.

Pytanie 19

Najbardziej prawdopodobnym powodem niskiej jakości druku z drukarki laserowej, objawiającym się widocznym rozmazywaniem tonera, jest

Ilustracja do pytania
A. zbyt niska temperatura utrwalacza
B. zanieczyszczenie wnętrza drukarki
C. uszkodzenie rolek
D. zacięcie papieru
Drukarki laserowe działają tak, że toner jest osadzany na papierze dzięki elektrostatyce, a potem utrwalany wysoką temperaturą. Jak temperatura utrwalacza jest zbyt niska, toner się nie topnieje porządnie i może się rozmazywać. Utrwalanie odbywa się w module, gdzie są rolki grzewcze, które muszą osiągnąć przynajmniej 180 stopni Celsjusza, żeby toner dobrze przylegał do papieru. Jak jest problem z temperaturą, to może być wina termistorów albo elementu grzewczego. W takim wypadku warto zajrzeć do tych komponentów, bo ich wymiana może pomóc. Dobrze jest też regularnie konserwować drukarkę według wskazówek producenta, żeby uniknąć takich problemów. W biurze, gdzie drukujemy sporo, ważne jest, żeby trzymać się serwisowych instrukcji, bo to wpływa na jakość druku.

Pytanie 20

Jakim poleceniem w systemie Linux można utworzyć nowych użytkowników?

A. usersadd
B. net user
C. usermod
D. useradd
Odpowiedzi, które nie wskazują polecenia 'useradd', bazują na błędnych założeniach dotyczących zarządzania użytkownikami w systemie Linux. Zastosowanie 'usersadd' jest całkowicie nieprawidłowe, ponieważ to polecenie nie istnieje w standardowych narzędziach systemowych, co może prowadzić do frustracji oraz błędów w zarządzaniu użytkownikami. W przypadku 'usermod', jego funkcjonalność ogranicza się do modyfikacji istniejących kont, co oznacza, że nie jest przydatne w kontekście tworzenia nowych użytkowników. Z kolei 'net user' jest poleceniem specyficznym dla systemów Windows, co pokazuje typowe nieporozumienie dotyczące różnic pomiędzy systemami operacyjnymi. Użytkownicy, którzy mylnie stosują te komendy, mogą napotkać poważne problemy z administracją systemu, wynikające z braku zrozumienia podstawowych narzędzi oraz ich zastosowania. Kluczowym jest, aby administratorzy zapoznali się z dokumentacją oraz najlepszymi praktykami, aby unikać takich pomyłek i skutecznie zarządzać użytkownikami w systemie Linux.

Pytanie 21

Na ilustracji zaprezentowano sieć komputerową w układzie

Ilustracja do pytania
A. mieszanej
B. magistrali
C. pierścienia
D. gwiazdy
Topologia pierścienia to rodzaj sieci komputerowej, w której każdy węzeł jest podłączony do dwóch innych węzłów, tworząc jedną nieprzerwaną ścieżkę komunikacyjną przypominającą pierścień. W tej topologii dane przesyłane są w jednym kierunku od jednego węzła do następnego, co minimalizuje ryzyko kolizji. Jednym z praktycznych zastosowań tej topologii jest sieć Token Ring, gdzie stosuje się protokół token passing umożliwiający kontrolowany dostęp do medium transmisyjnego. Główne zalety topologii pierścienia to jej deterministyczny charakter oraz łatwość w przewidywaniu opóźnień w przesyłaniu danych. W kontekście standardów sieciowych, sieci opartych na tej topologii można znaleźć w lokalnych sieciach LAN wykorzystujących standard IEEE 802.5. Dobrymi praktykami w implementacji topologii pierścienia są regularna kontrola stanu połączeń oraz odpowiednia konfiguracja urządzeń sieciowych, aby zapewnić niezawodność i optymalną wydajność sieci. Choć nieco mniej popularna w nowoczesnych zastosowaniach niż topologia gwiazdy, topologia pierścienia znalazła swoje zastosowanie w specyficznych środowiskach przemysłowych, gdzie deterministyczny dostęp do medium jest kluczowy.

Pytanie 22

Po stwierdzeniu przypadkowego usunięcia ważnych danych na dysku twardym, aby odzyskać usunięte pliki, najlepiej

A. odinstalować oraz ponownie zainstalować sterowniki dysku twardego, zalecane przez producenta.
B. podłączyć dysk do zestawu komputerowego z zainstalowanym programem typu recovery.
C. zainstalować na tej samej partycji co pliki program do odzyskiwania usuniętych danych np. Recuva.
D. przeskanować system programem antywirusowym, a następnie użyć narzędzia chkdsk.
W przypadkach przypadkowego usunięcia ważnych danych niezwykle łatwo popełnić błąd, który bezpowrotnie pogrzebie szansę na ich odzyskanie. Jednym z najczęstszych błędów jest próba instalowania nowych programów do odzyskiwania bezpośrednio na tej samej partycji, z której dane zostały skasowane. To niestety bardzo ryzykowne – każda instalacja może nadpisać fragmenty usuniętych plików, nawet jeśli wydaje się, że miejsca na dysku jest sporo. System operacyjny nie ostrzega, gdzie dokładnie wędrują nowe pliki, a nadpisane sektory są praktycznie niemożliwe do przywrócenia nawet dla drogich narzędzi laboratoryjnych. Kolejnym nietrafionym pomysłem jest odinstalowywanie czy reinstalowanie sterowników dysku twardego – takie działania nie mają żadnego realnego wpływu na zawartość danych na dysku. To raczej mity, które często powtarzają się na forach, ale w praktyce niczego nie odzyskują, a mogą tylko przedłużyć czas bez konkretnego działania. Czasem pojawia się przekonanie, że skan antywirusowy albo narzędzie typu chkdsk mogą pomóc w odzyskiwaniu – tak naprawdę żadne z nich nie zostały zaprojektowane do takich celów. Chkdsk naprawia strukturę logiczną systemu plików, ale może nawet pogorszyć sprawę, bo potrafi trwale usunąć informacje o plikach uznanych za uszkodzone. Antywirus natomiast służy do wykrywania złośliwego oprogramowania, nie do odzyskiwania przypadkowo utraconych danych. W takich sytuacjach najważniejsze jest natychmiastowe zaprzestanie pracy na danym dysku i skorzystanie ze sprawdzonych metod – najlepiej podłączyć dysk do innego systemu i działać narzędziami odzysku bez ryzyka nadpisu. Często to właśnie zwykłe, niewinne działania na partycji z utraconymi danymi prowadzą do ich całkowitej nieodwracalności. Warto o tym pamiętać i nie dać się zwieść pozornie prostym rozwiązaniom, które w rzeczywistości nie mają szans zadziałać.

Pytanie 23

Czy bęben światłoczuły znajduje zastosowanie w drukarkach?

A. atramentowych
B. laserowych
C. igłowych
D. termosublimacyjnych
Bęben światłoczuły, znany również jako bęben fotoreceptorowy, jest kluczowym elementem drukarek laserowych. Jego główną rolą jest zbieranie naładowanych cząsteczek tonera, które są następnie przenoszone na papier podczas procesu drukowania. Proces ten polega na wykorzystaniu technologii elektrofotograficznej, gdzie bęben pokryty materiałem światłoczułym jest naświetlany laserem. Dzięki zmianom ładunku elektrycznego na powierzchni bębna, toner przylega do określonych obszarów, co pozwala na uzyskanie wysokiej jakości wydruków z precyzyjnie odwzorowanymi detalami. Przykładowo, w biurach i środowiskach profesjonalnych, drukarki laserowe z bębnem światłoczułym są preferowane ze względu na ich szybkość, efektywność kosztową oraz zdolność do wydruku dużych ilości dokumentów. Standardy ISO dotyczące jakości wydruku podkreślają znaczenie bębna fotoreceptorowego w uzyskiwaniu spójnych i wyraźnych wydruków, co czyni go nieodłącznym elementem w tym typie urządzeń.

Pytanie 24

Aby w systemie Windows, przy użyciu wiersza poleceń, zmienić partycję FAT na NTFS bez utraty danych, powinno się zastosować polecenie

A. change
B. format
C. convert
D. recover
Polecenie 'convert' jest odpowiednie do zmiany systemu plików z FAT na NTFS bez utraty danych, co czyni je idealnym rozwiązaniem w sytuacjach, gdy potrzebujemy aktualizacji systemu plików w istniejącej partycji. Używając polecenia 'convert', system Windows skanuje partycję i zmienia jej struktury wewnętrzne na takie, które są zgodne z NTFS, a jednocześnie zachowuje wszystkie pliki i foldery znajdujące się na tej partycji. Przykład zastosowania może obejmować sytuację, w której użytkownik chce zyskać dodatkowe funkcje oferowane przez NTFS, takie jak lepsze zarządzanie uprawnieniami, kompresja plików czy możliwość wykorzystania dużych plików powyżej 4 GB. Dobre praktyki w zakresie zarządzania systemami operacyjnymi zalecają użycie tego polecenia z odpowiednimi uprawnieniami administratora, aby uniknąć problemów związanych z autoryzacją. Ponadto, przed dokonaniem jakichkolwiek zmian na partycji, zaleca się wykonanie kopii zapasowej danych, aby zminimalizować ryzyko ich utraty.

Pytanie 25

Sieć, w której funkcjonuje komputer o adresie IP 192.168.100.50/28, została podzielona na 4 podsieci. Jakie są poprawne adresy tych podsieci?

A. 192.168.100.48/29; 192.168.100.54/29; 192.168.100.56/29; 192.168.100.58/29
B. 192.168.100.48/30; 192.168.100.52/30; 192.168.100.56/30; 192.168.100.60/30
C. 192.168.100.50/28; 192.168.100.52/28; 192.168.100.56/28; 192.168.100.60/28
D. 192.168.100.48/27; 192.168.100.52/27; 192.168.100.56/27; 192.168.100.58/27
Odpowiedź 192.168.100.48/30; 192.168.100.52/30; 192.168.100.56/30; 192.168.100.60/30 jest poprawna, ponieważ prawidłowo dzieli sieć o adresie IP 192.168.100.48/28 na cztery podsieci. Zasadniczo, adres 192.168.100.50/28 oznacza 16 adresów IP w zakresie od 192.168.100.48 do 192.168.100.63. Użycie maski /30 w każdej z nowo utworzonych podsieci oznacza, że każda z nich ma tylko 4 adresy (2 dla hostów, 1 dla adresu sieciowego i 1 dla adresu rozgłoszeniowego). W ten sposób zyskujemy cztery podsieci: 192.168.100.48/30, 192.168.100.52/30, 192.168.100.56/30 i 192.168.100.60/30. Taka struktura jest zgodna z praktykami przydzielania adresów IPv4, które zapewniają efektywne wykorzystanie dostępnych zasobów adresowych, co jest kluczowe w projektowaniu sieci. W praktyce, ta metoda podziału podsieci jest szczególnie przydatna w małych sieciach, gdzie nie ma potrzeby posiadania większej liczby adresów IP niż to konieczne.

Pytanie 26

Aby obserwować przesył danych w sieci komputerowej, należy wykorzystać program typu

A. kompilator
B. debugger
C. firmware
D. sniffer
Sniffer, znany również jako analizator protokołów, to narzędzie używane do monitorowania i analizowania ruchu sieciowego. Jego podstawowym zadaniem jest przechwytywanie pakietów danych przesyłanych przez sieć, co umożliwia administratorom i specjalistom ds. bezpieczeństwa zrozumienie, co dzieje się w sieci w czasie rzeczywistym. Przykładowe zastosowanie snifferów obejmuje diagnozowanie problemów z połączeniem, analizę wydajności sieci oraz identyfikację potencjalnych zagrożeń bezpieczeństwa. W praktyce sniffery są używane do monitorowania ruchu HTTP, FTP, a także do analizy ruchu VoIP. Standardy takie jak Wireshark, który jest jednym z najpopularniejszych snifferów, są zgodne z najlepszymi praktykami branżowymi, umożliwiając głęboką analizę protokołów i efektywne wykrywanie anomalii w ruchu sieciowym.

Pytanie 27

Jakie narzędzie należy zastosować w systemie Windows, aby skonfigurować właściwości wszystkich zainstalowanych urządzeń lub wyświetlić ich listę?

A. diskmgmt.msc
B. devmgmt.msc
C. dnsmgmt.msc
D. dhcpmgmt.msc
Odpowiedzi takie jak 'dnsmgmt.msc', 'diskmgmt.msc' oraz 'dhcpmgmt.msc' są niepoprawne, ponieważ każde z tych narzędzi ma zupełnie inne zastosowanie w systemie Windows. 'dnsmgmt.msc' służy do zarządzania usługą DNS, co oznacza, że skupia się na konfiguracji i administracji serwerami DNS. To narzędzie nie ma żadnego związku z zarządzaniem urządzeniami, a jego zadaniem jest pomaganie w utrzymaniu i monitorowaniu zasobów DNS, co jest kluczowe dla działania sieci. 'diskmgmt.msc' to narzędzie do zarządzania dyskami i partycjami, które pozwala na tworzenie, usuwanie i formatowanie partycji, a także zarządzanie przestrzenią dyskową. Chociaż jest to istotne z perspektywy zarządzania zasobami pamięci masowej, nie dotyczy to bezpośrednio zarządzania urządzeniami zewnętrznymi, jak drukarki czy karty graficzne. 'dhcpmgmt.msc' natomiast odnosi się do zarządzania protokołem DHCP, który jest odpowiedzialny za dynamiczne przydzielanie adresów IP w sieci. Odpowiedzi te wskazują na typowy błąd myślowy polegający na myleniu funkcji narzędzi systemowych; każdy z tych komponentów pełni różne role w architekturze systemu operacyjnego, co podkreśla znaczenie znajomości ich specyfikacji oraz zastosowań w praktyce. Dokładne rozumienie funkcji każdego z tych narzędzi jest kluczowe dla skutecznego zarządzania systemem Windows i unikania pomyłek w przyszłości.

Pytanie 28

Który z protokołów przesyła datagramy użytkownika BEZ GWARANCJI ich dostarczenia?

A. UDP
B. HTTP
C. TCP
D. ICMP
UDP (User Datagram Protocol) jest protokołem transportowym w zestawie protokołów internetowych, który nie zapewnia gwarancji dostarczenia datagramów. Jego podstawową cechą jest to, że przesyła dane w sposób bezpołączeniowy, co oznacza, że nie ustanawia żadnej sesji komunikacyjnej przed wysłaniem danych. To sprawia, że jest idealny do zastosowań, gdzie szybkość jest ważniejsza od niezawodności, takich jak transmisje wideo na żywo, gry online czy VoIP (Voice over Internet Protocol). W tych zastosowaniach opóźnienia mogą być bardziej krytyczne niż utrata niektórych pakietów danych. W praktyce, programiści często decydują się na użycie UDP tam, gdzie aplikacja może sama poradzić sobie z ewentualnymi błędami, np. przez ponowne wysyłanie zagubionych pakietów. W związku z tym, standardy RFC 768 definiują UDP jako protokół, który nie implementuje mechanizmów kontroli błędów ani retransmisji, co przyspiesza proces przesyłania danych i zmniejsza narzuty. Z tego powodu, UDP jest wszechobecny w aplikacjach wymagających niskich opóźnień i dużej przepustowości.

Pytanie 29

Pliki specjalne urządzeń, tworzone podczas instalacji sterowników w systemie Linux, są zapisywane w katalogu

A. ./var
B. ./proc
C. ./dev
D. ./sbin
Katalog /dev w systemach Linux to miejsce, gdzie znajdują się tzw. pliki specjalne urządzeń, czyli device files. Są to specjalne obiekty plikowe reprezentujące sprzęt lub wirtualne urządzenia systemowe, takie jak dyski twarde, napędy USB, terminale, porty szeregowe czy nawet urządzenia wirtualne typu /dev/null. Tak naprawdę, dzięki temu katalogowi, system operacyjny i aplikacje mogą korzystać ze sprzętu w bardzo przejrzysty sposób – komunikacja z urządzeniem sprowadza się do operacji na pliku, np. odczytu czy zapisu. Moim zdaniem, to naprawdę eleganckie rozwiązanie. Większość plików w /dev tworzona jest dynamicznie przez menedżera urządzeń (np. udev), ale starsze systemy, albo jakieś egzotyczne zastosowania, mogą wymagać ręcznego tworzenia plików typu character device lub block device za pomocą polecenia mknod. Warto pamiętać, że zgodnie ze standardem Filesystem Hierarchy Standard (FHS), katalog /dev jest miejscem zarezerwowanym właśnie wyłącznie na takie pliki i nie powinno się tu umieszczać zwykłych plików użytkownika. Przykład praktyczny? Zamontowanie obrazu ISO, korzystanie z portu szeregowego ttyS0 albo podpięcie partycji przez /dev/sda1 – to wszystko dzięki plikom w /dev. Praktyka pokazuje, że rozumienie roli tego katalogu przydaje się zarówno przy administracji Linuksem, jak i przy pisaniu niskopoziomowych narzędzi.

Pytanie 30

Usługa w systemie Windows Server, która umożliwia zdalną instalację systemów operacyjnych na komputerach zarządzanych przez serwer, to

A. DFS
B. WDS
C. FTP
D. GPO
WDS, czyli Windows Deployment Services, to usługa w systemie Windows Server, która umożliwia zdalną instalację systemów operacyjnych na komputerach w sieci. WDS wykorzystuje technologię PXE (Preboot Execution Environment), co pozwala na uruchamianie komputerów klienckich bezpośrednio z obrazu systemu przechowywanego na serwerze. Ta metoda jest szczególnie przydatna w dużych środowiskach IT, gdzie zarządzanie wieloma stacjami roboczymi staje się skomplikowane. Przykładem zastosowania WDS jest sytuacja, gdy administratorzy chcą szybko zainstalować nowy system operacyjny na setkach komputerów – zamiast instalować go ręcznie na każdym z nich, mogą zautomatyzować proces i zainstalować system zdalnie, co nie tylko oszczędza czas, ale także minimalizuje ryzyko błędów. WDS wspiera różne wersje systemów Windows i umożliwia również wdrażanie dodatkowych aplikacji oraz aktualizacji. Stosowanie WDS zgodnie z najlepszymi praktykami branżowymi pozwala na efektywne zarządzanie i utrzymanie infrastruktury IT.

Pytanie 31

Który z protokołów NIE jest używany do ustawiania wirtualnej sieci prywatnej?

A. L2TP
B. PPTP
C. SSTP
D. SNMP
PPTP, L2TP oraz SSTP to protokoły, które rzeczywiście są wykorzystywane do konfiguracji i obsługi wirtualnych sieci prywatnych. PPTP (Point-to-Point Tunneling Protocol) jest jednym z najstarszych protokołów VPN, oferującym prostą implementację, chociaż nie zawsze zapewnia najwyższy poziom bezpieczeństwa. L2TP (Layer 2 Tunneling Protocol) z kolei często jest używany w połączeniu z IPsec, co zapewnia lepsze szyfrowanie i bezpieczeństwo. SSTP (Secure Socket Tunneling Protocol) to protokół stworzony przez Microsoft, który wykorzystuje połączenie SSL do szyfrowania danych, co czyni go bardziej odpornym na ataki. Zwykle w przypadku wyboru protokołu VPN, administratorzy sieci kierują się kryteriami takimi jak bezpieczeństwo, łatwość konfiguracji oraz wydajność. Typowym błędem jest mylenie roli protokołów zarządzających, takich jak SNMP, z protokołami VPN. Użytkownicy mogą nie zdawać sobie sprawy, że SNMP, mimo że jest ważnym narzędziem w zarządzaniu sieciami, nie ma zastosowania w kontekście tworzenia bezpiecznych tuneli dla danych. Ważne jest, aby wybierać odpowiednie narzędzia w zależności od potrzeb, a wiedza o protokołach oraz ich zastosowaniach jest kluczowa dla efektywnego zarządzania i ochrony sieci.

Pytanie 32

Użytkownik planuje instalację 32-bitowego systemu operacyjnego Windows 7. Jaka jest minimalna ilość pamięci RAM, którą powinien mieć komputer, aby system mógł działać w trybie graficznym?

A. 2 GB
B. 512 MB
C. 256 MB
D. 1 GB
Zgadza się, aby system operacyjny Windows 7 w wersji 32-bitowej mógł pracować w trybie graficznym, niezbędne jest posiadanie co najmniej 1 GB pamięci RAM. To minimalne wymaganie wynika z architektury systemu operacyjnego oraz jego zdolności do zarządzania zasobami. W praktyce, posiadanie 1 GB RAM-u umożliwia uruchamianie podstawowych aplikacji oraz korzystanie z interfejsu graficznego bez większych problemów. Warto również zaznaczyć, że większa ilość pamięci RAM może znacznie poprawić wydajność systemu, co jest szczególnie istotne w przypadku używania złożonych aplikacji multimedialnych czy gier. Ponadto, zgodnie z zasadami dobrych praktyk, zaleca się posiadanie pamięci RAM powyżej minimalnych wymagań, co pozwala na lepsze wykorzystanie systemu i jego funkcjonalności. W przypadku Windows 7, 2 GB RAM to bardziej komfortowy wybór, który zapewnia płynne działanie systemu, a także umożliwia korzystanie z wielu aplikacji jednocześnie.

Pytanie 33

W cenniku usług komputerowych znajdują się przedstawione niżej zapisy. Ile będzie wynosił koszt dojazdu serwisanta do klienta mieszkającego poza miastem, w odległości 15 km od siedziby firmy?

Dojazd do klienta na terenie miasta - 25 zł netto
Dojazd do klienta poza miastem - 2 zł netto za każdy km odległości od siedziby firmy liczony w obie strony.

A. 30 zł
B. 25 zł + 2 zł za każdy kilometr od siedziby firmy poza miastem
C. 60 zł + VAT
D. 30 zł + VAT
Wybór odpowiedzi wynikał z nieporozumienia w interpretacji zasad ustalania kosztów dojazdu serwisanta. Wiele osób może pomylić dojazd do klienta na terenie miasta z dojazdem poza miasto. Odpowiedź '30 zł' sugeruje, że koszt dotyczy jedynie jednego kierunku, co jest błędne, ponieważ opłata za dojazd poza miastem jest liczona w obie strony. Odpowiedź '25 zł + 2 zł za każdy kilometr poza granicami miasta' pomija fakt, że koszt dojazdu do klienta w mieście i poza miastem są różne i nie można ich łączyć w taki sposób. Koszt dojazdu do klienta na terenie miasta dotyczy jedynie klientów lokalnych, podczas gdy w tym przypadku mamy do czynienia z klientem, który znajduje się 15 km od firmy. Wreszcie, odpowiedź '60 zł + VAT' prezentuje poprawny koszt, jednak brak zrozumienia, że VAT powinien być dodany do całkowitej kwoty, a nie oddzielnie, prowadzi do zamieszania. Typowe błędy myślowe polegają na błędnym przyjęciu zasady ustalania kosztów oraz nieuwzględnieniu odległości w obydwu kierunkach. Zapoznanie się z zasadami ustalania kosztów w usługach serwisowych jest kluczowe dla zrozumienia właściwego podejścia do obliczeń.

Pytanie 34

Jaki standard szyfrowania powinien być wybrany przy konfiguracji karty sieciowej, aby zabezpieczyć transmisję w sieci bezprzewodowej?

A. WPA
B. EAP
C. PPP
D. MAC
WPA (Wi-Fi Protected Access) to standard szyfrowania, który został opracowany w celu poprawy bezpieczeństwa sieci bezprzewodowych. Jest on następcą wcześniejszych protokołów, takich jak WEP, które okazały się nieefektywne w ochronie przed nieautoryzowanym dostępem. WPA wykorzystuje silniejsze algorytmy szyfrowania, w tym TKIP (Temporal Key Integrity Protocol), co znacząco zwiększa poziom bezpieczeństwa. W praktyce, zastosowanie WPA w konfiguracji karty sieciowej pozwala na szyfrowanie danych przesyłanych w sieci bezprzewodowej, co zminimalizuje ryzyko podsłuchiwania i ataków typu „man-in-the-middle”. Oprócz WPA, istnieje również WPA2 i WPA3, które oferują jeszcze większe bezpieczeństwo dzięki zastosowaniu AES (Advanced Encryption Standard) oraz bardziej zaawansowanym mechanizmom uwierzytelniania. Wybierając WPA, Administratorzy powinni również pamiętać o stosowaniu silnych haseł oraz regularnych aktualizacjach oprogramowania, aby zapewnić maksymalne bezpieczeństwo systemu.

Pytanie 35

Aby uporządkować dane pliku zapisane na dysku twardym, które znajdują się w nie sąsiadujących klastrach, tak by zajmowały one sąsiadujące ze sobą klastry, należy przeprowadzić

A. defragmentację dysku
B. oczyszczanie dysku
C. program chkdsk
D. program scandisk
Defragmentacja dysku to proces, który reorganizuje dane na dysku twardym, aby pliki zajmowały sąsiadujące ze sobą klastry. W wyniku intensywnego użytkowania systemu operacyjnego i zapisywania nowych danych, pliki mogą być rozproszone po różnych klastrach, co prowadzi do ich fragmentacji. Przykładem takiej sytuacji może być zapis dużej ilości plików multimedialnych lub programów, co skutkuje ich układaniem się w różnych, niepowiązanych ze sobą lokalizacjach. Proces defragmentacji ma na celu poprawę wydajności dysku poprzez zmniejszenie czasu dostępu do plików, co jest szczególnie istotne w przypadku tradycyjnych dysków twardych (HDD), gdzie mechaniczny ruch głowicy odczytującej jest ograniczony. Warto również zauważyć, że nowoczesne systemy operacyjne, takie jak Windows, oferują wbudowane narzędzia do defragmentacji, które automatycznie planują tego typu operacje w regularnych odstępach czasu, co jest zgodne z dobrymi praktykami zarządzania systemem. Defragmentacja nie jest zazwyczaj potrzebna w przypadku dysków SSD, ponieważ działają one na innej zasadzie, ale dla HDD jest to kluczowy proces, który znacząco wpływa na ich efektywność.

Pytanie 36

System S.M.A.R.T. służy do śledzenia funkcjonowania oraz identyfikacji usterek

A. kart rozszerzeń
B. dysków twardych
C. napędów płyt CD/DVD
D. płyty głównej
S.M.A.R.T. to taki system, który pomaga w monitorowaniu twardych dysków i SSD-ów. Co on robi? Zbiera różne dane, jak temperatura, czas pracy czy liczba uruchomień. To super ważne, bo dzięki temu możemy przewidzieć, kiedy dysk może się zepsuć. W serwerach często sprawdzają te informacje, bo jak coś zaczyna szwankować, to lepiej zawczasu podjąć jakieś kroki, jak na przykład przenieść dane na nowy dysk. Jak dla mnie, korzystanie z S.M.A.R.T. jest naprawdę mądrym rozwiązaniem w IT, bo pomaga uniknąć utraty danych i sprawia, że sprzęt działa niezawodniej.

Pytanie 37

Przedsiębiorca przekazujący do składowania odpady inne niż komunalne ma obowiązek prowadzić

A. papierową, uproszczoną ewidencję odpadów.
B. ewidencję papierową kart zawierających źródło pochodzenia odpadów.
C. dokumentację związaną z lokalizacją miejsc zbiórki dla zapewnienia odzysku i recyklingu odpadów.
D. elektroniczną ewidencję odpadów w rejestrze BDO.
Wiele osób intuicyjnie zakłada, że skoro kiedyś wszystko robiło się na papierze, to uproszczona, papierowa ewidencja odpadów nadal będzie wystarczająca. To jest dość typowe myślenie: wydaje się, że prostsze rozwiązanie jest wystarczające, zwłaszcza gdy mówimy o małej firmie czy niewielkich ilościach odpadów. Problem w tym, że w przypadku odpadów innych niż komunalne ustawodawca bardzo jasno przeszedł na system elektroniczny, czyli BDO. Papierowa, uproszczona ewidencja może funkcjonować najwyżej jako pomocnicze notatki wewnętrzne, ale nie spełnia wymogów formalnych. Podobnie jest z pomysłem prowadzenia tylko papierowej ewidencji kart zawierających źródło pochodzenia odpadów. Owszem, informacja o pochodzeniu odpadów jest kluczowa, ale musi być wprowadzona do systemu BDO w postaci kart ewidencji i kart przekazania, a nie przechowywana w oddzielnym, papierowym segregatorze. Takie „dublowanie” dokumentacji bywa mylące i często prowadzi do rozjazdów między stanem faktycznym a tym, co jest w systemie. Trzecia koncepcja, czyli skupienie się wyłącznie na dokumentacji lokalizacji miejsc zbiórki, też pojawia się dość często w praktyce – firmy mylą obowiązki związane z organizacją systemu zbiórki odpadów, recyklingiem i odzyskiem z obowiązkiem ewidencyjnym. Dokumentacja miejsc zbiórki, planów recyklingu czy odzysku jest ważna, ale to inna kategoria obowiązków niż ewidencja odpadów przekazywanych do składowania. Kluczowe jest zrozumienie, że przy odpadach innych niż komunalne centralnym narzędziem jest elektroniczna ewidencja w BDO: to tam dokumentuje się ilości, kody odpadów, przekazania, transport i ostateczne miejsce unieszkodliwienia. Pomijanie BDO, zastępowanie go papierem czy dokumentacją „okołoodpadową” to typowy błąd, który w razie kontroli kończy się zarzutem braku wymaganej ewidencji, nawet jeżeli firma w dobrej wierze coś sobie notowała na boku.

Pytanie 38

Ilustracja pokazuje panel ustawień bezprzewodowego urządzenia dostępowego, który umożliwia

Ilustracja do pytania
A. ustawienie nazwy hosta
B. konfigurację serwera DHCP
C. określenie maski podsieci
D. przypisanie adresów MAC do kart sieciowych
Konfiguracja serwera DHCP na panelu konfiguracyjnym bezprzewodowego urządzenia dostępowego jest kluczowym krokiem w zarządzaniu siecią. DHCP, czyli Dynamic Host Configuration Protocol, automatycznie przydziela adresy IP urządzeniom w sieci, co upraszcza procesy administracyjne i zmniejsza ryzyko konfliktów adresów IP. W panelu konfiguracyjnym można ustawić początkowy adres IP, co pozwala na zdefiniowanie zakresu adresów, które będą przydzielane klientom. Można też określić maksymalną liczbę użytkowników DHCP, co zapewnia kontrolę nad zasobami sieciowymi. Ustawienia te są kluczowe w sieciach zarówno domowych, jak i korporacyjnych, gdzie automatyzacja przydzielania adresów IP oszczędza czas administratorów. Dobre praktyki zalecają również ustawienie czasu dzierżawy, co wpływa na to, jak długo dany adres IP pozostaje przypisany do urządzenia. Praktyczne zastosowanie tego polega na unikaniu ręcznego przydzielania adresów IP, co w przypadku dużych sieci jest czasochłonne i podatne na błędy. Serwery DHCP są integralnym elementem nowoczesnych sieci, a ich konfiguracja według najlepszych praktyk zwiększa efektywność i niezawodność połączeń sieciowych

Pytanie 39

Na ilustracji widoczne jest oznaczenie sygnalizacji świetlnej w dokumentacji technicznej laptopa. Wskaż numer odpowiadający kontrolce, która zapala się podczas ładowania akumulatora?

Ilustracja do pytania
A. 2
B. 5
C. 3
D. 4
Kontrolka oznaczona numerem 2 symbolizuje proces ładowania baterii w laptopie co jest zgodne z wytycznymi dotyczącymi identyfikacji wskaźników w urządzeniach elektronicznych. W praktyce kontrolki te są kluczowe dla użytkowników ponieważ dostarczają informacji o stanie zasilania i naładowania baterii. W przypadku gdy laptop jest podłączony do źródła zasilania a bateria jest w trakcie ładowania ta kontrolka zazwyczaj świeci się na określony kolor na przykład pomarańczowy lub migocze sygnalizując aktywność ładowania. Jest to zgodne z międzynarodowymi standardami takimi jak IEC 62079 które dotyczą instrukcji użytkowania produktów elektronicznych. Kontrolki ładowania są zaprojektowane w sposób ułatwiający szybkie i intuicyjne odczytanie ich funkcji co jest istotne dla zapewnienia bezpieczeństwa użytkowania i efektywnego zarządzania energią. Dodatkowo zapewniają one natychmiastową informację zwrotną co do stanu urządzenia co jest nieocenione w sytuacjach kryzysowych gdy wymagane jest szybkie podjęcie decyzji dotyczącej zasilania urządzenia.

Pytanie 40

Na stronie wydrukowanej na drukarce laserowej pojawiają się jaśniejsze i ciemniejsze obszary. Aby rozwiązać problemy z nieciągłością i jakością wydruku, należy

A. przeczyścić wentylator drukarki.
B. przeczyścić dysze drukarki.
C. wymienić bęben światłoczuły.
D. wymienić nagrzewnicę.
Bęben światłoczuły w drukarce laserowej to absolutnie kluczowy element, jeśli chodzi o jakość wydruku. To właśnie na nim powstaje obraz, który później zostaje przeniesiony na papier. Jeśli pojawiają się jaśniejsze i ciemniejsze obszary na wydruku, bardzo często przyczyną jest zużyty lub uszkodzony bęben światłoczuły. Moim zdaniem, szczególnie w drukarkach eksploatowanych intensywnie, objawy takie jak nieciągłość wydruku, pasy czy obszary o różnym stopniu nasycenia czernią, to wręcz klasyka problemów związanych z tym elementem. Wymiana bębna to standardowa procedura serwisowa zalecana przez większość producentów – np. HP, Brother czy Canon mają w dokumentacji wyraźnie opisane takie objawy i wskazują bęben jako główną przyczynę. Dla mnie osobiście to jeden z ważniejszych tematów podczas nauki o serwisie drukarek. Dobrą praktyką jest też sprawdzanie licznika bębna w drukarce – nowoczesne modele same informują o potrzebie wymiany. Warto dodać, że użytkowanie oryginalnych części zwykle gwarantuje lepszą jakość niż tanie zamienniki. Pamiętaj, że czysty bęben światłoczuły to podstawa wyraźnych, jednolitych wydruków. Profesjonaliści zawsze zaczynają diagnostykę od tego elementu, jeśli pojawiają się problemy z jakością druku.