Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 22 kwietnia 2026 14:33
  • Data zakończenia: 22 kwietnia 2026 14:46

Egzamin zdany!

Wynik: 20/40 punktów (50,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Po stwierdzeniu przypadkowego usunięcia ważnych danych na dysku twardym, aby odzyskać usunięte pliki, najlepiej

A. podłączyć dysk do zestawu komputerowego z zainstalowanym programem typu recovery.
B. przeskanować system programem antywirusowym, a następnie użyć narzędzia chkdsk.
C. zainstalować na tej samej partycji co pliki program do odzyskiwania usuniętych danych np. Recuva.
D. odinstalować oraz ponownie zainstalować sterowniki dysku twardego, zalecane przez producenta.
Podejście z podłączeniem dysku do innego komputera, w którym już jest zainstalowany program do odzyskiwania danych, to faktycznie najbezpieczniejsza i najskuteczniejsza metoda na ratowanie przypadkowo usuniętych plików. Główna zaleta tej metody polega na tym, że minimalizujesz ryzyko nadpisania usuniętych danych – każde zapisywanie nowych plików (np. instalacja programów, aktualizacje) na tej samej partycji może trwale zniszczyć szansę na odzyskanie. W branży IT to praktycznie złoty standard – jeśli ktoś poważnie traktuje bezpieczeństwo danych, zawsze najpierw odłącza nośnik, na którym doszło do utraty, a potem działa na kopii lub z innego środowiska. Moim zdaniem zdecydowanie lepiej na zimno wyciągnąć dysk i użyć specjalistycznych narzędzi typu recovery na innym komputerze, bo wtedy całkowicie unikasz ingerencji w system plików, z którego chcesz coś uratować. Praktyka pokazuje, że nawet darmowe programy typu Recuva, TestDisk czy PhotoRec przy takim podejściu potrafią przywrócić naprawdę dużo – pod warunkiem, że nie dopuści się do nadpisania sektorów. Warto też pamiętać, że profesjonaliści często najpierw robią sektor po sektorze obraz dysku (np. za pomocą ddrescue), a dopiero potem bawią się w odzyskiwanie, żeby w razie czego mieć zawsze surową kopię przed jakimikolwiek próbami odzysku. To trochę jak z archeologią cyfrową – każdy nieprzemyślany ruch może bezpowrotnie coś zniszczyć. Z mojego doświadczenia, zachowanie zimnej krwi i przestrzeganie tych zasad daje największą szansę na sukces.

Pytanie 2

Komunikat tekstowy KB/Interface error, wyświetlony na ekranie komputera z BIOS POST firmy AMI, informuje o błędzie

A. pamięci GRAM.
B. baterii CMOS.
C. rozdzielczości karty graficznej.
D. sterownika klawiatury.
Przy interpretowaniu komunikatów systemowych BIOS, warto dobrze rozumieć, co oznaczają konkretne skróty i na czym polegają najczęstsze błędy podczas testu POST. Komunikat KB/Interface error wyraźnie wskazuje na problem z interfejsem klawiatury, a nie na inne podzespoły. Czasem przez rutynę lub pośpiech myli się go z awarią baterii CMOS, ponieważ oba błędy mogą objawiać się na wczesnym etapie startu komputera – jednak bateria CMOS odpowiada za przechowywanie ustawień BIOS i jej rozładowanie generuje zupełnie inny komunikat, najczęściej o błędzie checksum lub konieczności ustawienia daty i godziny. Z kolei pamięć GRAM to określenie dotyczące głównie grafiki lub specjalistycznych rozwiązań, nie ma ona żadnego związku z testowaniem klawiatury podczas POST. Problemy z GRAM objawiają się najczęściej artefaktami na ekranie lub brakiem obrazu, a BIOS sygnalizuje je innymi komunikatami lub sygnałami dźwiękowymi. Co do rozdzielczości karty graficznej – BIOS nie testuje jej na tym etapie, bo POST służy głównie wykryciu najważniejszych podzespołów i sprawdzeniu, czy urządzenia startowe działają. Jeśli karta graficzna nie działa, BIOS zazwyczaj wydaje charakterystyczne beep kody, a nie tekstowe komunikaty związane z rozdzielczością. Typowym błędem myślowym jest przypisywanie każdej usterki wykrytej przez BIOS problemom z pamięcią lub baterią, podczas gdy komunikaty tego typu są zazwyczaj bardzo precyzyjne. Praktyka pokazuje, że nieznajomość tych skrótów i ich znaczenia prowadzi do błędnej diagnostyki, przez co naprawa się przeciąga lub wykonuje się zupełnie niepotrzebne czynności. W technice komputerowej kluczowe jest więc nie tylko rozpoznanie objawów, ale też poprawna interpretacja sygnałów diagnostycznych generowanych przez BIOS, bo to one najczęściej pozwalają szybko dojść do sedna problemu.

Pytanie 3

Program typu recovery, w warunkach domowych, pozwala na odzyskanie danych z dysku twardego w przypadku

A. przypadkowego usunięcia danych.
B. uszkodzenia silnika dysku.
C. zalania dysku.
D. uszkodzenia elektroniki dysku.
Programy typu recovery są zaprojektowane głównie z myślą o sytuacjach, gdy dane zostały przypadkowo usunięte – przez użytkownika lub w wyniku awarii systemu plików. To właśnie wtedy narzędzia takie jak Recuva, TestDisk czy EaseUS Data Recovery mają największą skuteczność. Mechanizm działania opiera się na fakcie, że po usunięciu pliku system operacyjny przeważnie tylko oznacza miejsce na dysku jako wolne, ale fizycznie dane nadal tam pozostają, póki nie zostaną nadpisane innymi plikami. Takie rozwiązania pozwalają odzyskać zdjęcia, dokumenty, a nawet całe partycje, jeśli tylko dysk jest sprawny fizycznie. Moim zdaniem warto znać różnicę między uszkodzeniem logicznym a fizycznym – programy recovery nie są w stanie naprawić sprzętu, ale świetnie radzą sobie z przypadkowym skasowaniem plików. Dobrą praktyką jest natychmiastowe zaprzestanie korzystania z dysku po utracie danych, by nie dopuścić do nadpisania tych sektorów. Branża IT poleca też robienie regularnych kopii zapasowych – to chyba najprostszy sposób na uniknięcie problemów z utraconymi plikami. Gdy dojdzie do sytuacji awaryjnej, warto pamiętać, by działać spokojnie i nie instalować narzędzi recovery na tym samym dysku, z którego chcemy odzyskać dane.

Pytanie 4

Jaką przepustowość określa standard Ethernet IEEE 802.3z?

A. 1Gb
B. 100Mb
C. 1GB
D. 10Mb
Standard Ethernet IEEE 802.3z definiuje przepływność 100 Mb/s, co oznacza, że jest to technologia stosunkowo szybka, umożliwiająca przesyłanie danych z prędkościami odpowiednimi dla wielu aplikacji sieciowych. Standard ten, znany również jako Fast Ethernet, został wprowadzony w latach 90. XX wieku i jest fundamentalnym elementem infrastruktury sieciowej. Przykłady zastosowań obejmują sieci lokalne (LAN) w biurach, gdzie wymagane jest szybkie przesyłanie danych pomiędzy komputerami oraz serwerami. Warto również zauważyć, że 100 Mb/s to wystarczająca prędkość dla wielu aplikacji, takich jak przesyłanie plików, strumieniowanie wideo czy korzystanie z usług internetowych. Technologie te wciąż są wykorzystywane w wielu przedsiębiorstwach, a ich zrozumienie jest kluczowe dla inżynierów sieciowych.

Pytanie 5

W systemie Linux, żeby ustawić domyślny katalog domowy dla nowych użytkowników na katalog /users/home/new, konieczne jest użycie polecenia

A. /users/home/new useradd -s -D
B. useradd /users/home/new -D -f
C. /users/home/new -n -D useradd
D. useradd -D -b /users/home/new
Wszystkie błędne odpowiedzi wynikają z nieporozumienia dotyczącego składni polecenia 'useradd' oraz jego opcji. Kluczową pomyłką jest umiejscowienie opcji w nieodpowiednich miejscach w poleceniu, co prowadzi do błędów w interpretacji przez system. W przypadku pierwszej niepoprawnej odpowiedzi, 'useradd /users/home/new -D -f', polecenie jest skonstruowane w sposób, który nie zgadza się z wymaganiami składniowymi, gdyż argumenty dotyczące katalogu, flag i opcji nie są w odpowiedniej kolejności. Dodatkowo, opcja '-f' nie ma zastosowania w kontekście zmiany katalogu domowego, co wskazuje na brak zrozumienia celu danego polecenia. Kolejne odpowiedzi, takie jak '/users/home/new -n -D useradd' oraz '/users/home/new useradd -s -D' również nie działają, ponieważ wprowadzają dodatkowe, niepotrzebne argumenty oraz nieprawidłową kolejność. W systemie Linux kluczowe jest przestrzeganie konkretnej składni poleceń, ponieważ błędy w kolejności lub użyciu opcji mogą prowadzić do niepoprawnych zmian w systemie. Użytkownicy powinni być świadomi, że poprawna konstrukcja poleceń jest istotna dla ich prawidłowego działania, a znajomość dokumentacji oraz podręczników pomocy, takich jak 'man useradd', może znacząco przyczynić się do uniknięcia tych powszechnych błędów.

Pytanie 6

W sieciach opartych na standardzie, jaką metodę dostępu do medium wykorzystuje CSMA/CA?

A. IEEE 802.11
B. IEEE 802.3
C. IEEE 802.1
D. IEEE 802.8
Wybór odpowiedzi innej niż IEEE 802.11 wskazuje na nieporozumienie dotyczące zastosowania różnych standardów w kontekście metod dostępu do medium. IEEE 802.1 to standard dotyczący protokołów sieciowych i zarządzania, który nie definiuje metod dostępu do medium, co sprawia, że nie jest on odpowiedni w tym kontekście. Z kolei IEEE 802.3, jako standard dla Ethernetu, wykorzystuje mechanizm CSMA/CD, czyli wykrywanie kolizji, co jest niezgodne z zasadami działania sieci bezprzewodowych, gdzie kolizje są trudniejsze do wykrycia. Standard IEEE 802.8 również nie odnosi się do metod dostępu do medium, a jego zakres obejmuje głównie interfejsy i technologie związane z transportem w sieciach. To prowadzi do błędnego myślenia, że wszystkie standardy 802.x są w jakiś sposób związane z metodami dostępu do medium. Kluczowym błędem jest mylenie zastosowań poszczególnych standardów oraz nieznajomość ich specyfiki. Zrozumienie różnic między standardami IEEE, w szczególności w kontekście radiofoni, jest niezbędne do efektywnego projektowania i implementacji sieci, gdzie metody dostępu odgrywają kluczową rolę w zapewnieniu stabilności i wydajności komunikacji.

Pytanie 7

Który adres IP jest zaliczany do klasy B?

A. 100.10.10.2
B. 96.15.2.4
C. 198.15.10.112
D. 134.192.16.1
Adresy IP z pozostałych opcji nie są przypisane do klasy B, co może być źródłem nieporozumień wśród osób uczących się o adresacji IP. Na przykład, adres 96.15.2.4 należy do klasy A, ponieważ jego pierwszy oktet (96) znajduje się w zakresie od 1 do 126. Klasa A jest przeznaczona dla bardzo dużych sieci, gdzie możliwe jest przydzielenie ponad 16 milionów adresów IP. Adres 100.10.10.2 również należy do klasy A, co może być mylące, ponieważ podobnie jak w przypadku 96.15.2.4, jego pierwszy oktet (100) jest w tym samym zakresie. Klasa A składa się z adresów, które często są używane przez globalne organizacje, ponieważ ich struktura sieciowa wymaga dużej ilości adresów. Z kolei adres 198.15.10.112 należy do klasy C, która obejmuje zakres od 192.0.0.0 do 223.255.255.255. Klasa C jest stosowana w mniejszych sieciach, gdzie zwykle przypisuje się od 2 do 254 adresów IP. Osoby mogą mylnie interpretować klasy adresów IP, skupiając się na wartości liczbowej pierwszego oktetu, nie zdając sobie sprawy z ich klasyfikacji oraz zastosowań w praktyce. Zrozumienie różnic pomiędzy klasami A, B i C jest niezbędne do efektywnego zarządzania sieciami, co jest kluczowe w kontekście projektowania i administrowania infrastrukturą sieciową.

Pytanie 8

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 8 GB.
B. 1 modułu 16 GB.
C. 1 modułu 32 GB.
D. 2 modułów, każdy po 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 9

Klient dostarczył wadliwy sprzęt komputerowy do serwisu. W trakcie procedury przyjmowania sprzętu, ale przed rozpoczęciem jego naprawy, serwisant powinien

A. przygotować rewers serwisowy i opieczętowany przedłożyć do podpisu
B. sporządzić rachunek z naprawy w dwóch kopiach
C. wykonać ogólny przegląd sprzętu oraz przeprowadzić rozmowę z klientem
D. przeprowadzić testy powykonawcze sprzętu
Wykonanie przeglądu ogólnego sprzętu oraz przeprowadzenie wywiadu z klientem to kluczowe kroki w procesie serwisowym. Przegląd ogólny pozwala na wstępne zidentyfikowanie widocznych uszkodzeń czy nieprawidłowości, które mogą wpływać na funkcjonowanie urządzenia. Dodatkowo, przeprowadzenie wywiadu z klientem umożliwia uzyskanie informacji o objawach usterki, okolicznościach jej wystąpienia oraz ewentualnych wcześniejszych naprawach. Te informacje są niezwykle cenne, ponieważ mogą naprowadzić serwisanta na konkretne problemy, które mogą być trudne do zdiagnozowania w trakcie samego przeglądu. Przykładowo, klient może zauważyć, że sprzęt wydaje nietypowe dźwięki w określonych warunkach, co może sugerować problem z wentylacją lub zasilaczem. W branży serwisowej kierowanie się najlepszymi praktykami, takimi jak podejście oparte na badaniach oraz komunikacja z klientem, zwiększa efektywność napraw i zadowolenie klientów. Standardy ISO 9001 sugerują, że proces przyjmowania reklamacji powinien być systematyczny i oparty na szczegółowej dokumentacji, co obejmuje m.in. sporządzenie notatek z wywiadu i przeglądu.

Pytanie 10

Jakie polecenie w systemie Windows należy wpisać w miejsce kropek, aby uzyskać dane przedstawione na załączonym obrazku?

C:\Windows\system32> ...................
Nazwa użytkownika                  Gość
Pełna nazwa
Komentarz                          Wbudowane konto do dostępu do komputera/domeny
Komentarz użytkownika
Kod kraju                          000 (Domyślne ustawienia systemu)
Konto jest aktywne                 Nie
Wygasanie konta                    Nigdy

Hasło ostatnio ustawiano           2019-11-23 10:55:12
Ważność hasła wygasa               Nigdy
Hasło może być zmieniane           2019-12-02 10:55:12
Wymagane jest hasło                Nie
Użytkownik może zmieniać hasło     Nie

Dozwolone stacje robocze           Wszystkie
Skrypt logowania
Profil użytkownika
Katalog macierzysty
Ostatnie logowanie                 Nigdy

Dozwolone godziny logowania        Wszystkie

Członkostwa grup lokalnych         *Goście
Członkostwa grup globalnych        *None
Polecenie zostało wykonane pomyślnie.

C:\Windows\system32>
A. net config Gość
B. net statistics Gość
C. net accounts Gość
D. net user Gość
Polecenie net config Gość nie jest poprawnym wyborem ponieważ net config jest używane głównie do konfiguracji ustawień sieciowych takich jak serwery czy drukarki sieciowe a nie do zarządzania kontami użytkowników. Częstym błędem jest mylenie poleceń związanych z siecią z tymi które dotyczą użytkowników zwłaszcza w środowisku Windows gdzie zakres poleceń jest szeroki. Net statistics Gość również nie jest prawidłowym wyborem ponieważ to polecenie służy do wyświetlania statystyk związanych z działaniem usług sieciowych na komputerze takich jak czas działania czy ilość przetworzonych danych. W kontekście zarządzania użytkownikami nie daje ono żadnych użytecznych informacji. Polecenie net accounts Gość natomiast dotyczy ustawień haseł i zasad logowania dla wszystkich kont w systemie ale nie pozwala na uzyskanie szczegółowych informacji o konkretnym użytkowniku. Typowym błędem jest zakładanie że narzędzie to wyświetli szczegółowe dane dotyczące użytkownika co jest nieprawidłowe. Wiedza o tym jakie polecenia służą do zarządzania użytkownikami a jakie do konfiguracji systemowych jest kluczowa w pracy każdego specjalisty IT. Poprawne rozróżnianie tych komend pozwala nie tylko na skuteczniejsze zarządzanie systemami ale również na szybkie rozwiązywanie problemów związanych z administracją kont.

Pytanie 11

Wskaż usługę, którą należy skonfigurować na serwerze aby blokować ruch sieciowy?

A. IIS
B. Zapora sieciowa.
C. Zarządca SMNP.
D. DNS
Prawidłowo – aby blokować ruch sieciowy na serwerze, konfigurujemy zaporę sieciową (firewall). To właśnie firewall decyduje, które pakiety sieciowe są przepuszczane, a które odrzucane, na podstawie zdefiniowanych reguł. Można filtrować ruch po adresach IP, portach, protokołach (TCP/UDP/ICMP), kierunku (ruch przychodzący/wychodzący), a nawet po aplikacjach. W praktyce administracji serwerami to jedno z absolutnie podstawowych narzędzi bezpieczeństwa. W systemach Windows rolę tę pełni „Zapora systemu Windows z zabezpieczeniami zaawansowanymi” albo firewall wbudowany w rozwiązania typu Windows Server, często zarządzany przez zasady grup (GPO). W Linuksie najczęściej używa się iptables, nftables, firewalld czy ufw. Niezależnie od konkretnego narzędzia, idea zawsze jest ta sama: domyślnie zamykamy wszystko, a otwieramy tylko to, co jest naprawdę potrzebne (np. port 80/443 dla serwera WWW, 22 dla SSH, 3389 dla RDP). To jest taka podstawowa dobra praktyka – zasada najmniejszych uprawnień, ale w kontekście ruchu sieciowego. W środowiskach produkcyjnych zapora sieciowa bywa warstwowa: mamy firewalle sprzętowe na brzegu sieci (np. w routerach, UTM-ach) oraz lokalne zapory programowe na każdym serwerze. Moim zdaniem sensownie skonfigurowany firewall to jedna z najskuteczniejszych i najtańszych form ochrony – chroni przed skanowaniem portów, prostymi atakami z zewnątrz, ogranicza skutki przejęcia jednego hosta, bo nie pozwala mu swobodnie gadać z całą resztą sieci. Standardy bezpieczeństwa, takie jak dobre praktyki CIS Benchmarks czy wytyczne OWASP, wyraźnie wskazują na konieczność stosowania filtracji ruchu sieciowego i separacji usług właśnie poprzez zapory. W codziennej pracy administratora konfiguracja firewall’a to chleb powszedni przy wystawianiu nowych serwerów do sieci lokalnej lub Internetu.

Pytanie 12

Symbol "LGA 775" obecny w dokumentacji technicznej płyty głównej wskazuje na typ gniazda dla procesorów:

A. które są zgodne z szyną systemową o maksymalnej częstotliwości taktowania do 1 333 MHz
B. których obudowa zawiera pola dotykowe
C. które mają mniej połączeń zasilających niż gniazdo dla procesorów w obudowie PGA
D. których obudowa zawiera piny
Odpowiedź, że 'LGA 775' oznacza procesory, których obudowa posiada pola dotykowe, jest poprawna, ponieważ termin LGA, czyli 'Land Grid Array', odnosi się do konstrukcji gniazda, w którym procesor jest umieszczany. W przeciwieństwie do innych technologii, takich jak PGA (Pin Grid Array), w technologii LGA procesor nie ma wystających pinów, lecz pola stykowe, które stykają się z odpowiednimi punktami na płycie głównej. Wykorzystanie pola dotykowego zapewnia lepsze połączenie, co przekłada się na stabilność elektryczną oraz zmniejsza ryzyko uszkodzenia pinów podczas montażu. Przykładowo, procesory Intel z rodziny Core 2 Duo, które korzystają z gniazda LGA 775, były szeroko stosowane w komputerach osobistych i stacjach roboczych. Standard ten jest zgodny z technologią Intel, która kładzie duży nacisk na jakość połączeń i niezawodność. Dlatego też, wybierając procesor z gniazdem LGA 775, użytkownicy mogą być pewni, że ich system będzie działał z odpowiednią wydajnością oraz stabilnością, co jest kluczowe w kontekście nowoczesnych aplikacji i gier.

Pytanie 13

Ilustracja pokazuje rezultat testu sieci komputerowej za pomocą komendy

Badanie wp.pl [212.77.100.101] z użyciem 32 bajtów danych:
Odpowiedź z 212.77.100.101: bajtów=32 czas=25ms TTL=249
Odpowiedź z 212.77.100.101: bajtów=32 czas=25ms TTL=249
Odpowiedź z 212.77.100.101: bajtów=32 czas=25ms TTL=249
Odpowiedź z 212.77.100.101: bajtów=32 czas=27ms TTL=249
A. netstat
B. ipconfig
C. ping
D. tracert
Odpowiedź ping jest poprawna ponieważ polecenie to służy do diagnozowania stanu połączenia z innym urządzeniem w sieci komputerowej. Wykorzystuje ono protokół ICMP do wysyłania pakietów echo request do docelowego hosta a następnie oczekuje na odpowiedź echo reply. W wyniku działania polecenia ping użytkownik otrzymuje informacje o czasie odpowiedzi i liczbie utraconych pakietów co jest kluczowe w diagnozowaniu problemów z wydajnością sieci oraz ustalaniu dostępności urządzeń. Na przykład w systemach Windows typowym wynikiem działania polecenia ping jest wyświetlenie adresu IP docelowego hosta liczby bajtów w pakiecie oraz czasu odpowiedzi w milisekundach. Polecenie to jest standardem w większości systemów operacyjnych co czyni je uniwersalnym narzędziem dla administratorów sieci. Znajomość tego narzędzia jest niezbędna do efektywnego zarządzania infrastrukturą sieciową umożliwiając szybką detekcję i lokalizację problemów z łącznością. W praktyce ping jest często pierwszym krokiem w diagnostyce sieciowej pomagając administratorom potwierdzić czy problem z siecią leży po ich stronie czy po stronie zewnętrznych dostawców usług sieciowych.

Pytanie 14

Jakie oprogramowanie chroni komputer przed niechcianym softwarem pochodzącym z sieci?

A. Program sniffer
B. Program antywirusowy
C. Protokół HTTPS
D. Protokół SSL
Program antywirusowy jest kluczowym narzędziem w zabezpieczaniu komputerów przed niepożądanym oprogramowaniem, takim jak wirusy, trojany czy ransomware. Działa on poprzez skanowanie plików i programów na komputerze oraz monitorowanie aktywności w czasie rzeczywistym, co pozwala na szybką identyfikację i neutralizację zagrożeń. Programy antywirusowe często wykorzystują bazy danych sygnatur wirusów, które są regularnie aktualizowane, aby chronić użytkowników przed nowymi zagrożeniami. Przykładowo, w przypadku zainfekowanego pliku program antywirusowy może zablokować jego uruchomienie, a także usunąć lub kwarantannować zainfekowane pliki. Warto również wspomnieć o dodatkowych funkcjach, takich jak skanowanie w chmurze, które umożliwia szybsze wykrywanie najnowszych zagrożeń, oraz o technologii heurystycznej, która analizuje zachowanie programów, aby znaleźć nieznane wirusy. Stosowanie programów antywirusowych jest zgodne z najlepszymi praktykami bezpieczeństwa IT, które zalecają wielowarstwowe podejście do ochrony danych.

Pytanie 15

Do jakich celów powinno się aktywować funkcję RMON (Remote Network Monitoring) w przełączniku?

A. Automatyczne przydzielanie VLAN’ów oraz uczenie się
B. Obsługi zaawansowanych standardów monitorowania i raportowania
C. Ograniczenia w rozsyłaniu transmisji rozgłoszeniowych
D. Automatyczne rozpoznawanie rodzaju kabla podłączonego do portu
Odpowiedzi, które nie odnoszą się do aktywacji RMON, zawierają szereg błędnych przekonań dotyczących funkcji przełączników sieciowych. Ograniczanie rozsyłania transmisji rozgłoszeniowych to funkcjonalność związana bardziej z konfiguracją VLAN i mechanizmami takimi jak IGMP Snooping, które zapobiegają niepotrzebnemu rozprzestrzenianiu się ruchu multicastowego. Automatyczne uczenie się i przydzielanie VLAN'ów odnosi się głównie do protokołu 802.1Q oraz mechanizmów takich jak GVRP, które umożliwiają dynamiczne przypisywanie portów do VLAN-ów na podstawie ruchu sieciowego, co nie ma związku z monitorowaniem. Z kolei automatyczne wykrywanie rodzaju podłączonego do portu kabla jest funkcją diagnostyczną, często zwaną Auto-MDI/MDIX, która zapewnia, że przełącznik odpowiednio rozpozna typ kabla i dostosuje swoje ustawienia, ale nie odnosi się do monitorowania sieci. Te koncepcje, mimo że są ważne w kontekście zarządzania siecią, nie mają związku z podstawowym celem RMON, jakim jest zaawansowane monitorowanie i raportowanie, co powoduje, że proponowane odpowiedzi nie są właściwe. Kluczowe jest zrozumienie, że każda z tych funkcji ma swoje miejsce w architekturze sieci, jednak nie zastąpią one zaawansowanych możliwości, jakie oferuje RMON w zakresie analizy wydajności i diagnostyki.

Pytanie 16

W systemie Linux polecenie chmod 321 start spowoduje nadanie następujących uprawnień plikowi start:

A. pełna kontrola dla użytkownika root, zapis i odczyt dla użytkownika standardowego, odczyt dla pozostałych.
B. zapis, odczyt i wykonanie dla użytkownika root, odczyt i wykonanie dla użytkownika standardowego, odczyt dla pozostałych.
C. wykonanie i zapis dla właściciela pliku, zapis dla grupy, wykonanie dla pozostałych.
D. czytanie, zapis i wykonanie dla właściciela pliku, zapis i wykonanie dla grupy i czytanie dla pozostałych.
Uprawnienia pliku w systemie Linux są często mylone przez początkujących, zwłaszcza przy korzystaniu z notacji oktalnej w poleceniu chmod. Częstym błędem jest utożsamianie wysokich wartości (np. 7) z pełną kontrolą, a niższych wyłącznie z odczytem czy zapisem, bez zrozumienia, że każda cyfra to suma bitów odpowiadających uprawnieniom: odczyt (4), zapis (2) i wykonanie (1). Przykładowo, 3 to zapis i wykonanie, ale bez odczytu, co jest dość nietypowe i nieintuicyjne. Wielu osobom wydaje się, że root zawsze ma pełną kontrolę, ale chmod 321 nie nadaje żadnych specjalnych uprawnień roota – root i tak może wszystko, niezależnie od chmod. Innym typowym błędem jest przekonanie, że środkowa cyfra (grupa) odnosi się do użytkowników standardowych – tymczasem to konkretna grupa pliku. Pojawia się też zamieszanie wokół tego, że wykonanie (execute) często oznacza pełny dostęp – w praktyce pozwala tylko uruchamiać plik jako program lub wejść do katalogu. Zestaw 321 nie daje nigdzie pełnej kombinacji odczytu, zapisu i wykonania ani nie przypisuje żadnej grupie odczytu, co łatwo przeoczyć. Warto pamiętać, że najczęściej spotykane uprawnienia to 644 (czyli odczyt/zapis dla właściciela, odczyt dla grupy i innych) albo 755, ale w poleceniu z pytania każda grupa dostaje bardzo ograniczone i specyficzne prawa, często niepasujące do codziennego użycia. To pokazuje, jak ważne jest rozumienie mechanizmu kodowania uprawnień i sprawdzanie, komu faktycznie przydzielamy jakie prawa, zamiast polegać na domysłach czy utartych schematach. W praktyce, jeśli nie rozumie się do końca notacji oktalnej, łatwo niechcący zostawić plik praktycznie bezużyteczny albo zbyt szeroko dostępny.

Pytanie 17

Biorąc pod uwagę konfigurację wykonywaną na ilustracji, administrator po zainstalowaniu systemu operacyjnego uznał za istotne, aby

Ilustracja do pytania
A. były instalowane aktualizacje pozostałych produktów Microsoft.
B. aktualizacje będą pobierane w przypadku połączeń taryfowych.
C. system nie powiadamiał o konieczności ponownego uruchomienia.
D. aktualizacje były instalowane tylko w godzinach od 6.00 do 17.00.
Prawidłowa odpowiedź wynika wprost z tego, co widać na zrzucie ekranu z Windows Update. W sekcji „Opcje zaawansowane” przełącznik „Otrzymuj aktualizacje innych produktów firmy Microsoft” jest ustawiony na „Włączone”. To oznacza, że administrator po instalacji systemu świadomie zdecydował, aby wraz z aktualizacjami samego Windowsa pobierać i instalować również poprawki do pozostałych produktów Microsoft, takich jak pakiet Office, SQL Server Management Studio, Visual Studio, komponenty .NET, itp. Z punktu widzenia dobrej praktyki administracyjnej to bardzo sensowne podejście. Utrzymanie całego ekosystemu oprogramowania Microsoft w jednym spójnym kanale aktualizacji ułatwia zarządzanie, zmniejsza liczbę luk bezpieczeństwa i ogranicza problemy ze zgodnością wersji. Z mojego doświadczenia w sieciach firmowych wyłączenie aktualizacji innych produktów Microsoft często kończy się tym, że np. Office latami nie dostaje poprawek bezpieczeństwa, bo nikt go ręcznie nie aktualizuje. A to prosta droga do exploitów makr, podatności w Outlooku czy błędów w bibliotece VBA. Włączenie tej opcji powoduje, że Windows Update staje się centralnym narzędziem utrzymania aktualności całego oprogramowania Microsoft, co jest zgodne z zaleceniami producenta i typowymi politykami bezpieczeństwa w firmach (np. CIS Benchmarks, wytyczne Microsoft Security Baseline). W praktyce: administrator raz konfiguruje zasady aktualizacji, a użytkownik nie musi pamiętać o oddzielnym aktualizowaniu Office’a czy innych komponentów – wszystko wpada jednym kanałem, w kontrolowany sposób, często dodatkowo spięte z usługami typu WSUS czy Intune.

Pytanie 18

Wskaż ilustrację ilustrującą symbol stosowany do oznaczania portu równoległego LPT?

Ilustracja do pytania
A. A
B. B
C. C
D. D
Odpowiedzi inne niż D nie są symbolem portu LPT. Ikona A to symbol USB, który jest teraz standardem do podłączania różnych urządzeń jak myszki czy klawiatury. USB jest proste w użyciu i dobrze współpracuje z różnymi systemami. Ikona B to złącze HDMI, które teraz jest standardem do przesyłania wysokiej jakości obrazu i dźwięku między sprzętem takim jak TV czy projektory. HDMI pozwala na lepszą jakość niż starsze analogowe metody. Odpowiedź C to symbol portu PS/2, który był kiedyś wykorzystywany do klawiatur i myszy w starszych PC. Teraz, przez USB, PS/2 nie jest już tak popularne, ale wciąż się zdarza a jego niezawodność i niskie opóźnienia mogą być na plus. Warto wiedzieć, jak wygląda różnica między tymi złączami, bo pomyłka może spowodować problemy z podłączeniem i konfiguracją urządzeń, co potem wpływa na pracę w IT. Ogólnie, znajomość tych symboli i ich zastosowań jest ważna, bo może ułatwić zarządzanie techniką i uniknięcie typowych błędów.

Pytanie 19

Użytkownicy w sieci lokalnej mogą się komunikować między sobą, lecz nie mają możliwości połączenia z serwerem WWW. Wynik polecenia ping z komputerów do bramy jest pozytywny. Który element sieci nie może być źródłem problemu?

Ilustracja do pytania
A. Kabel między ruterem a przełącznikiem
B. Kabel między ruterem a serwerem WWW
C. Przełącznik.
D. Router.
Router pełni kluczową rolę w komunikacji sieciowej, kierując ruch między różnymi sieciami, w tym lokalną siecią użytkowników i zewnętrznymi sieciami, takimi jak Internet. Jeśli użytkownicy nie mogą połączyć się z serwerem WWW, potencjalną przyczyną mogą być problemy z trasowaniem, konfiguracją NAT lub regułami zapory na routerze. Kabel łączący router z przełącznikiem jest kluczowym elementem, ponieważ umożliwia przesyłanie danych między urządzeniami lokalnymi a siecią zewnętrzną. Awaria tego kabla mogłaby skutkować całkowitym brakiem łączności, jednak w scenariuszu opisanym w pytaniu komunikacja wewnętrzna działa poprawnie. Kabel między routerem a serwerem WWW jest również krytyczny dla nawiązania połączenia z serwerem. Jeśli jest uszkodzony lub źle podłączony, użytkownicy mogą doświadczać problemów z dostępem do zasobów serwera. Typowy błąd polega na założeniu, że lokalna komunikacja wewnętrzna gwarantuje, że cała infrastruktura sieciowa działa poprawnie. W rzeczywistości każdy segment sieci pełni unikalną rolę, a problemy mogą wystąpić nawet przy częściowej sprawności systemu. Kluczowe jest rozumienie roli poszczególnych komponentów sieci oraz ich wzajemnych zależności, co pozwala na szybką diagnostykę i rozwiązanie problemów komunikacyjnych.

Pytanie 20

Brak informacji o parzystości liczby lub o znaku wyniku operacji w ALU może sugerować problemy z funkcjonowaniem

A. tablicy rozkazów
B. wskaźnika stosu
C. rejestru flagowego
D. pamięci cache
Odpowiedzi takie jak pamięć cache, wskaźnik stosu oraz tablica rozkazów są nieodpowiednie w kontekście braku informacji o parzystości liczby czy znaku wyniku operacji w ALU. Pamięć cache jest technologią, która optymalizuje dostęp do danych, przechowując często używane informacje, ale nie ma wpływu na operacje arytmetyczne czy logiczne wykonywane przez ALU. Jej rola polega na zwiększeniu wydajności systemu przez minimalizowanie opóźnień w dostępie do pamięci głównej. Wskaźnik stosu z kolei zarządza strukturą danych zwaną stosem, która jest używana do przechowywania adresów powrotu oraz lokalnych zmiennych, a nie do zarządzania wynikami operacji arytmetycznych. Z perspektywy działania ALU, wskaźnik stosu nie ma nic wspólnego z informacjami o parzystości czy znaku. Tablica rozkazów to z kolei strona architektury procesora, która przechowuje instrukcje do wykonania; jednak odpowiedzialność za zarządzanie wynikami leży w rejestrach, a nie w tablicy rozkazów. Właściwe zrozumienie ról tych komponentów jest kluczowe dla efektywnego projektowania systemów komputerowych. Często mylenie tych terminów prowadzi do nieporozumień dotyczących działania architektury komputerowej i jej elementów składowych. Ważne jest, aby w kontekście programowania i architektury komputerowej, mieć jasność co do funkcji każdego z komponentów, aby unikać błędów w projektowaniu oraz implementacji.

Pytanie 21

Aby zweryfikować adresy MAC komputerów, które są połączone z przełącznikiem, można zastosować następujące polecenie

A. clear mac address-table
B. ip http port
C. show mac address-table
D. ip http serwer
Polecenie 'show mac address-table' jest kluczowym narzędziem w diagnostyce i zarządzaniu sieciami komputerowymi. Umożliwia administratorom sieci uzyskanie informacji o adresach MAC urządzeń podłączonych do przełącznika, co jest niezbędne do monitorowania ruchu w sieci oraz rozwiązywania problemów związanych z łącznością. W wyniku wykonania tego polecenia, administrator otrzymuje tabelę, która zawiera adresy MAC, odpowiadające im porty oraz VLAN, co pozwala na łatwe identyfikowanie lokalizacji konkretnego urządzenia w sieci. Przykładowo, w przypadku problemów z dostępnością zasobów, administrator może szybko zlokalizować urządzenie, które nie działa prawidłowo. Dobre praktyki w zarządzaniu sieciami sugerują regularne monitorowanie adresów MAC, aby zapewnić bezpieczeństwo i optymalizację wydajności sieci.

Pytanie 22

W trakcie instalacji systemu Windows Serwer 2022 istnieje możliwość instalacji w trybie Core. Oznacza to, że system zostanie zainstalowany

A. tylko w trybie tekstowym.
B. tylko w trybie graficznym.
C. w trybie Nano Serwer.
D. w trybie tekstowym i graficznym.
W tym pytaniu łatwo się pomylić, bo nazwa „Windows Server Core” brzmi trochę jak jakaś specjalna wersja graficzna albo coś w stylu trybu zaawansowanego. Tymczasem Core w kontekście Windows Server 2022 oznacza instalację pozbawioną klasycznego środowiska graficznego. System nie jest instalowany jednocześnie w trybie tekstowym i graficznym, bo takie połączenie byłoby sprzeczne z ideą minimalnej instalacji. Pełny interfejs graficzny, czyli tak zwany „Server with Desktop Experience”, to zupełnie inna opcja instalacji niż Server Core. Częstym błędem myślowym jest założenie, że skoro Windows „z natury” jest graficzny, to każda jego edycja serwerowa musi mieć GUI. W rzeczywistości w profesjonalnych środowiskach serwerowych priorytetem jest stabilność, bezpieczeństwo i mała liczba komponentów. Dlatego instalacja tylko z interfejsem tekstowym i narzędziami konsolowymi jest preferowana w wielu scenariuszach produkcyjnych. Odpowiedź sugerująca, że Server Core działa wyłącznie w trybie graficznym, całkowicie mija się z tym założeniem – to raczej opis pełnej instalacji z pulpitem, a nie wersji Core. Myli też odpowiedź odwołująca się do Nano Server. Nano Server to był bardzo mocno odchudzony wariant, wprowadzony wcześniej (np. w Windows Server 2016) i przeznaczony głównie do scenariuszy chmurowych, kontenerów i bardzo specyficznych zastosowań. W Windows Server 2022 standardowo mówimy właśnie o Server Core jako o podstawowym, minimalistycznym trybie instalacji, a nie o Nano Server. Łączenie tych dwóch pojęć to typowe uproszczenie: oba są „odchudzone”, ale to inne technologie i inne modele wdrożenia. Jeśli zakłada się, że tryb Core to po prostu „Windows z GUI, ale trochę lżejszy”, to prowadzi to do złych decyzji konfiguracyjnych. W praktyce administrator musi wiedzieć, że w trybie Core większość konfiguracji wykonuje się zdalnie lub w PowerShellu, a brak klasycznego pulpitu jest cechą, a nie wadą. Dlatego właściwe rozumienie tego trybu jest bardzo ważne przy planowaniu infrastruktury serwerowej, szczególnie gdy w grę wchodzą dobre praktyki bezpieczeństwa, jak minimalizacja roli serwera i ograniczenie zbędnych usług.

Pytanie 23

Osobom pracującym zdalnie, dostęp do serwera znajdującego się w prywatnej sieci za pośrednictwem publicznej infrastruktury, jaką jest Internet, umożliwia

A. FTP
B. VPN
C. Telnet
D. SSH
Wybór FTP, SSH czy Telnet jako odpowiedzi na pytanie o zdalny dostęp do serwera w sieci prywatnej nie jest właściwy, ponieważ te technologie mają różne zastosowania i ograniczenia. FTP, czyli File Transfer Protocol, służy głównie do przesyłania plików, ale nie zapewnia szyfrowania, co czyni go nieodpowiednim do bezpiecznego dostępu do zasobów sieciowych. W przypadku przesyłania danych wrażliwych, stosowanie FTP może prowadzić do poważnych naruszeń bezpieczeństwa. SSH (Secure Shell) to protokół, który umożliwia bezpieczne logowanie do zdalnych systemów i zarządzanie nimi. Chociaż SSH oferuje silne szyfrowanie, jego podstawowym celem jest zdalne wykonywanie poleceń, a nie zapewnienie pełnego dostępu do sieci prywatnej. Telnet, z kolei, jest protokołem znanym z braku zabezpieczeń – dane przesyłane przez Telnet są przesyłane w postaci niezaszyfrowanej, co czyni go nieodpowiednim do pracy w środowiskach, gdzie bezpieczeństwo danych ma kluczowe znaczenie. Błędem jest zakładanie, że te protokoły mogą pełnić rolę zabezpieczenia dostępu do sieci prywatnej w sposób, w jaki robi to VPN, co skutkuje narażeniem danych na ataki i utratę poufności.

Pytanie 24

Jak nazywa się protokół oparty na architekturze klient-serwer oraz modelu żądanie-odpowiedź, wykorzystywany do przesyłania plików?

A. SSL
B. ARP
C. SSH
D. FTP
Protokół SSL (Secure Socket Layer) to technologia zabezpieczeń, która umożliwia nawiązywanie zaszyfrowanych połączeń w Internecie. Jego głównym celem jest ochrona przesyłanych danych przed nieautoryzowanym dostępem, co czyni go kluczowym w kontekście zabezpieczania komunikacji, ale nie jest protokołem do transferu plików. Z kolei SSH (Secure Shell) to protokół służący do zdalnego logowania oraz zarządzania systemami operacyjnymi, oferujący szyfrowanie oraz autoryzację, ale również nie jest przeznaczony wyłącznie do przesyłania plików. ARP (Address Resolution Protocol) ma zupełnie inne zadanie, bowiem odpowiada za mapowanie adresów IP na adresy MAC w lokalnej sieci, co jest kluczowe dla komunikacji w warstwie łącza danych, a nie transferu plików. Typowym błędem myślowym prowadzącym do wyboru błędnej odpowiedzi jest mylenie funkcji protokołów oraz ich zastosowań; użytkownicy często mogą pokusić się o klasyfikowanie protokołów według ich ogólnych funkcji, zamiast skupić się na ich specyficznych zastosowaniach. Zrozumienie, że protokoły takie jak SSL i SSH pełnią inne role w architekturze sieci, jest kluczowe dla efektywnego korzystania z technologii internetowych.

Pytanie 25

Dobrze zaprojektowana sieć komputerowa powinna zapewniać możliwość rozbudowy, czyli charakteryzować się

A. redundancją
B. skalowalnością
C. nadmiarowością
D. wydajnością
Skalowalność to kluczowa cecha każdej nowoczesnej sieci komputerowej, która pozwala na jej rozbudowę w miarę potrzeb bez konieczności przeprowadzania kosztownych zmian w infrastrukturze. Oznacza to, że użytkownicy mogą dodawać nowe urządzenia, węzły lub usługi bez negatywnego wpływu na wydajność całego systemu. Przykładem zastosowania skalowalności jest architektura oparta na chmurze, która umożliwia elastyczne zwiększanie zasobów obliczeniowych w odpowiedzi na zmieniające się zapotrzebowanie. W praktyce, gdy firma rośnie, może łatwo dostosować swój system do nowych wymagań, dodając serwery lub korzystając z rozwiązań chmurowych, które automatycznie dostosowują się do obciążenia. Dobre praktyki w projektowaniu sieci, takie jak stosowanie protokołów routingu, jak OSPF czy BGP, czy zaprojektowanie sieci według architektury hierarchicznej, wspierają skalowalność. Dzięki tym podejściom, sieci mogą rosnąć w sposób zorganizowany, eliminując problemy związane z wydajnością oraz zarządzaniem ruchem.

Pytanie 26

Zamieszczony komunikat tekstowy wyświetlony na ekranie komputera z zainstalowanym systemem Windows wskazuje na

Ilustracja do pytania
A. źle skojarzone aplikacje domyślne.
B. błędną konfigurację adresu IP karty Wi-Fi.
C. brak włączonej Zapory systemowej.
D. stare lub uszkodzone sterowniki sprzętowe.
Komunikat o błędzie "HAL INITIALIZATION FAILED" na niebieskim ekranie, czyli tak zwany Blue Screen of Death (BSOD), jednoznacznie wskazuje na poważny problem ze sprzętem lub jego obsługą przez system, a najczęściej – na nieprawidłowe, stare albo uszkodzone sterowniki sprzętowe. HAL (Hardware Abstraction Layer) to warstwa systemu Windows, która odpowiada za komunikację między systemem operacyjnym a sprzętem komputera. Jeśli jej inicjalizacja się nie powiedzie, zazwyczaj winne są sterowniki, które mogą być niezgodne z aktualną wersją Windows lub są po prostu uszkodzone. Moim zdaniem, to bardzo typowy scenariusz po aktualizacji systemu lub wymianie podzespołów, zwłaszcza kart graficznych czy płyt głównych – wtedy często zapomina się o aktualizacji sterowników. Praktyka pokazuje, że regularne pobieranie i instalowanie najnowszych sterowników bezpośrednio od producenta sprzętu, a nie zdawanie się na te domyślne z Windows Update, znacznie zmniejsza ryzyko takich awarii. Branżowe zalecenia Microsoftu i producentów sprzętu są tutaj jasne: sterowniki muszą być zawsze zgodne z wersją systemu i sprzętem. To nie tylko kwestia stabilności, ale też bezpieczeństwa. Z mojego doświadczenia wynika, że gdy pojawia się taki BSOD z HAL, naprawdę warto od razu sprawdzić, czy nie ma jakichś nowych wersji driverów oraz czy sprzęt nie wykazuje fizycznych oznak uszkodzenia. Tego typu wiedza przydaje się nie tylko w pracy informatyka, ale i każdemu, kto dba o sprawny komputer w domu.

Pytanie 27

Zjawisko przenikania, które ma miejsce w sieciach komputerowych, polega na

A. opóźnieniach w propagacji sygnału w trakcie przesyłania
B. utratach sygnału w ścieżce transmisyjnej
C. niedoskonałości ścieżki, spowodowanej zmianą konfiguracji par przewodów
D. przenikaniu sygnału pomiędzy sąsiadującymi w kablu parami przewodów
Przenikanie sygnału między sąsiadującymi parami przewodów to zjawisko, które występuje w kontekście transmisji danych w sieciach komputerowych, zwłaszcza w kablach ekranowanych i skrętkach. W praktyce, gdy sygnały elektryczne przepływają przez przewody, mogą one wpływać na siebie nawzajem, co prowadzi do niepożądanych zakłóceń. Przykładem mogą być systemy Ethernet, które korzystają z kabli kategorii 5e lub 6, gdzie jakość transmisji jest kluczowa. Standardy takie jak ANSI/TIA-568 i ISO/IEC 11801 określają wymagania dotyczące minimalnych wartości tłumienia i parametrów, które muszą być spełnione, aby zminimalizować efekty przenikania. Właściwe zarządzanie torami transmisyjnymi, takie jak zachowanie odpowiednich odległości między przewodami oraz stosowanie odpowiednich ekranów, umożliwia maksymalne ograniczenie przenikania, co przyczynia się do poprawy jakości sygnału oraz wydajności systemów komunikacyjnych. Zrozumienie zjawiska przenikania jest kluczowe dla projektantów systemów sieciowych, aby zapewnić niezawodność i stabilność połączeń.

Pytanie 28

Poniżej zaprezentowano fragment pliku konfiguracyjnego serwera w systemie Linux. Jaką usługi dotyczy ten fragment?

option domain-name "meinheimnetz";
ddns-update-style none;
default-lease-time 14400;
subnet 192.168.1.0 netmask 255.255.255.0 {
      range 192.168.1.10 192.168.1.20;
      default-lease-time 14400;
      max-lease-time 172800;
}
A. DDNS
B. TFTP
C. DHCP
D. SSH2
Konfiguracja przedstawiona na obrazku odnosi się do usługi DHCP (Dynamic Host Configuration Protocol). DHCP jest kluczowym komponentem w sieciach komputerowych, odpowiadającym za automatyczne przydzielanie adresów IP do urządzeń w sieci. Dzięki temu proces konfiguracji sieci jest uproszczony, a ryzyko konfliktów adresów IP zminimalizowane. W pliku konfiguracyjnym zauważamy takie elementy jak 'subnet', 'range', 'default-lease-time' oraz 'max-lease-time'. Subnet i maska podsieci definiują zakres adresów IP dostępnych w danej podsieci, natomiast 'range' określa dokładny zakres adresów, które mogą być przydzielane klientom. Czas dzierżawy (lease) określa, jak długo urządzenie może korzystać z przydzielonego adresu IP, zanim zostanie on odnowiony lub zwrócony do puli. W praktyce DHCP jest wykorzystywane w większości nowoczesnych sieci, zarówno w małych biurach, jak i dużych korporacjach, ze względu na swoją niezawodność i efektywność zarządzania adresami. Standardy dotyczące DHCP są zdefiniowane w dokumencie RFC 2131, zapewniającym interoperacyjność pomiędzy różnymi implementacjami. Konfiguracja serwera DHCP musi być precyzyjna, aby zapobiec potencjalnym zakłóceniom w działaniu sieci. Dlatego zrozumienie kluczowych elementów konfiguracji, takich jak te przedstawione w pytaniu, jest niezbędne dla każdego specjalisty zajmującego się administracją sieci.

Pytanie 29

Aby oczyścić zablokowane dysze kartridża drukarki atramentowej, co należy zrobić?

A. przemyć dysze specjalnym preparatem chemicznym
B. wyczyścić dysze przy pomocy sprężonego powietrza
C. oczyścić dysze wykorzystując druciane zmywaki
D. przeczyścić dysze drobnym papierem ściernym
Odpowiedź polegająca na przemyciu dysz specjalnym środkiem chemicznym jest prawidłowa, ponieważ takie środki zostały zaprojektowane z myślą o skutecznym usuwaniu zatorów z dysz kartridży drukarek atramentowych. W procesie użytkowania, atrament może zasychać i tworzyć osady, które blokują przepływ. Chemikalia zawarte w środkach czyszczących są dostosowane do rozpuszczania tego rodzaju zanieczyszczeń, co umożliwia przywrócenie prawidłowej funkcji drukarki. Przykładowo, producent drukarek często zaleca stosowanie dedykowanych roztworów czyszczących, które nie tylko eliminują zatory, ale również chronią dysze przed uszkodzeniami. W praktyce, regularne czyszczenie dysz, zwłaszcza w przypadku długotrwałego braku użycia urządzenia, może znacznie wydłużyć żywotność kartridży i poprawić jakość wydruków. Ponadto, przestrzeganie standardów producenta dotyczących konserwacji sprzętu przyczynia się do efektywności operacyjnej oraz minimalizacji kosztów eksploatacyjnych.

Pytanie 30

Jakie urządzenie sieciowe zostało pokazane na ilustracji?

Ilustracja do pytania
A. Karta sieciowa WiFi
B. Modem USB
C. Adapter Bluetooth
D. Adapter IrDA
Modem USB to urządzenie, które pozwala na połączenie komputera z Internetem za pośrednictwem sieci komórkowych. Używa technologii mobilnej, takiej jak LTE lub 3G, do transmisji danych. Jego główną zaletą jest mobilność i łatwość użycia – wystarczy podłączyć go do portu USB komputera, aby uzyskać dostęp do Internetu. Jest szczególnie przydatny w miejscach, gdzie dostęp do sieci kablowej jest ograniczony lub niemożliwy. Modemy USB często wymagają karty SIM, podobnie jak telefony komórkowe, co umożliwia korzystanie z usług dowolnego operatora. Dzięki nowoczesnym technologiom modem USB obsługuje szybkie transfery danych, co czyni go atrakcyjnym rozwiązaniem zarówno dla użytkowników indywidualnych, jak i biznesowych. Wybierając modem USB, warto zwrócić uwagę na jego kompatybilność z systemem operacyjnym komputera oraz obsługiwane standardy sieciowe. Zastosowanie modemu USB jest szerokie – od codziennego przeglądania Internetu po bardziej zaawansowane zastosowania, takie jak wideokonferencje czy zdalna praca. Modem USB jest zgodny z międzynarodowymi standardami, co umożliwia jego użycie w różnych krajach bez dodatkowej konfiguracji.

Pytanie 31

Norma EN 50167 odnosi się do systemów okablowania

A. sieciowego
B. wertykalnego
C. horyzontalnego
D. szkieletowego
Zrozumienie znaczenia różnych typów okablowania w budynkach jest kluczowe dla efektywnej instalacji sieci telekomunikacyjnych. Okablowanie kampusowe odnosi się do połączeń między różnymi budynkami na terenie kampusu, co jest bardziej złożonym zagadnieniem, które wymaga innego podejścia projektowego, zarówno pod kątem odległości, jak i zastosowanych technologii. W przypadku okablowania pionowego, które łączy różne piętra budynku, istotne jest, aby instalacje były zgodne z lokalnymi normami budowlanymi oraz odpowiednio zabezpieczone przed zakłóceniami. Wreszcie, okablowanie szkieletowe to termin używany do opisania infrastruktury sieciowej obejmującej główne elementy, takie jak przełączniki i routery, które są kluczowe dla efektywnego zarządzania ruchem danych. Zbyt często myli się te terminy, co prowadzi do nieprawidłowych założeń w projektowaniu systemów sieciowych. Każdy z tych rodzajów okablowania ma swoje unikalne wymagania i zastosowania, które muszą być starannie rozważone w kontekście całej infrastruktury sieciowej. Dlatego tak ważne jest, aby przy projektowaniu i wdrażaniu systemów okablowania stosować się do odpowiednich norm i standardów, aby zapewnić ich prawidłowe funkcjonowanie i minimalizować ryzyko awarii.

Pytanie 32

W architekturze ISO/OSI protokoły TCP oraz UDP funkcjonują w warstwie

A. sieci
B. aplikacji
C. transportowej
D. łącza danych
Warstwa sieciowa modelu ISO/OSI jest odpowiedzialna za adresowanie i routing pakietów w sieci, ale nie zajmuje się przesyłaniem danych między aplikacjami. W tej warstwie działają protokoły takie jak IP (Internet Protocol), które umożliwiają przesyłanie danych w sieciach lokalnych i globalnych, ale nie zapewniają mechanizmów transportowych, które są tak istotne dla TCP i UDP. W kontekście warstwy łącza danych, protokoły skupiają się na dostarczeniu ramki danych między bezpośrednio połączonymi urządzeniami w sieci, zapewniając m.in. kontrolę błędów i synchronizację. Typowe protokoły w tej warstwie to Ethernet czy Wi-Fi, które nie mają nic wspólnego z funkcjonalnością transportową. Z kolei warstwa aplikacji to ta, w której działają końcowe aplikacje użytkowników, takie jak przeglądarki internetowe, e-maile czy protokoły transferu plików. Protokół HTTP używa TCP jako warstwy transportowej, ale sam w sobie nie jest odpowiedzialny za transport, tylko za interakcję z serwerami. Zrozumienie struktury modelu ISO/OSI jest kluczowe dla poprawnego klasyfikowania funkcji protokołów, ponieważ każdy z nich pełni odmienne role, a niepoprawne przypisanie ich do niewłaściwych warstw prowadzi do nieporozumień w diagnostyce problemów sieciowych oraz projektowaniu systemów.

Pytanie 33

Dane z HDD, którego sterownik silnika SM jest uszkodzony, można odzyskać

A. Z wykorzystaniem zewnętrznego oprogramowania do odzyskiwania danych, na przykład TestDisk
B. Przy użyciu komendy fixmbr
C. Poprzez wymianę silnika SM
D. Przez wymianę płytki elektronicznej dysku na inną z identycznego modelu
Wymiana płytki z elektroniką dysku twardego na inną, pochodzącą z tego samego modelu, jest jedną z najskuteczniejszych metod odzyskiwania danych z uszkodzonego HDD z defektem w sterowniku silnika SM. Płytka elektroniki dysku zawiera kluczowe komponenty, takie jak kontroler, który zarządza odczytem i zapisem danych. W momencie, gdy uszkodzenia dotyczą elektroniki, ale talerze i głowice są w dobrym stanie, wymiana płytki umożliwia przywrócenie komunikacji między komponentami mechanicznymi a systemem operacyjnym. Praktyka ta jest zgodna z najlepszymi standardami w branży odzyskiwania danych, które zalecają przeprowadzanie napraw w izolowanych warunkach, aby uniknąć dalszych uszkodzeń. Należy pamiętać, że nie każda płytka będzie kompatybilna, dlatego konieczne jest, aby nowa elektronika pochodziła z tego samego modelu i wersji dysku. Często proces ten wymaga również kalibracji oraz zaawansowanych umiejętności lutowania i diagnostyki, co czyni go zadaniem dla wyspecjalizowanych laboratoriach odzyskiwania danych.

Pytanie 34

Jak nazywa się serwer Windows, na którym zainstalowano usługę Active Directory?

A. serwerem DHCP
B. serwerem plików
C. serwerem WWW
D. kontrolerem domeny
Pojęcia takie jak serwer DHCP, serwer WWW czy serwer plików niosą ze sobą różne funkcje, które nie są bezpośrednio związane z rolą kontrolera domeny. Serwer DHCP, na przykład, jest odpowiedzialny za dynamiczne przydzielanie adresów IP urządzeniom w sieci, co ma na celu uproszczenie zarządzania adresacją i optymalizację dostępnych zasobów sieciowych. W przeciwieństwie do kontrolera domeny, serwer DHCP nie zarządza tożsamościami użytkowników, ani nie przechowuje informacji o zasobach. Serwer WWW służy do hostowania stron internetowych i obsługi żądań HTTP, co również różni się zasadniczo od funkcji kontrolera domeny, który nie jest odpowiedzialny za publikację treści internetowych. Serwer plików, z drugiej strony, skupia się na przechowywaniu i udostępnianiu plików użytkownikom w sieci, co jest bardziej ograniczoną rolą, w porównaniu do wszechstronności kontrolera domeny. Zrozumienie tych różnic jest kluczowe dla prawidłowego zarządzania infrastrukturą IT, a błędne utożsamianie tych ról może prowadzić do nieefektywnego zarządzania zasobami oraz naruszeń bezpieczeństwa.

Pytanie 35

Jakie są prędkości przesyłu danych w sieciach FDDI (ang. Fiber Distributed Data Interface) wykorzystujących technologię światłowodową?

A. 1024 kB/s
B. 1024 Mb/s
C. 100 MB/s
D. 100 Mb/s
Odpowiedzi 1024 Mb/s, 100 MB/s i 1024 kB/s są niepoprawne z kilku powodów. Po pierwsze, odpowiedź 1024 Mb/s jest błędna, ponieważ przedstawia wartość równą 1 GB/s, co znacznie przekracza maksymalną prędkość transferu danych dla FDDI, która wynosi 100 Mb/s. Takie myślenie może wynikać z nieporozumienia w zakresie przeliczania jednostek oraz ich właściwego kontekstu zastosowania w sieciach komputerowych. Kolejna odpowiedź, 100 MB/s, jest myląca, ponieważ zamiast megabitów na sekundę (Mb/s) używa megabajtów na sekundę (MB/s), co również wprowadza w błąd – 100 MB/s to równowartość 800 Mb/s, znów znacznie przekraczając możliwości FDDI. Odpowiedź 1024 kB/s, co odpowiada 8 Mb/s, również nie jest poprawna, ponieważ jest znacznie niższa niż rzeczywista prędkość transferu w sieci FDDI. Te błędne odpowiedzi mogą prowadzić do poważnych nieporozumień w projektowaniu i implementacji sieci, ponieważ niewłaściwe zrozumienie prędkości transferu może wpłynąć na dobór sprzętu, konfigurację sieci oraz jej późniejsze użytkowanie. Właściwe zrozumienie jednostek miary oraz ich zastosowania jest kluczowe dla efektywnego projektowania systemów komunikacyjnych. Ostatecznie, znajomość standardów FDDI oraz ich charakterystyki jest niezbędna dla skutecznego wdrażania i utrzymania wydajnych sieci lokalnych.

Pytanie 36

W jakiej logicznej topologii funkcjonuje sieć Ethernet?

A. rozgłaszania
B. siatki i gwiazdy
C. pierścieniowej i liniowej
D. siatkowej
Topologia pierścieniowa i liniowa to nie jest coś, co spotkasz w sieciach Ethernet. W pierścieniowej urządzenia tworzą zamknięty krąg i dane płyną w jednym kierunku przez wszystkie urządzenia. To rozwiązanie może się czasem przydać, ale nie pasuje do Ethernecie. Z kolei topologia liniowa, chociaż czasem może być mylona z rozgłaszaniem, nie przynosi takich korzyści, bo mogą wystąpić kolizje i wydajność spadnie, zwłaszcza w dużych sieciach. Zwróć uwagę, że siatka i gwiazda to też nie najlepsze porównania w kontekście EtherNetu. Siatka, gdzie każde urządzenie łączy się z wieloma innymi, zwiększa niezawodność, ale to nie jest typowy model dla standardowego EtherNetu. Gwiazda, choć popularna w sieciach lokalnych, też nie oddaje istoty działania EtherNeta w kontekście rozgłaszania. Kluczowe jest, żeby zrozumieć, że te alternatywy nie tylko nie odpowiadają na pytanie, ale mogą też prowadzić do nieporozumień w projektowaniu i zarządzaniu sieciami, co jest ważne dla efektywności i niezawodności komunikacji w nowoczesnych systemach IT.

Pytanie 37

Który z protokołów jest używany do przesyłania poczty elektronicznej?

A. HTTP
B. SMTP
C. FTP
D. SNMP
Protokół SMTP, czyli Simple Mail Transfer Protocol, jest standardem w przesyłaniu poczty elektronicznej w sieciach TCP/IP. Jest używany do wysyłania wiadomości e-mail z klienta poczty do serwera pocztowego oraz między serwerami pocztowymi. Działa na porcie 25, a jego rozszerzenie SMTP z TLS wykorzystuje port 587, co zapewnia szyfrowanie komunikacji. SMTP jest kluczowy w architekturze usług pocztowych, ponieważ umożliwia niezawodne dostarczanie wiadomości. W praktyce oznacza to, że gdy wysyłasz e-mail, twój klient poczty (np. Outlook, Thunderbird) używa SMTP do komunikacji z serwerem pocztowym nadawcy. Następnie, jeśli wiadomość jest kierowana do innego serwera pocztowego, SMTP jest ponownie używany do przekazania jej dalej. W ten sposób protokół ten pełni rolę swoistego listonosza w cyfrowym świecie. Warto wiedzieć, że sama transmisja SMTP jest stosunkowo prosta, ale może być uzupełniona o różne rozszerzenia, takie jak STARTTLS dla bezpiecznego przesyłania danych i SMTP AUTH dla uwierzytelniania użytkowników, co podnosi poziom bezpieczeństwa całego procesu wysyłania wiadomości.

Pytanie 38

Jak nazywa się topologia fizyczna, w której wszystkie urządzenia końcowe są bezpośrednio połączone z jednym punktem centralnym, takim jak koncentrator lub przełącznik?

A. pierścienia
B. magistrali
C. gwiazdy
D. siatki
Topologia gwiazdy jest jedną z najpopularniejszych architektur sieciowych, w której wszystkie urządzenia końcowe, takie jak komputery, drukarki czy serwery, są bezpośrednio podłączone do centralnego urządzenia, którym zazwyczaj jest koncentrator (hub) lub przełącznik (switch). Taka konfiguracja pozwala na łatwe zarządzanie i diagnostykę sieci, ponieważ w przypadku awarii jednego z urządzeń końcowych nie wpływa to na działanie pozostałych. Przykładem zastosowania topologii gwiazdy może być biuro, gdzie wszystkie komputery są podłączone do jednego przełącznika, co umożliwia szybkie przesyłanie danych i współpracę między pracownikami. Ponadto, w sytuacji awarii centralnego urządzenia, cała sieć może przestać działać, co jest jej główną wadą, ale w praktyce nowoczesne przełączniki oferują wyspecjalizowane funkcje redundancji, które mogą zminimalizować ten problem. Zgodnie z najlepszymi praktykami branżowymi, topologia gwiazdy jest preferowana w wielu instalacjach, ze względu na swoją elastyczność i łatwość w rozbudowie oraz konserwacji.

Pytanie 39

W systemie Linux komenda tty pozwala na

A. pokazanie nazwy terminala
B. zmianę aktualnego katalogu na katalog domowy użytkownika
C. wysłanie sygnału do zakończenia procesu
D. uruchomienie programu, który wyświetla zawartość pamięci operacyjnej
Wybór innych odpowiedzi na to pytanie prowadzi do nieporozumień dotyczących podstawowych funkcji i działania systemu Linux. Twierdzenie, że polecenie 'tty' wysyła sygnał zakończenia procesu, jest mylące, ponieważ sygnały zakończenia procesów są obsługiwane przez różne inne polecenia, takie jak 'kill', które są używane do zatrzymywania działających aplikacji. Ponadto, zmiana bieżącego katalogu na katalog domowy użytkownika nie ma związku z poleceniem 'tty' i tym samym jest nieprawidłowa, gdyż do tego celu używa się polecenia 'cd' bez dodatkowych argumentów lub z użyciem argumentu '~'. Kolejnym błędnym stwierdzeniem jest to, że 'tty' uruchamia program listujący zawartość pamięci operacyjnej. Takie operacje mogą być przeprowadzane za pomocą poleceń takich jak 'ps' czy 'top', które dostarczają informacji o aktywnych procesach oraz ich zasobach, jednak 'tty' nie pełni tej funkcji. Te pomyłki wskazują na niedostateczne zrozumienie podstawowych poleceń systemowych oraz ich zastosowań w codziennej pracy w środowisku Linux. Warto zatem zagłębić się w dokumentację systemu i praktyczne zastosowania tych poleceń, aby zyskać pełniejszy obraz ich możliwości oraz znaczenia w administracji systemowej.

Pytanie 40

Rejestr procesora, znany jako licznik rozkazów, przechowuje

A. ilość rozkazów zrealizowanych przez procesor do tego momentu
B. liczbę cykli zegara od momentu rozpoczęcia programu
C. liczbę rozkazów, które pozostały do zrealizowania do zakończenia programu
D. adres rozkazu, który ma być wykonany następnie
Niepoprawne odpowiedzi dotyczące rejestru licznika rozkazów mogą prowadzić do istotnych nieporozumień dotyczących architektury komputerów. Na przykład, stwierdzenie, że licznik rozkazów przechowuje liczbę cykli zegara liczoną od początku pracy programu jest mylące. Cykl zegara jest miarą czasu, w którym procesor wykonuje operacje, ale nie ma bezpośredniego związku z tym, co przechowuje licznik rozkazów. Licznik ten jest odpowiedzialny za wskazywanie adresu następnego rozkazu, a nie za śledzenie czasu wykonania. Kolejna błędna koncepcja, mówiąca o przechowywaniu liczby rozkazów pozostałych do wykonania, także jest nieprawidłowa. Licznik rozkazów nie informuje procesora o tym, ile instrukcji jeszcze czeka na wykonanie; jego rolą jest jedynie wskazanie następnego rozkazu. Zupełnie mylnym podejściem jest też rozumienie licznika rozkazów jako miejsca, które zlicza liczbę rozkazów wykonanych przez procesor. Choć możliwe jest implementowanie liczników wydajności w architekturze procesora, to jednak licznik rozkazów nie pełni tej funkcji. Typowe błędy myślowe to mylenie roli rejestrów i ich funkcji w procesorze. Wiedza o działaniu licznika rozkazów jest kluczowa dla zrozumienia podstaw działania procesorów i ich architektur, a błędne postrzeganie tej kwestii może prowadzić do trudności w programowaniu oraz projektowaniu systemów informatycznych.