Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 7 maja 2026 15:22
  • Data zakończenia: 7 maja 2026 15:39

Egzamin zdany!

Wynik: 28/40 punktów (70,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. konfigurowaniem adresu karty sieciowej.
B. dodaniem drugiego dysku twardego.
C. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
D. wybraniem pliku z obrazem dysku.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 2

Na nowym urządzeniu komputerowym program antywirusowy powinien zostać zainstalowany

A. w trakcie instalacji systemu operacyjnego
B. po zainstalowaniu aplikacji pobranych z Internetu
C. zaraz po zainstalowaniu systemu operacyjnego
D. przed instalacją systemu operacyjnego
Zainstalowanie programu antywirusowego zaraz po zainstalowaniu systemu operacyjnego jest kluczowym krokiem w procesie zabezpieczania nowego komputera. Program antywirusowy pełni fundamentalną rolę w ochronie przed złośliwym oprogramowaniem, wirusami oraz innymi zagrożeniami, które mogą pojawić się w trakcie korzystania z Internetu. Przykładowo, popularne programy antywirusowe, takie jak Norton, Kaspersky czy Bitdefender, oferują zaawansowane funkcje skanowania w czasie rzeczywistym oraz ochrony przed phishingiem. W momencie, gdy system operacyjny jest zainstalowany, komputer jest już gotowy do połączenia z siecią, co naraża go na potencjalne ataki. Dlatego zgodnie z najlepszymi praktykami w zakresie bezpieczeństwa IT, zaleca się natychmiastowe zainstalowanie i zaktualizowanie oprogramowania antywirusowego, aby zapewnić maksymalną ochronę. Dodatkowo, podczas instalacji warto skonfigurować zaporę sieciową, co stanowi kolejny krok w tworzeniu bezpiecznego środowiska pracy.

Pytanie 3

Kiedy użytkownik wpisuje w przeglądarkę adres www.egzamin.pl, nie ma on możliwości otwarcia strony WWW, natomiast wpisujący adres 211.0.12.41 zyskuje dostęp do tej strony. Problem ten wynika z nieprawidłowej konfiguracji serwera

A. DNS
B. WWW
C. DHCP
D. SQL
Odpowiedź DNS jest prawidłowa, ponieważ system DNS (Domain Name System) jest odpowiedzialny za tłumaczenie nazw domenowych, takich jak www.egzamin.pl, na odpowiadające im adresy IP. Gdy wpisujesz w przeglądarkę nazwę domeny, komputer wysyła zapytanie do serwera DNS, aby uzyskać właściwy adres IP, który jest potrzebny do nawiązania połączenia z odpowiednim serwerem. W przypadku braku skonfigurowanego serwera DNS, zapytanie nie zostanie zrealizowane, co skutkuje brakiem dostępu do strony internetowej. Przykładem zastosowania poprawnej konfiguracji DNS jest możliwość korzystania z przyjaznych nazw domen dla użytkowników, zamiast pamiętania skomplikowanych adresów IP. Dobre praktyki obejmują zapewnienie redundancji serwerów DNS oraz ich regularne aktualizowanie, aby uniknąć problemów z dostępem do usług internetowych.

Pytanie 4

Aby poprawić organizację plików na dysku i przyspieszyć działanie systemu, co należy zrobić?

A. poddać defragmentacji.
B. przeskanować dysk za pomocą programu antywirusowego.
C. wyeliminować nieużywane oprogramowanie.
D. usunąć pliki tymczasowe.
Defragmentacja dysku to ważna rzecz, bo sprawia, że nasz system działa lepiej. Kiedy używamy komputera, pliki często się rozrzucają, co znaczy, że ich kawałki są w różnych miejscach na dysku. Defragmentacja przestawia te kawałki, żeby stworzyć jedną całość, co przyspiesza dostęp do plików. Dzięki temu uruchamianie programów jest szybsze, a praca z komputerem bardziej płynna. Fajnie byłoby robić to regularnie, zwłaszcza na Windowsie, bo to zalecane. Teraz mamy też Windows 10 i 11, które często robią to same, ale jak masz starszy system albo mocno zfragmentowany dysk, to ręczna defragmentacja może się przydać. Pamiętaj tylko, że na dyskach SSD nie trzeba tego robić, bo mają swoją technologię TRIM, która to załatwia.

Pytanie 5

W skanerach z systemem CIS źródłem światła oświetlającym dokument jest

A. grupa trójkolorowych diod LED
B. zespół żarówek
C. lampa fluorescencyjna
D. świetlówka
Wybór innych źródeł światła, takich jak świetlówki, układy żarówek czy lampy fluorescencyjne, jest nieodpowiedni w kontekście skanowania z użyciem technologii CIS. Świetlówki, mimo że były powszechnie stosowane w przeszłości, mają ograniczoną wydajność i mogą emitować pewne promieniowanie ultrafioletowe, co wpływa negatywnie na delikatne materiały skanowane. Układy żarówek generują znacznie więcej ciepła, co może prowadzić do deformacji skanowanych dokumentów oraz obniżenia jakości skanowania. Dodatkowo, żarówki mają krótszą żywotność i wyższe zużycie energii. Lampa fluorescencyjna z kolei, podobnie jak świetlówka, ma ograniczenia w zakresie odwzorowania kolorów i może powodować niejednolite oświetlenie skanowanego obszaru, co negatywnie wpływa na końcowy efekt skanowania. Takie podejścia do oświetlenia w skanowaniu mogą również prowadzić do błędnych interpretacji kolorów, co jest szczególnie problematyczne w dokumentach wymagających precyzyjnego odwzorowania barw, takich jak fotografie czy materiały promocyjne. Z tego powodu, wybór technologii LED jest nie tylko nowoczesny, ale także praktyczny, oferując znaczące korzyści w zakresie jakości i wydajności skanowania w różnych aplikacjach biurowych i archiwizacyjnych.

Pytanie 6

Podstawowy rekord uruchamiający na dysku twardym to

A. BOOT
B. MBR
C. NTLDR
D. FDISK
MBR, czyli Master Boot Record, to tak naprawdę kluczowy element w strukturze dysku twardego. Znajdziesz w nim info o partycjach oraz kod, który pozwala na rozruch systemu operacyjnego. Jak uruchamiasz komputer, to BIOS zaczyna cały proces i odczytuje MBR, żeby sprawdzić, która partycja jest aktywna i gdzie znajduje się system operacyjny. MBR zazwyczaj siedzi w pierwszym sektorze dysku i ma moc uruchamiania systemów takich jak Windows czy Linux. Kiedy instalujesz system, MBR jest automatycznie tworzony i ustawiany. Przy okazji warto wspomnieć, że MBR ma swoje ograniczenia, na przykład możesz mieć maksymalnie cztery partycje główne i żadna nie może mieć więcej niż 2 TB. Dlatego teraz coraz częściej korzysta się z GPT, które ma większe możliwości i lepiej radzi sobie z większymi dyskami. Jeśli chcesz lepiej zarządzać danymi na dyskach i optymalizować procesy rozruchowe, musisz zrozumieć rolę MBR. To jest ważne nie tylko dla administratorów systemów, ale także dla osób, które zajmują się konfiguracją sprzętu.

Pytanie 7

W biurze rachunkowym znajduje się sześć komputerów w jednym pomieszczeniu, połączonych kablem UTP Cat 5e z koncentratorem. Pracownicy korzystający z tych komputerów muszą mieć możliwość drukowania bardzo dużej ilości dokumentów monochromatycznych (powyżej 5 tys. stron miesięcznie). Aby zminimalizować koszty zakupu i eksploatacji sprzętu, najlepszym wyborem będzie:

A. laserowa drukarka sieciowa z portem RJ45
B. atramentowe urządzenie wielofunkcyjne ze skanerem i faksem
C. laserowe drukarki lokalne podłączone do każdego z komputerów
D. drukarka atramentowa podłączona do jednego z komputerów i udostępniana w sieci
Patrząc na inne odpowiedzi, trzeba przyznać, że wybór drukarki atramentowej podłączonej do jednego komputera i udostępnianej w sieci to dość kiepski pomysł, zwłaszcza w biurze rachunkowym. Koszt eksploatacji takich drukarek jest wyższy, a jakość druku czarno-białego na dłuższą metę może być słabsza, co nie sprawdzi się przy dużych nakładach. Gdy drukujemy ponad 5000 stron miesięcznie, ciągłe wymiany tuszy mogą mocno skomplikować życie. Nawet urządzenie wielofunkcyjne atramentowe z funkcjami skanera i faksu nie jest najlepszym wyjściem, bo są one bardziej do codziennych zadań niż do wydajnego druku czarno-białego. Takie drukarki zazwyczaj mają też mniejsze możliwości, co może wprowadzić chaos i spowolnić pracę. Z kolei wybór lokalnych drukarek laserowych dla każdego komputera to dodatkowe koszty nie tylko na sprzęt, ale i na serwisowanie kilku urządzeń oraz zarządzanie różnymi tonerami. To zazwyczaj prowadzi do niepotrzebnych opóźnień i marnotrawstwa, co na pewno nie jest korzystne, gdy mamy do zrealizowania sporo wydruków. Warto podejmować decyzje, mając na uwadze koszty i wydajność, dlatego centralna drukarka sieciowa to według mnie najlepszy wybór.

Pytanie 8

Na zdjęciu widnieje

Ilustracja do pytania
A. modem ISDN
B. płytę przełącznika 4 portowego
C. modem wewnętrzny
D. kartę sieciową 4 portową
Karta sieciowa 4 portowa to urządzenie pozwalające na podłączenie kilku urządzeń sieciowych do komputera lub serwera. Każdy z portów może obsługiwać połączenie sieciowe, co umożliwia zwiększenie przepustowości danych lub redundancję połączeń. Karty sieciowe są często stosowane w centrach danych i serwerowniach, gdzie wymagane są stabilne i szybkie połączenia sieciowe. W praktyce biznesowej karty te mogą być używane do dzielenia ruchu sieciowego pomiędzy różne sieci VLAN, co jest zgodne z dobrymi praktykami zarządzania siecią. Standardy takie jak IEEE 802.3 definiują specyfikacje techniczne dla kart sieciowych, co zapewnia ich kompatybilność z różnymi urządzeniami sieciowymi. Współczesne karty sieciowe często obsługują funkcje takie jak offloading TCP/IP, co odciąża procesor komputera i zwiększa wydajność systemu. Dzięki technologii PoE (Power over Ethernet) niektóre karty mogą również zasilać urządzenia zewnętrzne, co przyczynia się do redukcji okablowania w infrastrukturze sieciowej.

Pytanie 9

Wskaż rodzaj wtyczki zasilającej, którą należy połączyć z napędem optycznym podczas montażu komputera.

Ilustracja do pytania
A. Rys. B
B. Rys. C
C. Rys. A
D. Rys. D
Wtyk pokazany na rysunku A to złącze zasilania typu SATA które jest standardowo używane do podłączania napędów optycznych takich jak napędy CD DVD i Blu-ray Złącze SATA jest obecnie standardem w komputerach osobistych zastępując starsze złącze Molex dzięki lepszemu przepływowi danych i bardziej kompaktowej konstrukcji Złącza SATA są kluczowe w budowie nowoczesnych komputerów ponieważ umożliwiają nie tylko zasilanie ale również przesyłanie danych z dużą prędkością co jest kluczowe dla wydajności systemu Przy montażu zestawu komputerowego kluczowe jest prawidłowe podłączenie zasilania do urządzeń peryferyjnych co zapewnia ich poprawne działanie i unika awarii Złącze SATA posiada charakterystyczną płaską budowę z wcięciami które zapobiegają odwrotnemu podłączeniu co jest zgodne z zaleceniami dla złączy komputerowych Aby zapewnić stabilność i niezawodność systemu zawsze należy upewnić się że wszystkie połączenia są dobrze zamocowane i nie ma luzów co może prowadzić do problemów z zasilaniem i działaniem napędu optycznego

Pytanie 10

Medium transmisyjne oznaczone symbolem S/FTP wskazuje na skrętkę

A. z ekranem dla każdej pary oraz z ekranem z folii dla czterech par przewodów.
B. tylko z ekranem z folii dla czterech par przewodów.
C. z ekranem z folii dla każdej pary przewodów oraz z ekranem z siatki dla czterech par.
D. bez ekranu.
Odpowiedź wskazująca na medium transmisyjne o symbolu S/FTP jako skrętkę z ekranem z folii na każdej parze przewodów oraz ekranem z siatki na czterech parach jest poprawna, ponieważ dokładnie odzwierciedla strukturę tego typu kabla. S/FTP oznacza, że każda para przewodów w kablu jest ekranowana osobno folią, co redukuje zakłócenia elektromagnetyczne, a dodatkowo cały kabel jest osłonięty ekranem z siatki, co zapewnia wysoką odporność na zewnętrzne źródła zakłóceń. Tego rodzaju konstrukcja jest szczególnie cenna w zastosowaniach wymagających dużej wydajności i niezawodności, takich jak sieci o wysokiej przepustowości (np. 10 GbE) i w środowiskach przemysłowych. Zgodnie z normą ISO/IEC 11801, kable S/FTP są rekomendowane do zastosowań w biurach i centrach danych, gdzie zakłócenia mogą znacząco wpływać na jakość sygnału. W praktyce, stosowanie ekranów poprawia jakość transmisji danych, co jest kluczowe dla zapewnienia stabilnych połączeń sieciowych.

Pytanie 11

AES (ang. Advanced Encryption Standard) to?

A. wykorzystuje symetryczny algorytm szyfrujący
B. nie może być używany do szyfrowania plików
C. nie można go zaimplementować sprzętowo
D. jest poprzednikiem DES (ang. Data Encryption Standard)
Pierwsza z niepoprawnych odpowiedzi sugeruje, że AES jest poprzednikiem DES (Data Encryption Standard). To stwierdzenie jest mylące, ponieważ AES nie jest bezpośrednim następcą DES, lecz zupełnie innym algorytmem, który powstał w odpowiedzi na ograniczenia DES, takie jak jego wrażliwość na ataki brute force z powodu krótkiego klucza (56 bitów). DES został uznany za przestarzały, a AES został wprowadzony jako standard szyfrowania, aby zapewnić wyższy poziom bezpieczeństwa. Kolejna odpowiedź twierdzi, że AES nie może być wykorzystywany przy szyfrowaniu plików, co jest całkowicie nieprawdziwe. W rzeczywistości AES jest bardzo często wykorzystywany do szyfrowania plików w różnych aplikacjach, takich jak oprogramowanie do szyfrowania dysków czy archiwizowania danych. Innym błędnym stwierdzeniem jest to, że AES nie może być zaimplementowany sprzętowo. AES jest szeroko stosowany w sprzętowych modułach bezpieczeństwa (HSM), a także w rozwiązaniach takich jak karty inteligentne. Warto zauważyć, że błędne przekonania mogą wynikać z niezrozumienia różnicy między algorytmem a jego zastosowaniem w różnych kontekstach, co prowadzi do mylnych wniosków dotyczących możliwości i ograniczeń AES.

Pytanie 12

Technologia opisana w systemach należących do rodziny Windows to

Jest to technologia obsługująca automatyczną konfigurację komputera PC i wszystkich zainstalowanych w nim urządzeń. Umożliwia ona rozpoczęcie korzystania z nowego urządzenia (na przykład karty dźwiękowej lub modemu) natychmiast po jego zainstalowaniu bez konieczności przeprowadzania ręcznej jego konfiguracji. Technologia ta jest implementowana w warstwach sprzętowej i systemu operacyjnego, a także przy użyciu sterowników urządzeń i BIOS-u.
A. Hardware Abstraction Layer
B. Plug and Play
C. Wywołanie systemowe
D. File Allocation Table
Plug and Play to naprawdę fajna technologia! Umożliwia ona szybkie i łatwe podłączanie nowych urządzeń do komputera z systemem Windows. Dzięki niej nie musisz się martwić o ręczne instalowanie sterowników, bo system sam od razu rozpozna nowe sprzęty, jak drukarki czy karty dźwiękowe. To według mnie spory plus, bo oszczędza czas i unika różnych błędów przy konfiguracji. Plug and Play działa w Windows od wersji 95, więc jest już dobrze znana i wspiera sporo różnych urządzeń. Kiedy na przykład podłączysz nową drukarkę, Windows sam zainstaluje potrzebne sterowniki, więc możesz od razu zacząć ją używać. Dzisiaj, kiedy mamy tyle różnych urządzeń, ta technologia jest naprawdę przydatna i daje dużą elastyczność, bo użytkownicy często montują i demontują różny sprzęt.

Pytanie 13

Jaka jest prędkość przesyłania danych w standardzie 1000Base-T?

A. 1 GB/s
B. 1 MB/s
C. 1 Gbit/s
D. 1 Mbit/s
Odpowiedzi 1 Mbit/s, 1 MB/s oraz 1 GB/s są nieprawidłowe i wynikają z nieporozumień dotyczących jednostek miary oraz standardów transmisji danych. Odpowiedź 1 Mbit/s jest znacznie poniżej rzeczywistej prędkości oferowanej przez standard 1000Base-T. 1 Mbit/s oznacza prędkość transmisji wynoszącą jedynie 1 milion bitów na sekundę, co jest typowe dla starszych technologii, jak np. 56k modem. Z kolei 1 MB/s odnosi się do prędkości 1 megabajta na sekundę, co w jednostkach bitowych daje równowartość 8 Mbit/s. Ta wartość również znacząco odbiega od rzeczywistej prędkości standardu 1000Base-T. W przypadku odpowiedzi 1 GB/s, choć zbliżona do prawidłowej wartości, wprowadza w błąd ponieważ 1 GB/s to równowartość 8 Gbit/s, co przewyższa możliwości technologiczne przyjęte w standardzie 1000Base-T. Takie nieprecyzyjne interpretacje jednostek mogą prowadzić do błędnych wyborów przy projektowaniu sieci, co w efekcie wpływa na wydajność i koszty. Ważne jest, aby w kontekście technologii sieciowych znać różnice między jednostkami miary (bit, bajt) oraz zrozumieć ich zastosowanie w praktyce. Zrozumienie tych koncepcji jest kluczowe nie tylko dla inżynierów sieci, ale również dla menedżerów IT, którzy odpowiedzialni są za wdrażanie efektywnych rozwiązań w obszarze infrastruktury sieciowej.

Pytanie 14

Kable światłowodowe nie są powszechnie używane w lokalnych sieciach komputerowych z powodu

A. znacznych strat sygnału podczas transmisji
B. wysokich kosztów elementów pośredniczących w transmisji
C. ograniczonej przepustowości
D. niskiej odporności na zakłócenia elektromagnetyczne
Kable światłowodowe są coraz częściej wykorzystywane w różnych systemach komunikacyjnych, jednak ich powszechne zastosowanie w lokalnych sieciach komputerowych jest ograniczone przez koszty elementów pośredniczących w transmisji. Światłowody wymagają zastosowania specjalistycznych urządzeń, takich jak transceivery i przełączniki światłowodowe, które są znacznie droższe w porównaniu do tradycyjnych urządzeń dla kabli miedzianych. Przykładem może być wykorzystanie światłowodów w dużych przedsiębiorstwach, gdzie ich zalety, takie jak wysoka przepustowość i odporność na zakłócenia elektromagnetyczne, przeważają nad kosztami. W zastosowaniach lokalnych, szczególnie w małych biurach lub domach, miedź (np. kable Ethernet) pozostaje bardziej opłacalna. Zgodnie z najlepszymi praktykami, gdyż koszt wykonania instalacji światłowodowej nie zawsze jest uzasadniony w kontekście wymagań lokalnej sieci, ciągle preferowane są rozwiązania oparte na miedzi, które wystarczają do zaspokojenia bieżących potrzeb.

Pytanie 15

Program do odzyskiwania danych, stosowany w warunkach domowych, umożliwia przywrócenie danych z dysku twardego w sytuacji

A. zamoczenia dysku
B. niezamierzonego skasowania danych
C. awarii silnika dysku
D. problemu z elektroniką dysku
Odzyskiwanie danych z dysku twardego w warunkach domowych jest najskuteczniejsze w przypadku przypadkowego usunięcia danych. W takich sytuacjach, gdy pliki zostały usunięte z systemu operacyjnego, ale nie zostały nadpisane, programy typu recovery mogą skanować dysk w poszukiwaniu utraconych plików. Używają one technik takich jak analiza systemu plików czy skanowanie sektora po sektorze. Przykłady popularnych programów do odzyskiwania danych obejmują Recuva, EaseUS Data Recovery Wizard oraz Stellar Data Recovery. Ważne jest, aby nie zapisywać nowych danych na dysku, z którego chcemy odzyskać pliki, ponieważ może to spowodować nadpisanie usuniętych danych. W przypadku przypadkowego usunięcia postępowanie zgodnie z zasadami dobrych praktyk, takimi jak regularne tworzenie kopii zapasowych i korzystanie z oprogramowania do monitorowania stanu zdrowia dysku, może znacznie zwiększyć szanse na skuteczne odzyskanie danych.

Pytanie 16

Najmniejszymi kątami widzenia charakteryzują się matryce monitorów typu

A. TN
B. IPS/S-IPS
C. PVA
D. MVA
Odpowiedzi dotyczące matryc IPS/S-IPS, MVA oraz PVA są raczej efektem mylenia pojęć dotyczących właściwości matryc LCD. IPS, czyli In-Plane Switching, od lat uznawane są za najlepsze pod względem szerokich kątów widzenia – zarówno w pionie, jak i w poziomie. Dotyczy to nie tylko ekranów profesjonalnych, ale nawet monitorów konsumenckich, gdzie różnice są już bardzo widoczne gołym okiem. Bardzo możliwe, że ktoś wybierając IPS lub jego odmiany sądził, że „mniejsze kąty widzenia” to coś pozytywnego – a tak naprawdę chodziło o to, że obraz pozostaje niemal niezmienny, nawet jeśli patrzymy pod dużym kątem. Drugi typ, czyli matryce MVA (Multi-domain Vertical Alignment) i PVA (Patterned Vertical Alignment), to rozwiązania pośrednie, stosowane m.in. w tańszych monitorach biurowych oraz niektórych telewizorach. Oferują one lepsze kąty widzenia niż TN, choć jednak nie aż tak dobre, jak IPS. Dodatkowo, czasami użytkownicy mylą pojęcie 'kątów widzenia' z innymi parametrami, jak kontrast czy odwzorowanie kolorów – to zupełnie inne właściwości! TN to najstarsza i najbardziej budżetowa technologia, cechująca się, niestety, bardzo ograniczonymi kątami – z boku czy z dołu obraz szybko staje się wyblakły lub wręcz nieczytelny. Jeśli ktoś używał laptopa z matrycą TN, na pewno kojarzy efekt zmieniających się kolorów przy lekkim poruszeniu głową. Standardy branżowe, szczególnie w sprzęcie graficznym, od dawna wymagają szerokich kątów widzenia właśnie po to, by praca była komfortowa dla każdego użytkownika – i tutaj TN niestety odstaje. Moim zdaniem warto zawsze sprawdzić specyfikację monitora przed zakupem, bo kąt widzenia to jeden z kluczowych parametrów wpływających na praktyczne użytkowanie sprzętu, niezależnie czy mówimy o biurze czy domowej rozrywce.

Pytanie 17

Jakie elementy łączy okablowanie pionowe w sieci LAN?

A. Dwa sąsiadujące punkty abonenckie
B. Gniazdo abonenckie z punktem pośrednim rozdzielczym
C. Główny punkt rozdzielczy z punktami pośrednimi rozdzielczymi
D. Główny punkt rozdzielczy z gniazdem dla użytkownika
Odpowiedź wskazuje na główny punkt rozdzielczy (MDF - Main Distribution Frame), który jest kluczowym elementem w strukturze okablowania pionowego w sieci LAN. Taki punkt rozdzielczy łączy ze sobą różne segmenty sieci i pozwala na efektywne zarządzanie połączeniami z pośrednimi punktami rozdzielczymi (IDF - Intermediate Distribution Frame). Dzięki temu zapotrzebowanie na pasmo i zasoby sieciowe jest lepiej rozdzielane, co przekłada się na efektywność działania całego systemu. W praktyce oznacza to, że główny punkt rozdzielczy jest miejscem, gdzie zbiegają się wszystkie kable od poszczególnych IDF, co umożliwia zorganizowane i przemyślane zarządzanie okablowaniem. Zgodnie z normą ANSI/TIA-568, okablowanie pionowe powinno być projektowane z myślą o przyszłym rozwoju infrastruktury, co oznacza, że powinno być elastyczne i skalowalne. Dzięki odpowiedniemu planowaniu możemy uniknąć problemów związanych z ograniczoną przepustowością czy trudnościami w utrzymaniu sieci.

Pytanie 18

Jaką usługę powinno się aktywować na ruterze, aby każda stacja robocza mogła wymieniać pakiety z siecią Internet, gdy dostępnych jest 5 adresów publicznych oraz 18 stacji roboczych?

A. NAT
B. WWW
C. VPN
D. FTP
NAT, czyli translacja adresów sieciowych, jest technologią, która pozwala na udostępnienie jednego lub kilku publicznych adresów IP dla wielu urządzeń w sieci lokalnej. W sytuacji, gdy mamy do dyspozycji 5 adresów publicznych i 18 stacji roboczych, NAT umożliwia stacjom roboczym komunikację z Internetem poprzez przypisanie im prywatnych adresów IP. NAT działa na zasadzie tłumaczenia adresów w pakietach wychodzących i przychodzących, co sprawia, że wiele stacji roboczych może korzystać z jednego adresu publicznego w danym momencie. Dzięki temu można efektywnie zarządzać dostępem do zasobów Internetu, co jest szczególnie ważne w sieciach o ograniczonej liczbie adresów IP. Przykładem zastosowania NAT jest sytuacja, w której mała firma z wieloma komputerami w sieci wewnętrznej korzysta z jednego adresu IP do łączenia się z Internetem. Dzięki NAT, użytkownicy mogą swobodnie przeglądać strony internetowe, korzystać z aplikacji online i komunikować się z innymi użytkownikami, mimo że ich prywatne adresy IP nie są widoczne w Internecie. NAT jest zgodny ze standardami IETF i jest powszechnie stosowany w praktykach zarządzania sieciami.

Pytanie 19

Schemat ilustruje ustawienia karty sieciowej dla urządzenia z adresem IP 10.15.89.104/25. Można z niego wywnioskować, że

Ilustracja do pytania
A. adres IP jest błędny
B. serwer DNS znajduje się w tej samej podsieci co urządzenie
C. adres domyślnej bramy pochodzi z innej podsieci niż adres hosta
D. adres maski jest błędny
Adres IP 10.15.89.104 z maską 255.255.255.128 niby wydaje się być okej, bo 104 jest w zakresie hostów tej podsieci. Maska 255.255.255.128 znaczy, że pierwsze 25 bitów to część sieci, co jakby daje możliwość podzielenia sieci na podsieci z 128 adresami (126 do wykorzystania). Ale to wszystko może być mylące, bo źle to zrozumieć to można przypisać adresy niewłaściwie. Jeśli chodzi o serwer DNS 8.8.8.8, to on jest publiczny i wcale nie musi być w tej samej podsieci co urządzenie, bo dostęp do DNS idzie przez bramę. Często się myśli, że wszystkie serwery muszą być w tej samej podsieci co host, ale dla DNS to nie jest wymagane. Problem zaczyna się, gdy brama nie jest w tej samej podsieci co adres IP hosta. Musi być w zasięgu, żeby mogła przepychać ruch do innych sieci. Dla adresu IP 10.15.89.104/25, poprawna brama powinna być w podsieci 10.15.89.0/25, a nie w 10.15.89.128/25. Brama 10.15.89.129 jest w sąsiedniej podsieci, co utrudnia komunikację z nią bez dodatkowych tras. W konfiguracji sieci ważne jest, żeby rozumieć jak działają zakresy adresów i jak je przypisuje, bo inaczej mogą być problemy z komunikacją poza lokalną podsiecią. Złe ustawienia mogą prowadzić do kłopotów w zarządzaniu siecią oraz w jej bezpieczeństwie. Wiedza o tym, jak przypisywać adresy i dlaczego to robić jest kluczowa dla administratorów sieci.

Pytanie 20

Na diagramie przedstawione są symbole

Ilustracja do pytania
A. 4 przełączników i 8 ruterów
B. 4 przełączników i 3 ruterów
C. 3 przełączników i 4 ruterów
D. 8 przełączników i 3 ruterów
Odpowiedź 4 przełączników i 3 ruterów jest poprawna ponieważ schemat przedstawia typową topologię sieci komputerowej gdzie przełączniki łączą urządzenia w lokalnej sieci LAN a rutery kierują ruch między różnymi sieciami. Na schemacie można zidentyfikować cztery urządzenia pełniące funkcję przełączników które są zazwyczaj przedstawiane jako prostokąty i trzy urządzenia pełniące funkcję ruterów które są pokazane jako okrągłe. Rutery umożliwiają komunikację między różnymi segmentami sieci wykorzystując routowanie czyli proces który wybiera najefektywniejszą ścieżkę dla przesyłanych danych. Przełączniki natomiast działają w obrębie jednej sieci LAN zarządzając łącznością pomiędzy urządzeniami takimi jak komputery czy serwery. Dobre praktyki branżowe zalecają aby w dobrze zaprojektowanych sieciach lokalnych używać przełączników warstwy drugiej OSI do połączeń wewnętrznych a rutery wykorzystywać do komunikacji z innymi sieciami co poprawia wydajność i bezpieczeństwo. Taki podział ról i funkcji w sieci jest kluczowy dla jej stabilności i efektywności działania.

Pytanie 21

Aby podłączyć drukarkę z portem równoległym do komputera, który dysponuje jedynie złączami USB, konieczne jest zainstalowanie adaptera

A. USB na PS/2
B. USB na RS-232
C. USB na COM
D. USB na LPT
Adapter USB na LPT (Line Print Terminal) jest kluczowym rozwiązaniem, gdy chcemy podłączyć drukarkę z interfejsem równoległym do komputera z portami USB. Złącze LPT, popularne w starszych modelach drukarek, wymaga odpowiedniego adaptera, który konwertuje sygnał USB na sygnał równoległy. Tego rodzaju adaptery są szeroko dostępne i pozwalają na bezproblemowe połączenie, umożliwiając korzystanie z drukarek, które w przeciwnym razie byłyby niekompatybilne z nowoczesnymi komputerami. Przykładem zastosowania może być sytuacja w biurze, gdzie starsze drukarki są wciąż używane, a komputery zostały zaktualizowane do nowszych modeli bez portów równoległych. W takich przypadkach, zastosowanie adaptera USB na LPT pozwala na dalsze korzystanie z posiadanych zasobów, co jest zgodne z zasadą ekoinnowacji i maksymalizacji efektywności kosztowej. Warto również dodać, że wiele adapterów USB na LPT obsługuje standardy Plug and Play, co oznacza, że nie wymagają one skomplikowanej instalacji oprogramowania, co znacznie upraszcza proces konfiguracji.

Pytanie 22

W systemie Windows można zweryfikować parametry karty graficznej, używając następującego polecenia

A. graphics
B. dxdiag
C. cliconfig
D. color
To polecenie dxdiag, czyli narzędzie diagnostyczne DirectX, jest naprawdę przydatne w Windowsie. Pozwala na zebranie ważnych informacji o podzespołach komputera, zwłaszcza o karcie graficznej. Jak chcesz to sprawdzić, wystarczy wpisać 'dxdiag' w menu startowym i kliknąć Enter. Zobaczysz wtedy okno z wieloma zakładkami, gdzie możesz znaleźć info o systemie, wyświetlaczy czy dźwięku. Moim zdaniem, to super sposób, żeby szybko zweryfikować, jakie sterowniki masz zainstalowane i czy komputer dobrze rozpoznaje kartę graficzną. Dla kogoś kto pracuje w IT, to wiedza na wagę złota, bo można łatwo wyłapać, co się dzieje z grafiką i lepiej diagnozować problemy.

Pytanie 23

Jakie oprogramowanie chroni komputer przed niechcianym softwarem pochodzącym z sieci?

A. Program antywirusowy
B. Protokół SSL
C. Program sniffer
D. Protokół HTTPS
Program antywirusowy jest kluczowym narzędziem w zabezpieczaniu komputerów przed niepożądanym oprogramowaniem, takim jak wirusy, trojany czy ransomware. Działa on poprzez skanowanie plików i programów na komputerze oraz monitorowanie aktywności w czasie rzeczywistym, co pozwala na szybką identyfikację i neutralizację zagrożeń. Programy antywirusowe często wykorzystują bazy danych sygnatur wirusów, które są regularnie aktualizowane, aby chronić użytkowników przed nowymi zagrożeniami. Przykładowo, w przypadku zainfekowanego pliku program antywirusowy może zablokować jego uruchomienie, a także usunąć lub kwarantannować zainfekowane pliki. Warto również wspomnieć o dodatkowych funkcjach, takich jak skanowanie w chmurze, które umożliwia szybsze wykrywanie najnowszych zagrożeń, oraz o technologii heurystycznej, która analizuje zachowanie programów, aby znaleźć nieznane wirusy. Stosowanie programów antywirusowych jest zgodne z najlepszymi praktykami bezpieczeństwa IT, które zalecają wielowarstwowe podejście do ochrony danych.

Pytanie 24

Norma EN 50167 odnosi się do systemów okablowania

A. szkieletowego
B. wertykalnego
C. horyzontalnego
D. sieciowego
Zrozumienie znaczenia różnych typów okablowania w budynkach jest kluczowe dla efektywnej instalacji sieci telekomunikacyjnych. Okablowanie kampusowe odnosi się do połączeń między różnymi budynkami na terenie kampusu, co jest bardziej złożonym zagadnieniem, które wymaga innego podejścia projektowego, zarówno pod kątem odległości, jak i zastosowanych technologii. W przypadku okablowania pionowego, które łączy różne piętra budynku, istotne jest, aby instalacje były zgodne z lokalnymi normami budowlanymi oraz odpowiednio zabezpieczone przed zakłóceniami. Wreszcie, okablowanie szkieletowe to termin używany do opisania infrastruktury sieciowej obejmującej główne elementy, takie jak przełączniki i routery, które są kluczowe dla efektywnego zarządzania ruchem danych. Zbyt często myli się te terminy, co prowadzi do nieprawidłowych założeń w projektowaniu systemów sieciowych. Każdy z tych rodzajów okablowania ma swoje unikalne wymagania i zastosowania, które muszą być starannie rozważone w kontekście całej infrastruktury sieciowej. Dlatego tak ważne jest, aby przy projektowaniu i wdrażaniu systemów okablowania stosować się do odpowiednich norm i standardów, aby zapewnić ich prawidłowe funkcjonowanie i minimalizować ryzyko awarii.

Pytanie 25

Aby sprawdzić dysk twardy w systemie Linux na obecność uszkodzonych sektorów, użytkownik może zastosować program

A. scandisk
B. fsck
C. chkdisk
D. defrag
Program fsck, czyli "file system consistency check", jest narzędziem używanym w systemach Unix i Linux do sprawdzania integralności systemu plików oraz naprawy ewentualnych błędów. Główną funkcjonalnością fsck jest analiza dysku twardego w celu zidentyfikowania uszkodzonych sektorów, błędów w strukturze danych oraz problemów z metadanymi. Przykładem jego zastosowania może być uruchomienie polecenia 'fsck /dev/sda1', które sprawdzi system plików znajdujący się na partycji sda1. Warto pamiętać, że korzystanie z fsck w trakcie działania systemu lub z zamontowanymi systemami plików może prowadzić do dodatkowych problemów, dlatego zaleca się uruchamianie go w trybie ratunkowym lub po odmontowaniu partycji. Stosując fsck, użytkownicy mogą zapewnić stabilność i bezpieczeństwo danych na dysku twardym, co jest zgodne z najlepszymi praktykami zarządzania systemami IT.

Pytanie 26

Jakie znaczenie ma termin "wykonanie kopii zapasowej systemu"?

A. Zamknięcie systemu
B. Aktualizacja systemu
C. Wykonanie kopii zapasowej systemu
D. Restart systemu
Robienie kopii zapasowej systemu, czyli backupu, to ważny krok, który pomaga zabezpieczyć nasze dane i ustawienia. W praktyce, regularne backupy są kluczowe, bo pozwalają szybko przywrócić system do stanu sprzed jakiejś awarii, błędów czy ataków wirusów. W branży mówi się o tym w kontekście standardów, takich jak ISO 27001, które zalecają regularne tworzenie kopii zapasowych jako część zarządzania ryzykiem. Możemy mieć różne rodzaje backupów, na przykład lokalne na dyskach zewnętrznych lub w chmurze, co daje dodatkowe zabezpieczenie. Pamiętaj, że dobry backup powinien być częścią szerszego planu awaryjnego, który obejmuje też to, jak przywracać dane, gdy zajdzie taka potrzeba.

Pytanie 27

Pliki specjalne urządzeń, tworzone podczas instalacji sterowników w systemie Linux, są zapisywane w katalogu

A. /dev
B. /sbin
C. /proc
D. /var
Pliki specjalne urządzeń w Linuxie, czyli tzw. device files, faktycznie są zapisywane w katalogu /dev. Jest to standard, który spotkasz praktycznie we wszystkich dystrybucjach Linuksa już od czasów Uniksa. Katalog /dev służy jako miejsce, gdzie system tworzy interfejsy do urządzeń sprzętowych oraz wirtualnych, np. dysków, portów szeregowych, pamięci RAM czy nawet pseudo-urządzeń jak /dev/null albo /dev/random. To rozwiązanie pozwala traktować urządzenia jak pliki, co daje ogromną elastyczność – narzędzia użytkownika mogą komunikować się z hardware’m bezpośrednio przez standardowe operacje wejścia/wyjścia. Co ciekawe, w nowoczesnych systemach większość plików w /dev tworzona jest dynamicznie przez usługę udev, więc nie musisz ich ręcznie generować poleceniem mknod, jak to bywało dawniej. Taki model upraszcza zarządzanie dużą liczbą urządzeń i jest zgodny z zasadą „wszystko jest plikiem”. W praktyce, gdy instalujesz lub podłączasz nowe urządzenie, sterownik często sam tworzy odpowiedni plik specjalny w /dev – potem np. możesz odwołać się do /dev/sda, jeśli chodzi o pierwszy dysk twardy, albo /dev/ttyUSB0 dla adaptera USB-serial. Moim zdaniem warto dobrze poznać zawartość tego katalogu, bo daje to większą kontrolę nad sprzętem i lepsze zrozumienie działania Linuksa od środka. W branży to absolutna podstawa, bo właściwe zarządzanie plikami urządzeń jest kluczowe przy administracji systemami i rozwiązywaniu problemów sprzętowych.

Pytanie 28

Interfejs UDMA to typ interfejsu

A. równoległy, który został zastąpiony przez interfejs SATA
B. równoległy, używany m.in. do połączenia kina domowego z komputerem
C. szeregowy, stosowany do łączenia urządzeń wejściowych
D. szeregowy, który służy do transferu danych między pamięcią RAM a dyskami twardymi
Interfejs UDMA (Ultra Direct Memory Access) to protokół równoległy, który był szeroko stosowany do komunikacji z dyskami twardymi i innymi urządzeniami pamięci masowej. UDMA umożliwia transfer danych z większą prędkością niż wcześniejsze standardy, co przekłada się na lepszą wydajność systemów komputerowych. Jako przykład zastosowania, UDMA był istotnym elementem w komputerach osobistych i systemach serwerowych z lat 90-tych i początku 2000-tych, gdzie zapewniał szybką wymianę danych pomiędzy dyskami twardymi a kontrolerami. Wraz z rozwojem technologii, UDMA został stopniowo zastąpiony przez interfejs SATA, który oferuje wyższą wydajność oraz prostszą architekturę kablową. W kontekście dobrych praktyk branżowych, stosowanie nowszych standardów, takich jak SATA, jest zalecane, aby zapewnić optymalną wydajność i niezawodność systemów komputerowych, co jest kluczowe w dzisiejszym szybko zmieniającym się świecie technologii.

Pytanie 29

Jaki jest standard 1000Base-T?

A. standard sieci Ethernet o prędkości 100Mb/s
B. standard sieci Ethernet o prędkości 1000MB/s
C. standard sieci Ethernet o prędkości 1GB/s
D. standard sieci Ethernet o prędkości 1000Mb/s
Wybór odpowiedzi, która sugeruje, że 1000Base-T to standard o przepustowości 100Mb/s, jest wynikiem nieporozumienia dotyczącego klasyfikacji standardów Ethernet. 1000Base-T to technologia, która osiąga prędkości do 1000 Mb/s, co jest równoważne z 1 Gb/s. Wprowadzenie do sieci szerokopasmowej wymaga zrozumienia różnic między standardami. Standard 100Base-T, który operuje z prędkością 100 Mb/s, oznacza zupełnie inne parametry i zastosowania. W praktyce, wykorzystywanie 100Base-T w sytuacjach, gdzie wymagana jest wyższa wydajność, prowadzi do wąskich gardeł i ograniczeń w transferze danych, co jest niepożądane w nowoczesnych środowiskach IT. Ponadto, pomylenie jednostek miary - Megabitów (Mb) z Gigabitami (Gb) - to typowy błąd, który może prowadzić do poważnych konsekwencji w projektowaniu i wdrażaniu infrastruktury sieciowej. Upewnienie się, że używamy odpowiednich standardów oraz rozumiemy ich możliwości, jest kluczowe dla zapewnienia efektywności operacyjnej i wydajności sieci. Dlatego istotne jest, aby w kontekście planowania sieci, nie ograniczać się do zastanawiania się nad przepustowością 100Mb/s, lecz uwzględniać nowoczesne standardy, takie jak 1000Base-T, które odpowiadają na rosnące wymagania użytkowników.

Pytanie 30

Czym wyróżniają się procesory CISC?

A. wysoką liczbą instrukcji
B. niewielką ilością trybów adresowania
C. prostą i szybką jednostką kontrolną
D. ograniczoną wymianą danych pomiędzy pamięcią a procesorem
Wybór odpowiedzi, które sugerują, że procesory CISC mają prostą i szybką jednostkę sterującą, jest mylący. W rzeczywistości, procesory CISC są zaprojektowane z myślą o złożoności zestawu instrukcji, co często prowadzi do bardziej skomplikowanej jednostki sterującej. Złożoność ta wynika z konieczności dekodowania wielu różnych instrukcji, co może wprowadzać opóźnienia w wykonaniu. W kontekście architektury CISC, jednostka sterująca jest znacznie bardziej złożona niż w architekturze RISC (Reduced Instruction Set Computing), gdzie skupia się na prostocie i szybkości. Ponadto, stwierdzenie o niewielkiej liczbie trybów adresowania nie odnosi się do rzeczywistości, gdyż procesory CISC często oferują wiele trybów adresowania, co zwiększa ich elastyczność w operacjach na danych. Ograniczona komunikacja pomiędzy pamięcią a procesorem jest również niepoprawnym założeniem, ponieważ w architekturze CISC, ilość danych przesyłanych pomiędzy pamięcią a procesorem może być znacząca, biorąc pod uwagę złożoność instrukcji. Zrozumienie tych różnic jest kluczowe dla prawidłowego rozpoznawania zalet i wad różnych architektur procesorów oraz ich zastosowań w praktyce, co jest istotne w kontekście projektowania systemów komputerowych.

Pytanie 31

Regulacje dotyczące konstrukcji systemu okablowania strukturalnego, parametry kabli oraz procedury testowania obowiązujące w Polsce są opisane w normach

A. EN 50169
B. EN 50167
C. PN-EN 50173
D. PN-EN 50310
Norma PN-EN 50173 odnosi się do systemów okablowania strukturalnego w budynkach i przestrzeniach biurowych. Określa ona zasady projektowania, instalacji oraz testowania okablowania, co jest fundamentalne dla zapewnienia wysokiej jakości infrastruktury telekomunikacyjnej. W ramach tej normy opisano różne klasy okablowania, jak również wymagania dotyczące parametrów kabli, takich jak pasmo przenoszenia, tłumienie sygnału czy odporność na zakłócenia. Dzięki zastosowaniu tych norm, inżynierowie mogą projektować sieci, które będą zgodne z aktualnymi standardami technicznymi, co przekłada się na ich niezawodność i wydajność. Przykładem zastosowania tej normy może być projektowanie systemu LAN w nowo powstającym biurowcu, gdzie odpowiednie kable są dobrane na podstawie specyfikacji z PN-EN 50173, co zapewnia ich optymalne działanie w przyszłości.

Pytanie 32

Które narzędzie jest przeznaczone do lekkiego odgięcia blachy obudowy komputera oraz zamocowania śruby montażowej w trudno dostępnym miejscu?

A. Narzędzie 2
Ilustracja do odpowiedzi A
B. Narzędzie 1
Ilustracja do odpowiedzi B
C. Narzędzie 3
Ilustracja do odpowiedzi C
D. Narzędzie 4
Ilustracja do odpowiedzi D
Wybrałeś kombinowane szczypce długie, czyli tzw. szczypce półokrągłe lub szczypce wydłużone. To narzędzie jest wręcz niezbędne przy pracy z obudowami komputerów, zwłaszcza gdy trzeba lekko odgiąć blachę – na przykład przy montażu kart rozszerzeń czy prowadzeniu kabli – oraz wtedy, gdy musisz umieścić lub dokręcić śrubę w miejscu, gdzie zwykły śrubokręt lub palce po prostu nie dochodzą. Szczypce te mają zwężające się końcówki, które pozwalają dostać się w głębokie zakamarki obudowy, co jest bardzo praktyczne w typowych obudowach ATX czy MicroATX. Moim zdaniem to jest jeden z tych narzędzi, które zawsze warto mieć pod ręką w warsztacie informatyka czy elektronika. Dodatkowo, końcówki często mają drobne rowki, dzięki czemu lepiej chwytają drobne elementy, jak śrubki czy dystanse, nie ryzykując przy tym uszkodzenia laminatu lub przewodów. Standardy branżowe, takie jak rekomendacje producentów sprzętu komputerowego (np. Dell, HP) czy wytyczne organizacji ESD, podkreślają, by do pracy przy sprzęcie elektronicznym używać narzędzi precyzyjnych, które pozwalają uniknąć przypadkowego zwarcia i uszkodzeń. Z mojego doświadczenia – jak czegoś nie sięgniesz palcami, szczypce długie załatwią temat bez kombinowania. Trochę trzeba się nauczyć, jak nimi manewrować, ale praktyka czyni mistrza. Warto pamiętać, by nie używać ich do cięcia, bo wtedy łatwo je zniszczyć.

Pytanie 33

Jaki akronim oznacza program do tworzenia graficznych wykresów ruchu, który odbywa się na interfejsach urządzeń sieciowych?

A. CDP
B. MRTG
C. ICMP
D. SMTP
Wybór innych akronimów, takich jak CDP, ICMP czy SMTP, wskazuje na pewne nieporozumienia dotyczące funkcji oraz zastosowania tych protokołów w kontekście monitorowania ruchu sieciowego. CDP, czyli Cisco Discovery Protocol, jest używany do zbierania informacji o urządzeniach Cisco w sieci, ale nie służy do graficznego przedstawiania danych o ruchu. ICMP, czyli Internet Control Message Protocol, jest protokołem używanym głównie do diagnostyki i informowania o błędach w transmisji danych, a nie do monitorowania obciążenia interfejsów. Z kolei SMTP, czyli Simple Mail Transfer Protocol, jest protokołem do wysyłania wiadomości e-mail i nie ma żadnego zastosowania w kontekście monitorowania ruchu sieciowego. Wybierając niewłaściwy akronim, możemy popełnić podstawowy błąd myślowy, polegający na myleniu różnych warstw i funkcji protokołów w architekturze sieci. Zrozumienie, jakie są podstawowe różnice między tymi technologiami oraz ich rolą w zarządzaniu siecią, jest kluczowe dla skutecznego monitorowania i optymalizacji zasobów sieciowych. Uczy to również, jak ważne jest właściwe dobieranie narzędzi oraz protokołów do konkretnego zadania, co stanowi fundament efektywnego zarządzania infrastrukturą IT.

Pytanie 34

Którego programu nie można użyć do przywrócenia danych w systemie Windows na podstawie wcześniej wykonanej kopii?

A. Norton Ghost
B. Acronis True Image
C. FileCleaner
D. Clonezilla
FileCleaner to narzędzie, które służy głównie do oczyszczania systemu operacyjnego z niepotrzebnych plików, takich jak tymczasowe dane, pliki cache, czy niepotrzebne dane z przeglądarek internetowych. Jego głównym celem jest poprawa wydajności systemu poprzez zwalnianie miejsca na dysku, a nie odzyskiwanie danych. W przeciwieństwie do Acronis True Image, Norton Ghost czy Clonezilla, które są programami do tworzenia obrazów dysków oraz zarządzania kopiami zapasowymi, FileCleaner nie ma funkcji przywracania danych z kopii zapasowej. Przykład praktycznego zastosowania FileCleaner to sytuacja, w której użytkownik zauważa spadek wydajności systemu z powodu nagromadzenia dużej ilości zbędnych plików i decyduje się na ich usunięcie. W kontekście odzyskiwania danych, standardy branżowe podkreślają znaczenie użycia odpowiednich narzędzi do zabezpieczania danych, a FileCleaner nie spełnia tych wymagań.

Pytanie 35

Zjawisko crosstalk, które występuje w sieciach komputerowych, polega na

A. niedoskonałości toru wywołanej zmianami geometrii par przewodów
B. przenikaniu sygnału między sąsiadującymi parami przewodów w kablu
C. opóźnieniach w propagacji sygnału w ścieżce transmisyjnej
D. utratach sygnału w drodze transmisyjnej
Przenikanie sygnału pomiędzy sąsiadującymi w kablu parami przewodów, znane również jako przesłuch, jest zjawiskiem, które negatywnie wpływa na jakość komunikacji w sieciach komputerowych, w szczególności w kablach typu twisted pair, takich jak kable Ethernet. Przesłuch występuje, gdy sygnał z jednej pary przewodów oddziałuje na sygnał w sąsiedniej parze, co może prowadzić do zakłóceń i błędów w przesyłanych danych. W kontekście standardów, takich jak IEEE 802.3, które definiują specyfikacje dla Ethernetu, zarządzanie przesłuchami jest kluczowym aspektem projektowania systemów transmisyjnych. Praktyczne podejście do minimalizacji przesłuchu obejmuje stosowanie technologii ekranowania, odpowiednie prowadzenie kabli oraz zapewnienie odpowiednich odstępów między parami przewodów. Zmniejszenie przesłuchu poprawia integralność sygnału, co jest niezbędne dla uzyskania wysokiej przepustowości i niezawodności połączeń w sieciach o dużej wydajności.

Pytanie 36

Wartość liczby 1100112 zapisanej w systemie dziesiętnym wynosi

A. 52
B. 53
C. 50
D. 51
Odpowiedzi 50, 52 i 53 wydają się być wynikiem błędnego zrozumienia zasad konwersji między systemami liczbowymi. Osoby, które wskazały te wartości, często mogą myśleć, że liczby w systemie binarnym są prostsze do odczytania lub przeliczenia, co prowadzi do przemieszania wartości potęg liczby 2. Na przykład, wybór 50 jako odpowiedzi może sugerować, że osoba zakłada, iż suma cyfr binarnych ma prostą reprezentację w systemie dziesiętnym, co jest błędne. Należy pamiętać, że każda cyfra w liczbie binarnej ma określoną wagę, a ta waga jest mnożona przez odpowiednią potęgę liczby 2, a nie dodawana bezpośrednio. Użytkownicy mogą też źle zrozumieć pojęcie wartości pozycyjnej w systemie liczbowym, co prowadzi do pomylenia miejsc, na których znajdują się 1 i 0 w liczbie binarnej. W praktyce, błędy te mogą wpływać na kodowanie informacji w systemach komputerowych, gdzie precyzyjne konwersje są kluczowe dla poprawnego funkcjonowania oprogramowania. Zrozumienie tej problematyki jest szczególnie istotne w kontekście inżynierii oprogramowania i rozwoju aplikacji, gdzie konwersje między różnymi formatami danych są na porządku dziennym. W związku z tym, aby zminimalizować tego typu błędy myślowe, warto zwrócić uwagę na dokładne zasady konwersji oraz praktykować ćwiczenia z różnymi systemami liczbowymi.

Pytanie 37

Pełna maska podsieci z prefiksem /25 to

A. 255.255.255.224
B. 255.255.255.128
C. 255.255.255.240
D. 255.255.255.192
Maska podsieci o prefiksie /25 oznacza, że 25 bitów jest używanych do identyfikacji sieci, pozostawiając 7 bitów na identyfikację hostów. Wartość ta odpowiada masce 255.255.255.128. Umożliwia to utworzenie 128 adresów IP w danej podsieci, z czego 126 może być użytych jako adresy hostów, ponieważ jeden adres jest zarezerwowany dla identyfikacji sieci, a drugi dla broadcastu. W praktyce, maski o prefiksie /25 są idealne dla średnich sieci, które nie wymagają zbyt wielu adresów IP, ale mogą być bardziej efektywne w zarządzaniu zasobami IP. W kontekście dobra praktyki, stosowanie odpowiednich masek podsieci pozwala na optymalne wykorzystanie dostępnych adresów, co jest istotne zwłaszcza w większych organizacjach, gdzie zarządzanie adresacją IP ma kluczowe znaczenie.

Pytanie 38

Okablowanie wertykalne w sieci strukturalnej łączy

A. główny punkt dystrybucji z gniazdem abonenta
B. główny punkt dystrybucji z pośrednimi punktami dystrybucji
C. pośredni punkt dystrybucji z gniazdem abonenta
D. dwa gniazda abonentów
Okablowanie pionowe w sieci strukturalnej, które łączy główny punkt rozdzielczy z pośrednimi punktami rozdzielczymi, jest kluczowym elementem architektury sieci. W praktyce oznacza to, że główny punkt rozdzielczy, często zlokalizowany w serwerowni, jest połączony z różnymi pośrednimi punktami rozdzielczymi rozmieszczonymi w budynku. Te pośrednie punkty zapewniają dostęp do różnych obszarów, umożliwiając podłączenie gniazd abonenckich. Zgodnie z normą ISO/IEC 11801, tak zaprojektowana struktura okablowania pozwala na efektywną organizację sieci, zwiększając jej elastyczność oraz skalowalność. Dzięki takiemu podejściu, w razie potrzeby można łatwo zainstalować dodatkowe gniazda abonenckie w różnych lokalizacjach bez konieczności zmiany całej infrastruktury. Tego typu okablowanie jest także kluczowe w kontekście modernizacji i rozbudowy systemów, ponieważ pozwala na łatwe aktualizacje technologii oraz dostosowywanie do rosnących wymagań użytkowników.

Pytanie 39

Jakie ustawienie należy wprowadzić przy konfiguracji serwera DHCP?

A. Czas trwania dzierżawy adresu MAC
B. Czas trwania dzierżawy adresu IP
C. Stopień bezpieczeństwa IPSec (ang. Internet Protocol Security)
D. Adres MAC interfejsu sieciowego serwera DHCP
Czas trwania dzierżawy adresu IP jest kluczowym parametrem w konfiguracji serwera DHCP, ponieważ określa, na jak długo klient może korzystać z przydzielonego mu adresu IP. W praktyce oznacza to, że po upływie tego okresu klient musi odnowić dzierżawę, aby móc dalej używać tego samego adresu lub uzyskać nowy, jeśli adres nie jest już dostępny. Czas trwania dzierżawy powinien być dobrany do specyfiki sieci – w przypadku sieci o dużym ruchu i zmienności użytkowników, krótszy czas dzierżawy może być korzystniejszy, podczas gdy w stabilnych środowiskach można zastosować dłuższy czas. Warto również pamiętać o standardach, takich jak RFC 2131, które definiują zasady działania DHCP oraz zalecają odpowiednie zarządzanie dzierżawą adresów IP w sieciach lokalnych. Dzięki właściwej konfiguracji czasów dzierżawy można zminimalizować ryzyko konfliktów adresów IP oraz zapewnić efektywne wykorzystanie dostępnej puli adresów w sieci.

Pytanie 40

Na ilustracji przedstawiono część procesu komunikacji z serwerem, która została przechwycona przez aplikację Wireshark. Jaki to serwer?

Discover - Transaction ID 0x6a16b7a5
Offer    - Transaction ID 0x6a16b7a5
Request  - Transaction ID 0x6a16b7a5
ACK      - Transaction ID 0x6a16b7a5
A. FTP
B. DHCP
C. DNS
D. WWW
FTP jest protokołem sieciowym stosowanym do przesyłania plików pomiędzy klientem a serwerem. W odróżnieniu do DHCP FTP nie zajmuje się przydziałem adresów IP lecz umożliwia transfer danych w sieci. Charakteryzuje się operacjami takimi jak przesyłanie pobieranie i zarządzanie plikami na serwerze co czyni go nieodpowiednim do roli przypisywania adresów IP. Protokół DNS zajmuje się tłumaczeniem nazw domenowych na adresy IP co jest istotne dla wczytywania stron internetowych i usług sieciowych. Pomimo że DNS jest kluczową częścią działania internetu nie ma udziału w bezpośrednim przypisywaniu adresów IP urządzeniom w sieci co jest głównym zadaniem DHCP. Protokoły WWW takie jak HTTP czy HTTPS są używane do przesyłania stron internetowych i danych pomiędzy serwerem a przeglądarką użytkownika. WWW koncentruje się na dostarczaniu zawartości internetowej zamiast na zarządzaniu adresacją IP w sieci. Błędne przypisanie protokołów takich jak FTP DNS czy WWW do funkcji DHCP wynika z niezrozumienia ich podstawowych funkcji i różnic między nimi. Każdy z tych protokołów odgrywa unikalną rolę w sieci ale tylko DHCP jest odpowiedzialny za dynamiczne przydzielanie adresów IP co czyni go kluczowym składnikiem infrastruktury sieciowej. Zrozumienie różnic w zastosowaniach tych protokołów pomaga w zapewnieniu prawidłowej konfiguracji i optymalnego działania sieci komputerowej.