Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 2 maja 2026 23:27
  • Data zakończenia: 3 maja 2026 00:03

Egzamin zdany!

Wynik: 25/40 punktów (62,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Narzędzia do dostosowywania oraz Unity Tweak Tool to aplikacje w systemie Linux przeznaczone do

A. przydzielania uprawnień do zasobów systemowych
B. personalizacji systemu
C. ustawiania zapory systemowej
D. administracji kontami użytkowników
Narzędzia do dostrajania i Unity Tweak Tool to takie fajne dodatki w systemach Linux, które pozwalają na naprawdę sporo, gdy chcemy, żeby nasz pulpit wyglądał tak, jak nam się podoba. Chodzi o to, żeby dostosować interfejs do naszych upodobań – tu możemy zmienić motywy, ikony, czcionki, a nawet układy pulpitów. Za pomocą Unity Tweak Tool można łatwo ochrzcić nasz system nowym motywem kolorystycznym, co naprawdę potrafi odmienić jego wygląd. To narzędzie jest super, bo pozwala nam pokazać swoją osobowość i sprawia, że praca na komputerze staje się przyjemniejsza. W biurach, gdzie ludzie siedzą przy komputerze całe dnie, taka personalizacja naprawdę ma znaczenie. Moim zdaniem, jeżeli czujemy się dobrze w swoim środowisku pracy, to i efektywność idzie w górę.

Pytanie 2

Dostarczanie błędnych napięć do płyty głównej może spowodować

A. wystąpienie błędów pamięci RAM
B. uruchomienie jednostki centralnej z kolorowymi pasami i kreskami na ekranie
C. puchnięcie kondensatorów, zawieszanie się jednostki centralnej oraz nieoczekiwane restarty
D. brak możliwości instalacji oprogramowania
Dostarczanie nieprawidłowych napięć do płyty głównej jest jednym z najczęstszych problemów, które mogą prowadzić do uszkodzeń komponentów sprzętowych. W przypadku kondensatorów, które są kluczowymi elementami w obiegu zasilania na płycie głównej, nieprawidłowe napięcie może prowadzić do puchnięcia, a nawet wybuchu. Takie zjawisko jest szczególnie niebezpieczne, ponieważ może skutkować nie tylko uszkodzeniem płyty głównej, ale również innych podzespołów komputera. Zawieszanie się jednostki centralnej oraz niespodziewane restarty są typowymi objawami, które mogą wystąpić w wyniku niestabilności zasilania. W praktyce, aby zapobiec takim sytuacjom, zaleca się korzystanie z zasilaczy o wysokiej jakości, które są zgodne z certyfikatami, takimi jak 80 PLUS, co zapewnia efektywność energetyczną oraz stabilność napięcia. Dobre praktyki obejmują także regularne kontrolowanie stanu kondensatorów, co można zrobić poprzez wizualną inspekcję oraz stosowanie narzędzi diagnostycznych. Ta wiedza jest kluczowa dla każdego, kto zajmuje się budową lub konserwacją komputerów, ponieważ niewłaściwe zasilanie może prowadzić do poważnych i kosztownych uszkodzeń.

Pytanie 3

Do bezprzewodowej transmisji danych pomiędzy dwiema jednostkami, z wykorzystaniem fal radiowych w zakresie ISM 2,4 GHz, przeznaczony jest interfejs

A. Fire Wire
B. Bluetooth
C. IrDA
D. IEEE 1394
FireWire, znany również jako IEEE 1394, jest interfejsem zaprojektowanym głównie do przesyłu dużych ilości danych między urządzeniami, takimi jak kamery cyfrowe i dyski twarde. Nie jest on jednak interfejsem bezprzewodowym, co czyni go nieodpowiednim w kontekście przesyłania danych w technologii radiowej. Podobnie, IrDA (Infrared Data Association) wykorzystuje podczerwień do komunikacji, co ogranicza zasięg i wymaga bezpośredniej linii widzenia pomiędzy urządzeniami, co również nie pasuje do opisanego przypadku. Z kolei IEEE 1394 również bazuje na połączeniach przewodowych, co wyklucza go z możliwości przesyłania danych w sposób bezprzewodowy. Te technologie, mimo że mają swoje zastosowania, nie są odpowiednie dla scenariuszy wymagających elastyczności i mobilności, jakie oferuje Bluetooth. Często popełnianym błędem jest mylenie różnych technologii komunikacyjnych, co prowadzi do nieprawidłowych wniosków. Warto zrozumieć, że każda z tych technologii ma swoje specyficzne zastosowanie i ograniczenia, a wybór odpowiedniego interfejsu powinien bazować na konkretnych wymaganiach i okolicznościach, a nie na ogólnych założeniach dotyczących przesyłania danych.

Pytanie 4

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 16 GB.
B. 2 modułów, każdy po 8 GB.
C. 1 modułu 16 GB.
D. 1 modułu 32 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 5

Fast Ethernet to norma sieci przewodowej, która pozwala na przesył danych z maksymalną szybkością

A. 1000 Mbps
B. 100 Mbps
C. 108 Mbps
D. 54 Mbps
Fast Ethernet to standard sieci przewodowej, który umożliwia transmisję danych z maksymalną prędkością wynoszącą 100 Mbps. Standard ten został wprowadzony w latach 90-tych jako rozwinięcie wcześniejszych technologii Ethernet, które oferowały niższe prędkości. Fast Ethernet, oparty na standardzie IEEE 802.3u, stał się fundamentem nowoczesnych sieci lokalnych, ponieważ zapewniał znaczne zwiększenie wydajności przy jednoczesnym zachowaniu kompatybilności z istniejącymi sieciami Ethernet. W praktyce, Fast Ethernet wykorzystywany jest w różnych zastosowaniach, takich jak biura, szkoły oraz małe i średnie przedsiębiorstwa. Dzięki możliwości stosowania kabli kategorii 5 (or CAT 5) oraz technologii 100BASE-TX, Fast Ethernet stał się popularnym rozwiązaniem, które zaspokajało potrzeby szybkiej komunikacji w sieciach lokalnych. Warto dodać, że Fast Ethernet jest wciąż wykorzystywany w wielu lokalnych sieciach, mimo że na rynku dostępne są szybsze standardy, takie jak Gigabit Ethernet (1000 Mbps).

Pytanie 6

Udostępnienie drukarki sieciowej codziennie o tej samej porze należy ustawić we właściwościach drukarki, w zakładce

A. udostępnianie.
B. zabezpieczenia.
C. ogólne.
D. zaawansowane.
W systemie Windows każda zakładka we właściwościach drukarki ma swoje konkretne przeznaczenie i to właśnie zrozumienie logiki ich podziału pozwala szybko odnaleźć właściwą opcję. Ustawienie udostępniania drukarki tylko o określonej porze dnia nie jest ani parametrem ogólnym, ani zwykłym przełącznikiem „udostępnij / nie udostępniaj”, tylko elementem bardziej zaawansowanej konfiguracji pracy urządzenia i kolejki wydruku. Dlatego nie znajdzie się go w zakładce „Ogólne”. Tam są głównie informacje opisowe: nazwa drukarki, lokalizacja, podstawowy test wydruku, ewentualnie krótki opis. To są rzeczy widoczne dla użytkownika końcowego, a nie szczegółowe reguły działania w czasie. Podobny błąd myślowy dotyczy zakładki „Udostępnianie”. Wiele osób zakłada, że skoro chodzi o drukarkę sieciową, to wszystko co z siecią związane musi być właśnie tam. Tymczasem w „Udostępnianiu” definiuje się, czy drukarka jest w ogóle dostępna w sieci, pod jaką nazwą udziału, ewentualnie dodatkowe sterowniki dla innych systemów. To jest poziom „włącz/wyłącz” oraz podstawowe parametry sieciowe, ale bez harmonogramu godzinowego. To trochę tak, jak z udziałami sieciowymi folderów – tam też sam udział nie definiuje, w jakich godzinach wolno korzystać, tylko czy w ogóle jest dostępny i dla kogo. Zakładka „Zabezpieczenia” również bywa myląca, bo dotyczy uprawnień użytkowników. Tam konfiguruje się, kto może drukować, kto może zarządzać drukarką czy kolejką, zgodnie z mechanizmem list ACL w Windows. Jednak uprawnienia nie określają czasu – one mówią „kto” i „co może”, ale nie „kiedy”. Ograniczenia czasowe są inną klasą reguł i standardowo w Windows są przenoszone do sekcji zaawansowanych danego komponentu. Typowy błąd to mieszanie pojęcia uprawnień z harmonogramem. Harmonogram pracy drukarki, czyli dostępność w określonych godzinach, to już konfiguracja wyższego poziomu – dlatego trafia do zakładki „Zaawansowane”, razem z opcjami priorytetu drukarki, zarządzania kolejką, buforowaniem i wyborem sterownika. Z mojego doświadczenia, jeśli coś brzmi jak „ustawienie zachowania w czasie” lub „reguła działania”, to w Windows prawie zawsze ląduje w ustawieniach zaawansowanych, a nie w prostych kartach ogólnych, udostępniania czy zabezpieczeń.

Pytanie 7

Jaką kwotę trzeba będzie przeznaczyć na zakup kabla UTP kat.5e do zbudowania sieci komputerowej składającej się z 6 stanowisk, gdzie średnia odległość każdego stanowiska od przełącznika wynosi 9 m? Należy uwzględnić 1 m zapasu dla każdej linii kablowej, a cena za 1 metr kabla to 1,50 zł?

A. 60,00 zł
B. 90,00 zł
C. 150,00 zł
D. 120,00 zł
Koszt zakupu kabla UTP kat.5e dla sieci złożonej z 6 stanowisk komputerowych, przy średniej odległości każdego stanowiska od przełącznika wynoszącej 9 m oraz uwzględnieniu 1 m zapasu, oblicza się w następujący sposób: dla 6 stanowisk potrzebujemy 6 linii kablowych, z których każda będzie miała długość 10 m (9 m + 1 m zapasu). Łączna długość kabla wynosi więc 60 m (6 x 10 m). Jeśli cena za 1 metr kabla wynosi 1,50 zł, to całkowity koszt zakupu wyniesie 90,00 zł (60 m x 1,50 zł). Użycie kabla kat.5e jest zgodne z aktualnymi standardami sieciowymi, które zalecają stosowanie odpowiednich kategorii kabli w zależności od przewidywanej prędkości transmisji danych. Przykładem może być zastosowanie UTP kat.5e w sieciach LAN, gdzie może wspierać prędkości do 1 Gbps na długości do 100 m, co jest wystarczające dla większości biur czy małych przedsiębiorstw. Warto również pamiętać, aby stosować odpowiednie złącza oraz dbać o jakość instalacji, co ma kluczowe znaczenie dla stabilności i efektywności przesyłu danych.

Pytanie 8

Na ilustracji przedstawiono

Ilustracja do pytania
A. modem.
B. kartę sieciową.
C. dysk SSD.
D. pamięć SO-DIMM.
Na ilustracji faktycznie widać kartę sieciową w formacie mini PCI Express, konkretnie bezprzewodową kartę Wi‑Fi (Intel WiFi Link 5100). Świadczy o tym kilka charakterystycznych elementów. Po pierwsze opis na etykiecie: nazwa modelu, oznaczenie „WiFi Link”, adres MAC oraz oznaczenia MAIN i AUX przy złączach antenowych. Te dwa małe, okrągłe gniazda służą do podłączenia przewodów antenowych prowadzących zwykle do anten w ramce matrycy laptopa. Po drugie – złote styki krawędziowe oraz wycięcie w laminacie odpowiadają standardowi złącza mini PCIe stosowanemu w notebookach. Karta sieciowa tego typu realizuje funkcję warstwy fizycznej i częściowo łącza danych w modelu ISO/OSI dla sieci bezprzewodowych zgodnych ze standardami IEEE 802.11 (np. 802.11n). Z punktu widzenia praktyki serwisowej taka karta jest jednym z typowych modułów wymiennych w laptopie: można ją łatwo zdemontować po odkręceniu jednej śrubki i wypięciu przewodów antenowych, a następnie zastąpić nowszym modelem obsługującym np. wyższe przepustowości lub standard 5 GHz. W konfiguracji systemu operacyjnego widoczna będzie jako interfejs sieciowy, dla którego instalujemy odpowiedni sterownik producenta – bez tego system nie będzie poprawnie obsługiwał transmisji radiowej. W projektowaniu i eksploatacji sieci dobrą praktyką jest zwracanie uwagi na obsługiwane standardy szyfrowania (WPA2, WPA3), pasma częstotliwości oraz moc nadawczą karty, bo to wpływa zarówno na bezpieczeństwo, jak i stabilność połączenia. Takie moduły mini PCIe są też często wykorzystywane w małych komputerach przemysłowych czy routerach z możliwością rozbudowy o Wi‑Fi, co pokazuje ich elastyczność i znaczenie w nowoczesnych rozwiązaniach sieciowych.

Pytanie 9

Jaką usługą można pobierać i przesyłać pliki na serwer?

A. FTP
B. CP
C. DNS
D. ICMP
FTP, czyli File Transfer Protocol, to standardowy protokół wykorzystywany do przesyłania plików pomiędzy komputerami w sieci. Umożliwia on zarówno pobieranie, jak i przesyłanie plików na serwer. FTP działa na zasadzie klient-serwer, gdzie klient wysyła żądania do serwera, a ten odpowiada na nie, umożliwiając przesył danych. Przykładami zastosowania FTP są przesyłanie plików na serwery internetowe, zarządzanie plikami na serwerach zdalnych oraz synchronizacja danych. W praktyce, wiele aplikacji do zarządzania treścią (CMS) oraz platform e-commerce wykorzystuje FTP do aktualizacji plików i obrazów. Standardy branżowe, takie jak RFC 959, definiują zasady działania FTP, co czyni go niezawodnym narzędziem w zarządzaniu plikami w sieci. Dobrą praktyką jest również stosowanie FTPS (FTP Secure) lub SFTP (SSH File Transfer Protocol), które zapewniają dodatkowe zabezpieczenia w postaci szyfrowania przesyłanych danych, co jest istotne w kontekście ochrony danych wrażliwych.

Pytanie 10

Przedmiot widoczny na ilustracji to

Ilustracja do pytania
A. narzędzie uderzeniowe typu krone
B. miernik długości kabli
C. tester diodowy kabla UTP
D. złączarka wtyków RJ45
Tester diodowy przewodu UTP to narzędzie używane do sprawdzania poprawności połączeń kablowych w sieciach komputerowych. Jego główną funkcją jest identyfikacja błędów w połączeniach, takich jak przerwy, zwarcia czy odwrócenia par przewodów. Urządzenie to składa się z dwóch części: jednostki głównej i jednostki zdalnej. Po podłączeniu kabli UTP do portów, tester wysyła sygnał elektryczny przez przewody, a diody LED wskazują stan każdego z nich. W praktyce tester jest niezastąpiony przy instalacji i konserwacji sieci, ponieważ pozwala szybko zdiagnozować problemy związane z okablowaniem. Dobre praktyki branżowe zalecają regularne testowanie kabli sieciowych, co pomaga w utrzymaniu ich niezawodności. Warto również wspomnieć, że testery mogą różnić się zaawansowaniem – niektóre modele oferują dodatkowe funkcje, takie jak pomiar długości kabla czy identyfikacja uszkodzonych par. Użycie testera diodowego UTP jest zgodne ze standardami telekomunikacyjnymi, jak TIA/EIA, co gwarantuje zgodność z innymi urządzeniami sieciowymi.

Pytanie 11

Wartość koloru RGB(255, 170, 129) odpowiada zapisie

A. #81AAFF
B. #18FAAF
C. #FFAA81
D. #AA18FF
Wartości RGB(255, 170, 129) przekształcane na format heksadecymalny mogą wprowadzać w błąd, jeśli nie zrozumie się podstawowych zasad konwersji. Odpowiedzi takie jak #81AAFF, #18FAAF i #AA18FF nie tylko nie odpowiadają właściwej konwersji, ale także ukazują typowe błędy myślowe, które mogą wystąpić podczas próby przeliczenia wartości kolorów. Wartości w notacji heksadecymalnej są tworzone z zestawów dwóch cyfr, przy czym każda para odpowiada jednemu z komponentów RGB. Przykładowo, pierwsza para cyfr reprezentuje wartość czerwieni, druga zieleni, a trzecia niebieskiego. W przypadku wartości RGB(255, 170, 129), prawidłowe wartości heksadecymalne to FF dla czerwieni, AA dla zieleni i 81 dla niebieskiego. Błąd w konwersji może wynikać z pomieszania wartości lub ich nieprawidłowego odzwierciedlenia w formacie heksadecymalnym. Odpowiedzi #81AAFF i #18FAAF sugerują zamianę wartości RGB w sposób, który nie odzwierciedla ich rzeczywistych wartości, co jest istotnym błędem w procesie przetwarzania kolorów. W praktyce, mogą prowadzić do nieprawidłowego wyświetlania kolorów w aplikacjach webowych czy graficznych, co może negatywnie wpływać na estetykę projektu oraz jego funkcjonalność.

Pytanie 12

Wskaż interfejsy płyty głównej widoczne na rysunku.

Ilustracja do pytania
A. 1 x RJ45, 4 x USB 2.0, 1.1, 1 x eSATA, 1 x Line Out, 1 x Microfon In, 1 x DVI-A, 1 x HDMI
B. 1 x RJ45, 4 x USB 3.0, 1 x SATA, 1 x Line Out, 1 x Microfon In, 1 x DVI-I, 1 x DP
C. 1 x RJ45, 2 x USB 2.0, 2 x USB 3.0, 1 x eSATA, 1 x Line Out, 1 x Microfon In, 1 x DVI-I, 1 x HDMI
D. 1 x RJ45, 2 x USB 2.0, 2 x USB 3.0, 1 x eSATA, 1 x Line Out, 1 x Microfon In, 1 x DVI-D, 1 x HDMI
Patrząc na zestaw portów, łatwo się pomylić, bo producenci potrafią naprawdę mieszać oznaczenia. Jednak szczegóły są tu kluczowe. Częsty błąd to mylenie DVI-D z DVI-I. DVI-I, jak na zdjęciu, ma więcej pinów, bo obsługuje zarówno sygnał cyfrowy, jak i analogowy – to bardzo praktyczne rozwiązanie, zwłaszcza jeśli korzystasz z przejściówek lub starszych monitorów. DVI-D przesyła tylko sygnał cyfrowy, a DVI-A tylko analogowy i ten ostatni praktycznie już nie występuje w nowych płytach głównych. Często ludzie zakładają, że jeśli widzą port DVI, to zawsze jest to DVI-D, bo tak było w wielu laptopach czy starszych kartach graficznych, jednak na płytach głównych spotyka się głównie DVI-I dla uniwersalności. Kolejna sprawa to liczba i rodzaj portów USB – przeważnie na I/O panelu mamy zarówno porty USB 2.0, jak i 3.0 (te ostatnie są zwykle niebieskie), a nie tylko jeden typ. USB 3.0 to już właściwie standard do szybkich dysków czy pamięci flash, ale USB 2.0 nadal służy do myszy czy klawiatur. eSATA bywa mylony z portami SATA, które jednak znajdują się na płycie, a nie na tylnym panelu – eSATA pozwala podłączać szybkie zewnętrzne dyski twarde, nie jest jednak tak popularny jak USB. Port DP (DisplayPort) nie występuje na tej płycie, mimo że coraz częściej pojawia się w nowocześniejszych konstrukcjach, zwłaszcza do monitorów 4K czy pracy wielomonitorowej. Kolory złączy audio to często pomijany szczegół, ale warto pamiętać, że Line Out to zielony, a Microfon In różowy – zamiana tych portów prowadzi do braku dźwięku lub nieaktywnego mikrofonu, co bardzo często widzę u początkujących użytkowników. Ogólnie rzecz biorąc, typowym błędem jest nieuważne czytanie oznaczeń lub nieznajomość starszych standardów, ale praktyka w serwisie szybko uczy zwracać uwagę na takie detale. Branża idzie w stronę unifikacji portów (USB-C, Thunderbolt), jednak starsze standardy jak DVI-I i eSATA wciąż mają swoje miejsce, zwłaszcza gdy mówimy o sprzęcie do zastosowań specjalnych lub pracy serwisowej.

Pytanie 13

Które medium transmisyjne umożliwia izolację galwaniczną pomiędzy systemami przesyłu danych?

A. Światłowód
B. Przewód koncentryczny
C. Skrętka ekranowana
D. Skrętka nieekranowana
Światłowód jako medium transmisyjne zapewnia separację galwaniczną dzięki zastosowaniu zasadniczo różnych technologii przesyłania sygnału. W przeciwieństwie do przewodów miedzianych, które mogą prowadzić prąd elektryczny i są podatne na zakłócenia elektromagnetyczne, światłowody przesyłają informacje w postaci światła. To oznacza, że nie ma fizycznego połączenia elektrycznego pomiędzy nadajnikiem a odbiornikiem, co eliminuje ryzyko wystąpienia problemów związanych z różnicami potencjałów elektrycznych. Przykładem zastosowania światłowodów są sieci telekomunikacyjne, gdzie używane są do łączenia różnych lokalizacji, szczególnie w sytuacjach, gdzie wymagane są długie dystanse i duże prędkości transmisji danych. Standardy takie jak ITU-T G.652 definiują parametry techniczne dla światłowodów, co zapewnia ich niezawodność i kompatybilność w różnych aplikacjach. Dzięki temu, światłowody znajdują zastosowanie nie tylko w telekomunikacji, ale również w systemach monitoringu oraz w technologii łączności w centrach danych.

Pytanie 14

Jakiego typu dane są przesyłane przez interfejs komputera osobistego, jak pokazano na ilustracji?

Bit
startu
Bit
danych
Bit
danych
Bit
stopu
Bit
startu
Bit
danych
Bit
startu
Bit
danych
Bit
danych
Bit
stopu
Bit
startu
Bit
danych
Bit
stopu
A. Szeregowy asynchroniczny
B. Równoległy asynchroniczny
C. Równoległy synchroniczny
D. Szeregowy synchroniczny
Transmisja danych przez interfejs równoległy asynchroniczny wymaga przesyłania kilku bitów jednocześnie co jest realizowane za pomocą wielu linii sygnałowych W ten sposób dane są przesyłane szybciej niż w przypadku interfejsów szeregowych jednak wymaga to synchronizacji wszystkich linii co jest bardziej skomplikowane i kosztowne Podczas gdy ten typ transmisji był popularny w starszych drukarkach i innych urządzeniach peryferyjnych dzisiaj jest rzadziej stosowany ze względu na wysoki koszt opracowania i utrzymania Transmisja szeregowa synchroniczna różni się od asynchronicznej tym że wymaga synchronizacji zegara pomiędzy nadajnikiem a odbiornikiem Oznacza to że zarówno urządzenie przesyłające jak i odbierające muszą dokładnie zsynchronizować swoje zegary aby zagwarantować poprawność danych Choć zwiększa to skuteczność i szybkość transmisji wymaga to dodatkowych linii do przesyłania sygnału zegara co powoduje większe komplikacje w budowie urządzeń Przykładem może być SPI lub I2C które choć efektywne są bardziej skomplikowane niż transmisja szeregowa asynchroniczna Równoległa transmisja synchroniczna to najbardziej zaawansowany typ transmisji jednocześnie przesyłający wiele bitów z pełną synchronizacją zegara Umożliwia to błyskawiczne przesyłanie dużych ilości danych na krótkich dystansach jednak jej koszt zarówno w projektowaniu jak i produkcji jest znaczny co powoduje że jest rzadko stosowana w standardowych interfejsach komputerowych Te różne podejścia choć mają swoje zalety są często trudniejsze do implementacji i mniej praktyczne niż proste i szeroko stosowane interfejsy szeregowe asynchroniczne które oferują wystarczającą szybkość i niezawodność dla większości zastosowań

Pytanie 15

Pojemność pamięci 100 GiB odpowiada zapisowi

A. 100240000 KiB
B. 10240000 KiB
C. 102400 MiB
D. 12400 MiB
Pojemność 100 GiB to wartość zapisana w systemie binarnym, gdzie przedrostek „Gi” oznacza gibibajty, a nie gigabajty dziesiętne. Zgodnie ze standardem IEC 1 GiB = 1024 MiB, a 1 MiB = 1024 KiB. Dlatego żeby przeliczyć 100 GiB na MiB, trzeba pomnożyć 100 przez 1024. Otrzymujemy: 100 GiB × 1024 = 102400 MiB – dokładnie taka wartość pojawia się w poprawnej odpowiedzi. Kluczowe jest tu zrozumienie różnicy między przedrostkami binarnymi (Ki, Mi, Gi) a dziesiętnymi (k, M, G), bo w praktyce branżowej to bardzo często robi zamieszanie. W systemach operacyjnych, zwłaszcza Linux, narzędzia takie jak `df`, `lsblk`, `du` czy `free` często domyślnie pokazują wartości w KiB, MiB lub GiB, nawet jeśli w interfejsie graficznym producent dysku reklamuje pojemność w gigabajtach dziesiętnych (GB). Moim zdaniem warto od razu wyrobić sobie nawyk: jak widzisz literkę „i” w środku (MiB, GiB), to myślisz „mnożenie przez 1024”, a nie przez 1000. W praktyce administratora czy technika IT takie przeliczenia przydają się przy partycjonowaniu dysków, planowaniu przestrzeni na serwerach plików, konfiguracji maszyn wirtualnych czy tworzeniu backupów, gdzie trzeba dokładnie policzyć, ile miejsca realnie zajmą dane. Dobre praktyki mówią, żeby w dokumentacji technicznej i skryptach trzymać się notacji binarnej (KiB, MiB, GiB), bo jest jednoznaczna i zgodna ze standardami IEC 60027-2 i ISO/IEC 80000. Dzięki temu unikamy sytuacji, że ktoś spodziewa się „100 GB”, a w rzeczywistości dostaje trochę mniej lub więcej, bo ktoś inny liczył w innej jednostce. Poprawne zrozumienie tego zadania to tak naprawdę fundament pracy z pamięcią i przestrzenią dyskową w całej informatyce.

Pytanie 16

Który z wymienionych protokołów jest szyfrowanym protokołem do zdalnego dostępu?

A. POP3
B. SSH
C. telnet
D. TFTP
SSH, czyli Secure Shell, to taki fajny protokół, który daje nam możliwość bezpiecznej komunikacji między klientem a serwerem. Głównie wykorzystujemy go do zdalnego logowania i wydawania poleceń, ale co najważniejsze – robi to w sposób, który chroni nas przed różnymi atakami. Szyfruje dane, używając takich technik jak AES, co naprawdę pomaga utrzymać nasze informacje w tajemnicy. Z mojego doświadczenia, admini systemów często sięgają po SSH, by ogarniać serwery, czy to w chmurze, czy w lokalnych sieciach, co pozwala im działać bez obaw o wyciek danych. Również warto pamiętać o kluczach publicznych i prywatnych, bo to dodatkowo podnosi bezpieczeństwo. Tak więc, dzięki wszystkim tym właściwościom, SSH stał się takim standardem, jeśli chodzi o bezpieczny dostęp do systemów operacyjnych i różnych urządzeń sieciowych.

Pytanie 17

Jaki poziom macierzy RAID umożliwia równoległe zapisywanie danych na wielu dyskach działających jako jedno urządzenie?

A. RAID 1
B. RAID 0
C. RAID 3
D. RAID 2
RAID 0 to poziom macierzy, który łączy wiele dysków twardych w jeden logiczny wolumin, wykorzystując technikę stripingu. Oznacza to, że dane są dzielone na bloki, które są następnie rozdzielane równolegle na dostępne dyski. Taki sposób organizacji danych pozwala na zwiększenie wydajności, ponieważ operacje odczytu i zapisu mogą być wykonywane jednocześnie na kilku dyskach, co znacznie przyspiesza transfer danych. RAID 0 jest szczególnie przydatny w zastosowaniach wymagających dużej przepustowości, na przykład w edytowaniu wideo, grach komputerowych oraz w sytuacjach, w których kluczowa jest szybkość dostępu do danych. Należy jednak pamiętać, że RAID 0 nie oferuje żadnej redundancji: w przypadku awarii jednego z dysków dane przechowywane na wszystkich dyskach są nieodwracalnie utracone. Dlatego w zastosowaniach, gdzie bezpieczeństwo danych jest priorytetem, zaleca się stosowanie RAID-u z możliwością odzyskiwania, jak RAID 1 lub RAID 5.

Pytanie 18

Najmniejszy czas dostępu charakteryzuje się

A. pamięć cache procesora
B. dysk twardy
C. pamięć USB
D. pamięć RAM
Pamięć cache procesora jest najszybszym typem pamięci w komputerze, znajdującym się bezpośrednio w jej architekturze. Cache działa na zasadzie przechowywania najczęściej używanych danych oraz instrukcji, co znacząco przyspiesza proces dostępu do informacji w porównaniu do pamięci RAM i innych urządzeń magazynujących. Ze względu na swoją strukturę, cache jest zoptymalizowana pod kątem minimalizacji opóźnień w dostępie, co jest kluczowe dla wydajności przetwarzania danych. W kontekście wydajności komputerów, pamięć cache jest wykorzystywana do szybkiego ładowania danych w procesorze, co w praktyce oznacza, że operacje takie jak wykonywanie obliczeń matematycznych czy przetwarzanie dużych zbiorów danych odbywają się z minimalnym opóźnieniem. Przykładem zastosowania pamięci cache jest sytuacja, gdy komputer wykonuje powtarzające się obliczenia; wówczas procesor korzysta z danych przechowywanych w cache zamiast ponownie odwoływać się do pamięci RAM, co znacznie zwiększa efektywność obliczeń. Dobre praktyki w projektowaniu systemów komputerowych kładą duży nacisk na optymalizację wykorzystania pamięci cache, co przekłada się na wyższą wydajność aplikacji oraz lepsze doświadczenie użytkownika.

Pytanie 19

Na którym z domyślnych portów realizowana jest komunikacja protokołu ftp?

A. 80
B. 21
C. 23
D. 53
Odpowiedź 21 jest poprawna, ponieważ protokół FTP (File Transfer Protocol) standardowo wykorzystuje port 21 do nawiązywania połączeń. FTP jest jednym z najstarszych protokołów sieciowych, zaprojektowanym do przesyłania plików pomiędzy klientem a serwerem w architekturze klient-serwer. Port 21 służy do przesyłania komend i zarządzania połączeniem, podczas gdy dane są przesyłane przez port 20. W praktyce, FTP znajduje zastosowanie w wielu środowiskach, zarówno do przesyłania danych w małych projektach, jak i w dużych systemach serwerowych, gdzie wymagana jest regularna wymiana plików. Dobrą praktyką jest zabezpieczanie połączeń FTP przy użyciu protokołów, takich jak FTPS lub SFTP, które oferują szyfrowanie danych, chroniąc je przed nieautoryzowanym dostępem. Zrozumienie i umiejętność konfigurowania FTP jest kluczowe dla specjalistów IT, szczególnie w zakresie administracji systemami i zarządzania sieciami.

Pytanie 20

Jaki wynik działania którego z poleceń w systemie Windows jest zaprezentowany na rysunku?

Ilustracja do pytania
A. tracert www.wp.pl
B. netstat www.wp.pl
C. ping www.wp.pl
D. traceroute www.wp.pl
Polecenie tracert jest używane do śledzenia trasy pakietów sieciowych w sieciach komputerowych opartych na protokole IP. Działa poprzez wysyłanie pakietów z rosnącą wartością pola TTL (Time To Live), co pozwala na identyfikację każdego węzła na ścieżce od źródła do miejsca docelowego. Wynik polecenia zawiera listę ruterów, przez które przechodzą pakiety, wraz z czasami odpowiedzi. Dzięki temu można zdiagnozować miejsca, gdzie występują opóźnienia lub problemy w przesyłaniu pakietów. Jest to szczególnie przydatne w zarządzaniu siecią i rozwiązywaniu problemów z łącznością. Użycie tracert w diagnostyce sieci to dobra praktyka, gdyż pozwala na szybkie zlokalizowanie awarii w sieci. Warto zaznaczyć, że polecenie to działa inaczej w systemach Windows i Unix/Linux, gdzie często używa się traceroute. Znajomość różnic w implementacji może być istotna w pracy administratora sieci. Regularne monitorowanie trasy pakietów pozwala także na optymalizację ruchu sieciowego i zapewnienie jakości usług (QoS). Jest to standardowe narzędzie używane w wielu firmach do analizy i monitorowania stanu sieci.

Pytanie 21

Drukarka, która zapewnia zdjęcia o wysokiej jakości to drukarka

A. igłowa
B. termiczna
C. sublimacyjna
D. termotransferowa
Drukowanie wysokiej jakości fotografii wymaga technologii, która zapewnia doskonałą reprodukcję kolorów, detali oraz gładkość tonalną. Drukarki sublimacyjne są zaprojektowane do osiągania takich wyników dzięki procesowi sublimacji barwników, w którym barwnik w postaci stałej przechodzi w stan gazowy, a następnie wnika w powierzchnię nośnika, najczęściej papieru lub tkaniny. Efektem tego procesu są wydruki charakteryzujące się bardzo szeroką gamą kolorów i wysoką odpornością na blaknięcie. Technologia sublimacyjna jest powszechnie stosowana w profesjonalnym druku fotograficznym, na przykład w laboratoriach fotograficznych i podczas produkcji materiałów reklamowych. Wydruki sublimacyjne są również odporne na działanie wody, co czyni je idealnym wyborem dla aplikacji, gdzie trwałość i estetyka są kluczowe. Dodatkowo, technologia ta jest zgodna z normami branżowymi, co zapewnia wysoką jakość i spójność w procesie drukowania.

Pytanie 22

Aby dostęp do systemu Windows Serwer 2016 był możliwy dla 50 urządzeń, bez względu na liczbę użytkowników, należy w firmie zakupić licencję

A. Device CAL.
B. External Connection.
C. Public Domain.
D. User CAL.
W tym zadaniu kluczowe jest zrozumienie logiki licencjonowania Windows Server 2016, a nie samo odgadnięcie nazwy licencji. Microsoft rozdziela liczenie użytkowników i urządzeń, bo różne firmy mają różne modele pracy. Typowym błędem jest myślenie, że User CAL będzie zawsze lepszy, bo przecież „licencjonujemy ludzi”. To nie zawsze prawda. User CAL przypisuje się do konkretnej osoby i jest idealny tam, gdzie jeden użytkownik korzysta z wielu urządzeń, na przykład administrator systemu mający laptopa, komputer stacjonarny i zdalny dostęp z domu. W pytaniu chodzi jednak wyraźnie o 50 urządzeń, niezależnie od liczby użytkowników. To jest odwrotna sytuacja: jedno urządzenie może mieć wielu użytkowników, np. w systemie zmianowym albo w pracowni szkolnej. W takim wypadku User CAL powodowałby przepłacanie albo wręcz niezgodność z licencją, jeśli użytkowników jest więcej niż wykupionych CAL. Z kolei określenia typu Public Domain nie mają żadnego związku z licencjonowaniem Windows Server. Public domain dotyczy praw autorskich i oznacza utwory, które nie są chronione prawem autorskim, a nie komercyjnych produktów serwerowych Microsoftu. W praktyce używanie tego pojęcia przy licencjach serwerowych to kompletne nieporozumienie. Podobnie mylące jest hasło External Connection. Istnieje co prawda licencja External Connector, ale jej zastosowanie jest inne: dotyczy dostępu zewnętrznych użytkowników spoza organizacji (np. klienci, partnerzy), i jest rozliczana na serwer, a nie na konkretne urządzenie czy osobę. Nie rozwiązuje to więc problemu 50 urządzeń wewnątrz firmy. Częsty błąd polega na wrzucaniu wszystkich „jakichś tam licencji” do jednego worka, bez czytania dokładnych definicji. Dobre podejście to zawsze zadanie sobie pytania: co liczę – ludzi czy sprzęt, oraz czy mówimy o użytkownikach wewnętrznych czy zewnętrznych. Dopiero wtedy wybór między User CAL, Device CAL a ewentualnie External Connector zaczyna być logiczny i zgodny z dobrymi praktykami oraz dokumentacją Microsoftu.

Pytanie 23

Internet Relay Chat (IRC) to protokół wykorzystywany do

A. transmisji dźwięku w sieci
B. prowadzenia konwersacji w konsoli tekstowej
C. przesyłania listów do grup dyskusyjnych
D. przesyłania wiadomości e-mail
IRC, czyli Internet Relay Chat, to całkiem fajny protokół do czatowania w czasie rzeczywistym, używający konsoli tekstowej. W odróżnieniu od e-maila czy wiadomości głosowych, IRC skupia się na interaktywnych rozmowach w kanałach tematycznych, co naprawdę sprzyja dyskusjom i wspólnemu działaniu. Można go spotkać w różnych sytuacjach, na przykład zespoły programistyczne korzystają z niego do szybkiej wymiany pomysłów, a różne społeczności online organizują wydarzenia. Choć może się wydawać staroświecki, to ma nadal swoich zwolenników, bo jest prosty w obsłudze i nie potrzebuje zbyt dużo zasobów. Istnieją też standardy, takie jak RFC 1459, które mówią, jak to wszystko powinno działać, co sprawia, że różne klienty i serwery mogą ze sobą współpracować. Dzięki otwartym standardom, IRC jest elastycznym narzędziem, które można dostosować do wielu różnych zastosowań, zarówno w pracy, jak i w życiu osobistym.

Pytanie 24

Symbol umieszczony na obudowie komputera stacjonarnego informuje o zagrożeniu przed

Ilustracja do pytania
A. promieniowaniem niejonizującym
B. możliwym urazem mechanicznym
C. porażeniem prądem elektrycznym
D. możliwym zagrożeniem radiacyjnym
Symbol przedstawiony na obudowie komputera to powszechnie stosowany znak ostrzegawczy przed porażeniem prądem elektrycznym Składa się z żółtego trójkąta z czarną obwódką oraz czarną błyskawicą w środku Ten symbol informuje użytkownika o potencjalnym ryzyku związanym z kontaktem z nieosłoniętymi przewodami lub urządzeniami elektrycznymi mogącymi znajdować się pod niebezpiecznym napięciem Znak ten jest szeroko stosowany w różnych gałęziach przemysłu gdzie istnieje możliwość porażenia prądem szczególnie w miejscach o dużym natężeniu energii elektrycznej Przestrzeganie oznaczeń jest kluczowe dla zapewnienia bezpieczeństwa w miejscach pracy oraz w domach Zgodnie z międzynarodowymi normami i standardami takimi jak ISO 7010 czy ANSI Z535.4 stosowanie tego rodzaju symboli jest wymagane do informowania o zagrożeniach elektrycznych Praktyczne zastosowanie znaku obejmuje nie tylko sprzęt komputerowy ale także rozdzielnie elektryczne oraz inne urządzenia przemysłowe gdzie występuje ryzyko kontaktu z prądem Elektryczność mimo swoich korzyści stanowi poważne zagrożenie dla zdrowia i życia dlatego znajomość i rozumienie takich symboli jest kluczowe w codziennym użytkowaniu urządzeń elektrycznych i elektronicznych

Pytanie 25

Jakim akronimem oznacza się przenikanie bliskie skrętki teleinformatycznej?

A. FEXT
B. NEXT
C. ANEXT
D. AFEXT
Afekty takie jak ANEXT (Alien Near-End Crosstalk) i AFEXT (Alien Far-End Crosstalk) również dotyczą problemów z zakłóceniami sygnału, jednak odnoszą się do innych kontekstów. ANEXT dotyczy zakłóceń z innych kabli, które znajdują się w bliskim sąsiedztwie, co może wystąpić w instalacjach wielokablowych, gdzie wiele torów przesyłowych jest ułożonych blisko siebie. Z kolei AFEXT odnosi się do zakłóceń, które występują w punkcie końcowym kabla, a nie w jego bliskim sąsiedztwie. Wybierając jedną z tych odpowiedzi, można pomylić charakterystykę zakłóceń z innym typem przenikania sygnału, co prowadzi do nieprawidłowego zrozumienia tematu. Zrozumienie różnicy między tymi akronimami jest kluczowe dla inżynierów oraz techników zajmujących się projektowaniem i wdrażaniem sieci teleinformatycznych. Typowym błędem jest myślenie, że wszystkie rodzaje zakłóceń są sobie równe, podczas gdy każde z nich ma swoje własne źródło oraz wpływ na jakość sygnału. W praktyce, ignorowanie różnic między NEXT, ANEXT i AFEXT może prowadzić do niewłaściwego doboru sprzętu i technologii, co z kolei wpływa na stabilność i wydajność całej sieci.

Pytanie 26

ARP (Adress Resolution Protocol) jest protokołem, który umożliwia przekształcenie adresu IP na

A. nazwę domenową
B. adres sprzętowy
C. nazwę komputera
D. adres IPv6
Wybór odpowiedzi, która wskazuje na odwzorowanie adresu IP na nazwę domenową, nazwę komputera lub adres IPv6, może wynikać z nieporozumienia dotyczącego funkcji, jakie pełni protokół ARP. ARP nie jest wykorzystywany do tłumaczenia nazw domenowych na adresy IP; do tego celu wykorzystuje się protokół DNS (Domain Name System). DNS działa na wyższej warstwie modelu OSI i ma na celu umożliwienie użytkownikom korzystania z przyjaznych nazw zamiast trudnych do zapamiętania adresów IP. Odnosząc się do konceptu nazw komputerów, warto zauważyć, że są one również rozwiązywane przez DNS, a nie przez ARP, który skupia się wyłącznie na odwzorowywaniu adresów IP na adresy sprzętowe. Co więcej, adres IPv6, będący następcom IPv4, wymaga innego podejścia i nie jest bezpośrednio związany z ARP. Dla IPv6 istnieje protokół NDP (Neighbor Discovery Protocol), który pełni podobną rolę, ale w kontekście nowego adresowania. Typowym błędem jest zatem mylenie różnych protokołów i ich funkcji, co prowadzi do nieprawidłowych wniosków o zastosowaniach ARP. Dobrze zrozumiane różnice między tymi protokołami są kluczowe dla efektywnego zarządzania sieciami komputerowymi oraz zapewnienia ich bezpieczeństwa.

Pytanie 27

Jakie czynniki nie powodują utraty danych z dysku twardego HDD?

A. Uszkodzenie talerzy dysku
B. Wyzerowanie partycji dysku
C. Utworzona macierz RAID 5
D. Mechaniczne zniszczenie dysku
Utworzona macierz dyskowa RAID 5 jest rozwiązaniem, które zwiększa bezpieczeństwo danych oraz zapewnia ich dostępność poprzez zastosowanie technologii stripingu i parzystości. W przypadku RAID 5, dane są rozdzielane na kilka dysków, a dodatkowo tworzona jest informacja o parzystości, co pozwala na odbudowę danych w przypadku awarii jednego z dysków. Dzięki temu, nawet jeśli jeden z talerzy dysku HDD ulegnie uszkodzeniu, dane nadal pozostają dostępne na pozostałych dyskach macierzy. Zastosowanie RAID 5 w środowiskach serwerowych jest powszechne, ponieważ zapewnia równocześnie szybszy dostęp do danych oraz ich redundancję. W praktyce pozwala to na ciągłe działanie systemów bez ryzyka utraty danych, co jest kluczowe w przypadku krytycznych aplikacji. Standardy takie jak TIA-942 dla infrastruktury centrów danych i inne rekomendacje branżowe podkreślają znaczenie implementacji macierzy RAID dla zapewnienia niezawodności przechowywania danych. Z tego powodu, dobrze zaplanowana konfiguracja RAID 5 stanowi istotny element strategii ochrony danych w nowoczesnych systemach informatycznych.

Pytanie 28

Który model pamięci RAM, można umieścić na płycie, której fragment specyfikacji przedstawiono na ilustracji?

Pamięć
Obsługiwana pamięćDDR4
Rodzaj obsługiwanej pamięciDIMM (do PC)
Typ obsługiwanej pamięciDDR4-2133 (PC4-17000)
DDR4-2400 (PC4-19200)
DDR4-2666 (PC4-21300)
DDR4-2800 (PC4-22400)
DDR4-3200 (PC4-25600)
Typ obsługiwanej pamięci OCDDR4-3466 (PC4-27700)
DDR4-3600 (PC4-28800)
DDR4-3866 (PC4-30900)
DDR4-4000 (PC4-32000)
DDR4-4133 (PC4-33000)
DDR4-4400 (PC4-35200)
DDR4-4600 (PC4-36800)
Dwukanałowa obsługa pamięcitak
Ilość gniazd pamięci4 szt.
Maks. pojemność pamięci128 GB
A. 2x16GB 3200MHz DDR4 CL16 SODIMM
B. 2x16GB 3200MHz DDR4 CL16 DIMM
C. 1x16GB 1600MHz DDR3 CL11 SODIMM
D. 1x16GB 5200MHz DDR5 CL40 DIMM
Wybrany moduł 2x16GB 3200MHz DDR4 CL16 DIMM idealnie pasuje do specyfikacji płyty głównej pokazanej w tabeli. Po pierwsze zgadza się generacja pamięci – płyta obsługuje tylko DDR4, a nie DDR3 ani DDR5. To jest kluczowe, bo moduły różnych generacji mają inne napięcia, inną liczbę wycięć w złączu i po prostu fizycznie nie wejdą do gniazda albo nie wystartują poprawnie. Po drugie, rodzaj modułu: w specyfikacji jest wyraźnie napisane DIMM (do PC), czyli pełnowymiarowe kości do komputerów stacjonarnych. Twój wybór to właśnie DIMM, a nie SODIMM, które stosuje się w laptopach i mini komputerach. Trzecia rzecz to taktowanie. Płyta obsługuje m.in. DDR4-3200 (PC4-25600) jako standardowy typ pamięci, więc moduły 3200 MHz będą działały w pełni zgodnie ze specyfikacją, bez kombinowania z overclockingiem. Co więcej, dwa moduły po 16 GB dobrze wykorzystują dwukanałową (dual channel) obsługę pamięci – płyta ma 4 sloty i tryb dual channel, więc para identycznych kości pracuje szybciej niż jedna o tej samej pojemności. To jest realna różnica np. w grach, programach graficznych czy maszynach wirtualnych. Opóźnienie CL16 przy DDR4-3200 to też całkiem sensowny, typowy parametr – nie jest to żadne ekstremalne OC, a stabilne, dobrze wspierane przez większość płyt i kontrolerów pamięci w procesorach. Z mojego doświadczenia w składaniu komputerów do pracy i grania, konfiguracja 2x16 GB DDR4-3200 CL16 to taki bardzo rozsądny złoty środek: duża pojemność, dobra przepustowość, przy zachowaniu kompatybilności i stabilności. Dodatkowo płyta obsługuje maksymalnie 128 GB, więc 32 GB w tej konfiguracji jest daleko od limitu i daje spory zapas na przyszłość. To wszystko razem oznacza, że ta odpowiedź nie tylko jest formalnie zgodna ze specyfikacją, ale też praktycznie optymalna dla typowego PC.

Pytanie 29

Jaką cechę posiada przełącznik w sieci?

A. Z przesyłanych pakietów pobiera docelowe adresy IP
B. Korzysta z protokołu EIGRP
C. Z odebranych ramek wydobywa adresy MAC
D. Działa na fragmentach danych określanych jako segmenty
Wybór odpowiedzi, która sugeruje, że przełącznik sieciowy używa protokołu EIGRP, wskazuje na nieporozumienie dotyczące roli różnych urządzeń w architekturze sieci. EIGRP (Enhanced Interior Gateway Routing Protocol) jest protokołem routingu używanym w routerach do wymiany informacji o trasach w sieciach rozległych (WAN). Przełączniki natomiast operują na warstwie drugiej modelu OSI, skupiając się głównie na adresach MAC i lokalnym przesyłaniu danych. Z kolei odpowiedź dotycząca operowania na segmentach danych myli rolę przełącznika z funkcją routera, który zajmuje się przekazywaniem pakietów na podstawie adresów IP, co jest zarezerwowane dla innej warstwy modelu OSI (warstwa trzecia). Zrozumienie tej różnicy jest kluczowe, ponieważ przełączniki nie analizują adresów IP ani nie podejmują decyzji na ich podstawie. Na końcu, wybór dotyczący odczytywania docelowych adresów IP z przesyłanych pakietów jest typowym błędem myślowym, który wynika z mylenia operacji przełączania z routowaniem. Aby skutecznie projektować i zarządzać sieciami, istotne jest, aby rozumieć, które urządzenia operują na jakich warstwach oraz jakie są ich funkcje i protokoły, z których korzystają. Ta wiedza jest kluczowa w kontekście projektowania infrastruktury sieciowej oraz zapewnienia jej prawidłowego funkcjonowania.

Pytanie 30

Jaką operację należy wykonać, aby chronić dane przesyłane w sieci przed działaniem sniffera?

A. zmiana hasła konta użytkownika
B. użycie antydialera
C. przeskanowanie systemu programem antywirusowym
D. szyfrowanie danych w sieci
Wiele osób może sugerować, że zmiana hasła użytkownika jest kluczowa w kontekście zabezpieczania danych przesyłanych w sieci. Choć aktualizacja haseł jest istotnym aspektem bezpieczeństwa, sama w sobie nie chroni przed przechwytywaniem danych przez snifferów. Sniffery działają na poziomie sieci, monitorując ruch, który nie jest szyfrowany, niezależnie od tego, jak silne jest hasło. Również skanowanie programem antywirusowym, choć ważne dla wykrywania złośliwego oprogramowania, nie ma wpływu na dane przesyłane w sieci. Sniffery mogą ewidentnie przechwytywać dane, nawet jeśli system końcowy jest zabezpieczony przed wirusami. Korzystanie z antydialera dotyczy głównie ochrony przed nieautoryzowanymi połączeniami na poziomie telefonu stacjonarnego lub mobilnego, co w kontekście do przesyłania danych w sieci jest praktycznie nieistotne. Kluczowym błędem myślowym jest przekonanie, że zmiana hasła lub stosowanie programów antywirusowych wystarczy, aby zabezpieczyć przesyłane informacje. Bez szyfrowania, dane w ruchu mogą być łatwo przechwycone i zinterpretowane przez osoby trzecie, co prowadzi do poważnych naruszeń prywatności i bezpieczeństwa. W erze cyfrowej, w której danych przesyłanych przez sieć jest coraz więcej, stosowanie odpowiednich protokołów szyfrowania, takich jak SSL/TLS, jest niezbędne dla zapewnienia poufności i integralności danych.

Pytanie 31

Aby zweryfikować schemat połączeń kabla UTP Cat 5e w sieci lokalnej, należy zastosować

A. reflektometr optyczny OTDR
B. testera okablowania
C. analizatora protokołów sieciowych
D. reflektometr kablowy TDR
Tester okablowania jest narzędziem służącym do sprawdzania poprawności podłączeń kabli sieciowych, w tym kabla UTP Cat 5e. Działa na zasadzie pomiaru ciągłości przewodów, identyfikacji biegunów oraz pomiaru parametrów elektrycznych, takich jak tłumienie, impedancja czy przesłuch. Dzięki testerom okablowania można szybko zlokalizować błędy, takie jak zwarcia, przerwy w przewodach czy niewłaściwe podłączenia. W praktyce, zastosowanie testera okablowania jest kluczowe podczas instalacji i konserwacji sieci komputerowych, zapewniając, że każde połączenie jest zgodne z normami, takimi jak TIA/EIA-568. W przypadku sieci UTP Cat 5e, tester pozwala również na weryfikację, czy kabel spełnia wymagania dotyczące przepustowości do 1 Gbps oraz zapewnia odpowiednią jakość sygnału na odległości do 100 metrów. Dobrą praktyką jest przeprowadzanie testów po zakończeniu instalacji oraz okresowe sprawdzanie stanu kabli, co umożliwia wczesne wykrywanie potencjalnych problemów.

Pytanie 32

W celu zainstalowania systemu openSUSE oraz dostosowania jego ustawień, można skorzystać z narzędzia

A. YaST
B. Evolution
C. GEdit
D. Brasero
YaST (Yet another Setup Tool) to potężne narzędzie konfiguracyjne, które jest integralną częścią dystrybucji openSUSE. Jego główną funkcją jest umożliwienie użytkownikom zarówno instalacji systemu operacyjnego, jak i zarządzania jego ustawieniami po instalacji. YaST oferuje graficzny interfejs użytkownika oraz tryb tekstowy, co czyni go dostępnym zarówno dla początkujących, jak i zaawansowanych użytkowników. Dzięki YaST można łatwo zarządzać pakietami oprogramowania, konfigurować urządzenia sieciowe, ustawiać zasady bezpieczeństwa, a także administracyjnie zarządzać użytkownikami systemu. Na przykład, podczas instalacji openSUSE, YaST prowadzi użytkownika przez poszczególne etapy procesu, takie jak wybór języka, partycjonowanie dysków oraz wybór środowiska graficznego. To narzędzie jest zgodne z najlepszymi praktykami w dziedzinie zarządzania systemami, umożliwiając efektywne i zorganizowane podejście do administracji systemem operacyjnym.

Pytanie 33

Jakie protokoły są używane w komunikacji między hostem a serwerem WWW po wpisaniu URL w przeglądarkę internetową hosta?

A. FTP, UDP, IP
B. HTTP, UDP, IP
C. HTTP, ICMP, IP
D. HTTP, TCP, IP
Odpowiedź HTTP, TCP, IP jest prawidłowa, ponieważ te protokoły są kluczowymi elementami komunikacji między hostem a serwerem WWW. HTTP (Hypertext Transfer Protocol) to protokół aplikacji, który definiuje zasady przesyłania danych przez sieć. Umożliwia on przeglądarkom internetowym żądanie zasobów z serwerów WWW, takich jak strony internetowe, obrazy czy pliki. TCP (Transmission Control Protocol) działa na poziomie transportowym, zapewniając niezawodną komunikację poprzez segmentację danych, kontrolę przepływu oraz zapewnienie, że wszystkie pakiety dotrą do miejsca przeznaczenia w odpowiedniej kolejności. IP (Internet Protocol) to protokół sieciowy odpowiedzialny za adresowanie i przesyłanie pakietów w sieci. W praktyce, gdy użytkownik wpisuje adres URL w przeglądarce, przeglądarka wysyła żądanie HTTP do serwera, wykorzystując TCP do zarządzania sesją komunikacyjną, a IP do przesyłania danych przez różne sieci. Zrozumienie tych protokołów jest niezbędne dla każdego, kto pracuje w obszarze technologii internetowych, ponieważ ich efektywne wykorzystanie jest podstawą działania aplikacji webowych oraz usług internetowych.

Pytanie 34

Strategia zapisywania kopii zapasowych ukazana na diagramie określana jest mianem

Day12345678910111213141516
Media SetAAAAAAAA
BBBB
CCC
E
A. dziadek-ojciec-syn
B. uproszczony GFS
C. round-robin
D. wieża Hanoi
Strategia zapisu kopii zapasowych znana jako wieża Hanoi jest metodą stosowaną głównie w celu zapewnienia skuteczności i długowieczności danych kopii. Ta strategia opiera się na matematycznym problemie wieży Hanoi, w którym krążki są przenoszone pomiędzy trzema słupkami, przestrzegając określonych reguł. W kontekście kopii zapasowych, metoda ta polega na rotacyjnym użyciu nośników w sposób optymalizujący różnorodność danych dostępnych przy odzyskiwaniu. Korzystając z kilku zestawów nośników, jak pokazano na diagramie, dane są przechowywane w taki sposób, że nawet po dłuższym czasie możliwe jest przywrócenie stanu systemu z różnych punktów w przeszłości. Praktyczne zastosowanie tej metody jest powszechne w organizacjach, które wymagają wysokiego poziomu niezawodności i długoterminowego przechowywania danych. Poprawne użycie wieży Hanoi pozwala na ograniczenie zużycia nośników jednocześnie maksymalizując dostępność historycznych danych. Metodę tę można zastosować nie tylko do przechowywania danych, ale także do optymalizacji kosztów związanych z utrzymaniem dużych ilości danych, stanowiąc istotny element strategii IT zgodny z najlepszymi praktykami branżowymi.

Pytanie 35

Czym jest OTDR?

A. spawarka.
B. reflektometr.
C. tester kabli miedzianych.
D. urządzenie światłowodowe dla przełącznika.
W odpowiedziach, które wskazały inne urządzenia, występują istotne nieporozumienia dotyczące funkcji i zastosowań technologii w obszarze telekomunikacji. Spawarka, jako narzędzie, służy do łączenia włókien optycznych poprzez ich topienie, co jest niezbędne w procesie instalacji, ale nie ma zdolności do diagnostyki czy pomiaru strat sygnału. Użytkownicy mogą mylić spawarkę z OTDR, myśląc, że oba urządzenia pełnią podobne role, co jest nieprawdziwe, ponieważ spawarka nie wykrywa problemów ani nie dostarcza informacji o stanie linii. Kolejną niepoprawną odpowiedzią jest tester okablowania miedzianego, który jest przeznaczony wyłącznie do analizy kabli miedzianych, a więc nie dotyczy technologii światłowodowej. Wybór tego urządzenia w kontekście OTDR pokazuje brak zrozumienia różnic między różnymi rodzajami okablowania. Wreszcie przystawka światłowodowa do przełącznika nie jest instrumentem pomiarowym; jej funkcja polega na łączeniu urządzeń w sieci, a nie na diagnostyce. Te błędne odpowiedzi wskazują na typowe pomyłki związane z mieszaniem funkcji różnych narzędzi i technologii w systemach telekomunikacyjnych, co może prowadzić do niewłaściwych decyzji w zakresie zarządzania sieciami.

Pytanie 36

RAMDAC konwerter przekształca sygnał

A. cyfrowy na analogowy
B. analogowy na cyfrowy
C. stały na zmienny
D. zmienny na stały
Wszystkie błędne odpowiedzi dotyczące konwertera RAMDAC opierają się na nieporozumieniach związanych z jego funkcją i zastosowaniem. Odpowiedź sugerująca, że RAMDAC przetwarza sygnał analogowy na cyfrowy, jest błędna, ponieważ konwertery działają w przeciwnym kierunku. Proces konwersji z analogowego na cyfrowy wykonuje się z wykorzystaniem analogowo-cyfrowych konwerterów (ADC), które są zaprojektowane do uchwytywania sygnałów analogowych i przekształcania ich na format cyfrowy, co jest niezbędne w sytuacjach, kiedy analogowe dane z czujników muszą być wprowadzone do systemów komputerowych. Przykładami tego są mikrofony, które przetwarzają fale dźwiękowe na sygnały cyfrowe. Odpowiedź wskazująca na konwersję sygnałów stałych na zmienne jest również myląca, ponieważ RAMDAC nie jest odpowiedzialny za tę transformację. Sygnały stałe i zmienne są pojęciami, które odnoszą się do natury sygnałów, a nie do rodzaju konwersji, jaką wykonuje RAMDAC. Konwertery są projektowane z myślą o specyficznych zastosowaniach, a RAMDAC jest ściśle związany z procesem wyświetlania. Sygnał zmienny na stały również nie jest odpowiednią odpowiedzią, ponieważ odnosi się do przetwarzania, które nie jest typowe dla konwerterów stosowanych w systemach graficznych. W rezultacie, zrozumienie, jak działa RAMDAC i jakie są jego rzeczywiste funkcje, jest kluczowe dla prawidłowej interpretacji technologii przetwarzania sygnałów w systemach komputerowych.

Pytanie 37

Urządzeniem wykorzystywanym do formowania kształtów oraz grawerowania m.in. w materiałach drewnianych, szklanych i metalowych jest ploter

A. laserowy
B. tnący
C. bębnowy
D. solwentowy
Odpowiedzi związane z ploterami solwentowymi, tnącymi i bębnowymi są nieprawidłowe, ponieważ dotyczą zupełnie innych technologii i zastosowań. Plotery solwentowe są wykorzystywane głównie w druku wielkoformatowym, gdzie stosuje się atramenty na bazie rozpuszczalników, aby uzyskać wysokiej jakości wydruki na różnych podłożach, takich jak banery czy folie. Ich głównym celem jest reprodukcja obrazu, a nie precyzyjne wycinanie czy grawerowanie kształtów. Natomiast plotery tnące specjalizują się w wycinaniu z materiałów, takich jak folia samoprzylepna czy papier, jednak nie wykorzystują technologii laserowej, co ogranicza ich możliwości w zakresie grawerowania. Z kolei plotery bębnowe, które najczęściej są stosowane w zastosowaniach takich jak skanowanie i kopiowanie, nie są projektowane do wycinania czy grawerowania, przez co są nieodpowiednie do zadań wymagających dużej precyzji i detaliczności, jakie oferują plotery laserowe. Typowe błędy myślowe prowadzące do takich niepoprawnych wniosków to mylenie funkcji urządzeń oraz niewłaściwe przypisanie ich zastosowań w kontekście wycinania i grawerowania, co może prowadzić do nieefektywnego wykorzystania technologii oraz błędnych decyzji w procesie produkcji.

Pytanie 38

Jakie oprogramowanie chroni komputer przed niechcianym softwarem pochodzącym z sieci?

A. Protokół HTTPS
B. Protokół SSL
C. Program antywirusowy
D. Program sniffer
Protokół SSL (Secure Sockets Layer) jest technologią zabezpieczającą komunikację w Internecie, ale nie jest to narzędzie do ochrony komputera przed złośliwym oprogramowaniem. SSL szyfruje dane przesyłane między przeglądarką a serwerem, co zabezpiecza informacje, takie jak hasła czy dane osobowe przed przechwyceniem. Jednakże, nie chroni on przed wirusami ani innymi zagrożeniami, które mogą być dostarczane na komputer w formie plików lub aplikacji. Program sniffer to narzędzie używane do monitorowania i analizy ruchu sieciowego, które może być wykorzystane zarówno do legalnych, jak i nielegalnych celów. Sniffer nie ma na celu ochrony przed złośliwym oprogramowaniem; zamiast tego, może nawet ułatwiać ataki na systemy, gdyż pozwala na zbieranie danych o przesyłanym ruchu. Protokół HTTPS (Hypertext Transfer Protocol Secure) to rozszerzenie HTTP, które wykorzystuje SSL do zabezpieczania komunikacji, ale, podobnie jak SSL, nie zabezpiecza lokalnego systemu przed wirusami. Korzystanie z HTTPS zapewnia pewność, że dane są szyfrowane podczas przesyłania, ale nie zapobiega przed infekcją złośliwym oprogramowaniem, gdyż nie kontroluje, co dzieje się na komputerze użytkownika. Dlatego kluczowe jest stosowanie programów antywirusowych jako podstawowego elementu zabezpieczającego przed zagrożeniami z Internetu.

Pytanie 39

W dokumentacji powykonawczej dotyczącej fizycznej i logicznej struktury sieci lokalnej powinien znajdować się

A. schemat sieci z wyznaczonymi punktami dystrybucji i gniazdami
B. wstępny kosztorys materiałów oraz robocizny
C. harmonogram prac realizacyjnych
D. umowa pomiędzy zlecającym a wykonawcą
Harmonogram prac wykonawczych, umowa zlecającego pracę z wykonawcą oraz wstępny kosztorys materiałów i robocizny to istotne dokumenty w kontekście realizacji projektu budowy sieci lokalnej, ale nie są one częścią dokumentacji powykonawczej dotyczącej fizycznej i logicznej struktury sieci. Harmonogram prac ma na celu określenie czasu realizacji poszczególnych etapów projektu, co jest ważne dla zarządzania projektem, lecz nie dostarcza informacji o infrastrukturze sieci. Umowa zlecającego z wykonawcą jest kluczowym dokumentem dotyczących zasad współpracy, jednak nie odnosi się bezpośrednio do struktury samej sieci ani jej funkcjonalności. Wstępny kosztorys jest użyteczny w planowaniu budżetu, ale nie ma związku z układem i organizacją elementów sieciowych. Typowym błędem myślowym jest przekonanie, że dokumenty administracyjne są równoważne z dokumentacją techniczną. W rzeczywistości, skuteczna dokumentacja powykonawcza musi zawierać szczegółowe schematy oraz opisy układu i konfiguracji komponentów sieciowych, co jest niezbędne do zapewnienia jej sprawności i przyszłej rozbudowy. Zrozumienie tej różnicy jest kluczowe dla każdego, kto pracuje w branży IT i zajmuje się projektowaniem oraz wdrażaniem sieci lokalnych.

Pytanie 40

W protokole IPv4 adres broadcastowy, zapisany w formacie binarnym, bez podziału na podsieci, w sekcji przeznaczonej dla hosta zawiera

A. tylko zera
B. wyłącznie jedynki
C. naprzemiennie jedynki oraz zera
D. sekwencję zer z jedynką na końcu
Adres broadcast w IPv4 służy do wysyłania informacji do wszystkich urządzeń w danej podsieci. Wiesz, jak to działa? W części adresu przeznaczonej dla hosta zawsze mamy same jedynki, co pokazuje, że wszystkie bity są na '1'. Na przykład, gdy mamy adres 192.168.1.255, to zapiszemy go w binarnie jako 11000000.10101000.00000001.11111111. Zauważ, że ostatni oktet to właśnie 255, czyli same jedynki. W praktyce wykorzystujemy adresy broadcast, gdy chcemy, żeby wszystkie urządzenia w lokalnej sieci dostały jakieś dane. Dobrym przykładem jest protokół ARP, który używa adresu broadcast, żeby znaleźć adresy MAC wszystkich urządzeń w sieci. Adresy broadcast są mega ważne dla tego, żeby sieci lokalne działały sprawnie.