Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 3 kwietnia 2026 11:29
  • Data zakończenia: 3 kwietnia 2026 11:39

Egzamin zdany!

Wynik: 39/40 punktów (97,5%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Na zdjęciu widoczny jest

Ilustracja do pytania
A. zaciskarka do wtyków.
B. tester kablowy.
C. zaciskarkę wtyków RJ45
D. reflektor.
Reflektometr jest narzędziem wykorzystywanym do pomiarów w telekomunikacji, służy do wykrywania nieciągłości i lokalizowania uszkodzeń w kablach światłowodowych i miedzianych. Tester sieciowy to urządzenie używane do sprawdzania poprawności działania sieci komputerowej, diagnozowania problemów z połączeniami, wykrywania błędów w przesyle danych, co jest kluczowe dla utrzymania ciągłości pracy sieci. Tester ten może być również stosowany do testowania kabli, ale nie ma funkcji zaciskania wtyków. Zaciskarka do tulejek to narzędzie, które służy do montażu końcówek na przewodach elektrycznych, często wykorzystywane przy budowie rozdzielni elektrycznych lub instalacji przemysłowych, jednak nie jest stosowana w kontekście okablowania sieciowego. Błędne przypisanie funkcji tych narzędzi często wynika z podobieństw w ich konstrukcjach mechanicznych, jednak ich zastosowania są zupełnie różne. W przypadku reflektometru, funkcje są bardziej związane z diagnostyką, natomiast tester sieciowy koncentruje się na analizie poprawności połączeń sieciowych. Zaciskarka do tulejek natomiast nie ma zastosowania w dziedzinie sieci komputerowych, co jest kluczowym rozróżnieniem w kontekście pytania o narzędzia sieciowe. Zrozumienie tych różnic jest niezbędne dla efektywnego planowania i realizacji projektów telekomunikacyjnych i sieciowych, gdzie dobór odpowiednich narzędzi wpływa na jakość i niezawodność instalacji. Dlatego ważne jest, aby każdy profesjonalista w dziedzinie IT i telekomunikacji był świadomy specyfiki i zastosowań różnych narzędzi, co pozwala na skuteczniejsze i bardziej precyzyjne działanie w środowisku pracy. Tylko poprzez dokładne zrozumienie funkcji i zastosowań każdego z tych narzędzi można osiągnąć optymalne rezultaty w pracy z systemami sieciowymi i telekomunikacyjnymi.

Pytanie 2

W przypadku adresacji IPv6, zastosowanie podwójnego dwukropka służy do

A. wielokrotnego zastąpienia różnych bloków zer oddzielonych blokiem jedynek
B. jednorazowego zamienienia jednego bloku jedynek
C. wielokrotnego zastąpienia różnych bloków jedynek
D. jednorazowego zamienienia jednego lub kolejno położonych bloków wyłącznie z zer
Podwójny dwukropek (::) w adresacji IPv6 służy do jednorazowego zastąpienia jednego lub więcej bloków złożonych wyłącznie z zer. To pozwala na uproszczenie i skrócenie zapisu adresów, co jest szczególnie istotne w przypadku długich adresów IPv6. Przykładowo, adres 2001:0db8:0000:0000:0000:0000:0000:0001 może być zapisany jako 2001:db8::1, co znacznie ułatwia jego odczyt i wprowadzanie. Podwójny dwukropek może zostać użyty tylko raz w jednym adresie, aby uniknąć niejasności co do liczby zer. Przy planowaniu sieci IPv6, właściwe wykorzystanie podwójnego dwukropka może przyczynić się do czytelności dokumentacji oraz ułatwienia zarządzania adresami. Warto również zwrócić uwagę, że RFC 5952 dostarcza wskazówek dotyczących formatu adresów IPv6, co jest dobrą praktyką w branży sieciowej.

Pytanie 3

Jakie urządzenie powinno być zainstalowane w serwerze, aby umożliwić automatyczne archiwizowanie danych na taśmach magnetycznych?

A. Blue Ray
B. Streamer
C. Napęd DVD
D. Dysk SSD
Streamer to urządzenie, które służy do archiwizacji danych na taśmach magnetycznych. Jest on w stanie przechowywać duże ilości danych, co czyni go idealnym rozwiązaniem dla organizacji potrzebujących długoterminowego przechowywania informacji. Streamery wykorzystują taśmy magnetyczne jako nośnik danych, co pozwala na efektywne zarządzanie przestrzenią dyskową oraz obniżenie kosztów przechowywania w porównaniu do tradycyjnych dysków twardych. W praktyce, streamer jest często używany w centrach danych oraz przez firmy zajmujące się backupem, gdzie wymagana jest niezawodność oraz możliwość archiwizacji ogromnych ilości danych. Zgodnie z najlepszymi praktykami branżowymi, regularne archiwizowanie danych na taśmach magnetycznych pomaga w ochronie przed ich utratą oraz umożliwia łatwy dostęp do historycznych wersji danych, co jest kluczowe w przypadku audytów czy przepisów prawnych dotyczących przechowywania danych.

Pytanie 4

Do wyświetlenia daty w systemie Linux można wykorzystać polecenie

A. joe
B. cal
C. awk
D. irc
Polecenie „cal” w systemach Linux i Unix to bardzo przydatne narzędzie, które pozwala szybko wyświetlić kalendarz na dany miesiąc, rok, a nawet całe stulecie. To fajna sprawa, bo często w pracy administratora czy po prostu w codziennym korzystaniu z terminala, czasem trzeba coś sprawdzić bez odpalania graficznego kalendarza. Wpisujesz „cal” i od razu masz przed oczami czytelny kalendarz na bieżący miesiąc. Możesz też wywołać np. „cal 2024”, żeby zobaczyć cały rok, co bywa przydatne przy planowaniu zadań cron czy nawet po prostu do orientacji. Według mnie to jedno z tych narzędzi, które są niedoceniane przez początkujących użytkowników Linuksa, bo często nie wiedzą, że takie możliwości są już wbudowane w system. Warto pamiętać, że „cal” nie wyświetla bieżącej daty w sensie aktualnej godziny, ale daje szybki wgląd w strukturę miesięcy i dni tygodnia, co według mnie jest bardzo praktyczne. W środowisku profesjonalnym, przy pracy z serwerami, korzystanie z „cal” jest standardową dobrą praktyką, bo pozwala uniknąć błędów przy planowaniu cyklicznych zadań, np. przez crontaba. Często sam używam tego narzędzia podczas pisania skryptów administracyjnych, bo jest szybkie i niezawodne. Warto dodać, że jego składnia jest bardzo prosta i intuicyjna, więc praktycznie każdy może się go szybko nauczyć.

Pytanie 5

Która edycja systemu operacyjnego Windows Server 2008 charakteryzuje się najuboższym interfejsem graficznym?

A. Datacenter
B. Standard Edition
C. Enterprise
D. Server Core
Server Core to minimalna wersja systemu operacyjnego Windows Server 2008, która oferuje znacznie ograniczony interfejs graficzny w porównaniu do innych edycji, takich jak Standard Edition, Enterprise czy Datacenter. Została zaprojektowana z myślą o maksymalnej wydajności i bezpieczeństwie, eliminując zbędne komponenty graficzne i funkcje interfejsu użytkownika, co pozwala na zmniejszenie powierzchni ataku oraz minimalizację zużycia zasobów systemowych. Dzięki temu Administratorzy mogą skoncentrować się na zarządzaniu serwerem za pomocą poleceń PowerShell oraz zdalnych narzędzi administracyjnych, co jest zgodne z nowoczesnymi praktykami w zakresie zarządzania serwerami. Przykładowe zastosowanie Server Core znajduje się w kontekście serwerów webowych, baz danych czy aplikacji wysokodostępnych, gdzie maksymalna stabilność i wydajność są kluczowe. Dobrą praktyką jest również stosowanie tego trybu w środowiskach wirtualnych, gdzie ograniczenie zasobów jest istotne dla efektywności operacyjnej.

Pytanie 6

Jaka jest nominalna moc wyjściowa (ciągła) zasilacza o parametrach zapisanych w tabeli?

Napięcie wyjściowe+5 V+3.3 V+12 V1+12 V2-12 V+5 VSB
Prąd wyjściowy18,0 A22,0 A18,0 A17,0 A0,3 A2,5 A
Moc wyjściowa120 W336W3,6 W12,5 W
A. 576,0 W
B. 336,0 W
C. 472,1 W
D. 456,0 W
Odpowiedź 472,1 W jest prawidłowa, bo wyznaczanie nominalnej (ciągłej) mocy wyjściowej zasilacza polega na zsumowaniu iloczynów napięcia i maksymalnego prądu dla każdego z dostępnych wyjść. Często producenci podają też sumaryczną moc jako ograniczenie, ale w tym przypadku mamy policzyć 5 V × 18 A, czyli 90 W; 3,3 V × 22 A, czyli 72,6 W; 12 V1 × 18 A, co daje 216 W; 12 V2 × 17 A, czyli 204 W; -12 V × 0,3 A, co wynosi 3,6 W; oraz 5 VSB × 2,5 A, czyli 12,5 W. Po zsumowaniu tych wartości mamy: 90 + 72,6 + 216 + 204 + 3,6 + 12,5 = 598,7 W. Ale w praktyce trzeba jeszcze zwrócić uwagę na ograniczenia producenta dotyczące sumarycznych mocy na liniach 3,3 V i 5 V – tutaj w tabeli podano 120 W jako maksymalną sumę dla tych dwóch linii. Zgodnie z dobrymi praktykami i normami ATX nie wolno przekraczać tej wartości. Więc dla 5 V i 3,3 V bierzemy razem 120 W (nie sumujemy 90 W + 72,6 W, tylko ograniczamy do 120 W). Dodajemy pozostałe moce: 120 + 216 + 204 + 3,6 + 12,5 = 556,1 W. Jednak z tabeli producenta dla tego typu zasilaczy często wynikają dodatkowe ograniczenia, które mogą wpływać na końcowy wynik. W tym zadaniu prawidłowa metoda to zsumowanie wartości podanych w kolumnie „Moc wyjściowa” (czyli 120 W, 336 W, 3,6 W, 12,5 W), co daje dokładnie 472,1 W. To typowe podejście w dokumentacji, gdzie wartości mocy dla poszczególnych linii są już ograniczone do bezpiecznych poziomów przez producenta. Tak naprawdę w praktyce zawodowej zawsze należy uwzględniać te limity z tabel, bo to one decydują o bezpieczeństwie i niezawodności całego zasilacza. Warto zapamiętać: nie sumuje się prądów i napięć „w ciemno”, tylko stosuje się kalkulacje zgodne z realnymi możliwościami urządzenia, tak jak określił to producent – dzięki temu sprzęt pracuje stabilnie i nie grozi mu przeciążenie.

Pytanie 7

Dobrze zaprojektowana sieć komputerowa powinna zapewniać możliwość rozbudowy, czyli charakteryzować się

A. wydajnością
B. redundancją
C. skalowalnością
D. nadmiarowością
Skalowalność to kluczowa cecha każdej nowoczesnej sieci komputerowej, która pozwala na jej rozbudowę w miarę potrzeb bez konieczności przeprowadzania kosztownych zmian w infrastrukturze. Oznacza to, że użytkownicy mogą dodawać nowe urządzenia, węzły lub usługi bez negatywnego wpływu na wydajność całego systemu. Przykładem zastosowania skalowalności jest architektura oparta na chmurze, która umożliwia elastyczne zwiększanie zasobów obliczeniowych w odpowiedzi na zmieniające się zapotrzebowanie. W praktyce, gdy firma rośnie, może łatwo dostosować swój system do nowych wymagań, dodając serwery lub korzystając z rozwiązań chmurowych, które automatycznie dostosowują się do obciążenia. Dobre praktyki w projektowaniu sieci, takie jak stosowanie protokołów routingu, jak OSPF czy BGP, czy zaprojektowanie sieci według architektury hierarchicznej, wspierają skalowalność. Dzięki tym podejściom, sieci mogą rosnąć w sposób zorganizowany, eliminując problemy związane z wydajnością oraz zarządzaniem ruchem.

Pytanie 8

Jakim protokołem jest realizowana kontrola poprawności transmisji danych w sieciach Ethernet?

A. UDP
B. TCP
C. IP
D. HTTP
Protokół TCP (Transmission Control Protocol) jest kluczowym elementem w architekturze modelu OSI, odpowiedzialnym za zapewnienie niezawodnej transmisji danych w sieciach komputerowych, w tym Ethernet. TCP działa na poziomie transportu i zapewnia kontrolę poprawności przesyłania danych poprzez mechanizmy takie jak segmentacja, numerowanie sekwencyjne pakietów, kontroli błędów oraz retransmisji utraconych danych. Dzięki tym mechanizmom, TCP eliminuje problem duplikacji oraz umożliwia odbiorcy potwierdzenie odbioru danych, co jest kluczowe w aplikacjach wymagających wysokiej niezawodności, takich jak przesyłanie plików czy strumieniowanie wideo. W praktyce, TCP jest wykorzystywany w protokołach wyższego poziomu, takich jak HTTP, FTP czy SMTP, co podkreśla jego znaczenie w globalnej komunikacji internetowej. Standardy RFC definiują szczegółowe zasady działania tego protokołu, a jego implementacja jest powszechna w wielu systemach operacyjnych, co czyni go fundamentem współczesnych sieci komputerowych.

Pytanie 9

W IPv6 odpowiednikiem adresu pętli zwrotnej jest adres

A. :1:1:1/96
B. 0:0/32
C. ::1/128
D. ::fff/64
Adres pętli zwrotnej w protokole IPv6 to ::1/128, co jest odpowiednikiem adresu 127.0.0.1 w IPv4. Adres ten jest używany do komunikacji wewnętrznej w systemie operacyjnym, co oznacza, że pakiety wysyłane na ten adres nie opuszczają urządzenia i są kierowane z powrotem do samego siebie. W praktyce, programy i usługi sieciowe mogą używać tego adresu do testowania lokalnej komunikacji oraz do debugowania. Zgodnie z dokumentacją RFC 4291, adres pętli zwrotnej jest zdefiniowany jako specyficzny adres unicast, co oznacza, że jest dedykowany do komunikacji z jednym, konkretnym urządzeniem. Warto też zauważyć, że w IPv6 format adresów jest znacznie bardziej elastyczny niż w IPv4, co pozwala na prostsze zarządzanie adresami w różnych scenariuszach sieciowych. Używanie adresu ::1/128 jest zgodne z najlepszymi praktykami w zakresie bezpieczeństwa oraz zarządzania IP, ponieważ pozwala na izolowanie testów i działań od zewnętrznych sieci.

Pytanie 10

W ustawieniach karty graficznej w sekcji Zasoby znajduje się jeden z zakresów pamięci tej karty, który wynosi od A0000h do BFFFFh. Ta wartość odnosi się do obszaru pamięci wskazanego adresem fizycznym

A. 1010 0000 0000 0000 0000 – 1011 1111 1111 1111 1111
B. 1011 0000 0000 0000 0000 – 1100 1111 1111 1111 1111
C. 1001 1111 1111 1111 1111 – 1010 0000 0000 0000 0000
D. 1100 1111 1111 1111 1111 – 1110 1111 1111 1111 1111
Poprawna odpowiedź dotyczy zakresu pamięci związanego z kartą graficzną, który mieści się w określonym adresie fizycznym. W systemie adresowania pamięci, zakres od A0000h do BFFFFh obejmuje adresy od 1010 0000 0000 0000 0000 do 1011 1111 1111 1111 1111 w systemie binarnym. Oznacza to, że jest to obszar pamięci przeznaczony na pamięć wideo, która jest używana przez karty graficzne do przechowywania danych dotyczących wyświetlania. W praktyce, ten zakres pamięci jest używany do przechowywania buforów ramki, co pozwala na efektywne renderowanie grafiki w aplikacjach wymagających dużych zasobów graficznych, takich jak gry czy aplikacje graficzne. Zrozumienie, jak działają adresy fizyczne oraz jak są one związane z architekturą pamięci w systemach komputerowych, jest kluczowe w pracy z zaawansowanymi technologiami, które wymagają optymalizacji wydajności i zarządzania pamięcią. W kontekście standardów branżowych, znajomość tych adresów pamięci jest również istotna dla programistów tworzących oprogramowanie korzystające z GPU.

Pytanie 11

Poprawę jakości skanowania można osiągnąć poprzez zmianę

A. rozdzielczości
B. wielkości wydruku
C. formatu pliku źródłowego
D. rozmiaru skanowanego dokumentu
Poprawa jakości skanowania poprzez zwiększenie rozdzielczości jest kluczowym aspektem, który wpływa na szczegółowość obrazu. Rozdzielczość skanera, mierzona w dpi (dots per inch), określa, ile punktów obrazu jest rejestrowanych na cal. Wyższa rozdzielczość pozwala na uchwycenie większej ilości detali, co jest szczególnie istotne przy skanowaniu dokumentów tekstowych, grafik czy zdjęć. Na przykład, dla dokumentów tekstowych zaleca się ustawienie rozdzielczości na co najmniej 300 dpi, aby zapewnić czytelność i dokładność. Dla zdjęć lub materiałów graficznych warto rozważyć jeszcze wyższą rozdzielczość, na przykład 600 dpi lub więcej. Dobrą praktyką jest również przemyślenie wyboru rozdzielczości w kontekście przechowywania i edytowania obrazów; wyższa rozdzielczość generuje większe pliki, co może być problematyczne przy dużych ilościach danych. Standardy branżowe, takie jak ISO 12647, podkreślają znaczenie jakości obrazu w procesach druku i reprodukcji, co czyni umiejętność dostosowywania rozdzielczości niezbędną w pracy z dokumentami cyfrowymi.

Pytanie 12

Jakie zastosowanie ma polecenie md w systemie Windows?

A. tworzenie katalogu
B. zmiana nazwy pliku
C. tworzenie pliku
D. przejście do katalogu nadrzędnego
Polecenie 'md' (make directory) w wierszu poleceń systemu Windows jest używane do tworzenia nowych katalogów. To niezwykle przydatne w organizowaniu plików na dysku twardym. Na przykład, aby stworzyć katalog o nazwie 'Dokumenty', wpisujemy 'md Dokumenty'. Dzięki tym komendom użytkownicy mogą łatwo zarządzać strukturą folderów, co ułatwia porządkowanie plików i projektów. Dobre praktyki wskazują, aby tworzyć katalogi zgodnie z ich zawartością, co ułatwia późniejsze ich odnajdywanie. Rekomenduje się również stosowanie zrozumiałych nazw katalogów oraz unikanie spacji w nazwach, co może prowadzić do problemów w niektórych skryptach. Ponadto, komenda 'md' może być używana w skryptach batch do automatyzacji procesów tworzenia folderów, co znacznie przyspiesza codzienną pracę z danymi.

Pytanie 13

Na ilustracji, złącze monitora zaznaczone czerwoną ramką, będzie kompatybilne z płytą główną, która ma interfejs

Ilustracja do pytania
A. HDMI
B. DisplayPort
C. D-SUB
D. DVI
DisplayPort to zaawansowany interfejs cyfrowy stworzony do przesyłu sygnałów wideo i audio. W odróżnieniu od starszych technologii, takich jak DVI czy D-SUB, DisplayPort obsługuje wysoki zakres przepustowości, co pozwala na przesyłanie obrazów o wysokiej rozdzielczości i wielokanałowego dźwięku. Jest powszechnie stosowany w komputerach, monitorach i kartach graficznych nowej generacji. W praktyce, DisplayPort pozwala na połączenie wielu monitorów za pomocą jednego złącza dzięki funkcji Multi-Stream Transport (MST). W porównaniu do HDMI, DisplayPort oferuje wyższą przepustowość, co czyni go idealnym do profesjonalnych zastosowań graficznych i gier. Inżynierowie i projektanci często wybierają DisplayPort do konfiguracji wymagających wysokiej jakości obrazu i dźwięku. Zastosowanie tego interfejsu w praktyce pozwala na pełne wykorzystanie możliwości nowoczesnych płyt głównych i kart graficznych, które często wspierają najnowsze standardy DisplayPort, takie jak wersja 1.4, umożliwiająca przesyłanie obrazu 8K przy 60 Hz. Standaryzacja DisplayPort przez organizację VESA zapewnia jego wszechstronność i kompatybilność z różnymi urządzeniami.

Pytanie 14

Urządzenie peryferyjne, które jest kontrolowane przez komputer i wykorzystywane do obsługi dużych, płaskich powierzchni, a do produkcji druków odpornych na czynniki zewnętrzne używa farb rozpuszczalnikowych, to ploter

A. kreślący
B. tnący
C. solwentowy
D. piaskowy
Odpowiedź 'solwentowy' jest prawidłowa, ponieważ plotery solwentowe są specjalistycznymi urządzeniami przeznaczonymi do druku na różnych powierzchniach, w tym na materiałach wielkoformatowych. Te urządzenia wykorzystują farby na bazie rozpuszczalników, które zapewniają wysoką odporność na czynniki zewnętrzne, takie jak promieniowanie UV, woda czy różne substancje chemiczne. Dzięki temu, wydruki wykonane przy użyciu ploterów solwentowych są idealne do zastosowań zewnętrznych, na przykład w reklamie, gdzie wytrzymałość i żywotność wydruków są kluczowe. Plotery te oferują również szeroki wachlarz kolorów oraz możliwość uzyskiwania intensywnych barw, co czyni je popularnym wyborem w branży graficznej. Warto również zwrócić uwagę na standardy ekologiczne, które dotyczą tych technologii, takie jak wdrażanie rozwiązań mających na celu ograniczenie emisji lotnych związków organicznych (VOC). Przykładowe zastosowania to produkcja banerów, naklejek czy billboardów, które muszą być odporne na różne warunki atmosferyczne. W związku z tym, wybór plotera solwentowego jest często decyzją strategiczną w kontekście zapewnienia jakości i trwałości wydruków.

Pytanie 15

Jaki jest standard 1000Base-T?

A. standard sieci Ethernet o prędkości 1000Mb/s
B. standard sieci Ethernet o prędkości 1000MB/s
C. standard sieci Ethernet o prędkości 1GB/s
D. standard sieci Ethernet o prędkości 100Mb/s
Odpowiedź jest prawidłowa, ponieważ standard 1000Base-T definiuje technologię Ethernet, która umożliwia przesyłanie danych z prędkością 1000 Mb/s (1 Gb/s) za pomocą miedzianych kabli skrętkowych kategorii 5e lub wyższej. Standard ten, zatwierdzony przez Institute of Electrical and Electronics Engineers (IEEE) jako IEEE 802.3ab, jest powszechnie stosowany w lokalnych sieciach komputerowych (LAN). Dzięki zastosowaniu technologii 1000Base-T, użytkownicy mogą korzystać z wysokiej przepustowości, co pozwala na efektywne przesyłanie danych, takich jak strumieniowanie wideo, transfer dużych plików oraz wsparcie dla aplikacji wymagających intensywnej wymiany informacji. W kontekście praktycznym, 1000Base-T jest często wykorzystywany w biurach, centrach danych oraz w domowych sieciach, gdzie istotne jest osiągnięcie wysokiej wydajności przy jednoczesnym obniżeniu kosztów infrastruktury. Użycie skrętki miedzianej umożliwia również prostą instalację, co czyni tę technologię atrakcyjną dla wielu zastosowań.

Pytanie 16

Podane dane katalogowe odnoszą się do routera z wbudowaną pamięcią masową

CPUAtherosAR7161 680MHz
Memory32MB DDR SDRAM onboard memory
Boot loaderRouterBOOT
Data storage64MB onboard NAND memory chip
EthernetOne 10/100 Mbit/s Fast Ethernet port with Auto-MDI/X
miniPCIOne MiniPCI Type IIIA/IIIB slot
One MiniPCIe slot for 3G modem only (onboard SIM connector)
WirelessBuilt in AR2417 802. 11 b/g wireless, 1x MMCX connector
ExpansionOne USB 2.0 ports (without powering, needs power adapter, available separately)
Serial portOne DB9 RS232C asynchronous serial port
LEDsPower, NAND activity, 5 user LEDs
Power optionsPower over Ethernet: 10..28V DC (except power over datalines).
Power jack: 10..28V DC. Includes voltage monitor
Dimensions105 mm x 105 mm, Weight: 82 g
Power consumptionUp to 5W with wireless at full activity
Operating SystemMikroTik RouterOS v3, Level4 license
A. 3 MB
B. 64 MB
C. 32 MB
D. 680 MB
Pamięć masowa w routerach to naprawdę ważny element, który odpowiada za przechowywanie systemu operacyjnego, konfiguracji i różnych dzienników. W tym routerze mamy do czynienia z pamięcią 64 MB NAND, co jest całkiem typowe, zwłaszcza w sprzęcie, który ma być niezawodny. Wybór NAND jest zasłużony, bo jest nie tylko w miarę tani, ale i sprawdza się tam, gdzie nie ma potrzeby ciągłego zapisywania danych. Routery z takim wyposażeniem świetnie nadają się dla małych i średnich firm, gdzie liczy się elastyczność oraz niezawodność. Mimo że 64 MB nie jest jakoś dużo, to jednak starcza na podstawowe funkcje, jak filtrowanie pakietów czy trzymanie krótkoterminowych logów i backupów. Takie rozwiązanie umożliwia korzystanie z systemu MikroTik RouterOS, co daje sporo możliwości w konfigurowaniu i zarządzaniu siecią, jeśli tylko trzyma się standardów branżowych.

Pytanie 17

Zgodnie z aktualnymi przepisami BHP, odległość oczu od ekranu monitora powinna wynosić

A. 75 - 110
B. 39 - 49 cm
C. 20 - 39 cm
D. 40 - 75 cm
Odległość oczu od ekranu monitora wynosząca od 40 do 75 cm jest zgodna z zaleceniami ergonomii oraz przepisami BHP, które mają na celu zminimalizowanie zmęczenia wzroku oraz dyskomfortu podczas pracy przy komputerze. Utrzymanie właściwej odległości pozwala na lepsze skupienie wzroku na ekranie, co z kolei wpływa na wydajność i komfort pracy. Przykładowo, w przypadku osób pracujących w biurach, które spędzają długie godziny przed komputerem, zachowanie tej odległości może znacznie zmniejszyć ryzyko wystąpienia zespołu suchego oka oraz innych problemów z widzeniem. Warto również pamiętać o regularnych przerwach oraz stosowaniu zasady 20-20-20, czyli co 20 minut patrzeć przez 20 sekund na obiekt oddalony o 20 stóp (około 6 metrów), aby zredukować napięcie mięśni oczu. Przy odpowiedniej odległości i zachowaniu zasady ergonomii, użytkownicy mogą znacznie poprawić swoje doznania podczas użytkowania sprzętu komputerowego, co jest kluczowe w dzisiejszym środowisku pracy.

Pytanie 18

Komunikat "BIOS checksum error" pojawiający się w trakcie startu komputera zazwyczaj wskazuje na

A. wadliwy wentylator CPU
B. brak urządzenia z systemem operacyjnym
C. uszkodzoną lub wyczerpaną baterię na płycie głównej
D. błąd pamięci RAM
Komunikat "BIOS checksum error" mówi nam, że coś jest nie tak z pamięcią CMOS, która trzyma ustawienia BIOS. Kiedy bateria na płycie głównej padnie lub jest uszkodzona, CMOS nie da rady zapisać danych, stąd pojawia się ten błąd. W praktyce to znaczy, że komputer nie może się uruchomić, bo mu brakuje ważnych danych do startu. Wymiana baterii na płycie głównej to prosta sprawa, którą można ogarnąć samemu. Fajnie jest też regularnie sprawdzać, w jakim stanie jest ta bateria, zwłaszcza u starszych komputerów. Warto również zapisywać ustawienia BIOS-u przed ich zmianą, w razie gdyby trzeba było je przywrócić. Jeśli ten komunikat się powtarza, to możliwe, że trzeba będzie zaktualizować BIOS, żeby wszystko działało stabilniej. Moim zdaniem, to bardzo przydatna wiedza dla każdego użytkownika komputera.

Pytanie 19

W specyfikacji IEEE 802.3af opisano technologię dostarczania energii elektrycznej do różnych urządzeń sieciowych jako

A. Power under Control
B. Power over Classifications
C. Power over Internet
D. Power over Ethernet
Poprawna odpowiedź to 'Power over Ethernet' (PoE), która jest standardem zdefiniowanym w normie IEEE 802.3af. Technologia ta umożliwia przesyłanie energii elektrycznej przez standardowe kable Ethernet, co pozwala na zasilanie różnych urządzeń sieciowych, takich jak kamery IP, telefony VoIP czy punkty dostępu Wi-Fi, bez potrzeby stosowania oddzielnych zasilaczy. Zastosowanie PoE znacznie upraszcza instalację urządzeń, eliminując konieczność dostępu do gniazdek elektrycznych w pobliżu. Dzięki temu technologia ta jest szeroko stosowana w nowoczesnych biurach oraz systemach monitoringu. PoE przyczynia się również do zmniejszenia kosztów instalacji oraz zwiększa elastyczność w rozmieszczaniu urządzeń w przestrzeni roboczej. Dodatkowo, standard IEEE 802.3af pozwala na przesyłanie do 15.4 W mocy, co jest wystarczające dla wielu typowych urządzeń. Warto również zaznaczyć, że PoE jest częścią większej rodziny standardów, w tym IEEE 802.3at (PoE+) i IEEE 802.3bt (PoE++), które oferują jeszcze wyższe moce zasilania.

Pytanie 20

Na ilustracji przedstawiono fragment karty graficznej ze złączem

Ilustracja do pytania
A. ISA
B. AGP
C. PCI
D. PCI-Express
Złącze AGP (Accelerated Graphics Port) zostało zaprojektowane specjalnie dla kart graficznych w celu zwiększenia wydajności grafiki 3D w komputerach. Wprowadzone przez firmę Intel w 1997 roku, AGP umożliwia bezpośredni dostęp do pamięci RAM, co przyspiesza renderowanie grafiki 3D i zwiększa przepustowość niezbędną dla zaawansowanych aplikacji graficznych. Standard AGP przeszedł kilka iteracji: AGP 1.0 z przepustowością 266 MB/s, AGP 2x (533 MB/s), AGP 4x (1,06 GB/s) oraz AGP 8x (2,1 GB/s). Złącze AGP różni się fizycznie od innych typów złącz, takich jak PCI, przez co łatwo je rozpoznać. Istotną cechą AGP jest użycie osobnej magistrali dla grafiki, co pozwala na lepsze zarządzanie zasobami systemu. Chociaż AGP zostało zastąpione przez PCI-Express, jego specyfikacja nadal znajduje zastosowanie w starszych systemach, a jego zrozumienie jest kluczowe dla zawodów zajmujących się konserwacją sprzętu komputerowego. W praktyce, wybór karty graficznej z interfejsem AGP był kiedyś kluczowy dla użytkowników wymagających wysokiej jakości wyświetlania grafiki, takich jak graficy czy gracze komputerowi.

Pytanie 21

Jakim poleceniem w systemie Linux można ustawić powłokę domyślną użytkownika egzamin na sh?

A. usermod -s /bin/sh egzamin
B. vi /etc/passwd -sh egzamin
C. chmod egzamin /etc/shadow sh
D. groupmod /users/egzamin /bin/sh
Polecenie usermod -s /bin/sh egzamin to naprawdę dobry sposób na zmianę domyślnej powłoki użytkownika w Linuxie. Dzięki opcji -s możemy wskazać, która powłoka ma być używana przez naszego użytkownika 'egzamin'. W tym przypadku to /bin/sh. Warto pamiętać, że najlepiej robić takie zmiany z uprawnieniami administratora, czyli użyć polecenia z prefiksem sudo, czyli np. sudo usermod -s /bin/sh egzamin. Co do powłok, każda z nich ma swoje unikalne funkcje. Na przykład powłoka bash ma świetne opcje jak autouzupełnianie i możliwość pisania skryptów, a w sh może być z tym gorzej. Warto więc przed zmianą powłoki zastanowić się, jakie funkcje będą nam potrzebne, żeby wszystko działało tak, jak chcemy.

Pytanie 22

Jakim parametrem definiuje się stopień zmniejszenia mocy sygnału w danej parze przewodów po przejściu przez cały tor kablowy?

A. przenik zdalny
B. tłumienie
C. długość
D. przenik zbliżny
Tłumienie jest kluczowym parametrem w telekomunikacji, który określa, o ile moc sygnału maleje podczas jego przejścia przez medium, takie jak przewody czy tor kablowy. W praktyce, tłumienie można opisać jako straty energii sygnału, które mogą wynikać z różnych czynników, takich jak opór, absorpcja materiału oraz zakłócenia elektromagnetyczne. Przykładowo, w instalacjach telekomunikacyjnych, takich jak światłowody lub kable miedziane, odpowiednie pomiary tłumienia są niezbędne do zapewnienia jakości sygnału. W branży telekomunikacyjnej standardy, takie jak ITU-T G.652 dla światłowodów, określają maksymalne poziomy tłumienia, aby gwarantować niezawodność transmisji. Zrozumienie tego parametru jest istotne dla projektowania sieci oraz doboru odpowiednich komponentów, co w efekcie przekłada się na lepszą jakość usług świadczonych użytkownikom.

Pytanie 23

Jakie narzędzie w wierszu poleceń służy do testowania oraz diagnostyki serwerów DNS?

A. NSLOOKUP
B. DHCP
C. CMD
D. CHKDSK
NSLOOKUP to narzędzie wiersza polecenia, które jest kluczowe w administrowaniu i diagnozowaniu serwerów DNS. Umożliwia ono użytkownikom bezpośrednie zapytanie o rekordy DNS, co jest niezbędne do weryfikacji i analizy rozwiązywania nazw w Internecie. Przykładowo, podczas rozwiązywania problemów z dostępem do strony internetowej, administratorzy mogą użyć polecenia NSLOOKUP, aby sprawdzić, czy odpowiednie rekordy DNS są poprawnie skonfigurowane. Dodatkowo, NSLOOKUP pozwala na interakcję z różnymi serwerami DNS, co jest przydatne w przypadku lokalnych i zdalnych problemów z nazwami. Narzędzie to wspiera również różne typy zapytań, takie jak A, AAAA czy MX, co czyni je wszechstronnym narzędziem w diagnostyce sieciowej. Użycie NSLOOKUP jest zgodne z najlepszymi praktykami branżowymi w zakresie zarządzania sieciami, ponieważ pozwala na szybkie i efektywne rozwiązywanie problemów związanych z DNS, co jest kluczowe dla zapewnienia dostępności usług internetowych.

Pytanie 24

Jaką najwyższą liczbę urządzeń można przypisać w sieci z adresacją IPv4 klasy C?

A. 126
B. 65534
C. 2024
D. 254
Odpowiedź 254 jest poprawna, ponieważ w sieci IPv4 klasy C możliwe jest zaadresowanie 256 adresów IP. Klasa C ma zakres adresów od 192.0.0.0 do 223.255.255.255, co oznacza, że ostatni bajt adresu jest używany do identyfikacji hostów. Z tych 256 adresów, jeden jest zarezerwowany jako adres sieci (w przypadku np. 192.168.1.0) i jeden jako adres rozgłoszeniowy (np. 192.168.1.255). To pozostawia 254 dostępne adresy do użycia dla urządzeń, takich jak komputery, drukarki czy routery. W praktyce, znajomość tej liczby jest istotna przy projektowaniu małych sieci lokalnych, gdzie klasy C są często wykorzystywane, szczególnie w biurach czy domowych sieciach. Dobrą praktyką jest również korzystanie z DHCP, co umożliwia dynamiczne przydzielanie adresów IP, a tym samym efektywne zarządzanie dostępnością adresów. Warto także zwrócić uwagę na możliwość korzystania z NAT, co pozwala na wykorzystanie prywatnych adresów IP w sieciach lokalnych, zapewniając jednocześnie komunikację z internetem.

Pytanie 25

Z jaką minimalną efektywną częstotliwością taktowania mogą działać pamięci DDR2?

A. 533 MHz
B. 333 MHz
C. 233 MHz
D. 800 MHz
Pamięci DDR2, zgodnie z ich specyfikacją, mają minimalną efektywną częstotliwość taktowania wynoszącą 533 MHz. Oznacza to, że aby pamięć DDR2 działała prawidłowo, musi być taktowana przynajmniej z tą częstotliwością. W praktyce, pamięci DDR2 są projektowane z myślą o wydajności w zastosowaniach takich jak komputery osobiste, serwery czy urządzenia mobilne. Wykorzystanie pamięci DDR2 z częstotliwością 533 MHz pozwala na osiągnięcie transferu danych na poziomie około 4,3 GB/s, co jest wystarczające dla wielu zastosowań multimedialnych i biurowych. W przypadku wyższych taktowań, jak 800 MHz, pamięci DDR2 mogą osiągać jeszcze większe prędkości transferu, ale podstawowe wsparcie dla 533 MHz jest kluczowe dla kompatybilności z wieloma systemami. Pamięci DDR2, w przeciwieństwie do swojego poprzednika - DDR, oferują niższe zużycie energii oraz poprawioną wydajność, co czyni je odpowiednim rozwiązaniem dla nowoczesnych komputerów.

Pytanie 26

Analiza tłumienia w torze transmisyjnym na kablu umożliwia ustalenie

A. różnic pomiędzy zdalnymi przesłuchami
B. spadku mocy sygnału w konkretnej parze przewodów
C. błędów instalacyjnych polegających na zamianie par
D. czasoprzestrzeni opóźnienia propagacji
Pomiar tłumienia w kablowym torze transmisyjnym jest kluczowym parametrem, który pozwala ocenić spadek mocy sygnału w danej parze przewodu. Tłumienie odnosi się do utraty energii sygnału podczas jego przesyłania przez medium transmisyjne, co może mieć istotny wpływ na jakość i niezawodność komunikacji. W praktyce, wysoka wartość tłumienia może prowadzić do zniekształcenia sygnału, co z kolei może skutkować błędami w przesyłanych danych. Pomiar tłumienia jest szczególnie ważny w zastosowaniach telekomunikacyjnych, takich jak instalacje telefoniczne czy sieci LAN, gdzie normy, takie jak TIA/EIA-568, określają maksymalne wartości tłumienia dla różnych rodzajów kabli. W przypadku kabli miedzianych, typowe wartości tłumienia wynoszą od 1 do 2 dB na 100 metrów, w zależności od częstotliwości sygnału. Niskie tłumienie jest pożądane, aby zapewnić efektywną wymianę danych oraz minimalizować potrzebę dodatkowych wzmacniaczy sygnału, co wpływa na wydajność i koszty systemu.

Pytanie 27

Ile sieci obejmują komputery z adresami IP i maskami sieci podanymi w tabeli?

Adres IPv4Maska
10.120.16.10255.255.0.0
10.120.18.16255.255.0.0
10.110.16.18255.255.255.0
10.110.16.14255.255.255.0
10.130.16.12255.255.255.0
A. 4
B. 2
C. 3
D. 5
Aby określić liczbę sieci, do których należą dane komputery, musimy przeanalizować adresy IP w kontekście ich masek sieciowych. Adresy IP, które dzielą tę samą część sieciową, są częścią tej samej sieci. Rozpocznijmy od pierwszych dwóch adresów IP: 10.120.16.10 i 10.120.18.16, obydwa z maską 255.255.0.0. Ta maska wskazuje, że identyfikator sieciowy składa się z pierwszych dwóch oktetów: 10.120.x.x, co oznacza, że oba adresy należą do tej samej sieci. Następnie mamy adresy 10.110.16.18 i 10.110.16.14 z maską 255.255.255.0. Tutaj identyfikatorem sieciowym są trzy pierwsze oktety, tj. 10.110.16.x, co sprawia, że te dwa adresy również należą do jednej sieci. Ostatni adres, 10.130.16.12 z maską 255.255.255.0, tworzy własną sieć. Łącznie mamy trzy różne sieci. Zrozumienie tego procesu jest kluczowe w zarządzaniu adresacją IP, ponieważ optymalna alokacja adresów IP i masek wpływa na efektywność sieci, pozwala na lepsze zarządzanie ruchem sieciowym i zwiększa bezpieczeństwo poprzez segmentację.

Pytanie 28

Na rysunku można zobaczyć schemat topologii fizycznej, która jest kombinacją topologii

Ilustracja do pytania
A. siatki i gwiazdy
B. siatki i magistrali
C. pierścienia i gwiazdy
D. magistrali i gwiazdy
Fizyczna topologia sieci oznacza sposób, w jaki urządzenia są fizycznie połączone w sieci komputerowej. Połączenie magistrali i gwiazdy to układ, w którym szereg urządzeń jest podłączonych do wspólnej magistrali, a jedno lub więcej spośród tych urządzeń może działać jako centrum gwiazdy, do którego podłączone są kolejne urządzenia. Typowym przykładem zastosowania takiej topologii jest sieć Ethernet 10Base2, gdzie magistrala łączy kilka urządzeń, a koncentrator lub przełącznik działa jako punkt centralny dla gwiazdy. Takie podejście łączy zalety obu topologii: prostotę i ekonomiczność magistrali oraz elastyczność i skalowalność gwiazdy. W praktyce oznacza to, że sieć może być łatwo rozbudowana poprzez dodanie nowych segmentów. Magistrala umożliwia ekonomiczne przesyłanie danych na dalsze odległości, podczas gdy gwiazda pozwala na lepszą izolację problemów w sieci, co jest zgodne ze standardami IEEE 802.3. Taki układ jest często wybierany w średnich firmach, gdzie wymagana jest ekonomiczna i efektywna komunikacja między urządzeniami, z możliwością łatwego dodawania nowych segmentów sieci. Ponadto, połączenie tych dwóch topologii zapewnia lepszą odporność na awarie, gdyż uszkodzenie jednego segmentu nie wpływa istotnie na całą sieć, co jest kluczowe dla zapewnienia ciągłości działania w wielu sektorach przemysłowych.

Pytanie 29

Program CHKDSK jest wykorzystywany do

A. naprawy fizycznej struktury dysku
B. naprawy logicznej struktury dysku
C. defragmentacji nośnika danych
D. zmiany rodzaju systemu plików
CHKDSK, czyli Check Disk, to narzędzie w systemach operacyjnych Windows, które służy do analizy i naprawy logicznej struktury dysku. Jego głównym zadaniem jest identyfikacja i eliminacja błędów w systemie plików, takich jak uszkodzone sektory, błędne wpisy w tabeli alokacji plików oraz inne problemy, które mogą prowadzić do utraty danych. Przykładowo, jeśli system operacyjny zgłasza problemy z uruchomieniem lub ostrzega o błędach w plikach, przeprowadzenie skanowania przy użyciu CHKDSK może pomóc w rozwiązaniu tych problemów, przywracając integralność danych. Warto dodać, że narzędzie to można uruchomić w trybie graficznym lub z linii poleceń, co sprawia, że jest dostępne dla szerokiego kręgu użytkowników. Dobre praktyki branżowe zalecają regularne korzystanie z CHKDSK jako części konserwacji systemu, szczególnie po nieprawidłowym zamknięciu systemu czy awariach zasilania, aby zapewnić stabilność pracy systemu oraz zabezpieczyć przechowywane dane.

Pytanie 30

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 32 GB.
B. 1 modułu 16 GB.
C. 2 modułów, każdy po 8 GB.
D. 2 modułów, każdy po 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 31

Która z konfiguracji RAID opiera się na replikacji danych pomiędzy dwoma lub większą liczbą dysków fizycznych?

A. RAID 3
B. RAID 0
C. RAID 1
D. RAID 5
RAID 1 to popularny poziom macierzy RAID, który opiera się na replikacji danych na dwóch lub więcej dyskach fizycznych. W tej konfiguracji każdy zapisany na jednym dysku blok danych jest natychmiastowo kopiowany na drugi dysk, co zapewnia wysoką dostępność danych oraz ich ochronę przed awarią jednego z dysków. Przykładem zastosowania RAID 1 może być serwer plików, w którym dane są krytyczne — w przypadku awarii jednego z dysków, system może natychmiast przełączyć się na zapasowy dysk bez utraty danych. W praktyce, macierz RAID 1 oferuje zalety w zakresie redundancji i niezawodności, co jest zgodne z najlepszymi praktykami w obszarze przechowywania danych. Wysoka dostępność danych jest kluczowym atutem dla firm, które nie mogą sobie pozwolić na przestoje związane z utratą danych. Należy jednak pamiętać, że RAID 1 nie zwiększa wydajności, a także wymaga pojemności dysków równającej się pojemności największego dysku w macierzy, co może być ograniczeniem dla niektórych zastosowań.

Pytanie 32

Rysunek obrazuje zasadę działania drukarki

Ilustracja do pytania
A. igłowej.
B. laserowej.
C. sublimacyjnej.
D. atramentowej.
To jest dobry wybór, bo rysunek dokładnie pokazuje zasadę działania drukarki atramentowej, a konkretniej tej z głowicą termiczną. W tej technologii, jak widać na schemacie, atrament jest podgrzewany przez mały element grzejny, co powoduje powstanie pęcherzyka pary. Ten pęcherzyk dosłownie wypycha kroplę atramentu przez dyszę na papier. Z mojego doświadczenia wynika, że w praktyce taki mechanizm sprawia, że atramentówki mogą drukować bardzo szczegółowe obrazy, teksty i zdjęcia w dobrej rozdzielczości, bo kontrola nad rozmiarem kropli jest naprawdę precyzyjna. Takie rozwiązania spotyka się w większości domowych i biurowych drukarek, szczególnie marek takich jak Canon, HP czy Brother. Warto też wiedzieć, że drukarki atramentowe są popularne, bo są tanie w zakupie i oferują dobrą jakość druku na różnych nośnikach. Moim zdaniem ten typ drukarki jest świetny do codziennego użytku, choć do masowego druku lepiej sprawdzają się już inne technologie. Element grzejny i pęcherzyk pary to kluczowe kwestie odróżniające tę technologię od np. drukarek igłowych czy laserowych. Dodatkowo, według standardów branżowych, właśnie taka metoda jest najczęściej spotykana przy szybkim kolorowym druku niskonakładowym.

Pytanie 33

Które z metod szyfrowania wykorzystywanych w sieciach bezprzewodowych jest najsłabiej zabezpieczone przed łamaniem haseł?

A. WEP
B. WPA TKIP
C. WPA AES
D. WPA2
WEP, czyli Wired Equivalent Privacy, to protokół bezpieczeństwa, który pojawił się w 1997 roku jako część standardu IEEE 802.11. Jego głównym celem było zabezpieczenie sieci bezprzewodowych na poziomie, który byłby porównywalny z sieciami przewodowymi. Niestety, po czasie okazało się, że WEP ma sporo słabości. Największym problemem jest krótki klucz szyfrujący, który można łatwo złamać. Ataki statystyczne, jak np. atak IV, pozwalają napastnikom przechwycić dane i odszyfrować klucze, co sprawia, że WEP jest naprawdę łatwy do złamania. Jest sporo narzędzi, jak Aircrack-ng, które potrafią to zrobić w praktyce. Dlatego dzisiaj WEP uznaje się za przestarzały i nie powinno się go stosować w nowych sieciach. Lepiej skorzystać z nowszych standardów, jak WPA2, które korzystają z lepszych algorytmów szyfrowania, takich jak AES, co znacznie poprawia bezpieczeństwo.

Pytanie 34

Wskaź 24-pinowe lub 29-pinowe złącze żeńskie, które jest w stanie przesyłać skompresowany sygnał cyfrowy do monitora?

A. RCA
B. VGA
C. HDMI
D. DVI
Odpowiedź DVI (Digital Visual Interface) jest poprawna, ponieważ to złącze, które może przesyłać skompresowany cyfrowy sygnał wideo z komputera do monitora. DVI wspiera zarówno sygnały cyfrowe, jak i analogowe, co czyni go wszechstronnym rozwiązaniem do podłączenia monitorów. Jego standard 24-pinowy (DVI-D) umożliwia przesyłanie czystego sygnału cyfrowego, co przekłada się na lepszą jakość obrazu w porównaniu do analogowych złączy, takich jak VGA. DVI jest szczególnie popularny w aplikacjach profesjonalnych, takich jak edycja wideo czy grafika komputerowa, gdzie jakość obrazu jest kluczowa. Dodatkowo, wiele kart graficznych obsługuje DVI, a złącze to jest również kompatybilne z adapterami, które pozwalają na konwersję sygnału do HDMI lub VGA, co zwiększa jego użyteczność. Warto zauważyć, że DVI stał się jednym z fundamentów dla nowoczesnych standardów wideo, a jego zastosowanie w monitorach LCD i projektorach jest powszechne.

Pytanie 35

Parametr pamięci RAM określany czasem jako opóźnienie definiuje się jako

A. RAS Precharge
B. Command Rate
C. CAS Latency
D. RAS to CAS Delay
CAS Latency, czyli opóźnienie dostępu do pamięci, jest kluczowym parametrem pamięci RAM, który określa, jak długo procesor musi czekać na dane po wydaniu polecenia odczytu. Skrót CAS oznacza Column Address Strobe, a 'latency' odnosi się do liczby cykli zegara, jakie są potrzebne, aby uzyskać dostęp do określonej kolumny w pamięci. Przykładowo, jeśli pamięć ma CAS Latency równą 16, oznacza to, że procesor musi czekać 16 cykli zegara na dostęp do danych po wysłaniu polecenia. W praktyce, mniejsze wartości CAS Latency oznaczają szybsze czasy dostępu, co może przekładać się na lepszą wydajność systemu, szczególnie w zastosowaniach wymagających dużej przepustowości danych, takich jak gry komputerowe czy obróbka wideo. Standardy branżowe, takie jak JEDEC, określają różne klasy pamięci RAM i ich parametry, co pozwala na odpowiednie dobieranie komponentów w zależności od potrzeb użytkownika. Dlatego przy wyborze pamięci RAM warto zwracać uwagę na CAS Latency, aby zapewnić optymalną wydajność i stabilność systemu.

Pytanie 36

Komputer jest połączony z myszą bezprzewodową, a kursor w trakcie używania nie porusza się płynnie, tylko "skacze" po ekranie. Możliwą przyczyną awarii urządzenia może być

A. uszkodzenie mikroprzełącznika
B. wyczerpywanie się akumulatora zasilającego
C. uszkodzenie przycisku lewego
D. brak akumulatora
Wyczerpywanie się baterii zasilającej to najczęstsza przyczyna problemów z działaniem myszek bezprzewodowych, co potwierdzają liczne badania dotyczące ergonomii i funkcjonalności urządzeń peryferyjnych. Gdy bateria w myszce zaczyna się wyczerpywać, sygnał wysyłany do odbiornika staje się niestabilny, co objawia się "skakaniem" kursora na ekranie. W praktyce, regularne sprawdzanie stanu baterii oraz ich wymiana co kilka miesięcy, zwłaszcza w przypadku intensywnego użytkowania, są kluczowymi elementami w dbaniu o sprawność urządzenia. Aby zapobiec takim problemom, warto zaopatrzyć się w myszki z funkcją automatycznego uśpienia lub z wskaźnikiem stanu naładowania baterii. Ponadto, standardy Ergonomics of Human-Computer Interaction, które sugerują optymalne warunki pracy z urządzeniami peryferyjnymi, podkreślają znaczenie dobrego stanu sprzętu, w tym zasilania. Utrzymując baterie w dobrej kondycji, można znacząco poprawić komfort pracy oraz wydajność komputerową.

Pytanie 37

Użytkownik chce tak zmodernizować komputer, aby działały na nim gry wymagające DirectX12. Jaki system operacyjny powinien zakupić do modernizowanego komputera, aby wspierał DX12?

A. Windows XP
B. Windows 10
C. Windows 8
D. Windows 8.1
Windows 10 to jedyny system operacyjny z tej listy, który natywnie obsługuje DirectX 12. To właśnie ta wersja systemu Microsoftu została zaprojektowana tak, żeby w pełni wykorzystać nowoczesne technologie graficzne wymagane przez najnowsze gry i aplikacje multimedialne. DirectX 12 wprowadza spore usprawnienia, szczególnie jeśli chodzi o wydajność i efektywność zarządzania zasobami GPU, co ma ogromne znaczenie przy bardziej wymagających tytułach. W praktyce, jeśli ktoś składa komputer pod nowe gry albo planuje modernizację sprzętu, to moim zdaniem Windows 10 jest w zasadzie oczywistym wyborem – nie tylko z powodu wsparcia dla DX12, ale też szerokiej kompatybilności ze sterownikami, zabezpieczeniami i aktualizacjami sprzętowymi. W branży IT i gamingu standardem jest korzystanie z platformy, która daje szerokie możliwości rozwoju i wsparcia, a Windows 10, mimo że już jest następca (Windows 11), dalej dominuje jako system gamingowy. Warto też pamiętać, że starsze systemy, nawet jeśli ktoś je gdzieś jeszcze spotka, nie pozwolą odpalić wielu nowoczesnych tytułów AAA. Z własnego doświadczenia wiem, że próby uruchamiania nowych gier na starszych wersjach Windowsa kończą się zwykle frustracją i stratą czasu. Lepiej od razu zainwestować w najnowszy wspierany system i mieć spokój na lata.

Pytanie 38

Który układ mikroprocesora jest odpowiedzialny między innymi za pobieranie rozkazów z pamięci oraz generowanie sygnałów sterujących?

A. IU
B. EU
C. FPU
D. ALU
IU, czyli jednostka sterująca (ang. Instruction Unit, czasem nazywana też Control Unit), to kluczowy element architektury każdego mikroprocesora. To właśnie ona odpowiada za pobieranie instrukcji z pamięci operacyjnej, dekodowanie ich oraz generowanie odpowiednich sygnałów sterujących dla pozostałych części procesora. Moim zdaniem to coś w rodzaju "dyrygenta orkiestry" – reszta jednostek wykonuje konkretne operacje, ale bez IU nie byłoby wiadomo, co i kiedy mają robić. W praktyce bez dobrze zaprojektowanej jednostki sterującej nawet najbardziej zaawansowane ALU czy FPU nie wykorzystałyby swojego potencjału, bo nie wiedziałyby, kiedy mają się uruchomić. Z mojego doświadczenia wynika, że IU to często niedoceniana część CPU, a przecież to ona odpowiada za obsługę cyklu rozkazowego (fetch-decode-execute). W nowoczesnych procesorach stosuje się rozbudowane mechanizmy IU, często z pipeline'm czy logiką predykcji rozgałęzień, żeby zwiększyć wydajność pracy całego układu. Według uznanych standardów projektowania układów cyfrowych, rozdział funkcji pomiędzy IU a wyspecjalizowane jednostki wykonawcze zapewnia elastyczność i łatwiejsze skalowanie mikroarchitektury. W zastosowaniach praktycznych – na przykład w systemach wbudowanych czy komputerach PC – optymalizacja działania IU bezpośrednio przekłada się na szybsze wykonywanie programów. Dobrze rozumieć rolę IU, bo to podstawa przy analizowaniu działania dowolnego procesora, od najprostszych mikrokontrolerów aż po zaawansowane CPU dla serwerów.

Pytanie 39

Ustalenie adresów fizycznych MAC na podstawie adresów logicznych IP jest efektem działania protokołu

A. DHCP
B. HTTP
C. DNS
D. ARP
Protokół ARP (Address Resolution Protocol) jest kluczowym elementem komunikacji w sieciach komputerowych opartych na protokole IP. Jego główną funkcją jest mapowanie adresów IP na odpowiadające im adresy MAC (Media Access Control), co umożliwia urządzeniom w sieci lokalnej prawidłowe wysyłanie danych. W przypadku, gdy urządzenie chce wysłać pakiet do innego urządzenia, najpierw musi znać adres MAC odbiorcy. Jeśli jedynie zna adres IP, wysyła zapytanie ARP, w którym prosi o podanie adresu MAC powiązanego z danym adresem IP. Odpowiedzią jest pakiet ARP, który zawiera żądany adres MAC. ARP jest standardowym protokołem w ramach stosu protokołów TCP/IP i stanowi fundament większości komunikacji w sieciach Ethernet. Zrozumienie działania ARP jest kluczowe dla administratorów sieci, którzy muszą monitorować, diagnozować oraz zabezpieczać ruch w sieciach lokalnych. Bez tego protokołu, urządzenia nie mogłyby skutecznie komunikować się w sieciach, co prowadziłoby do poważnych problemów z łącznością.

Pytanie 40

Aby skonfigurować ruter i wprowadzić parametry połączenia od dostawcy internetowego, którą sekcję oznaczoną numerem należy wybrać?

Ilustracja do pytania
A. 1
B. 3
C. 2
D. 4
Obszar oznaczony numerem 2 odnosi się do sekcji WAN na interfejsie konfiguracji rutera. WAN czyli Wide Area Network to sekcja, w której definiujemy kluczowe parametry połączenia z dostawcą usług internetowych. Zawiera ustawienia takie jak typ połączenia (PPPoE DHCP statyczny IP) adresy DNS czy MTU. Konfiguracja tych parametrów jest niezbędna do uzyskania dostępu do Internetu poprzez ruter. Dobre praktyki branżowe sugerują wykorzystanie ustawień dostarczonych przez ISP aby zapewnić stabilne i bezpieczne połączenie. Często w tej sekcji można znaleźć opcje związane z klonowaniem adresu MAC co może być wymagane przez niektórych dostawców do autoryzacji połączenia. Znajomość konfiguracji WAN jest kluczowa dla administratorów sieci ponieważ poprawne ustawienie tych parametrów bezpośrednio wpływa na wydajność i niezawodność sieci. Również zabezpieczenie sekcji WAN przed nieautoryzowanymi dostępami jest istotnym elementem zarządzania siecią.