Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 26 kwietnia 2026 22:47
  • Data zakończenia: 26 kwietnia 2026 23:07

Egzamin zdany!

Wynik: 28/40 punktów (70,0%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Jakie narzędzie powinno być użyte do zbadania wyników testu POST dla modułów na płycie głównej?

Ilustracja do pytania
A. Rys. C
B. Rys. D
C. Rys. A
D. Rys. B
Prawidłowa odpowiedź to Rys. B. Jest to specjalne narzędzie diagnostyczne znane jako karta POST, używane do testowania i diagnozowania problemów z płytą główną komputera. Kiedy komputer jest uruchamiany, przechodzi przez test POST (Power-On Self-Test), który sprawdza podstawowe komponenty sprzętowe. Karta POST wyświetla kody wyników testu, co umożliwia technikom zidentyfikowanie problemów, które mogą uniemożliwiać prawidłowy rozruch systemu. Karty POST są niezwykle przydatne w środowiskach serwisowych, gdzie szybka diagnostyka jest kluczowa. Dają one bezpośredni wgląd w proces rozruchu płyty głównej i wskazują na potencjalne awarie sprzętowe, takie jak uszkodzone moduły pamięci RAM, problemy z procesorem czy kartą graficzną. W praktyce, kody wyświetlane przez kartę POST mogą być porównywane z tabelami kodów POST producenta płyty głównej, co pozwala na szybkie i precyzyjne określenie przyczyny awarii i przystąpienie do jej usunięcia. Warto zaznaczyć, że użycie karty POST jest standardem w diagnostyce komputerowej i stanowi dobrą praktykę w pracy serwisanta.

Pytanie 2

W systemie Windows 7 aby skopiować folder c:\test wraz z jego podfolderami na dysk zewnętrzny f:\, należy zastosować polecenie

A. copy f:\test c:\test /E
B. copy c:\test f:\test /E
C. xcopy c:\test f:\test /E
D. xcopy f:\test c:\test /E
Polecenie 'xcopy c:\test f:\test /E' jest poprawne, ponieważ xcopy jest narzędziem przeznaczonym do kopiowania plików i katalogów w systemie Windows, w tym również ich podkatalogów. Opcja '/E' wskazuje, że program ma kopiować również puste katalogi, co jest istotne w przypadku przenoszenia całej struktury katalogów. Przy pomocy tego polecenia, wszystkie pliki oraz podkatalogi znajdujące się w 'c:\test' zostaną skopiowane do lokalizacji 'f:\test', co jest szczególnie przydatne podczas archiwizacji danych lub przenoszenia ich na inny nośnik. W praktyce, xcopy oferuje więcej opcji niż copy, co czyni go bardziej elastycznym narzędziem w kontekście zarządzania plikami. Przykładem zastosowania xcopy może być tworzenie kopii zapasowych zawartości folderu roboczego przed wprowadzeniem większych zmian, co jest zgodne z najlepszymi praktykami zarządzania danymi.

Pytanie 3

Czym są programy GRUB, LILO, NTLDR?

A. programy rozruchowe
B. wersje głównego interfejsu sieciowego
C. firmware dla dysku twardego
D. aplikacje do modernizacji BIOS-u
Programy GRUB, LILO i NTLDR są definiowane jako programy rozruchowe, które odgrywają kluczową rolę w procesie uruchamiania systemu operacyjnego. GRUB (Grand Unified Bootloader) jest powszechnie stosowany w systemach Linux, umożliwiając użytkownikowi wybór między różnymi systemami operacyjnymi oraz konfigurację opcji bootowania. LILO (Linux Loader) to starszy program rozruchowy, który również obsługuje systemy Linux, ale z ograniczonymi możliwościami w porównaniu do GRUB. NTLDR (NT Loader) jest specyficzny dla systemów Windows, zarządzając rozruchem systemów opartych na NT, takich jak Windows 7 czy Windows Server. Programy te działają na poziomie sprzętowym, inicjalizując procesy potrzebne do załadowania systemu operacyjnego w pamięci. Zrozumienie ich funkcji jest kluczowe dla administratorów systemów, którzy muszą zarządzać rozruchem oraz obiegiem danych w środowiskach wielosystemowych, a także dla specjalistów zajmujących się bezpieczeństwem, którzy muszą znać potencjalne zagrożenia związane z rozruchem, takie jak bootkit. Dobre praktyki w tej dziedzinie obejmują regularne aktualizacje programów rozruchowych oraz właściwe zabezpieczenie dostępu do BIOS-u i ustawień rozruchowych.

Pytanie 4

Użytkownik systemu Windows może skorzystać z polecenia taskmgr, aby

A. odzyskać uszkodzone obszary dysku
B. zaktualizować sterowniki systemowe
C. naprawić problemy z systemem plików
D. zakończyć pracę nieprawidłowej aplikacji
Polecenie taskmgr, znane jako Menedżer zadań w systemie Windows, jest narzędziem umożliwiającym użytkownikom monitorowanie i zarządzanie uruchomionymi procesami oraz aplikacjami. Jedną z jego kluczowych funkcji jest możliwość zakończenia działania wadliwych aplikacji, które mogą wpływać na wydajność systemu lub uniemożliwiać jego prawidłowe funkcjonowanie. Przykładowo, gdy jakieś oprogramowanie przestaje odpowiadać, użytkownik może otworzyć Menedżera zadań, zlokalizować problematyczny proces i kliknąć „Zakończ zadanie”. Takie działania są zgodne z najlepszymi praktykami zarządzania systemem, które zalecają monitorowanie aplikacji oraz minimalizowanie wpływu błędów programowych na ogólne działanie systemu. Ponadto, Menedżer zadań umożliwia śledzenie zasobów systemowych, co pozwala na identyfikację aplikacji obciążających CPU, pamięć RAM czy dysk. To narzędzie jest nieocenione dla administratorów systemów oraz zaawansowanych użytkowników, którzy chcą utrzymywać system w optymalnym stanie.

Pytanie 5

Na podstawie danych zawartych w tabeli dotyczącej specyfikacji płyty głównej, wskaż maksymalną liczbę kart rozszerzeń, które można zainstalować w magistrali Peripheral Component Interconnect.

A. 5
B. 3
C. 2
D. 1

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybór liczby 5 jako maksymalnej liczby kart rozszerzeń, które można podłączyć do magistrali Peripheral Component Interconnect (PCI), jest poprawny, ponieważ specyfikacja płyty głównej wskazuje na obecność 5 slotów PCI. Standard PCI, który został wprowadzony w latach 90-tych, pozwala na podłączenie różnorodnych kart rozszerzeń, takich jak karty dźwiękowe, sieciowe czy graficzne. W praktyce oznacza to, że użytkownik ma możliwość znacznego rozbudowania swojego systemu komputerowego, co jest szczególnie istotne w kontekście wydajności i funkcjonalności. Pozwala to również na łatwe dostosowanie komputera do specyficznych potrzeb użytkownika, na przykład w przypadku gier komputerowych, obróbki wideo czy pracy z dużymi bazami danych. Przy doborze kart rozszerzeń warto również zwrócić uwagę na ich zgodność ze standardami, aby zapewnić stabilność i optymalną wydajność całego systemu. Współczesne systemy często wykorzystują również nowsze wersje magistrali, jak PCI Express, które oferują jeszcze lepsze parametry transferu danych, jednak aby w pełni wykorzystać potencjał płyty głównej, konieczne jest zrozumienie jej właściwości i ograniczeń.

Pytanie 6

Jakim złączem zasilany jest wewnętrzny dysk twardy typu IDE?

A. ATX
B. Molex
C. PCIe
D. SATA
Złącze Molex jest standardowym złączem zasilającym, które było powszechnie stosowane w komputerach stacjonarnych do zasilania różnych komponentów, w tym dysków twardych IDE. Złącze to składa się z czterech pinów, które dostarczają napięcie 5V i 12V, co jest zgodne z wymaganiami zasilania dla dysków twardych IDE. W praktyce, złącza Molex charakteryzują się dużą wytrzymałością i prostotą konstrukcji, co czyni je idealnym rozwiązaniem do trwałego zasilania urządzeń. Wiele starszych komputerów oraz urządzeń peryferyjnych, takich jak napędy CD/DVD, również korzysta z tego typu złącza. Dobrą praktyką w branży jest dbanie o odpowiednie połączenie kabli zasilających, aby uniknąć problemów z zasilaniem komponentów oraz ich uszkodzeniem. Warto zauważyć, że choć standard Molex jest coraz rzadziej używany w nowoczesnych konstrukcjach, jego znajomość pozostaje istotna dla specjalistów serwisujących starsze systemy komputerowe.

Pytanie 7

System Windows 8, w którym wcześniej został utworzony punkt przywracania, doświadczył awarii. Jakie polecenie należy wydać, aby przywrócić ustawienia i pliki systemowe?

A. replace
B. reload
C. rootkey
D. rstrui
Polecenie 'rstrui' to skrót od "System Restore Utility", które jest używane w systemach Windows, w tym Windows 8, do przywracania systemu do wcześniejszego stanu za pomocą punktów przywracania. Gdy system operacyjny ulega awarii lub występują problemy z jego wydajnością, użytkownicy mogą skorzystać z tej funkcji, aby przywrócić stabilność systemu. Użycie 'rstrui' uruchamia interfejs graficzny, w którym można wybrać dostępny punkt przywracania, co jest istotne, gdyż umożliwia cofnięcie systemu do momentu sprzed wystąpienia problemu. Przykładowo, jeśli zainstalowano nową aplikację, która powoduje konflikty, przywrócenie systemu do stanu sprzed tej instalacji pozwala na rozwiązanie problemu bez konieczności reinstalacji systemu czy aplikacji. Dobrą praktyką jest regularne tworzenie punktów przywracania przed istotnymi zmianami w systemie, co pozwala na łatwiejsze zarządzanie i naprawę systemu w przyszłości.

Pytanie 8

Równoważnym zapisem 232 bajtów jest zapis

A. 8GB
B. 1GiB
C. 4GiB
D. 2GB
W przypadku zamiany 2^32 bajtów na jednostki pojemnościowe pojawia się dość częsty błąd myślowy polegający na mieszaniu jednostek opartych na systemie dziesiętnym (GB) z tymi binarnymi (GiB). Przykładowo, 1 GiB to 1 073 741 824 bajtów (czyli 1024^3), natomiast 1 GB według SI to 1 000 000 000 bajtów. To rozróżnienie jest ważne, bo producenci sprzętu często korzystają z gigabajtów (GB) do opisu pojemności dysków twardych czy pendrive’ów, co czasem prowadzi do nieporozumień przy użytkowaniu tych urządzeń w systemach operacyjnych, które z kolei działają na gibibajtach (GiB). Stąd zapis 2 GB czy 8 GB po prostu nie pasuje do 2^32 bajtów, bo 2^32 to 4 294 967 296 bajtów, a 2 GB to ledwie połowa tej wartości, natomiast 8 GB to prawie dwa razy więcej niż 2^32 bajtów, i to jeszcze przy założeniu systemu dziesiętnego. Z mojego doświadczenia wynika, że nawet osoby zaawansowane technicznie czasami błędnie utożsamiają GB z GiB, co potem skutkuje niejasnościami, np. przy partycjonowaniu dysku lub określaniu limitów pamięci RAM w środowiskach serwerowych. Podobnie, 1 GiB to tylko 1024^3 bajtów, więc 2^32 bajtów to dokładnie cztery takie porcje, a nie jedna. W branżowych standardach, takich jak normy IEC 60027-2 oraz ISO/IEC 80000-13, jasno jest rozdzielone, co oznaczają te przedrostki. Powiem szczerze, że mieszanie jednostek to jeden z bardziej upierdliwych szczegółów informatyki, który potrafi napsuć krwi przy pracy z dużymi plikami czy konfiguracją serwerów. Warto więc zawsze sprawdzać, o jaką jednostkę chodzi, a jeszcze lepiej trzymać się binarnych, gdy rozmawiamy o pamięci „technicznej”.

Pytanie 9

Po przeprowadzeniu eksportu klucza HKCR zostanie utworzona kopia rejestru, zawierająca dane dotyczące konfiguracji

A. pulpitu aktualnie zalogowanego użytkownika
B. powiązań między typami plików a aplikacjami
C. kont użytkowników
D. sprzętu komputera
Eksportując klucz HKCR (HKEY_CLASSES_ROOT) w systemie Windows, otrzymujemy kopię rejestru, która zawiera kluczowe informacje dotyczące powiązań między typami plików a zainstalowanymi aplikacjami. Klucz ten jest odpowiedzialny za kojarzenie rozszerzeń plików z odpowiednimi programami, co pozwala systemowi operacyjnemu na prawidłowe otwieranie plików. Na przykład, rozszerzenie .txt jest zazwyczaj powiązane z edytorem tekstu, takim jak Notepad. W praktyce, dzięki temu, że użytkownicy mogą eksportować i importować te ustawienia, mogą łatwo przenosić swoje preferencje i konfiguracje między różnymi systemami, co jest szczególnie przydatne w środowiskach korporacyjnych lub w trakcie migracji danych. Dobre praktyki obejmują tworzenie kopii zapasowych przed wprowadzeniem jakichkolwiek zmian w rejestrze oraz dokładne dokumentowanie wszelkich powiązań, aby uniknąć problemów z otwieraniem plików po migracji.

Pytanie 10

Wszystkie ustawienia użytkowników komputera są przechowywane w gałęzi rejestru oznaczonej akronimem

A. HKCC
B. HKCU
C. HKLM
D. HKCR
HKCU, czyli HKEY_CURRENT_USER, to gałąź rejestru systemu Windows, która zawiera ustawienia konfiguracyjne dla zalogowanego użytkownika. W tej gałęzi przechowywane są dane dotyczące preferencji użytkownika, takie jak ustawienia pulpitu, preferencje aplikacji oraz inne osobiste ustawienia, co czyni ją kluczowym elementem w zarządzaniu środowiskiem użytkownika. Przykładowo, jeśli użytkownik zmienia tapetę na pulpicie, zmiany te są zapisywane w HKCU, umożliwiając systemowi Windows przywrócenie tych ustawień przy kolejnej sesji. Z perspektywy administracji systemem, zrozumienie i umiejętność manipulacji danymi w tej gałęzi rejestru są niezbędne, szczególnie podczas rozwiązywania problemów związanych z ustawieniami użytkownika. Dobrą praktyką jest regularne tworzenie kopii zapasowych rejestru przed wprowadzeniem jakichkolwiek zmian, co pozwoli na łatwe przywrócenie wcześniejszych konfiguracji w przypadku niepożądanych skutków.

Pytanie 11

Interfejs, którego magistrala kończy się elementem przedstawionym na ilustracji, jest typowy dla

Ilustracja do pytania
A. ATAPI
B. SATA
C. UDMA
D. SCSI
Odpowiedź SCSI jest poprawna ponieważ ten interfejs tradycyjnie korzysta z zewnętrznych i wewnętrznych kabli zakończonych charakterystycznymi 50-pinowymi złączami Centronics albo 68-pinowymi złączami na potrzeby SCSI-2 i nowszych standardów Element przedstawiony na obrazku najprawdopodobniej jest złączem Centronics które jest typowe dla starszych implementacji SCSI zwłaszcza w systemach drukarek skanerów i urządzeń peryferyjnych SCSI w odróżnieniu od innych technologii pozwala na podłączanie wielu urządzeń do jednej magistrali co czyni go szczególnie przydatnym w środowiskach serwerowych i profesjonalnych SCSI oferuje również wysokie prędkości transferu danych oraz obsługę komend kolejkujących co zapewnia lepszą wydajność przy jednoczesnym działaniu wielu urządzeń Dodatkowo SCSI obsługuje szeroki wachlarz urządzeń takich jak dyski twarde napędy taśmowe oraz skanery co zwiększa jego wszechstronność i zastosowanie w różnych konfiguracjach Wybierając SCSI użytkownik zyskuje na elastyczności i wydajności co jest kluczowe w profesjonalnych rozwiązaniach z dużym obciążeniem operacyjnym

Pytanie 12

W systemie Linux narzędzie iptables wykorzystuje się do

A. konfigurowania zdalnego dostępu do serwera
B. konfigurowania serwera pocztowego
C. konfigurowania karty sieciowej
D. konfigurowania zapory sieciowej
Iptables to bardzo ważne narzędzie w Linuxie, które pozwala na zarządzanie ruchem w sieci. Dzięki niemu, administratorzy mogą na przykład ustawienia zabezpieczeń. Iptables działa na poziomie jądra systemu, co oznacza, że jest w stanie filtrować pakiety w czasie rzeczywistym. Możesz tworzyć różne reguły, które mówią, które pakiety można przyjąć, a które powinny być zablokowane. Na przykład, jeśli chcesz zablokować niechciany ruch z konkretnego adresu IP, to iptables to umożliwia. Ciekawe jest też to, że iptables używa tzw. łańcuchów do organizowania reguł, co zdecydowanie ułatwia sprawę. Pamiętaj, aby regularnie przeglądać i aktualizować swoje reguły, to ważne dla bezpieczeństwa. Dobre praktyki w tym zakresie nie tylko chronią Twoją sieć, ale też pomagają w szybkim rozwiązywaniu ewentualnych problemów.

Pytanie 13

Jaką fizyczną topologię sieci komputerowej przedstawiono na załączonym rysunku?

Ilustracja do pytania
A. topologię magistrali
B. topologię gwiazdy
C. topologię gwiazdy rozszerzonej
D. topologię hierarchiczną
Topologia hierarchiczna, zwana również topologią drzewa, jest strukturą sieci, gdzie urządzenia są zorganizowane w sposób przypominający drzewo. Główna cecha tej topologii to hierarchiczne połączenie urządzeń, gdzie każde urządzenie może mieć wiele połączeń z urządzeniami niższego poziomu. W tej strukturze centralne urządzenia są połączone z urządzeniami podrzędnymi, co zapewnia skalowalność i łatwość zarządzania. Topologia hierarchiczna jest często stosowana w dużych sieciach korporacyjnych, gdzie wymagana jest infrastruktura, która może się łatwo rozwijać wraz z rosnącymi potrzebami firmy. Taka organizacja umożliwia efektywne zarządzanie ruchem sieciowym i łatwe lokalizowanie usterek. W przypadku awarii jednego elementu sieci, inne mogą nadal funkcjonować, co zwiększa niezawodność systemu. Przykładem praktycznego zastosowania topologii hierarchicznej jest struktura sieci w dużych organizacjach, gdzie są stosowane wielopoziomowe systemy przełączników i routerów, które łączą różne działy i oddziały firmy. Dzięki temu można skutecznie zarządzać ruchem danych i zapewnić odpowiednią przepustowość dla różnych aplikacji biznesowych.

Pytanie 14

Jaką maksymalną liczbę hostów można przypisać w sieci o adresie IP klasy B?

A. 65535
B. 1022
C. 16777214
D. 254
Odpowiedź 65535 jest prawidłowa, ponieważ w sieci klasy B mamy 16 bitów przeznaczonych na część hostową adresu IP. Całkowita liczba adresów, które można zaadresować w danej podsieci, wynika z równania 2^n, gdzie n to liczba bitów dostępnych dla hostów. W przypadku klasy B, 16 bitów dla hostów daje 2^16, co wynosi 65536 adresów. Jednak z tego należy odjąć dwa adresy: jeden to adres sieci (wszystkie bity hostowe ustawione na 0), a drugi to adres rozgłoszeniowy (wszystkie bity hostowe ustawione na 1). W rezultacie otrzymujemy 65536 - 2 = 65534. Dla praktycznych zastosowań w sieciach klasy B, które są często używane w średnich i dużych organizacjach, należy znać te liczby, aby efektywnie planować i zarządzać adresacją IP. W kontekście dobrych praktyk, istotne jest także, aby pamiętać o rezerwowaniu adresów dla urządzeń sieciowych, co może jeszcze bardziej zmniejszyć liczbę dostępnych adresów dla hostów."

Pytanie 15

Który protokół przesyła datagramy bez gwarancji ich dostarczenia?

A. HTTP
B. ICMP
C. TCP
D. UDP
UDP (User Datagram Protocol) to protokół komunikacyjny, który charakteryzuje się brakiem gwarancji dostarczenia przesyłanych datagramów. Oznacza to, że nie zapewnia on mechanizmów kontroli błędów ani retransmisji, co prowadzi do sytuacji, w których datagramy mogą zostać zgubione, zduplikowane lub dotrzeć w niewłaściwej kolejności. Taki model jest szczególnie przydatny w aplikacjach, gdzie szybkość przesyłania danych jest kluczowa, a małe opóźnienia są akceptowalne. Przykładem zastosowania UDP jest transmisja strumieniowa audio i wideo, gdzie utrata kilku pakietów nie wpływa znacząco na jakość odbioru. Inne zastosowania to gry online i protokoły takie jak DNS (Domain Name System), które wymagają szybkiego przesyłania niewielkich ilości danych. Warto pamiętać, że dzięki swojej prostocie i wydajności, UDP jest często wybierany w sytuacjach, gdzie priorytetem jest czas, a nie niezawodność dostarczenia.

Pytanie 16

Jakie polecenie powinno być użyte do obserwacji lokalnych połączeń?

A. netstat
B. dir
C. host
D. route add
Odpowiedź 'netstat' jest poprawna, ponieważ jest to narzędzie służące do monitorowania i analizy połączeń sieciowych na lokalnym komputerze. Umożliwia ono wyświetlenie aktywnych połączeń TCP i UDP, a także pozwala na identyfikację portów, stanów połączeń oraz adresów IP. Dzięki temu administratorzy systemów i sieci mogą śledzić bieżące aktywności sieciowe, co jest kluczowe w kontekście zarządzania bezpieczeństwem oraz wydajnością systemu. Przykładowo, użycie polecenia 'netstat -a' pozwala na zobaczenie wszystkich aktywnych połączeń oraz portów nasłuchujących. Warto również zaznaczyć, że 'netstat' jest zgodny z wieloma standardami branżowymi i jest powszechnie stosowane w administracji systemowej jako narzędzie do diagnozowania problemów z siecią. Dodatkowo, w czasach wzrastającej liczby ataków sieciowych, znajomość tego narzędzia staje się niezbędna do skutecznego monitorowania i reagowania na potencjalne zagrożenia.

Pytanie 17

Za pomocą narzędzia diagnostycznego Tracert można ustalić trasę do punktu docelowego. Przez ile routerów przeszedł pakiet wysłany dl hosta 172.16.0.99?

C:\>tracert 172.16.0.99
Trasa śledzenia do 172.16.0.99 z maksymalną liczbą przeskoków 30
 
12 ms3 ms2 ms10.0.0.1
212 ms8 ms8 ms192.168.0.1
310 ms15 ms10 ms172.17.0.2
411 ms11 ms20 ms172.17.48.14
521 ms16 ms24 ms172.16.0.99
 
Śledzenie zakończone.
A. 5
B. 24
C. 2
D. 4
Wybór wartości 2, 4 czy 24 oznacza błędne zrozumienie działania narzędzia Tracert oraz znaczenia poszczególnych przeskoków w trasie pakietu. Wartość 2 wskazuje na zbyt małą liczbę, co sugeruje, że użytkownik mógł przeoczyć kilka routerów na trasie. Z kolei odpowiedź 4, choć wydaje się bliska prawidłowej, jest nieprecyzyjna, ponieważ nie uwzględnia wszystkich skoków w raportowanych wynikach. Odpowiedź 24 jest całkowicie błędna, ponieważ oznaczałaby, że pakiet przeszedł przez 24 różne urządzenia sieciowe, co jest niezgodne z przedstawionymi wynikami. Typowym błędem myślowym, który prowadzi do takich niepoprawnych wniosków, jest zapominanie, że każdy wynik Tracert reprezentuje osobny przeskok, a nie grupy urządzeń. Użytkownicy często mylą liczbę przeskoków z innymi wartościami, takimi jak czas odpowiedzi, co może prowadzić do nieporozumień. Aby zrozumieć działanie Tracert, kluczowe jest zrozumienie samej koncepcji przeskoków w sieci. Przeskoki są fundamentalnym elementem w topologii sieci, a każdy router pełni rolę w przekazywaniu pakietów do celu. Dlatego dla właściwej analizy ścieżki pakietu konieczne jest zwrócenie uwagi na każdy z routerów, a nie tylko na końcowy adres IP.

Pytanie 18

Na diagramie zaprezentowano strukturę

Ilustracja do pytania
A. Siatki
B. Podwójnego pierścienia
C. Gwiazdy
D. Magistrali
Topologia gwiazdy, w której wszystkie urządzenia są podpięte do jednego centralnego punktu, jak hub czy switch, ma jedną dużą wadę - jeśli to centralne urządzenie się popsuje, to cała sieć pada. Jasne, jest łatwiejsza w ustawieniu i zarządzaniu, ale brakuje jej tego poziomu redundancji, który ma siatka. Z kolei topologia magistrali, gdzie wszystkie urządzenia łączą się do jednego medium, ma też swoje problemy z ograniczoną przepustowością i trudnościami w diagnozowaniu usterek. Jeszcze gorzej, im więcej urządzeń, tym większe ryzyko kolizji sygnału, co może spowodować problemy z wydajnością. Podwójny pierścień wygląda lepiej, bo ma dodatkową drogę awaryjną, ale przesyłanie danych wciąż jest sekwencyjne, a to sprawia, że może działać wolniej niż w pełnej siatce. Dodatkowo, konfiguracja pierścieni bywa bardziej skomplikowana, bo każde dodanie lub usunięcie węzła wymaga przynajmniej drobnej rekonfiguracji. Dlatego w nowoczesnych sieciach, moim zdaniem, topologia siatki wypada najlepiej, bo oferuje dużą elastyczność i niezawodność.

Pytanie 19

W dokumentacji technicznej efektywność głośnika podłączonego do komputera wyraża się w jednostce

A. W
B. J
C. kHz
D. dB
Podczas analizy jednostek miary efektywności głośnika, ważne jest zrozumienie, że odpowiedzi J, W i kHz nie odnoszą się bezpośrednio do wydajności głośników. Joule (J) jest jednostką energii, a nie dźwięku, więc nie ma zastosowania w kontekście efektywności głośników podłączonych do komputera. Wat (W) z kolei mierzy moc, co również nie przekłada się bezpośrednio na efektywność głośnika, chociaż jest to istotny parametr, który może wpływać na maksymalny poziom głośności. Zrozumienie różnicy między mocą a efektywnością jest kluczowe dla dobrego doboru sprzętu audio. Kilohertz (kHz) mierzy częstotliwość, a zatem odnosi się do zakresu dźwięków, które głośnik może reprodukować, co jest innym wymiarem niż efektywność. Niezrozumienie tych podstawowych koncepcji prowadzi do błędnych wniosków dotyczących charakterystyki sprzętu audio, co może skutkować wyborami, które nie spełniają oczekiwań użytkownika. Wiedza na temat właściwych jednostek i miar jest niezbędna dla skutecznego doboru i oceny głośników w kontekście ich zastosowania w różnych warunkach dźwiękowych.

Pytanie 20

Aby zasilić najbardziej wydajne karty graficzne, konieczne jest dodatkowe 6-pinowe gniazdo zasilacza PCI-E, które dostarcza napięcia

A. +3,3 V, +5 V, +12 V
B. +12 V na 3 liniach
C. +3,3 V oraz +5 V
D. +5 V na 3 liniach
Odpowiedź +12 V na 3 liniach jest prawidłowa, ponieważ standardowe 6-pinowe złącze PCI-E, używane do zasilania kart graficznych, dostarcza trzy linie z napięciem +12 V. W przypadku nowoczesnych kart graficznych, które mają wysokie wymagania energetyczne, zasilanie z tego złącza jest kluczowe dla zapewnienia stabilnej pracy. Przykładem zastosowania tego złącza może być zasilanie kart graficznych w komputerach do gier, stacjach roboczych oraz serwerach, gdzie wydajność graficzna jest kluczowa. Dobre praktyki sugerują, aby użytkownicy upewnili się, że ich zasilacze są certyfikowane i potrafią dostarczyć niezbędną moc oraz, co ważne, zapewniają odpowiednią wentylację oraz zarządzanie ciepłem, aby uniknąć przegrzania komponentów. Zgodność z normami ATX w kwestii zasilania oraz odpowiednie przewody o właściwej średnicy zwiększają bezpieczeństwo i stabilność działania systemu.

Pytanie 21

Jak można zwolnić miejsce na dysku, nie tracąc przy tym danych?

A. defragmentację dysku
B. oczyszczanie dysku
C. backup dysku
D. sprawdzanie dysku
Oczyszczanie dysku to proces, który pozwala na zwolnienie miejsca na dysku twardym poprzez usunięcie zbędnych plików, takich jak pliki tymczasowe, cache przeglądarek, pliki logów, a także pliki w koszu. Jest to kluczowy krok w utrzymaniu sprawności systemu operacyjnego oraz optymalizacji jego działania. Oczyszczanie dysku można wykonać za pomocą wbudowanego narzędzia w systemie Windows, które umożliwia skanowanie systemu i wybór elementów do usunięcia. Dobrą praktyką jest regularne przeprowadzanie tego procesu, co nie tylko zwalnia miejsce na dysku, ale także poprawia wydajność systemu. W kontekście standardów branżowych, regularne oczyszczanie dysku zaleca się w ramach utrzymania infrastruktury IT, co wpływa na długowieczność sprzętu. Warto również pamiętać, że przed przystąpieniem do oczyszczania, użytkownicy powinni wykonać kopię zapasową ważnych danych, co jest elementem ogólnych zasad zarządzania danymi.

Pytanie 22

Jakie urządzenie wskazujące działa na podstawie zmian pojemności elektrycznej?

A. touchpad
B. trackpoint
C. wskaźnik
D. joystick
Touchpad to taki fajny wynalazek, który działa na zasadzie wykrywania zmian w pojemności elektrycznej. Kiedy dotykasz jego powierzchni, to w zasadzie dzięki temu pomiarowi można precyzyjnie określić, gdzie go dotykasz. To świetne rozwiązanie, zwłaszcza w laptopach i tabletach, gdzie miejsca na tradycyjne urządzenia wskazujące jest mało. Możesz zobaczyć touchpady w różnych sprzętach, gdzie służą np. do sterowania grafiką czy po prostu do przeglądania systemu. W branży komputerowej touchpady stały się standardem, bo są wygodne i proste w użyciu. Co więcej, nowoczesne touchpady często obsługują gesty, co zwiększa ich funkcjonalność. Z mojego doświadczenia, warto znać te różnice, bo pomaga to w lepszym korzystaniu z urządzeń.

Pytanie 23

Oblicz koszt realizacji okablowania strukturalnego od 5 punktów abonenckich do panelu krosowego, wliczając wykonanie kabli łączących dla stacji roboczych. Użyto przy tym 50 m skrętki UTP. Każdy punkt abonencki posiada 2 gniazda typu RJ45.

MateriałJednostkaCena
Gniazdo podtynkowe 45x45, bez ramki, UTP 2xRJ45 kat.5eszt.17 zł
UTP kabel kat.5e PVC 4PR 305mkarton305 zł
RJ wtyk UTP kat.5e beznarzędziowyszt.6 zł
A. 255,00 zł
B. 345,00 zł
C. 350,00 zł
D. 152,00 zł
Poprawna odpowiedź 255,00 zł wynika z dokładnej analizy kosztów materiałów użytych do wykonania okablowania strukturalnego. Zaczynając od 5 punktów abonenckich każdy z nich wymaga jednej jednostki gniazda podtynkowego w cenie 17 zł za sztukę co daje łączny koszt 85 zł. Następnie użyto 50 m skrętki UTP kat. 5e. Cena kartonu 305 m wynosi 305 zł co oznacza że cena za metr wynosi 1 zł dlatego koszt zakupu 50 m to 50 zł. Do każdego z 5 punktów abonenckich należy zamontować dwa wtyki RJ45 co daje łącznie 10 wtyków w cenie 6 zł za sztukę co sumuje się do 60 zł. Również wykonanie kabli połączeniowych z panelu krosowego do stacji roboczych wymaga dodatkowych wtyków RJ45. Przyjmując że każdy kabel połączeniowy używa dwóch wtyków a łączna liczba stacji roboczych wynosi 5 należy dodać 10 wtyków co daje dodatkowe 60 zł. Łączny koszt wszystkich komponentów to 85 zł za gniazda 50 zł za kabel oraz 120 zł za wtyki RJ45 co razem daje poprawną odpowiedź 255 zł. Takie podejście do kalkulacji kosztów jest zgodne z normami i dobrymi praktykami w branży IT zapewniając dokładne i efektywne planowanie infrastruktury sieciowej.

Pytanie 24

Która z możliwości konfiguracji ustawień dla użytkownika z ograniczonymi uprawnieniami w systemie Windows jest oferowana przez przystawkę secpol?

A. Usunięcie historii ostatnio otwartych dokumentów
B. Blokada wybranych elementów w panelu sterowania
C. Odebranie prawa do zapisu na płytach CD
D. Zezwolenie na modyfikację czasu systemowego
Odpowiedź "Zezwolenie na zmianę czasu systemowego" jest rzeczywiście dobra, bo przystawka secpol.msc, czyli Edytor lokalnych zasad zabezpieczeń, pozwala administratorom na zarządzanie ustawieniami uprawnień. Dzięki temu, użytkownicy z ograniczonymi prawami mogą zmieniać czas systemowy, co jest ważne, zwłaszcza w przypadkach, gdy trzeba synchronizować czas z serwerami NTP. Przykładowo, w dużych firmach, gdzie czas jest synchronizowany z zewnętrznymi źródłami, brak możliwości zmienienia czasu przez użytkowników może skutkować problemami, np. z logowaniem albo działaniem aplikacji. Dlatego dobrze jest, żeby użytkownicy mieli dostęp tylko do tych funkcji, które są im potrzebne w pracy, bo to zwiększa bezpieczeństwo i stabilność systemu.

Pytanie 25

Jakie zagrożenie nie jest eliminowane przez program firewall?

A. Dostęp do systemu przez hakerów
B. Ataki powodujące zwiększony ruch w sieci
C. Wirusy rozprzestrzeniające się za pomocą poczty e-mail
D. Szpiegowanie oraz kradzież poufnych informacji użytkownika
Każda z wymienionych odpowiedzi, które sugerują, że firewall może chronić przed różnymi zagrożeniami, prowadzi do błędnych wniosków i zrozumienia roli tego narzędzia w architekturze zabezpieczeń. Uzyskanie dostępu do komputera przez hakerów, szpiegowanie oraz wykradanie poufnych danych użytkownika, a nawet ataki generujące wzmożony ruch w sieci, to scenariusze, na które firewalle mogą reagować, ale nie są one w stanie skutecznie zapobiegać. Na przykład, firewalle filtrują ruch sieciowy i mogą blokować nieautoryzowane połączenia, ale nie są wystarczające do ochrony przed atakami typu social engineering, które często są wykorzystywane przez hakerów do uzyskania dostępu do systemów. Ponadto, wirusy rozprzestrzeniające się pocztą e-mail mogą być zainstalowane na komputerze użytkownika poprzez otwarcie zainfekowanego załącznika, co pokazuje, że firewalle, które nie analizują treści wiadomości, nie mają możliwości zapobiegania takim incydentom. Dlatego kluczowe jest zrozumienie, że firewalle są tylko jednym z wielu elementów składających się na kompleksowy system bezpieczeństwa, a ignorowanie tego faktu może prowadzić do poważnych luk w zabezpieczeniach.

Pytanie 26

Aby połączyć projektor multimedialny z komputerem, złącze, którego NIEDOZWOLONO użyć to

A. SATA
B. USB
C. D-SUB
D. HDMI
Złącze SATA (Serial ATA) jest standardem zasilania i przesyłania danych, które jest przede wszystkim używane w dyskach twardych i napędach SSD. Nie służy do przesyłania sygnału wideo, co czyni je niewłaściwym wyborem do podłączenia projektora multimedialnego. Standardy HDMI, USB oraz D-SUB są powszechnie wykorzystywane do przesyłania obrazu i dźwięku. HDMI (High-Definition Multimedia Interface) jest najbardziej popularnym złączem, które obsługuje wysoką jakość obrazu i dźwięku w jednym kablu. USB (Universal Serial Bus) może być także używane w przypadku nowoczesnych projektorów, które potrafią odbierać dane wideo z urządzeń mobilnych. D-SUB, czyli VGA (Video Graphics Array), to starszy standard, który wciąż znajduje zastosowanie w niektórych urządzeniach, szczególnie w starszych projektorach. Wybór odpowiedniego złącza do projektora zależy od specyfikacji urządzenia oraz wymagań dotyczących jakości sygnału. Zrozumienie różnic między tymi złączami jest kluczowe dla prawidłowego połączenia sprzętu i uzyskania optymalnych wyników wizualnych.

Pytanie 27

Jak nazywa się protokół, który pozwala na ściąganie wiadomości e-mail z serwera?

A. SMTP
B. FTP
C. DNS
D. POP3
Protokół POP3 (Post Office Protocol version 3) jest standardem komunikacyjnym, który umożliwia pobieranie wiadomości e-mail z serwera pocztowego na lokalny komputer użytkownika. Używając POP3, użytkownicy mogą pobierać swoje wiadomości, które następnie są przechowywane lokalnie, co sprawia, że dostęp do nich jest możliwy także bez połączenia z internetem. Protokół ten działa w trybie 'pobierania', co oznacza, że po ściągnięciu wiadomości z serwera, są one zazwyczaj usuwane z serwera, co zmniejsza jego obciążenie. Praktyczna aplikacja POP3 jest szczególnie przydatna w przypadku użytkowników, którzy korzystają z jednego urządzenia do przeglądania poczty i nie potrzebują synchronizacji wiadomości między różnymi urządzeniami. W kontekście branżowych standardów, POP3 jest często używany w połączeniu z protokołami zabezpieczeń, takimi jak SSL/TLS, aby zapewnić bezpieczeństwo przesyłanych danych. Zrozumienie działania POP3 i jego zastosowania jest kluczowe dla każdej osoby zajmującej się administracją systemów pocztowych lub dla użytkowników, którzy pragną efektywnie zarządzać swoją korespondencją.

Pytanie 28

Komputery K1, K2, K3, K4 są podłączone do interfejsów przełącznika, które są przypisane do VLAN-ów wymienionych w tabeli. Które z tych komputerów mają możliwość komunikacji ze sobą?

Nazwa komputeraAdres IPNazwa interfejsuVLAN
K110.10.10.1/24F1VLAN 10
K210.10.10.2/24F2VLAN 11
K310.10.10.3/24F3VLAN 10
K410.10.11.4/24F4VLAN 11
A. K1 i K2
B. K1 i K4
C. K1 z K3
D. K2 i K4
Komputery K1 i K3 mogą się ze sobą komunikować, ponieważ są przypisane do tego samego VLAN-u, czyli VLAN 10. W sieciach komputerowych VLAN (Virtual Local Area Network) to logiczna sieć, która pozwala na oddzielenie ruchu sieciowego w ramach wspólnej infrastruktury fizycznej. Przypisanie urządzeń do tego samego VLAN-u umożliwia im komunikację tak, jakby znajdowały się w tej samej sieci fizycznej, mimo że mogą być podłączone do różnych portów przełącznika. Jest to podstawowa praktyka w zarządzaniu sieciami, szczególnie w dużych infrastrukturach, gdzie organizacja sieci w różne VLAN-y poprawia wydajność i bezpieczeństwo. Komputery w różnych VLAN-ach domyślnie nie mogą się komunikować, chyba że zostaną skonfigurowane odpowiednie reguły routingu lub zastosowane mechanizmy takie jak routery między VLAN-ami. Praktyczne zastosowanie VLAN-ów obejmuje segmentację sieci dla różnych działów w firmie lub rozgraniczenie ruchu danych i głosu w sieciach VoIP. Zrozumienie działania VLAN-ów jest kluczowe dla zarządzania nowoczesnymi sieciami, ponieważ pozwala na efektywne zarządzanie zasobami oraz minimalizowanie ryzyka związanego z bezpieczeństwem danych.

Pytanie 29

Po włączeniu komputera wyświetlił się komunikat: Non-system disk or disk error. Replace and strike any key when ready. Co może być tego przyczyną?

A. uszkodzony kontroler DMA
B. dyskietka włożona do napędu
C. skasowany BIOS komputera
D. brak pliku NTLDR
Patrząc na inne odpowiedzi, można zauważyć, że uszkodzony kontroler DMA tak naprawdę nie ma związku z komunikatami, które dostajesz z brakiem systemu. Kontroler DMA to coś, co połącza pamięć z urządzeniami, ale nie zajmuje się uruchamianiem systemu. Owszem, może sprawiać inne kłopoty, ale nie te konkretne komunikaty. Z kolei brak pliku NTLDR, mimo że może dawać podobne błędy, ma więcej wspólnego z twardym dyskiem, na którym jest system. NTLDR to ważny plik, ale jeśli komunikat dotyczy dyskietki, to sprawa jest inna. A co do skasowanego BIOS-u, to też nie jest przyczyną tego błędu. Skasowany BIOS mógłby całkowicie uniemożliwić uruchomienie komputera, ale nie spowodowałby błędu z „Non-system disk”. Zrozumienie tego typu rzeczy jest naprawdę ważne w diagnozowaniu problemów z uruchamianiem komputerów. Każda z innych odpowiedzi może być związana z innymi kwestiami, ale nie dotyczy tej sytuacji opisanej w pytaniu.

Pytanie 30

Jak nazywa się licencja oprogramowania, która pozwala na bezpłatne rozpowszechnianie aplikacji?

A. OEM
B. shareware
C. MOLP
D. freeware
Wybór odpowiedzi OEM (Original Equipment Manufacturer) jest błędny, ponieważ odnosi się do licencji, która umożliwia producentom sprzętu komputerowego instalację oprogramowania na sprzedawanych urządzeniach. Tego rodzaju licencja często wiąże się z ograniczeniami dotyczącymi przenoszenia oprogramowania na inne urządzenia oraz brakiem możliwości jego dalszej sprzedaży. Modele OEM są powszechnie stosowane w branży komputerowej, ale nie pozwalają użytkownikom na swobodne rozpowszechnianie aplikacji. Shareware to kolejny typ licencji, który również jest mylony z freeware. Oprogramowanie shareware jest udostępniane bezpłatnie, ale użytkownicy są zazwyczaj zobowiązani do uiszczenia opłaty po okresie próbnym, co odróżnia je od freeware, które nie wymaga płatności w żadnym momencie. Należy także wspomnieć o MOLP (Microsoft Open License Program), które jest systemem licencjonowania dla firm, umożliwiającym zakup oprogramowania w formie subskrypcji, a nie darmowego rozpowszechniania. Przy wyborze odpowiedzi warto zwrócić uwagę na różnice między tymi modelami licencjonowania, co pomoże uniknąć typowych błędów myślowych, takich jak mylenie darmowych i płatnych warunków użytkowania. Zrozumienie tych różnic jest kluczowe dla właściwego określenia dostępności i warunków korzystania z oprogramowania w różnych kontekstach rynkowych.

Pytanie 31

W systemie Windows, po dezaktywacji domyślnego konta administratora i ponownym uruchomieniu komputera

A. jest dostępne po starcie systemu w trybie awaryjnym
B. pozwala na uruchamianie niektórych usług z tego konta
C. jest niedostępne, gdy system włączy się w trybie awaryjnym
D. nie umożliwia zmiany hasła do konta
W kontekście systemu Windows, istnieje wiele mitów dotyczących funkcji konta administratora, które mogą prowadzić do nieporozumień. Z jednej strony, twierdzenie, że konto administratora nie pozwala na zmianę hasła dostępu, jest błędne. W rzeczywistości administratorzy mają pełną kontrolę nad zarządzaniem użytkownikami, w tym możliwości Resetowania haseł innych kont, co jest kluczowe dla utrzymania bezpieczeństwa systemu. Kolejnym nieporozumieniem jest myślenie, że konto administratora po wyłączeniu jest niedostępne w trybie awaryjnym. Jak już wspomniano, konto to jest dostępne w trybie awaryjnym, co ma na celu umożliwienie rozwiązywania problemów, a nie ograniczenie dostępu do zarządzania systemem. Użytkownicy często nie zdają sobie sprawy z tego, że tryb awaryjny działa jako narzędzie diagnostyczne, co powinno skłonić ich do wnikliwego zapoznania się z dokumentacją systemu. Zrozumienie, jak i dlaczego konto administratora zachowuje dostępność w trybie awaryjnym, jest kluczowe w kontekście zarządzania bezpieczeństwem systemu. Prawidłowe podejście do zarządzania kontami użytkowników oraz zrozumienie ich funkcji w różnych trybach operacyjnych jest istotną umiejętnością, którą każdy administrator powinien posiadać.

Pytanie 32

Jakie są różnice pomiędzy poleceniem ps a poleceniem top w systemie Linux?

A. Polecenie top pozwala na pokazanie PID procesu, a ps nie ma takiej opcji
B. Polecenie top pokazuje aktualnie funkcjonujące procesy w systemie, regularnie aktualizując informacje, podczas gdy ps tego nie robi
C. Polecenie ps nie przedstawia stopnia wykorzystania CPU, natomiast polecenie top oferuje tę funkcjonalność
D. Polecenie ps umożliwia wyświetlenie uprawnień, z jakimi działa proces, co nie jest możliwe w przypadku top
Wielu użytkowników może mylić funkcjonalności poleceń ps i top, co prowadzi do nieporozumień dotyczących ich zastosowania. Zgodnie z odpowiedzią, która stwierdza, że polecenie ps pokazuje stopień wykorzystania CPU, jest to nieprawidłowe, ponieważ ps nie dostarcza danych o użyciu CPU dla procesów. Użytkownicy mogą błędnie zakładać, że ps, jako narzędzie do monitorowania procesów, również dostarcza dynamicznych informacji o ich wydajności. W rzeczywistości ps jest używane do uzyskiwania konkretnego stanu procesów, takich jak PID, użytkownik, który uruchomił proces, oraz jego stan, ale nie zawiera informacji o bieżącym zużyciu zasobów. Z kolei twierdzenie, że polecenie ps pozwala na wyświetlenie uprawnień procesów, a top nie, jest również mylne. Top pokazuje wiele informacji, w tym użytkownika, który uruchomił proces, co również odnosi się do jego uprawnień. Z kolei odpowiedź dotycząca PID jest niepoprawna, gdyż zarówno top, jak i ps mogą wyświetlać PID procesów, ale w różnych formatach i kontekstach. Warto zrozumieć, że top jest narzędziem do monitorowania w czasie rzeczywistym, natomiast ps to narzędzie do uzyskiwania statycznych informacji na temat procesów, co jest kluczowe dla efektywnego zarządzania procesami w systemie Linux.

Pytanie 33

Złącze umieszczone na płycie głównej, które umożliwia podłączanie kart rozszerzeń o różnych ilościach pinów, w zależności od wersji, nazywane jest

A. PCI
B. AGP
C. PCI Express
D. ISA
PCI Express (PCIe) jest nowoczesnym standardem interfejsu, który służy do łączenia kart rozszerzeń z płytą główną komputera. Jako złącze szeregowe, PCIe oferuje znacznie wyższą przepustowość danych w porównaniu do swoich poprzedników, takich jak PCI czy AGP. Dzięki architekturze punkt-punkt, PCIe pozwala na bezpośrednią komunikację pomiędzy urządzeniami, co znacząco zwiększa efektywność transferu danych. Przykładowo, karty graficzne, SSD NVMe i karty dźwiękowe często wykorzystują ten standard, co zapewnia im optymalną wydajność. Standard PCI Express obsługuje różne warianty, takie jak x1, x4, x8 i x16, co pozwala na elastyczne dostosowanie liczby linii transmisyjnych w zależności od potrzeb danego urządzenia. Dobre praktyki branżowe zalecają korzystanie z PCIe, gdyż jego architektura jest zgodna z przyszłymi wymaganiami technologicznymi oraz umożliwia łatwą aktualizację komponentów bez potrzeby zmiany całej płyty głównej.

Pytanie 34

W celu zbudowania sieci komputerowej w danym pomieszczeniu wykorzystano 25 metrów kabli UTP, 5 gniazd RJ45 oraz odpowiednią liczbę wtyków RJ45 potrzebnych do stworzenia 5 kabli połączeniowych typu patchcord. Jaki jest całkowity koszt zastosowanych materiałów do budowy sieci? Ceny jednostkowe materiałów są przedstawione w tabeli.

MaterialJednostka miaryCena
Skrętka UTPm1 zł
Gniazdo RJ45szt.10 zł
Wtyk RJ45szt.50 gr
A. 50 zł
B. 75 zł
C. 90 zł
D. 80 zł
Odpowiedź 80 zł jest poprawna ponieważ przy obliczaniu kosztów sieci komputerowej musimy uwzględnić wszystkie elementy i ich koszty jednostkowe Zgodnie z tabelą skrętka UTP kosztuje 1 zł za metr a potrzebujemy 25 metrów co daje 25 zł Koszt 5 gniazd RJ45 to 5 x 10 zł czyli 50 zł Wtyki RJ45 kosztują 50 groszy za sztukę a potrzebujemy ich 10 więc łączny koszt to 5 zł Dodając wszystkie koszty 25 zł za skrętkę 50 zł za gniazda i 5 zł za wtyki otrzymujemy 80 zł Budowa sieci komputerowej wymaga znajomości standardów takich jak ANSI TIA EIA 568 w zakresie projektowania i instalacji okablowania Ważne jest dobranie odpowiednich materiałów co wpływa na jakość sygnału i trwałość instalacji Skrętka UTP i złącza RJ45 są standardowymi komponentami używanymi w sieciach komputerowych Dzięki temu prawidłowo wykonana instalacja zapewnia stabilne i szybkie połączenia co jest kluczowe w nowoczesnych środowiskach IT

Pytanie 35

Aby zapobiec uszkodzeniu układów scalonych, podczas konserwacji sprzętu komputerowego należy używać

A. opaski antystatycznej
B. rękawiczek gumowych
C. okularów ochronnych
D. rękawiczek skórzanych
Opaska antystatyczna jest kluczowym elementem ochrony podczas naprawy sprzętu komputerowego, ponieważ zapobiega gromadzeniu się ładunków elektrycznych na ciele technika. Te ładunki mogą być niebezpieczne dla wrażliwych układów scalonych, które mogą ulec uszkodzeniu w wyniku wyładowania elektrostatycznego (ESD). Używanie opaski antystatycznej pozwala na odprowadzenie tych ładunków do ziemi, minimalizując ryzyko uszkodzenia komponentów. W praktyce, technicy powinni zawsze zakładać opaskę przed rozpoczęciem pracy z elektroniką, szczególnie w przypadku wymiany lub naprawy podzespołów, takich jak procesory, pamięci RAM czy karty graficzne. Dobre praktyki branżowe zalecają również, aby miejsce pracy było odpowiednio uziemione, co zwiększa efektywność działania opaski. Dodatkowo, stosowanie opasek antystatycznych jest zgodne z normami ochrony przed ESD, takimi jak ANSI/ESD S20.20, które określają wymogi dla stanowisk roboczych zajmujących się elektroniką. Stosowanie ich w codziennej pracy przyczynia się do zwiększenia bezpieczeństwa i niezawodności naprawianego sprzętu.

Pytanie 36

Podczas skanowania reprodukcji obrazu z czasopisma, na skanie obrazu pojawiły się regularne wzory, tak zwana mora. Z jakiej funkcji skanera należy skorzystać, aby usunąć morę?

A. Odrastrowywania.
B. Korekcji Gamma.
C. Skanowania według krzywej tonalnej.
D. Rozdzielczości interpolowanej.
Pojawienie się mory na skanie reprodukcji z czasopisma to bardzo częsty problem, który wynika z interakcji rastrowania druku i siatki sensora skanera. Często pojawia się myślenie, że jakakolwiek ogólna korekcja obrazu, taka jak gamma, rozdzielczość interpolowana czy manipulacja krzywą tonalną, może pomóc – ale to niestety nie działa w tym przypadku. Korekcja Gamma służy do zmiany jasności i kontrastu całego obrazu, co oczywiście wpływa na tonalność, ale nie eliminuje regularnych wzorów powstałych przez nakładanie się rastrów. Rozdzielczość interpolowana to w zasadzie sztuczne „nadmuchanie” liczby pikseli w obrazie, które nie wnosi nowych szczegółów – raczej rozmywa lub powiela artefakty, w tym również morę, przez co może to wręcz pogorszyć sprawę. Skanowanie według krzywej tonalnej polega na dostosowaniu rozkładu jasności i kontrastu w różnych zakresach tonalnych, co ponownie jest przydatne przy korekcji wyglądu zdjęcia, ale nie wpływa na usunięcie mechanicznych, powtarzalnych wzorów. Typowym błędem jest mylenie narzędzi do korekcji obrazu z narzędziami do eliminacji artefaktów technicznych – tu właśnie kryje się pułapka, bo mora to efekt czysto techniczny, wynikający z fizyki i matematyki rastrowania, a nie z ustawień ekspozycji czy kontrastu. W branży poligraficznej i fotograficznej od dawna standardem jest korzystanie z funkcji odrastrowywania, ponieważ tylko takie algorytmy potrafią analizować i niwelować rytmiczne wzory powstałe na styku dwóch siatek rastrowych. Inne metody mogą czasami nieco zamaskować problem, ale nigdy go nie eliminują. Z mojego doświadczenia wynika, że próby „naprawiania” mory innymi ustawieniami prowadzą zwykle do pogorszenia ogólnej jakości obrazu, zamiast rozwiązania problemu u źródła.

Pytanie 37

Wskaż adresy podsieci, które powstaną po podziale sieci o adresie 172.16.0.0/22 na 4 równe podsieci.

A. 172.16.0.0, 172.16.3.0, 172.16.7.0, 172.16.11.0
B. 172.16.0.0, 172.16.7.0, 172.16.15.0, 172.16.23.0
C. 172.16.0.0, 172.16.31.0, 172.16.63.0, 172.16.129.0
D. 172.16.0.0, 172.16.1.0, 172.16.2.0, 172.16.3.0
Poprawnie wybrałeś zestaw adresów podsieci, które powstają po podziale 172.16.0.0/22 na 4 równe części. Rozbijmy to na spokojnie, krok po kroku, tak jak robi się to w praktycznej administracji siecią. Adres 172.16.0.0/22 oznacza maskę 255.255.252.0. Daje to blok o rozmiarze 2^(32−22) = 1024 adresy IP, czyli zakres od 172.16.0.0 do 172.16.3.255. Podział na 4 równe podsieci oznacza, że każda podsieć musi mieć 1024 / 4 = 256 adresów. 256 adresów to klasyczny rozmiar sieci z maską /24 (255.255.255.0). Czyli z /22 przechodzimy na /24, „pożyczając” 2 bity z części hosta. Przy masce /24 rozmiar jednego bloku to 256 adresów, więc adresy sieci będą co 1 w trzecim oktecie: 172.16.0.0/24, 172.16.1.0/24, 172.16.2.0/24, 172.16.3.0/24. To dokładnie te adresy, które są w poprawnej odpowiedzi. Każda z tych podsieci ma zakres: np. 172.16.0.0–172.16.0.255, gdzie .0 to adres sieci, a .255 to adres rozgłoszeniowy (broadcast). Hosty mieszczą się pomiędzy, od .1 do .254. W realnych sieciach taki podział jest typowy np. przy projektowaniu VLAN-ów dla różnych działów firmy: dział biurowy w 172.16.0.0/24, serwis techniczny w 172.16.1.0/24, serwery w 172.16.2.0/24, drukarki i urządzenia IoT w 172.16.3.0/24. Dzięki temu łatwo stosować listy kontroli dostępu (ACL), reguły firewalli i mieć przejrzystą dokumentację. Moim zdaniem warto zapamiętać prostą zasadę: jeśli dzielisz większą sieć na równe podsieci, najpierw liczysz, ile adresów ma cała sieć, potem dzielisz przez liczbę podsieci i sprawdzasz, jakiej maski to odpowiada. To podejście jest zgodne z dobrą praktyką projektowania adresacji w sieciach TCP/IP, jak opisują to chociażby materiały Cisco (CCNA) czy standardowe podręczniki do VLSM i CIDR. W codziennej pracy sieciowca taka umiejętność szybkiego „w głowie” liczenia podsieci naprawdę się przydaje, szczególnie przy planowaniu adresacji w średnich i dużych sieciach.

Pytanie 38

Która pula adresów IPv6 jest odpowiednikiem adresów prywatnych w IPv4?

A. fc00::/7
B. ff00::/8
C. 3ffe::/16
D. fe80::/10
W pytaniu chodzi o znalezienie takiej puli adresów IPv6, która pełni tę samą rolę co prywatne adresy w IPv4, czyli adresy używane wewnątrz sieci, nienadawane w globalnym Internecie i przeznaczone do komunikacji lokalnej lub między zaufanymi lokalizacjami. W IPv4 to dobrze znane zakresy 10.0.0.0/8, 172.16.0.0/12 i 192.168.0.0/16. W IPv6 tę funkcję pełnią adresy ULA z puli fc00::/7, zdefiniowane w RFC 4193. Częsty błąd polega na myleniu różnych typów adresów IPv6, bo ich zapis wygląda podobnie, a nazwy są mało intuicyjne. Zakres 3ffe::/16 historycznie kojarzy się niektórym z adresacją „niespubliczną”, bo był używany w dawnym projekcie 6bone jako testowa sieć IPv6. Ten projekt został jednak dawno wyłączony, a cała pula 3ffe::/16 jest wycofana i nie jest odpowiednikiem prywatnych adresów. To raczej ciekawostka historyczna niż coś, czego używa się w praktyce. Z kolei fe80::/10 to adresy link-local. One faktycznie nie są routowane w Internecie, ale ich przeznaczenie jest zupełnie inne: działają tylko w ramach jednego segmentu sieci (jednego łącza). Służą do autokonfiguracji, protokołów typu Neighbor Discovery, komunikacji z routerem na tym samym VLAN-ie, itp. Nie używa się ich do normalnej adresacji hostów w całej sieci firmowej, bo nie przechodzą przez routery. Mylenie link-local z adresami prywatnymi to dość typowy skrót myślowy: „skoro nie wychodzą na świat, to pewnie prywatne”. Niestety tak to nie działa. Pula ff00::/8 to natomiast adresy multicast w IPv6. One służą do wysyłania pakietu do wielu odbiorców jednocześnie (np. wszystkie routery, wszystkie węzły w sieci lokalnej) i w ogóle nie są przeznaczone do klasycznej adresacji hostów. Podobnie jak w IPv4 adresy multicast (224.0.0.0/4) nie mają nic wspólnego z prywatnymi zakresami. Dobra praktyka w projektowaniu sieci IPv6 jest taka, żeby wyraźnie rozróżniać: global unicast (publiczne), unique local (odpowiednik prywatnych), link-local (tylko na łączu) i multicast. Dopiero wtedy łatwo uniknąć błędnych skojarzeń i problemów z routowaniem czy bezpieczeństwem.

Pytanie 39

Na ilustracji przedstawiono konfigurację dostępu do sieci bezprzewodowej, która dotyczy

Ilustracja do pytania
A. nadania SSID sieci i określenia ilości dostępnych kanałów.
B. ustawienia zabezpieczeń przez wpisanie adresów MAC urządzeń mających dostęp do tej sieci.
C. ustawienia zabezpieczeń poprzez nadanie klucza dostępu do sieci Wi-Fi.
D. podziału pasma przez funkcję QoS.
Na zrzucie ekranu widać typowy panel konfiguracyjny routera w sekcji „Zabezpieczenia sieci bezprzewodowej”. Kluczowe elementy to wybór metody zabezpieczeń (Brak zabezpieczeń, WPA/WPA2-Personal, WPA/WPA2-Enterprise, WEP), wybór rodzaju szyfrowania (np. AES) oraz przede wszystkim pole „Hasło”, w którym definiuje się klucz dostępu do sieci Wi‑Fi. To właśnie ta konfiguracja decyduje, czy użytkownik, który widzi SSID sieci, będzie musiał podać poprawne hasło, żeby się połączyć. Dlatego poprawna odpowiedź mówi o ustawieniu zabezpieczeń poprzez nadanie klucza dostępu do sieci Wi‑Fi. W standardach Wi‑Fi (IEEE 802.11) przyjęło się, że najbezpieczniejszym rozwiązaniem dla użytkownika domowego i małego biura jest tryb WPA2-Personal (lub nowszy WPA3-Personal), z szyfrowaniem AES i silnym hasłem. Tutaj dokładnie to widzimy: wybrany jest WPA/WPA2-Personal, szyfrowanie AES i pole na hasło o długości od 8 do 63 znaków ASCII. To hasło jest w praktyce kluczem pre-shared key (PSK), z którego urządzenia wyliczają właściwe klucze kryptograficzne używane w transmisji radiowej. Z mojego doświadczenia warto stosować hasła długie, przypadkowe, z mieszanką liter, cyfr i znaków specjalnych, a unikać prostych fraz typu „12345678” czy „mojawifi”. W małych firmach i domach to jest absolutna podstawa bezpieczeństwa – bez poprawnie ustawionego klucza każdy sąsiad mógłby podłączyć się do sieci, wykorzystać nasze łącze, a nawet próbować ataków na inne urządzenia w LAN. Dobrą praktyką jest też okresowa zmiana hasła oraz wyłączenie przestarzałych metod, jak WEP, które są uznawane za złamane kryptograficznie. W środowiskach bardziej zaawansowanych stosuje się dodatkowo WPA2-Enterprise z serwerem RADIUS, ale tam również fundamentem jest poprawne zarządzanie kluczami i uwierzytelnianiem użytkowników. Patrząc na panel, widać też opcję częstotliwości aktualizacji klucza grupowego – to dodatkowy mechanizm bezpieczeństwa, który co jakiś czas zmienia klucz używany do ruchu broadcast/multicast. W praktyce w sieciach domowych rzadko się to rusza, ale w sieciach firmowych ma to znaczenie. Cały ten ekran jest więc klasycznym przykładem konfiguracji zabezpieczeń Wi‑Fi opartej właśnie na nadaniu i zarządzaniu kluczem dostępu.

Pytanie 40

Poprawność działania lokalnej sieci komputerowej po modernizacji powinna być potwierdzona

A. fakturami za zakup okablowania i sprzętu sieciowego od licencjonowanych dystrybutorów.
B. wykazem zawierającym zestawienie zmian w strukturze sieci.
C. wynikami pomiarów parametrów okablowania, uzupełnionymi o opis narzędzi testujących i metodologii testowania.
D. normami, według których wykonana została modernizacja.
Poprawna odpowiedź odnosi się do tego, co w praktyce jest jedynym wiarygodnym potwierdzeniem poprawności działania zmodernizowanej sieci: wyników pomiarów parametrów okablowania wraz z dokładnym opisem użytych narzędzi testujących oraz metodologii testowania. Sama modernizacja zgodnie z normami (np. ISO/IEC 11801, EN 50173, TIA/EIA-568) to dopiero połowa sukcesu. Druga połowa to sprawdzenie, czy to, co zaprojektowano i zamontowano, faktycznie spełnia wymagane parametry transmisyjne w realnych warunkach. W sieciach strukturalnych standardem jest wykonywanie certyfikacji okablowania za pomocą mierników klasy certyfikacyjnej (np. Fluke DSX), które potwierdzają takie parametry jak tłumienie, NEXT, PSNEXT, opóźnienie propagacji, długość linii, return loss itd. Bez takich pomiarów możemy tylko wierzyć, że instalacja jest poprawna, ale nie mamy twardych dowodów. Opis użytych narzędzi i metodologii jest równie ważny, bo pozwala powtórzyć testy, zweryfikować ich wiarygodność i porównać wyniki z wymaganiami norm. W dokumentacji powinna znaleźć się informacja, jaki tester zastosowano, jaką klasę/kategorię łącza testowano (np. kat. 6, klasa E), jakie profile testowe, daty pomiarów oraz kto je wykonywał. Z mojego doświadczenia w firmach, gdzie takie pomiary są rzetelnie robione po każdej modernizacji, znacznie rzadziej pojawiają się „dziwne” problemy z prędkością, losowymi rozłączeniami czy błędami w transmisji, które potem ciężko zdiagnozować. W praktyce, kiedy oddaje się sieć klientowi, raport z pomiarów jest traktowany jak certyfikat jakości – to jest dokument, na który można się powołać przy reklamacjach, audytach czy przy późniejszych rozbudowach. Branżowe dobre praktyki mówią wprost: nie ma pomiarów, nie ma pewności co do jakości okablowania, nawet jeśli wszystko wygląda ładnie i jest zgodne „na papierze”.