Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 21 kwietnia 2026 12:15
  • Data zakończenia: 21 kwietnia 2026 12:34

Egzamin zdany!

Wynik: 23/40 punktów (57,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Wskaż koszt brutto wykonanych przez serwisanta usług, jeśli do rachunku doliczony jest również koszt dojazdu w wysokości 55,00 zł netto.

LPWykonana usługaCena usługi netto w złStawka podatku VAT
1.Instalacja/ konfiguracja programu10,0023%
2.Wymiana zasilacza40,00
3.Tworzenie kopii zapasowej i archiwizacja danych40,00
4.Konfiguracja przełącznika25,00
5.Instalacja i konfiguracja skanera45,00
A. 196,80 zł
B. 264,45 zł
C. 160,00 zł
D. 215,00 zł
Obliczenia kosztów serwisowych mogą być naprawdę mylące, co pewnie już zauważyłeś. Koszty netto to te, które widzisz przed dodaniem VAT-u, a brutto to suma netto i VAT-a. Jak źle zrozumiesz te różnice, to możesz pomyśleć, że kwotę brutto po prostu dodajesz w głowie do kosztów netto, co nie jest prawdą. Przykład: jeśli pomyślisz, że koszt dojazdu nie jest objęty VAT-em, to wynik będzie zupełnie błędny. Nieprawidłowości mogą też wystąpić przy liczeniu stawki VAT, bo w Polsce jest 23%. Dlatego każde wyliczenie musi to uwzględniać. Pamiętaj, że usługi serwisowe mogą mieć różne stawki VAT, więc to też może być mylące. I nie zapominaj, że koszt dojazdu także podlega tym samym zasadom VAT jak reszta usług. To wszystko jest ważne, jeśli chcesz prowadzić działalność i nie mieć problemów z urzędami.

Pytanie 2

W systemie Linux, co oznacza znak "~" w ścieżce dostępu do plików?

A. Katalog domowy użytkownika
B. Katalog tymczasowy
C. Katalog główny
D. Katalog root
Znak "~" w systemie Linux jest powszechnie używany jako skrót do katalogu domowego bieżącego użytkownika. Jego zastosowanie jest nie tylko wygodne, ale również zgodne z dobrymi praktykami administracji systemem, gdyż pozwala na szybki dostęp do plików i konfiguracji specyficznych dla danego użytkownika. Na przykład, jeśli użytkownik wpisze w terminalu komendę "cd ~", zostanie przeniesiony bezpośrednio do swojego katalogu domowego, co eliminuje konieczność wpisywania pełnej ścieżki, na przykład "/home/nazwa_użytkownika". Ułatwienie to jest szczególnie przydatne w przypadku użytkowników posiadających długie nazwy katalogów domowych lub w sytuacjach, gdy pracują na wielu kontach jednocześnie. Praktyczne zastosowanie tego skrótu można zauważyć podczas pracy z plikami konfiguracyjnymi, które często znajdują się w katalogu domowym, jak np. ".bashrc" czy ".profile". Rozumienie tego mechanizmu to podstawa efektywnej nawigacji w systemie Linux i zarządzania plikami użytkownika. Można też używać tego znaku w skryptach, co sprawia, że są one dynamicznie dostosowywane do środowiska pracy różnych użytkowników, co jest zgodne z zasadami przenośności i elastyczności w administracji systemami operacyjnymi.

Pytanie 3

Aby zwiększyć wydajność komputera, można zainstalować procesor obsługujący technologię Hyper-Threading, która pozwala na

A. podniesienie częstotliwości pracy zegara
B. przesył danych pomiędzy procesorem a dyskiem twardym z szybkością działania procesora
C. wykonywanie przez jeden rdzeń procesora dwóch niezależnych zadań równocześnie
D. automatyczne dostosowanie częstotliwości rdzeni procesora w zależności od jego obciążenia
Technologia Hyper-Threading, opracowana przez firmę Intel, umożliwia procesorom wykonywanie dwóch wątków jednocześnie na jednym rdzeniu. Oznacza to, że jeden rdzeń procesora, zamiast obsługiwać tylko jedno zadanie w danym czasie, jest w stanie efektywnie dzielić swoje zasoby, co prowadzi do lepszego wykorzystania mocy obliczeniowej. Przykładowo, w sytuacji, gdy aplikacja wykorzystuje wiele wątków, jak programy do renderowania wideo lub obróbki grafiki, Hyper-Threading pozwala na równoległe przetwarzanie danych, co przyspiesza cały proces. Technologia ta jest szeroko stosowana w serwerach i stacjach roboczych, gdzie wydajność wielowątkowa ma kluczowe znaczenie. Warto zaznaczyć, że chociaż Hyper-Threading nie podwaja całkowitej wydajności procesora, jego zastosowanie może znacznie zwiększyć efektywność w bardziej złożonych zadaniach, co jest zgodne z najlepszymi praktykami w obszarze inżynierii komputerowej, gdzie optymalizacja zasobów jest kluczowym celem.

Pytanie 4

Rodzajem złośliwego oprogramowania, którego podstawowym zamiarem jest rozprzestrzenianie się w sieciach komputerowych, jest

A. robak
B. backdoor
C. keylogger
D. trojan
Robak to złośliwe oprogramowanie, które ma zdolność do samodzielnego rozprzestrzeniania się w sieciach komputerowych. W przeciwieństwie do wirusów, które potrzebują hosta do reprodukcji, robaki są autonomiczne i mogą kopiować się z jednego komputera na drugi bez potrzeby interakcji użytkownika. Przykładem robaka jest Blaster, który w 2003 roku wykorzystał lukę w systemie Windows, aby zainfekować miliony komputerów na całym świecie. Robaki często wykorzystują protokoły sieciowe, takie jak TCP/IP, do komunikacji i rozprzestrzeniania się, co czyni je szczególnie niebezpiecznymi. Dobre praktyki w zakresie bezpieczeństwa obejmują regularne aktualizowanie oprogramowania, aby eliminować znane luki, edukowanie użytkowników na temat zagrożeń związanych z otwieraniem nieznanych załączników oraz stosowanie zapór sieciowych, które mogą blokować nieautoryzowane połączenia. Zrozumienie mechanizmów działania robaków jest kluczowe dla skutecznej ochrony przed nimi oraz w odpowiedzi na incydenty związane z bezpieczeństwem sieciowym.

Pytanie 5

Jakiego rodzaju fizycznej topologii sieci komputerowej dotyczy przedstawiony obrazek?

Ilustracja do pytania
A. Pełnej siatki
B. Częściowej siatki
C. Połączenia punkt-punkt
D. Wzór gwiazdy
Topologia pełnej siatki to aranżacja sieci, w której każdy węzeł jest bezpośrednio połączony z każdym innym węzłem. Taka struktura zapewnia wysoką redundancję i niezawodność, ponieważ awaria jednego połączenia nie wpływa na inne, a dane mogą być przesyłane różnymi ścieżkami. Jest to idealne rozwiązanie w sytuacjach, gdzie niezawodność i dostępność są kluczowe, na przykład w systemach finansowych czy komunikacji wojskowej. Koszty wdrożenia i utrzymania są jednak wysokie ze względu na dużą liczbę połączeń potrzebnych do pełnego pokrycia sieci. W praktyce, pełna siatka jest rzadko stosowana w fizycznej formie, ale jej koncepcja jest wykorzystywana w wirtualnych sieciach komputerowych, w których połączenia są realizowane za pomocą odpowiednich protokołów. Implementacja takiej topologii zgodna jest z dobrymi praktykami przemysłowymi w zakresie zapewnienia ciągłości działania i bezpieczeństwa transmisji danych.

Pytanie 6

Przynależność komputera do konkretnej wirtualnej sieci nie może być ustalona na podstawie

A. adresu MAC karty sieciowej komputera
B. numeru portu przełącznika
C. nazwa komputera w sieci lokalnej
D. znacznika ramki Ethernet 802.1Q
Nazwa komputera w sieci lokalnej, znana również jako hostname, jest używana do identyfikacji urządzenia w kontekście komunikacji użytkownik-człowiek. Niemniej jednak, nie ma bezpośredniego związku z przynależnością do konkretnej wirtualnej sieci (VLAN). Wirtualne sieci są definiowane na poziomie sprzętu sieciowego, a ich identyfikacja opiera się na oznaczeniach ramki Ethernet 802.1Q, które umożliwiają segregację ruchu sieciowego w infrastrukturze z wykorzystaniem tagów VLAN. Przydzielony adres MAC karty sieciowej również nie wpływa na przynależność do VLAN, ale jest używany w procesie komunikacji w sieci lokalnej. Natomiast numer portu przełącznika, do którego podłączony jest komputer, ma kluczowe znaczenie w definiowaniu przynależności do VLAN. Przykładem może być środowisko, w którym różne VLANy są skonfigurowane dla różnych działów w firmie – wówczas odizolowanie komunikacji między nimi jest kluczowe dla bezpieczeństwa i zarządzania ruchem sieciowym. Zrozumienie tych różnic jest istotne podczas projektowania sieci.

Pytanie 7

Wskaż rodzaj wtyczki zasilającej, którą należy podłączyć do napędu optycznego podczas montażu komputera.

Ilustracja do pytania
A. C
B. B
C. D
D. A
Podczas analizy różnych typów złączy zasilających można napotkać na kilka typowych błędów wynikających z niewłaściwego rozpoznania ich zastosowania. Jednym z kluczowych złączy które nie jest odpowiednie do podłączenia napędu optycznego jest złącze ATX pokazane jako opcja B. Złącze ATX służy głównie do zasilania płyty głównej i dostarcza różne napięcia potrzebne do pracy procesora i innych komponentów. Często przez swoją wielkość i złożoność wtyk ATX jest mylony z innymi złączami jednak jego specyficzna budowa i liczba pinów jednoznacznie wskazują na jego zastosowanie w obrębie głównego zasilania płyty głównej co wyklucza jego zastosowanie przy napędach optycznych. Kolejnym przykładem błędnego złącza jest złącze PCIe widoczne jako opcja C często używane do zasilania kart graficznych które wymagają dodatkowej mocy. Złącze to dostarcza napięcia 12V i jest wyprofilowane w sposób umożliwiający jego łatwe łączenie z kartami graficznymi które wymagają znacznie większego zasilania niż napędy optyczne. Ostatnim nieprawidłowym odpowiednikiem jest złącze Molex oznaczone jako opcja D jest to standardowe starsze złącze zasilające powszechnie stosowane w komputerach lat 90-tych i wczesnych 2000-tych do zasilania różnych komponentów takich jak dyski twarde i wentylatory. Choć złącze to może zasilać niektóre starsze napędy optyczne jego stosowanie w nowoczesnych systemach jest ograniczone i niezgodne z aktualnymi standardami SATA. Każde z tych złączy ma specyficzne zastosowanie w systemach komputerowych i ich niewłaściwe użycie może prowadzić do problemów z zasilaniem lub uszkodzenia komponentów co podkreśla wagę prawidłowego doboru złączy podczas montażu zestawu komputerowego. Wybór odpowiedniego złącza jest kluczowy dla zapewnienia stabilnej i bezpiecznej pracy systemu komputerowego.

Pytanie 8

Jaką rolę pełni serwer FTP?

A. nadzór nad siecią
B. udostępnianie plików
C. zarządzanie kontami e-mail
D. uzgadnianie czasu
Funkcją serwera FTP (File Transfer Protocol) jest przede wszystkim udostępnianie plików w sieci. Protokół FTP umożliwia przesyłanie danych pomiędzy komputerami w sposób zorganizowany i bezpieczny. Dzięki FTP użytkownicy mogą łatwo wysyłać oraz pobierać pliki z serwera, co jest niezwykle przydatne w różnych zastosowaniach, od przesyłania dokumentów, przez synchronizację zasobów witryn internetowych, aż po zarządzanie danymi w chmurze. W kontekście biznesowym, serwery FTP często są wykorzystywane do udostępniania dużych plików, które nie mogą być przesyłane za pomocą zwykłych wiadomości e-mail. Zastosowanie FTP w branży IT opiera się na standardach IETF RFC 959 oraz 3659, które definiują zasady działania protokołu, co zapewnia dużą interoperacyjność pomiędzy różnymi systemami operacyjnymi. Dodatkowo, wiele firm implementuje zabezpieczenia, takie jak FTP Secure (FTPS) czy SSH File Transfer Protocol (SFTP), aby chronić dane podczas transmisji. W praktyce korzystanie z FTP jest kluczowe w środowiskach, gdzie wymagana jest efektywna wymiana plików w zespole lub z klientami.

Pytanie 9

Który zakres adresów IPv4 jest poprawnie przypisany do danej klasy?

Zakres adresów IPv4Klasa adresu IPv4
A.1.0.0.0 ÷ 127.255.255.255A
B.128.0.0.0 ÷ 191.255.255.255B
C.192.0.0.0 ÷ 232.255.255.255C
D.233.0.0.0 ÷ 239.255.255.255D
A. A
B. C
C. B
D. D
Zrozumienie klas adresów IP jest fundamentalne dla projektowania i zarządzania sieciami komputerowymi. Klasa A obejmuje adresy od 1.0.0.0 do 127.255.255.255, z czego pierwszy oktet jest używany do identyfikacji sieci, a pozostałe trzy dla hostów, co pozwala na 126 sieci z ogromną liczbą hostów, jednak adres 127.0.0.0 jest zarezerwowany dla pętli zwrotnej. Klasa C, od 192.0.0.0 do 223.255.255.255, jest przeznaczona dla małych sieci, oferując dużą liczbę sieci, ale z ograniczoną liczbą hostów – maksymalnie 254 hosty na sieć. Klasa D, zaczynająca się od 224.0.0.0 do 239.255.255.255, jest zarezerwowana dla multicastingu i nie jest używana do adresacji hostów. Często błędnym założeniem jest przypisywanie klasy D do standardowej komunikacji między hostami, co nie jest zgodne z rzeczywistą funkcją tej klasy. Błędy w rozpoznawaniu klas mogą prowadzić do nieefektywnego wykorzystania zasobów adresowych i problemów z routingiem, dlatego ważne jest, aby dobrze rozumieć specyfikacje definiowane przez standardy takie jak RFC 791, które opisują struktury i użycie adresów IP w sieciach komputerowych.

Pytanie 10

Na schemacie blokowym przedstawiającym zasadę działania zasilacza liniowego numerem 5) oznaczono

Ilustracja do pytania
A. wejście prądu przemiennego.
B. układ Graetza.
C. transformator.
D. regulator napięcia prądu stałego.
Na przedstawionym schemacie blokowym zasilacza liniowego numerem 5 oznaczono regulator napięcia prądu stałego, co jest często mylnie interpretowane przez osoby początkujące w elektronice. Wybierając inne odpowiedzi, można łatwo pomylić funkcje poszczególnych bloków. Transformator, oznaczony zwykle jako pierwszy blok od strony wejścia, służy do zmiany poziomu napięcia przemiennego, a nie do regulacji czy stabilizacji napięcia – to w sumie tylko przygotowuje napięcie do dalszej obróbki, nie zapewniając żadnej stabilności DC. Wejście prądu przemiennego to jedynie punkt, w którym napięcie z sieci trafia do układu – nie ma tam żadnej funkcji regulacyjnej. Bardzo popularnym błędem jest utożsamianie układu Graetza z funkcją regulacji – tymczasem mostek prostowniczy odpowiada tylko za zamianę napięcia przemiennego na pulsujące napięcie stałe, ale bez możliwości eliminacji wahań czy precyzyjnego ustalenia poziomu wyjściowego napięcia. To właśnie regulator jest gwarancją, że nawet jeśli napięcie wejściowe czy obciążenie się zmienia, na wyjściu utrzymane zostanie stabilne napięcie – zgodnie z wymaganiami np. układów cyfrowych czy czujników. W praktyce, brak zrozumienia podziału ról poszczególnych bloków skutkuje projektowaniem zasilaczy, które nie spełniają norm stabilności, co prowadzi do nieprzewidywalnego działania urządzeń lub nawet do ich uszkodzenia. Dobra praktyka to zawsze analizować, do czego służy dany element na schemacie, i nie przypisywać mu zadań innych bloków. Z mojego doświadczenia w serwisie wynika, że niedocenianie roli regulatora często kończy się różnymi „dziwnymi” awariami, które trudno szybko zdiagnozować bez podstawowej wiedzy teoretycznej – to taki klasyk w naszej branży.

Pytanie 11

Który z podanych adresów IP jest adresem publicznym?

A. 10.99.15.16
B. 172.18.0.16
C. 192.168.168.16
D. 172.168.0.16
Wszystkie pozostałe odpowiedzi wskazują na adresy IP, które są zarezerwowane dla prywatnych sieci lokalnych, co sprawia, że nie mogą być używane jako publiczne adresy IP. Adres 10.99.15.16 należy do zakresu 10.0.0.0/8, który jest całkowicie zarezerwowany dla prywatnych sieci. Oznacza to, że urządzenia z tym adresem mogą komunikować się tylko w obrębie tej samej sieci lokalnej, a nie w Internecie. Podobnie, adres 172.18.0.16 jest częścią zakresu 172.16.0.0 do 172.31.255.255, także przeznaczonego dla sieci prywatnych. Ostatni adres, 192.168.168.16, również należy do zarezerwowanego zakresu 192.168.0.0/16 dla prywatnych sieci, co ogranicza jego użycie do lokalnych rozwiązań. Typowe błędy myślowe, które prowadzą do takich niepoprawnych wniosków, często wynikają z braku zrozumienia różnicy między adresacją publiczną i prywatną. Użytkownicy mogą mylić te adresy z publicznymi z powodu podobieństw w ich formacie, jednak istotne jest, aby wiedzieć, że tylko adresy spoza zarezerwowanych zakresów mogą zostać użyte w sieci globalnej. Zrozumienie tych zasad jest kluczowe dla efektywnego zarządzania sieciami oraz zapewnienia ich bezpieczeństwa.

Pytanie 12

W metodzie archiwizacji danych nazwanej Dziadek – Ojciec – Syn na poziomie Dziadek przeprowadza się kopię danych na koniec

A. miesiąca
B. roku
C. tygodnia
D. dnia
Odpowiedź 'miesiąca' jest prawidłowa w kontekście strategii archiwizacji danych Dziadek – Ojciec – Syn, ponieważ na poziomie Dziadek zakłada się wykonywanie kopii zapasowych co miesiąc. Ta strategia jest stosunkowo szeroko akceptowana w branży IT, ponieważ pozwala na utrzymanie odpowiedniego balansu pomiędzy częstotliwością archiwizacji a ilością przechowywanych danych. Regularne archiwizowanie danych co miesiąc umożliwia organizacjom szybkie przywracanie pełnych zestawów danych w przypadku awarii lub utraty informacji. Przykłady zastosowania tej strategii można znaleźć w firmach, które wymagają stabilnych i długoterminowych kopii zapasowych, takich jak instytucje finansowe czy szpitale, dla których przechowywanie danych przez dłuższy czas jest kluczowe. W praktyce, przy odpowiednim zarządzaniu cyklem życia danych, strategia ta również pozwala na efektywne zarządzanie przestrzenią dyskową i ogranicza ryzyko przechowywania niepotrzebnych danych, co jest zgodne z najlepszymi praktykami w zakresie zarządzania danymi.

Pytanie 13

Ilustracja pokazuje schemat fizycznej topologii będącej kombinacją topologii

Ilustracja do pytania
A. siatki i gwiazdy
B. siatki i magistrali
C. magistrali i gwiazdy
D. pierścienia i gwiazdy
Topologia magistrali i gwiazdy to takie dwie popularne opcje w sieciach komputerowych, które mają swoje plusy i minusy. Topologia magistrali jest fajna, bo wszystkie urządzenia są podłączone do jednego kabla, co sprawia, że jest to tańsze i prostsze w zrobieniu. Ale z drugiej strony, jak ten kabel się uszkodzi, to cała sieć może leżeć. Dlatego teraz rzadziej się to stosuje. Z kolei topologia gwiazdy jest lepsza w tym względzie, bo każde urządzenie ma swoje połączenie z centralnym punktem, takim jak switch. To sprawia, że jak jeden kabel padnie, to reszta działa dalej, więc to bardziej niezawodne. Łącząc te dwie topologie, można stworzyć hybrydę, gdzie główne węzły są połączone magistralą, a segmenty urządzeń w gwiazdę. To daje większą elastyczność i lepszą skalowalność. Widziałem, że takie rozwiązania są popularne w firmach, gdzie ciągłość pracy i łatwość zarządzania są super ważne.

Pytanie 14

Do zainstalowania serwera proxy w systemie Linux, konieczne jest zainstalowanie aplikacji

A. Squid
B. Postfix
C. Samba
D. Webmin
Samba to oprogramowanie, które umożliwia interakcję między systemami Windows a Linux, głównie w kontekście udostępniania plików i drukarek. Nie jest to jednak serwer proxy, więc nie może spełniać funkcji związanych z zarządzaniem ruchem internetowym. Webmin to narzędzie administracyjne, które pozwala na zarządzanie systemem Linux poprzez interfejs webowy. Chociaż ułatwia wiele zadań administracyjnych, nie jest projektowane jako serwer proxy i nie służy do kierowania ruchu internetowego. Postfix to serwer pocztowy, który obsługuje wysyłanie i odbieranie wiadomości e-mail, co również nie odnosi się do funkcji proxy. Użytkownicy mogą pomylić te programy z serwerem proxy, ponieważ każdy z nich ma specyficzne zastosowanie w zarządzaniu systemem lub ruchem, ale kluczowe różnice w ich funkcjonalności są istotne. Wybór niewłaściwego oprogramowania może prowadzić do nieefektywnego zarządzania ruchem sieciowym, co z kolei może skutkować wydłużonym czasem ładowania stron oraz zwiększonym zużyciem pasma. Dlatego istotne jest, aby dobrać odpowiednie narzędzia do konkretnych zadań, co w przypadku zarządzania ruchem proxy powinno koncentrować się na rozwiązaniach takich jak Squid.

Pytanie 15

Typowym objawem wskazującym na zbliżającą się awarię dysku twardego jest pojawienie się

A. komunikatu <i>Diskette drive A error</i>.
B. trzech krótkich sygnałów dźwiękowych.
C. błędów zapisu i odczytu dysku.
D. komunikatu <i>CMOS checksum error</i>.
W tym pytaniu dość łatwo się pomylić, bo niektóre z wymienionych komunikatów i sygnałów można spotkać podczas różnych problemów ze sprzętem. Jednak warto dokładnie wiedzieć, co oznacza każdy z nich. Komunikat „Diskette drive A error” w praktyce dotyczy napędu dyskietek, który dziś jest raczej rzadkością, ale dawniej często pojawiał się przy problemach z podłączeniem lub uszkodzeniem napędu typu FDD. To nie ma związku z twardym dyskiem. Z kolei „CMOS checksum error” informuje o błędach w pamięci CMOS – czyli tej, która przechowuje ustawienia BIOS/UEFI, takie jak data czy sekwencja bootowania. Pojawienie się takiego komunikatu najczęściej oznacza rozładowaną baterię na płycie głównej lub problem z samą pamięcią, a nie z dyskiem twardym. Trzy krótkie sygnały dźwiękowe podczas uruchamiania komputera są zaś kodem POST i zwykle wskazują na awarię pamięci RAM, ewentualnie problem z kartą graficzną, a nie dyskiem. Często ludzie mylą się tutaj, bo każda awaria sprzętu bywa sygnalizowana jakimś komunikatem lub dźwiękiem, ale charakterystyka tych komunikatów jest bardzo ściśle powiązana z konkretnymi podzespołami. Praktyka pokazuje, że typowy użytkownik, który widzi taki komunikat lub słyszy sygnały, często myśli o najgorszym, a tymczasem problem może być zupełnie gdzie indziej. W branży IT uważa się, że tylko powtarzające się błędy zapisu/odczytu bezpośrednio świadczą o zbliżającej się awarii dysku twardego. Pozostałe odpowiedzi wynikają z błędnego skojarzenia objawów z innymi podzespołami. Dlatego tak ważne jest, by nauczyć się rozpoznawać specyficzne symptomy dla każdego typu sprzętu, zamiast polegać na ogólnych komunikatach czy dźwiękach – to kluczowa kompetencja dla każdego, kto poważnie myśli o pracy z komputerami.

Pytanie 16

Zgodnie z normą PN-EN 50174, okablowanie poziome w systemie okablowania strukturalnego to segment okablowania pomiędzy

A. punktem rozdzielczym a gniazdem użytkownika
B. serwerem a szkieletem sieci
C. punktami rozdzielczymi w głównych pionach budynku
D. gniazdkiem użytkownika a terminalem końcowym
Zgodnie z normą PN-EN 50174, okablowanie poziome w systemie okablowania strukturalnego odnosi się do połączeń pomiędzy punktem rozdzielczym a gniazdem użytkownika. Jest to kluczowa część infrastruktury sieciowej, ponieważ to właśnie przez tę część okablowania sygnał trafia do końcowych urządzeń użytkowników, takich jak komputery, telefony czy inne urządzenia sieciowe. W praktyce oznacza to, że projektując system okablowania, inżynierowie muszą dokładnie zaplanować trasę kabli oraz ich rodzaj, aby zapewnić optymalne parametry transmisji danych, minimalizując jednocześnie zakłócenia. Okablowanie poziome powinno spełniać określone normy dotyczące długości kabli, ich jakości oraz ochrony przed zakłóceniami elektromagnetycznymi. Warto również pamiętać o standardach instalacji, takich jak ISO/IEC 11801, które korespondują z PN-EN 50174, co pozwala na uzyskanie wysokiej jakości i niezawodności systemów sieciowych.

Pytanie 17

Narzędziem systemu Windows, służącym do sprawdzenia wpływu poszczególnych procesów i usług na wydajność procesora oraz tego, w jakim stopniu generują one obciążenie pamięci czy dysku, jest

A. resmon
B. dcomcnfg
C. cleanmgr
D. credwiz
Wybierając inne narzędzia niż resmon, łatwo wpaść w pułapkę myślenia, że wszystkie wbudowane aplikacje Windowsa są uniwersalne do zarządzania wydajnością. Na przykład credwiz to narzędzie do zarządzania kopiami zapasowymi poświadczeń użytkownika – zupełnie nie dotyczy ono monitorowania procesów czy pamięci. To typowy przykład mylenia narzędzi konfiguracyjnych z diagnostycznymi. Cleanmgr, czyli Oczyszczanie dysku, skupia się tylko na usuwaniu zbędnych plików i na pewno nie pokazuje, które aplikacje czy procesy aktualnie obciążają komputer. Co ciekawe, cleanmgr czasami poprawia wydajność, ale zupełnie pośrednio – przez zwolnienie miejsca na dysku, nie przez bezpośredni monitoring zasobów. Dcomcnfg to z kolei panel do zarządzania konfiguracją DCOM i usługami komponentów – to już bardzo specjalistyczne narzędzie, służy głównie administratorom do ustawiania uprawnień i zabezpieczeń aplikacji rozproszonych, a nie do analizy wydajności systemu. Z mojego doświadczenia wynika, że sporo osób po prostu nie zna resmona, bo jest mniej znany niż Menedżer zadań albo myli jego funkcje z innymi narzędziami administracyjnymi. W branży IT przyjęło się, że do monitorowania wydajności procesora, RAM-u czy dysku stosuje się wyłącznie narzędzia specjalistyczne, które pokazują dane w czasie rzeczywistym i potrafią rozbić zużycie zasobów na poszczególne procesy, a do tej kategorii należy właśnie resmon. Wybór innych aplikacji wynika często z powierzchownej znajomości systemu lub skupienia się na zadaniach pobocznych, takich jak konfiguracja poświadczeń czy czyszczenie plików tymczasowych, które nie mają wpływu na szczegółową analizę zużycia zasobów przez procesy. Dlatego przy problemach z wydajnością zdecydowanie polecam zawsze zaczynać od resmona – to narzędzie, które pozwala najszybciej zdiagnozować prawdziwe źródło problemu.

Pytanie 18

Wskaż nazwę programu stosowanego w systemie Linux do przekrojowego monitorowania parametrów, między innymi takich jak obciążenie sieci, zajętość systemu plików, statystyki partycji, obciążenie CPU czy statystyki IO.

A. samba
B. quota
C. totem
D. nmon
nmon to jedno z tych narzędzi, które każdy administrator Linuksa powinien mieć w swoim arsenale – takie moje zdanie po kilku latach pracy z serwerami. Program nmon (Nigel’s Monitor) umożliwia bardzo wygodne, przekrojowe monitorowanie zasobów systemowych praktycznie w czasie rzeczywistym. Można dzięki niemu obserwować obciążenie procesora, użycie pamięci RAM, statystyki sieciowe, zajętość partycji dyskowych, a nawet ilość operacji IO na dysku. Szczególnie przydatne jest to w sytuacjach, kiedy trzeba szybko ogarnąć, gdzie „coś się dławi” – czy to CPU, czy może dyski, albo sieć. Po uruchomieniu nmon prezentuje czytelny, znakowy interfejs, gdzie użytkownik sam decyduje, które dane chce widzieć. Z mojego doświadczenia wynika, że nmon świetnie sprawdza się jako narzędzie diagnostyczne przy awariach lub tuningu wydajności. Praktyka pokazuje, że administratorzy często wykorzystują nmon do tworzenia logów w dłuższym okresie, żeby potem analizować wykresy i trendy np. w Excelu – co jest mega wygodne i przydatne przy audytach czy planowaniu rozbudowy infrastruktury. Warto też zaznaczyć, że nmon jest open source i działa na wielu dystrybucjach Linuksa, a także na AIX. Branżowe best practices zalecają korzystanie z monitoringu w czasie rzeczywistym oraz archiwizacji danych historycznych – i tu właśnie nmon sprawdza się znakomicie. Według mnie to narzędzie, którego nie da się przecenić w codziennej pracy z serwerami.

Pytanie 19

Jaką funkcjonalność oferuje program tar?

A. pokazywanie listy aktualnych procesów
B. ustawianie karty sieciowej
C. archiwizowanie plików
D. administrowanie pakietami
Program tar (tape archive) jest narzędziem, które umożliwia archiwizowanie plików, co oznacza, że potrafi łączyć wiele plików w jeden plik archiwum, często stosowany w celu łatwiejszego zarządzania danymi oraz ich przenoszenia. Jest to niezwykle przydatne w systemach Unix i Linux, gdzie użytkownicy często muszą wykonywać kopie zapasowe, przesyłać pliki przez sieć lub przechowywać dane w sposób zorganizowany. Narzędzie tar obsługuje różne formaty kompresji, co pozwala na zmniejszenie rozmiaru archiwum, a także na ich szybsze przesyłanie i przechowywanie. W praktyce, archiwizacja za pomocą tar jest standardową procedurą, stosowaną w wielu firmach do zabezpieczania danych krytycznych. Na przykład, archiwizacja kodu źródłowego projektu przed jego wdrożeniem pozwala na łatwe przywrócenie wcześniejszej wersji w razie potrzeby. Dodatkowo, tar wspiera operacje takie jak rozpakowywanie archiwów, co czyni go wszechstronnym narzędziem do zarządzania plikami. W branży IT, zarządzanie danymi i archiwizacja stanowią kluczowy element strategii w zakresie bezpieczeństwa danych oraz ciągłości biznesowej.

Pytanie 20

Jakie urządzenie elektroniczne ma zdolność do magazynowania ładunku elektrycznego?

A. tranzystor
B. dioda
C. kondensator
D. rezystor
Dioda, rezystor i tranzystor to elementy elektroniczne, które pełnią różne funkcje, ale nie są zdolne do gromadzenia ładunku elektrycznego w sposób, w jaki robi to kondensator. Dioda to element półprzewodnikowy, który pozwala na przepływ prądu w jednym kierunku, co czyni ją idealnym komponentem w prostownikach. Jej podstawowa funkcja polega na kontrolowaniu kierunku przepływu prądu, a nie na przechowywaniu ładunku. Rezystor, z drugiej strony, jest elementem, który ogranicza przepływ prądu w obwodzie. Działa na zasadzie oporu, co nie ma nic wspólnego z gromadzeniem ładunku, lecz z rozpraszaniem energii w postaci ciepła. Tranzystor to natomiast element aktywny, który służy do wzmacniania sygnałów lub jako przełącznik; jego działanie również nie polega na magazynowaniu ładunku, lecz na kontroli przepływu prądu w obwodzie. Powszechnym błędem w rozumieniu tych elementów jest mylenie ich funkcji. Wiele osób może sądzić, że każdy element elektroniczny ma zdolność do gromadzenia energii, podczas gdy w rzeczywistości tylko kondensatory mają tę specyfikę. Zrozumienie różnic pomiędzy tymi elementami jest kluczowe dla projektowania i analizy obwodów elektronicznych.

Pytanie 21

Jakie narzędzie w systemie Windows Server umożliwia zarządzanie zasadami grupy?

A. Ustawienia systemowe
B. Konsola GPMC
C. Menedżer procesów
D. Serwer DNS
Konsola GPMC, czyli Group Policy Management Console, jest kluczowym narzędziem w systemie Windows Server do zarządzania zasadami grupy. Umożliwia administratorom centralne zarządzanie politykami, które mogą być stosowane do użytkowników i komputerów w domenie. GPMC oferuje graficzny interfejs, który ułatwia tworzenie, edytowanie i wdrażanie zasad grupy oraz monitorowanie ich stanu. Dzięki GPMC administratorzy mogą wdrażać zabezpieczenia, konfiguracje systemu oraz inne ustawienia w sposób zunifikowany, co jest zgodne z najlepszymi praktykami zarządzania infrastrukturą IT. Przykładem zastosowania GPMC jest możliwość skonfigurowania zasad dotyczących polityki haseł, co wpływa na bezpieczeństwo organizacji. W praktyce, posługiwanie się GPMC wspiera realizację standardów takich jak ISO/IEC 27001, które podkreślają znaczenie zarządzania bezpieczeństwem informacji. Dodatkowo, GPMC wspiera tworzenie raportów, co umożliwia audyt efektywności wdrożonych zasad w organizacji.

Pytanie 22

W systemie oktalnym liczba heksadecymalna 1E2F16 ma zapis w postaci

A. 7727
B. 7277
C. 17057
D. 74274
Wybór niewłaściwych odpowiedzi na pytanie o konwersję liczby heksadecymalnej 1E2F16 na system oktalny może wynikać z kilku typowych błędów poznawczych. Często myli się kolejność konwersji, zakładając, że można bezpośrednio zamienić system heksadecymalny na oktalny bez pośredniego przeliczenia na system dziesiętny lub binarny. Tego rodzaju pomyłki prowadzą do zafałszowania wyników. Inne alternatywy, takie jak 7277 czy 7727, mogą wynikać z błędnego przeliczenia wartości heksadecymalnej na dziesiętną, gdzie użytkownik pomija istotne cyfry lub źle interpretuje ich wagę. Warto zwrócić uwagę, że przekształcanie liczb w różnych systemach liczbowych wymaga znajomości podstawowych zasad arytmetyki oraz reguł konwersji. W systemie heksadecymalnym każda cyfra reprezentuje wartość od 0 do 15, gdzie litery A-F odpowiadają wartościom 10-15. Dlatego, błędna interpretacja tych wartości prowadzi do nieprawidłowych wyników. Z kolei odpowiedzi takie jak 17057, mogą być wynikiem poprawnego zrozumienia konwersji, ale na etapie błędnego przeliczenia. W praktyce, aby uniknąć takich pomyłek, warto korzystać z dedykowanych narzędzi lub programów, które automatyzują ten proces konwersji, co pozwala na zachowanie dokładności i minimalizację ryzyka błędów.

Pytanie 23

Jednym ze sposobów na ograniczenie dostępu do sieci bezprzewodowej dla nieuprawnionych osób jest

A. zmiana standardu szyfrowania z WPA na WEP
B. zmiana częstotliwości nadawania sygnału
C. dezaktywacja szyfrowania
D. wyłączenie rozgłaszania SSID
Wyłączenie szyfrowania sieci bezprzewodowej to jedno z najgorszych możliwych posunięć w kontekście bezpieczeństwa. Szyfrowanie jest fundamentalnym elementem ochrony danych przesyłanych przez sieci Wi-Fi. Bez szyfrowania, każdy może bez przeszkód podsłuchiwać ruch sieciowy, co naraża użytkowników na kradzież danych osobowych, haseł i innych wrażliwych informacji. Ponadto, zmiana kanału nadawania sygnału nie ma bezpośredniego wpływu na bezpieczeństwo sieci. Choć może pomóc w uniknięciu zakłóceń od innych sieci, nie stanowi realnej przeszkody dla intruzów. Dodatkowo, zmiana standardu szyfrowania z WPA na WEP to krok w tył. WEP jest przestarzałym protokołem, który stosunkowo łatwo można złamać, podczas gdy WPA i jego nowsza wersja WPA2 oferują znacznie wyższy poziom zabezpieczeń. Alternatywnie, pomijanie rozgłaszania SSID może wydawać się dobrym rozwiązaniem, ale nie chroni przed bardziej zaawansowanymi atakami, ponieważ doświadczeni hakerzy mogą zidentyfikować sieci nawet bez widocznego SSID. Dlatego kluczowe jest podejście wielowarstwowe obejmujące silne szyfrowanie, stosowanie silnych haseł oraz regularne aktualizacje zabezpieczeń.

Pytanie 24

Sieć 192.200.100.0 z maską 255.255.255.128 podzielono na 4 równe podsieci. Ile maksymalnie adresów hostów jest dostępnych w każdej podsieci?

A. 14
B. 126
C. 62
D. 30
W tym zadaniu pułapka polega na tym, że wiele osób liczy tylko na podstawie jednej maski, bez uwzględnienia dodatkowego podziału na podsieci. Mamy sieć 192.200.100.0 z maską 255.255.255.128, czyli /25. To oznacza, że w tej pierwotnej sieci dostępnych jest 7 bitów na adresy hostów, więc teoretycznie 2^7 = 128 adresów, a po odjęciu adresu sieci i adresu rozgłoszeniowego zostaje 126 użytecznych adresów hostów. I właśnie stąd bierze się odpowiedź 126 – jest ona poprawna dla całej sieci /25, ale już nie dla sytuacji po podziale na 4 podsieci. To jest typowy błąd: ktoś zatrzymuje się na pierwszym etapie i nie uwzględnia dodatkowych bitów wykorzystanych na subnetting. Inny częsty błąd to mechaniczne używanie znanych wartości jak 14 czy 62 hosty. 14 hostów odpowiada podsieci /28 (4 bity na hosty: 2^4–2=14), a 62 hosty to podsieć /26 (6 bitów na hosty: 2^6–2=62). Te liczby są poprawne same w sobie, ale kompletnie niepasujące do warunków zadania, bo tutaj z sieci /25 robimy 4 równe podsieci, więc musimy dodać 2 bity do części sieciowej. Po takim podziale maska zmienia się z /25 na /27, a to oznacza, że zostaje 5 bitów na hosty. Z prostego wzoru 2^n–2 wychodzi 2^5–2=32–2=30 adresów hostów w każdej podsieci. Z mojego doświadczenia wynika, że kluczowe jest rozróżnienie: ile hostów ma cała sieć przed podziałem, a ile ma każda pojedyncza podsieć po dodatkowym subnettingu. W praktyce sieciowej, zgodnie z dobrymi praktykami stosowanymi np. w projektach opartych o standardy Cisco, zawsze trzeba czytać uważnie treść: jeśli jest mowa o liczbie hostów w podsieci po podziale, to liczysz na podstawie nowej maski, a nie tej początkowej. Takie nieprecyzyjne myślenie potem mści się przy planowaniu VLAN-ów, adresacji w serwerowni czy segmentacji sieci w firmie, bo można łatwo przewymiarować albo niedoszacować liczbę dostępnych adresów i narobić sobie problemów z rozbudową infrastruktury.

Pytanie 25

W jaki sposób oznaczona jest skrętka bez zewnętrznego ekranu, mająca każdą parę w osobnym ekranie folii?

A. F/UTP
B. U/FTP
C. F/STP
D. S/FTP
Odpowiedzi F/STP, S/FTP i F/UTP są niepoprawne, ponieważ różnią się one istotnie od właściwej definicji U/FTP. F/STP oznacza skrętkę z zewnętrznym ekranem, co nie jest zgodne z warunkami pytania. W przypadku F/STP, ekran obejmuje cały kabel, co może być korzystne w niektórych aplikacjach, ale w sytuacjach, gdzie każda para wymaga osobnej ochrony, nie sprawdza się to. S/FTP, z kolei, stosuje zarówno ekran na przewody parowe, jak i na cały kabel, co zwiększa ochronę, ale nie odpowiada na pytanie o brak zewnętrznego ekranu, co czyni tę odpowiedź niewłaściwą. F/UTP oznacza brak ekranowania całego kabla, ale z ekranowaniem par przewodów, co również nie spełnia kryteriów opisanych w pytaniu. Często błędnie myśli się, że większa ilość ekranowania zawsze przekłada się na lepszą jakość sygnału, co nie jest prawdą w każdym przypadku. Właściwy dobór typu skrętki powinien być uzależniony od specyficznych warunków zastosowania oraz środowiska, w którym będzie działać sieć. Użycie niewłaściwego standardu może prowadzić do problemów z zakłóceniami oraz zmniejszenia efektywności transmisji danych.

Pytanie 26

Aby sprawdzić minimalny czas ważności hasła w systemie Windows, stosuje się polecenie

A. net accounts
B. net group
C. net user
D. net time
Polecenie 'net accounts' służy do konfigurowania różnych ustawień kont użytkowników w systemie Windows, w tym minimalnego okresu ważności hasła. Umożliwia administratorowi określenie, jak długo hasło musi być używane przed tym, jak użytkownik będzie zobowiązany do jego zmiany. Dzięki temu można zwiększyć bezpieczeństwo systemu, zmniejszając ryzyko, że hasła zostaną użyte przez osoby nieuprawnione przez długi czas. Na przykład, standardowe praktyki bezpieczeństwa sugerują, aby minimalny okres ważności hasła wynosił co najmniej 30 dni, co można ustawić przy pomocy tego polecenia. W kontekście zarządzania bezpieczeństwem IT, regularna zmiana haseł i ich minimalny okres ważności są kluczowe dla ochrony przed atakami, takimi jak brute force czy phishing. Warto także pamiętać, że po ustawieniu minimalnego okresu ważności, użytkownicy nie będą mogli zmieniać haseł częściej niż ustalono, co zapobiega potencjalnym nadużyciom.

Pytanie 27

Urządzenie sieciowe funkcjonujące w trzeciej warstwie modelu ISO/OSI, posługujące się adresami IP, to

A. przełącznik.
B. most.
C. router.
D. wzmacniacz.
Hub, bridge i repeater to sprzęty, które nie działają na warstwie sieci w modelu ISO/OSI, więc nie nadają się do tego, co robi router. Hub to urządzenie, które działa na warstwie fizycznej i tylko przesyła sygnały do wszystkich podłączonych urządzeń, nie analizując adresów IP. Dlatego hub nie radzi sobie z zarządzaniem ruchem w sieci, co powoduje sporo problemów i kolizji. Bridge działa na warstwie łącza danych i łączy dwa segmenty tej samej sieci, ale nie decyduje o routingu na podstawie adresów IP. Z drugiej strony, repeater też działa na warstwie fizycznej, ale tylko wzmacnia sygnał, żeby zwiększyć zasięg, więc też nie kieruje pakietami na podstawie adresów. W sumie te urządzenia nie mogą zrobić tego, co robi router, czyli zarządzać trasami i optymalizować ruch. Więc mylenie ich z routerem może prowadzić do błędnych wniosków o sieciach komputerowych.

Pytanie 28

Jakie medium transmisyjne powinno być użyte do połączenia dwóch punktów dystrybucyjnych oddalonych o 600m?

A. przewód koncentryczny
B. światłowód
C. skrętka UTP
D. skretkę STP
Światłowód to najefektywniejsze medium transmisyjne do przesyłania danych na dużych odległościach, takich jak 600 metrów. Jego główną zaletą jest zdolność do przesyłania danych z bardzo dużą prędkością oraz niską latencją, co czyni go idealnym rozwiązaniem w przypadku połączeń między punktami dystrybucyjnymi. Przewody światłowodowe są odporne na zakłócenia elektromagnetyczne, co sprawia, że są znacznie bardziej niezawodne w porównaniu do tradycyjnych kabli miedzianych, takich jak UTP czy STP. W praktyce, światłowody są powszechnie stosowane w sieciach telekomunikacyjnych, dostępie do internetu oraz w systemach monitoringu. Warto również zaznaczyć, że standardy takie jak ANSI/TIA-568 oraz ISO/IEC 11801 wskazują na odpowiednie zastosowanie światłowodów w infrastrukturze sieciowej, co podkreśla ich istotność w nowoczesnych rozwiązaniach IT. Dodatkowo, światłowody pozwalają na przesyłanie sygnałów na odległości sięgające nawet kilku kilometrów bez utraty jakości sygnału.

Pytanie 29

Wskaż interfejsy płyty głównej widoczne na rysunku.

Ilustracja do pytania
A. 1 x RJ45, 4 x USB 3.0, 1 x SATA, 1 x Line Out, 1 x Microfon In, 1 x DVI-I, 1 x DP
B. 1 x RJ45, 2 x USB 2.0, 2 x USB 3.0, 1 x eSATA, 1 x Line Out, 1 x Microfon In, 1 x DVI-D, 1 x HDMI
C. 1 x RJ45, 4 x USB 2.0, 1.1, 1 x eSATA, 1 x Line Out, 1 x Microfon In, 1 x DVI-A, 1 x HDMI
D. 1 x RJ45, 2 x USB 2.0, 2 x USB 3.0, 1 x eSATA, 1 x Line Out, 1 x Microfon In, 1 x DVI-I, 1 x HDMI
Patrząc na zestaw portów, łatwo się pomylić, bo producenci potrafią naprawdę mieszać oznaczenia. Jednak szczegóły są tu kluczowe. Częsty błąd to mylenie DVI-D z DVI-I. DVI-I, jak na zdjęciu, ma więcej pinów, bo obsługuje zarówno sygnał cyfrowy, jak i analogowy – to bardzo praktyczne rozwiązanie, zwłaszcza jeśli korzystasz z przejściówek lub starszych monitorów. DVI-D przesyła tylko sygnał cyfrowy, a DVI-A tylko analogowy i ten ostatni praktycznie już nie występuje w nowych płytach głównych. Często ludzie zakładają, że jeśli widzą port DVI, to zawsze jest to DVI-D, bo tak było w wielu laptopach czy starszych kartach graficznych, jednak na płytach głównych spotyka się głównie DVI-I dla uniwersalności. Kolejna sprawa to liczba i rodzaj portów USB – przeważnie na I/O panelu mamy zarówno porty USB 2.0, jak i 3.0 (te ostatnie są zwykle niebieskie), a nie tylko jeden typ. USB 3.0 to już właściwie standard do szybkich dysków czy pamięci flash, ale USB 2.0 nadal służy do myszy czy klawiatur. eSATA bywa mylony z portami SATA, które jednak znajdują się na płycie, a nie na tylnym panelu – eSATA pozwala podłączać szybkie zewnętrzne dyski twarde, nie jest jednak tak popularny jak USB. Port DP (DisplayPort) nie występuje na tej płycie, mimo że coraz częściej pojawia się w nowocześniejszych konstrukcjach, zwłaszcza do monitorów 4K czy pracy wielomonitorowej. Kolory złączy audio to często pomijany szczegół, ale warto pamiętać, że Line Out to zielony, a Microfon In różowy – zamiana tych portów prowadzi do braku dźwięku lub nieaktywnego mikrofonu, co bardzo często widzę u początkujących użytkowników. Ogólnie rzecz biorąc, typowym błędem jest nieuważne czytanie oznaczeń lub nieznajomość starszych standardów, ale praktyka w serwisie szybko uczy zwracać uwagę na takie detale. Branża idzie w stronę unifikacji portów (USB-C, Thunderbolt), jednak starsze standardy jak DVI-I i eSATA wciąż mają swoje miejsce, zwłaszcza gdy mówimy o sprzęcie do zastosowań specjalnych lub pracy serwisowej.

Pytanie 30

Którego z poniższych zadań nie wykonują serwery plików?

A. Wymiana danych pomiędzy użytkownikami sieci
B. Zarządzanie bazami danych
C. Odczyt i zapis danych na dyskach twardych
D. Udostępnianie plików w sieci
Serwery plików to specjalistyczne systemy informatyczne, których głównym celem jest przechowywanie, zarządzanie i udostępnianie plików w sieci. Odpowiedź, że nie realizują one zadań związanych z zarządzaniem bazami danych, jest poprawna, ponieważ funkcja ta wymaga innej architektury, jak w przypadku serwerów baz danych, które są zoptymalizowane do przetwarzania i zarządzania danymi w sposób wydajny oraz umożliwiają prowadzenie skomplikowanych zapytań. Przykładem serwera plików jest Samba, który umożliwia wymianę plików w systemach Windows, a także NFS (Network File System) stosowany w środowiskach Unix/Linux. Standardy takie jak SMB/CIFS dla Samsy czy NFSv4 definiują, jak pliki mogą być udostępniane i zarządzane w sieci, co jest kluczowe w wielu organizacjach. W praktyce, serwery plików są nieocenione w kontekście minimalizacji redundancji danych oraz usprawnienia współpracy między różnymi użytkownikami i systemami operacyjnymi.

Pytanie 31

Na podstawie analizy pakietów sieciowych, określ adres IP oraz numer portu, z którego urządzenie otrzymuje odpowiedź?

Ilustracja do pytania
A. 46.28.247.123:80
B. 192.168.0.13:51383
C. 46.28.247.123:51383
D. 192.168.0.13:80
Odpowiedź 46.28.247.123:80 jest prawidłowa, ponieważ adres IP 46.28.247.123 oraz port 80 wskazują na serwer, który standardowo obsługuje usługi HTTP, co jest potwierdzone w nagłówku TCP jako źródłowy port 80. Analiza ruchu sieciowego pokazuje, że dane są wysyłane do hosta z tego właśnie adresu i portu, co świadczy o typowej komunikacji klient-serwer w sieci webowej. W kontekście protokołu TCP/IP, adres IP identyfikuje urządzenie w sieci, a numer portu wskazuje na konkretną usługę lub proces działający na urządzeniu. Port 80 jest standardowym portem dla protokołu HTTP, co czyni go powszechnym wyborem dla serwerów internetowych. W praktyce oznacza to, że kiedy przeglądarka internetowa (klient) nawiązuje połączenie z serwerem, zazwyczaj używa portu 80 do przesyłania i odbierania danych HTML. Dobre praktyki zalecają korzystanie z domyślnych portów dla standardowych usług, co ułatwia zarządzanie i konfigurowanie środowisk sieciowych oraz pozwala na łatwiejsze rozwiązywanie problemów związanych z połączeniami sieciowymi. Zrozumienie mechanizmów działania portów i adresów IP jest kluczowe dla administratorów sieci w celu zapewnienia właściwej konfiguracji i bezpieczeństwa sieciowego.

Pytanie 32

Jaki tryb funkcjonowania Access Pointa jest wykorzystywany do umożliwienia urządzeniom bezprzewodowym łączności z przewodową siecią LAN?

A. Most bezprzewodowy
B. Tryb klienta
C. Punkt dostępowy
D. Repeater
Punkt dostępowy (Access Point, AP) to urządzenie, które pełni kluczową rolę w zapewnieniu dostępu bezprzewodowego do sieci przewodowej, czyli LAN. Działa jako most łączący urządzenia bezprzewodowe z siecią przewodową, pozwalając na komunikację i wymianę danych. W praktyce, AP umożliwia użytkownikom korzystanie z internetu i zasobów sieciowych w miejscach, gdzie nie ma dostępu do przewodów Ethernetowych. Współczesne punkty dostępowe obsługują różne standardy, takie jak IEEE 802.11a/b/g/n/ac/ax, co zapewnia różnorodność prędkości przesyłania danych oraz zasięg. Przykładem zastosowania AP jest biuro, gdzie pracownicy korzystają z laptopów i smartfonów do podłączania się do lokalnej sieci bezprzewodowej. Dobrze skonfigurowany punkt dostępowy może znacząco poprawić wydajność sieci oraz umożliwić bezproblemową komunikację urządzeń mobilnych z zasobami w sieci lokalnej, co jest zgodne z najlepszymi praktykami w zakresie zarządzania sieciami. Warto zwrócić uwagę, że stosowanie AP w odpowiednich miejscach, z odpowiednim zabezpieczeniem (np. WPA3), jest kluczowe dla ochrony danych przesyłanych w sieci.

Pytanie 33

W serwerach warto wykorzystywać dyski, które obsługują tryb Hot plugging, ponieważ

A. pojemność dysku zwiększa się dzięki automatycznej kompresji danych.
B. prędkość zapisu osiąga 250 MB/s.
C. możliwe jest podłączenie oraz odłączenie dysku przy włączonym zasilaniu serwera
D. czas odczytu wzrasta trzykrotnie w porównaniu z trybem Cable select.
Tryb hot plugging jest jedną z kluczowych funkcji w nowoczesnych serwerach, która pozwala na podłączanie i odłączanie dysków twardych bez konieczności wyłączania systemu. Oznacza to, że administratorzy mogą wprowadzać zmiany w konfiguracji pamięci masowej w czasie rzeczywistym, co znacząco zwiększa dostępność systemu oraz ułatwia zarządzanie zasobami. Przykładem zastosowania tej technologii jest sytuacja, gdy jeden z dysków w macierzy RAID ulegnie awarii. Administrator może wymienić uszkodzony dysk na nowy, nie przerywając pracy całego serwera, co jest niezwykle istotne w środowiskach krytycznych, gdzie czas przestoju musi być zminimalizowany. Ponadto, standardy takie jak SATA i SAS wprowadziły technologie hot swap, które są szeroko stosowane w przemyśle IT i stanowią dobrou praktykę w zarządzaniu sprzętem. Warto zauważyć, że hot plugging wspiera również elastyczne rozbudowywanie zasobów serwera, co jest nieocenione w kontekście rosnących potrzeb przechowywania danych w przedsiębiorstwach.

Pytanie 34

Jaką drukarkę powinna nabyć firma, która potrzebuje urządzenia do tworzenia trwałych kodów kreskowych oraz etykiet na folii i tworzywach sztucznych?

A. Igłową
B. Termotransferową
C. Termiczną
D. Mozaikową
Drukarka termotransferowa jest idealnym wyborem do drukowania trwałych kodów kreskowych oraz etykiet na folii i tworzywach sztucznych. Technologia termotransferowa polega na wykorzystaniu taśmy barwiącej, która pod wpływem wysokiej temperatury przenosi pigment na materiał etykiety. Dzięki temu uzyskiwane są wyraźne, trwałe i odporne na działanie różnych czynników zewnętrznych wydruki. W praktycznych zastosowaniach, takie etykiety są często używane w magazynach, logistyce, przemyśle spożywczym oraz farmaceutycznym, gdzie wymagane są wysokie standardy jakości i trwałości. Termotransferowe drukarki są również kompatybilne z różnymi rodzajami materiałów, co czyni je wszechstronnym rozwiązaniem. Dodatkowo, dzięki możliwości regulacji rozdzielczości druku, można uzyskiwać kody kreskowe o różnym poziomie szczegółowości, co jest kluczowe w kontekście skanowania i identyfikacji. Wybór drukarki termotransferowej zapewnia również zgodność z normami branżowymi, co podkreśla jej znaczenie w profesjonalnym użytkowaniu.

Pytanie 35

Polecenie do zmiany adresu MAC karty sieciowej w systemie Linux to

A. ifconfig
B. iwconfig
C. winipcfg
D. ipconfig
Odpowiedzi 'ipconfig', 'iwconfig' oraz 'winipcfg' są niepoprawne, ponieważ każde z tych poleceń ma inne zastosowanie i nie służy do zmiany adresu MAC w systemie Linux. Polecenie 'ipconfig' jest używane w systemach Windows do wyświetlania i konfigurowania adresów IP, a nie adresów MAC. Jego funkcjonalność jest ograniczona do zarządzania protokołami IP, co sprawia, że nie posiada opcji umożliwiających modyfikację adresów MAC. 'Iwconfig' natomiast jest przeznaczone do konfiguracji parametrów interfejsów bezprzewodowych w systemach Linux, takich jak zmiana trybu pracy karty sieciowej czy ustawienie kluczy WEP, ale również nie umożliwia zmiany adresu MAC. Z kolei 'winipcfg' to polecenie z systemu Windows, które również dotyczy konfiguracji IP, a nie adresów MAC. Typowe błędy myślowe związane z tymi odpowiedziami wynikają z mylenia funkcji i zastosowań poleceń w różnych systemach operacyjnych. Ważne jest, aby zrozumieć, że zmiana adresu MAC w systemach Linux wymaga konkretnego polecenia, które obsługuje takie operacje, a w tym przypadku jest to właśnie 'ifconfig'. Zrozumienie różnic między poleceniami oraz ich zastosowaniami w różnych systemach operacyjnych jest kluczowe dla prawidłowego zarządzania sieciami.

Pytanie 36

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. wybraniem pliku z obrazem dysku.
B. dodaniem drugiego dysku twardego.
C. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
D. konfigurowaniem adresu karty sieciowej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 37

Na rysunku znajduje się graficzny symbol

Ilustracja do pytania
A. rutera
B. punktu dostępowego
C. przełącznika
D. mostu
Symbol przełącznika w sieciach komputerowych jest powszechnie rozpoznawany jako prostokąt z kilkoma strzałkami biegnącymi równolegle. Przełącznik, zwany także switch, jest kluczowym komponentem w architekturze sieci komputerowej, który umożliwia komunikację między różnymi urządzeniami w tej samej sieci lokalnej. Działa na drugim poziomie modelu OSI, czyli warstwie łącza danych, co oznacza, że przełącza dane na podstawie adresów MAC urządzeń. Przełączniki przyczyniają się do optymalizacji przepływu danych, zmniejszając kolizje w sieci i umożliwiając jednoczesną komunikację wielu par urządzeń. Są szczególnie przydatne w sieciach firmowych, gdzie wymagane jest niezawodne i szybkie przesyłanie danych. Przełączniki zarządzalne oferują dodatkowe funkcje, takie jak monitoring ruchu, konfiguracja VLAN-ów oraz zarządzanie jakością usług QoS. W branży IT przełączniki są elementarną częścią infrastruktury sieciowej, a ich poprawne rozpoznawanie i konfiguracja są kluczowe dla specjalistów zajmujących się administrowaniem sieciami.

Pytanie 38

Na płycie głównej wyposażonej w gniazdo przedstawione na zdjęciu można zainstalować procesor

Ilustracja do pytania
A. AMD Sempron 2800+, 1600 MHz, s-754
B. AMD FX-6300, s-AM3+, 3.5GHz, 14MB
C. Intel i9-7940X, s-2066 3.10GHz 19.25MB
D. Intel Xeon E3-1240V5, 3.9GHz, s-1151
Analizując możliwe odpowiedzi, łatwo zauważyć, że tylko jeden z wymienionych procesorów faktycznie pasuje do gniazda AM3+, które widać na zdjęciu. Wybór procesora Intel i9-7940X czy Intel Xeon E3-1240V5 to klasyczny błąd polegający na nieuwzględnieniu różnic pomiędzy standardami gniazd stosowanymi przez Intela i AMD. Gniazda LGA (np. s-2066 albo s-1151) nie są kompatybilne z procesorami AMD i odwrotnie, bo zarówno rozkład pinów, jak i mechanizm montażowy zupełnie się różnią. Te dwa procesory Intela wymagają zupełnie innych płyt głównych, opartych na dedykowanych chipsetach i specyficznych dla Intela standardach. Również wybór AMD Sempron 2800+ jest nietrafiony – mimo że to procesor AMD, to jego socket (s-754) znacząco różni się od AM3+. W praktyce często widzę, że mylone są różne generacje i typy socketów AMD przez wzgląd na pewne podobieństwo nazewnictwa (AM2, AM2+, AM3, AM3+), ale między nimi są istotne różnice, np. w liczbie i układzie pinów oraz wsparciu dla różnych typów pamięci RAM. Warto pamiętać, żeby przy doborze CPU do płyty głównej zawsze dokładnie sprawdzać nie tylko fizyczną zgodność socketu, lecz także wersję BIOS-u i listę wspieranych modeli. Takie błędy wynikają najczęściej z pośpiechu lub nieuwagi, ale w branży IT precyzja jest podstawą. Porównując praktycznie, zamontowanie niekompatybilnego procesora zwykle kończy się brakiem reakcji płyty przy starcie lub, w najgorszym razie, uszkodzeniem pinów bądź samego CPU – i to już nie są tanie pomyłki. Dlatego zawsze warto korzystać z oficjalnych list kompatybilności udostępnianych przez producentów płyt głównych.

Pytanie 39

Jaką topologię fizyczną wykorzystuje się w sieciach o logice Token Ring?

A. Pierścienia
B. Gwiazdy
C. Magistrali
D. Siatki
Topologia fizyczna pierścienia jest kluczowym elementem w sieciach wykorzystujących topologię logiczną Token Ring. W tej architekturze, dane są przesyłane w formie tokenów, które krążą wokół zamkniętego pierścienia. Każde urządzenie w sieci ma dostęp do tokena, co zapewnia kontrolę nad transmisją danych i eliminację kolizji. To podejście jest szczególnie efektywne w środowiskach, gdzie wymagana jest stabilność i deterministyczny czas przesyłania danych, na przykład w aplikacjach przemysłowych i systemach automatyki. Standardy IEEE 802.5 definiują zasady działania sieci Token Ring, co czyni tę technologię zgodną z najlepszymi praktykami w zakresie projektowania sieci. Stosowanie topologii pierścienia sprawia, że sieć jest odporna na błędy; jeśli jedno urządzenie ulegnie awarii, pozostałe mogą nadal komunikować się, co jest kluczowe dla wysokiej dostępności systemów. W praktyce, sieci Token Ring znajdowały zastosowanie w różnych branżach, w tym w bankowości i telekomunikacji, gdzie niezawodność i bezpieczeństwo danych są priorytetowe.

Pytanie 40

Najskuteczniejszym zabezpieczeniem sieci bezprzewodowej jest

A. protokół WPA
B. protokół SSH
C. protokół WEP
D. protokół WPA2
Protokół WPA2 (Wi-Fi Protected Access 2) jest uważany za najbezpieczniejszy standard zabezpieczeń sieci bezprzewodowych dostępny do tej pory. WPA2 wprowadza silniejsze mechanizmy szyfrowania, w tym AES (Advanced Encryption Standard), który jest znacznie bardziej odporny na ataki niż starsze metody szyfrowania, takie jak TKIP (Temporal Key Integrity Protocol). Implementacja WPA2 w sieciach Wi-Fi pozwala na skuteczną ochronę przed nieautoryzowanym dostępem oraz zapewnia integralność przesyłanych danych. Przykładem zastosowania WPA2 jest konfiguracja domowej sieci Wi-Fi, w której użytkownik zabezpiecza swoje połączenie, aby chronić prywatne informacje przed hakerami. Warto również zaznaczyć, że WPA2 wspiera protokół 802.1X, co pozwala na wdrożenie systemu autoryzacji, co dodatkowo zwiększa poziom bezpieczeństwa. Aktualizacje i korzystanie z silnych haseł w połączeniu z WPA2 są kluczowe dla utrzymania bezpieczeństwa sieci.