Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 24 kwietnia 2026 10:58
  • Data zakończenia: 24 kwietnia 2026 11:11

Egzamin zdany!

Wynik: 23/40 punktów (57,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Ilustracja pokazuje panel ustawień bezprzewodowego urządzenia dostępowego, który umożliwia

Ilustracja do pytania
A. konfigurację serwera DHCP
B. przypisanie adresów MAC do kart sieciowych
C. określenie maski podsieci
D. ustawienie nazwy hosta
Konfiguracja serwera DHCP na panelu konfiguracyjnym bezprzewodowego urządzenia dostępowego jest kluczowym krokiem w zarządzaniu siecią. DHCP, czyli Dynamic Host Configuration Protocol, automatycznie przydziela adresy IP urządzeniom w sieci, co upraszcza procesy administracyjne i zmniejsza ryzyko konfliktów adresów IP. W panelu konfiguracyjnym można ustawić początkowy adres IP, co pozwala na zdefiniowanie zakresu adresów, które będą przydzielane klientom. Można też określić maksymalną liczbę użytkowników DHCP, co zapewnia kontrolę nad zasobami sieciowymi. Ustawienia te są kluczowe w sieciach zarówno domowych, jak i korporacyjnych, gdzie automatyzacja przydzielania adresów IP oszczędza czas administratorów. Dobre praktyki zalecają również ustawienie czasu dzierżawy, co wpływa na to, jak długo dany adres IP pozostaje przypisany do urządzenia. Praktyczne zastosowanie tego polega na unikaniu ręcznego przydzielania adresów IP, co w przypadku dużych sieci jest czasochłonne i podatne na błędy. Serwery DHCP są integralnym elementem nowoczesnych sieci, a ich konfiguracja według najlepszych praktyk zwiększa efektywność i niezawodność połączeń sieciowych

Pytanie 2

W celu zainstalowania systemu openSUSE oraz dostosowania jego ustawień, można skorzystać z narzędzia

A. GEdit
B. Evolution
C. YaST
D. Brasero
YaST (Yet another Setup Tool) to potężne narzędzie konfiguracyjne, które jest integralną częścią dystrybucji openSUSE. Jego główną funkcją jest umożliwienie użytkownikom zarówno instalacji systemu operacyjnego, jak i zarządzania jego ustawieniami po instalacji. YaST oferuje graficzny interfejs użytkownika oraz tryb tekstowy, co czyni go dostępnym zarówno dla początkujących, jak i zaawansowanych użytkowników. Dzięki YaST można łatwo zarządzać pakietami oprogramowania, konfigurować urządzenia sieciowe, ustawiać zasady bezpieczeństwa, a także administracyjnie zarządzać użytkownikami systemu. Na przykład, podczas instalacji openSUSE, YaST prowadzi użytkownika przez poszczególne etapy procesu, takie jak wybór języka, partycjonowanie dysków oraz wybór środowiska graficznego. To narzędzie jest zgodne z najlepszymi praktykami w dziedzinie zarządzania systemami, umożliwiając efektywne i zorganizowane podejście do administracji systemem operacyjnym.

Pytanie 3

Jakie protokoły pełnią rolę w warstwie transportowej modelu ISO/OSI?

A. TCP
B. ICMP
C. SMTP
D. UDP
TCP (Transmission Control Protocol) jest protokołem połączeniowym warstwy transportowej w modelu ISO/OSI, który zapewnia niezawodne, uporządkowane i kontrolowane przesyłanie danych między urządzeniami w sieci. W odróżnieniu od protokołów bezpołączeniowych, takich jak UDP, TCP ustanawia sesję komunikacyjną przed rozpoczęciem transferu danych, co pozwala na monitorowanie i zarządzanie przesyłem informacji. TCP implementuje mechanizmy takie jak kontrola przepływu, retransmisja zagubionych pakietów oraz segregacja danych w odpowiedniej kolejności. Przykłady zastosowania TCP obejmują protokoły aplikacyjne, takie jak HTTP (używane w przeglądarkach internetowych) oraz FTP (używane do przesyłania plików). Zastosowanie TCP jest zgodne z dobrymi praktykami w zakresie komunikacji sieciowej, gdzie niezawodność i integralność danych są kluczowe. W kontekście standardów, TCP współpracuje z protokołem IP (Internet Protocol) w modelu TCP/IP, co jest fundamentem funkcjonowania większości współczesnych sieci komputerowych.

Pytanie 4

Watomierz jest stosowany do pomiaru

A. mocy czynnej.
B. rezystancji.
C. natężenia prądu elektrycznego.
D. napięcia prądu elektrycznego.
Wbrew pozorom, watomierz nie jest uniwersalnym przyrządem do wszystkich pomiarów elektrycznych. Często można spotkać się z przekonaniem, że nazwa watomierz sugeruje, że urządzenie to mierzy cokolwiek związanego z prądem czy napięciem, jednak to nie do końca tak działa. Przykładowo, rezystancję mierzy się omomierzem – i to jest narzędzie przystosowane konstrukcyjnie oraz funkcjonalnie właśnie do takich pomiarów, wykorzystując często prawo Ohma. Natomiast napięcie elektryczne mierzymy woltomierzem, który podpinamy równolegle do obwodu. Podobnie natężenie prądu elektrycznego mierzymy amperomierzem, podłączając go szeregowo. To są podstawowe zasady, które pojawiają się już na pierwszych lekcjach w technikum. Watomierz z kolei służy konkretnie do wyznaczania mocy czynnej – tej, która realnie jest zużywana przez odbiornik. Niestety, dość powszechnym błędem jest utożsamianie mocy czynnej z samym napięciem lub prądem, co prowadzi do złych wniosków przy analizie zużycia energii. W praktyce, jeżeli ktoś spróbowałby użyć watomierza do pomiaru samego napięcia albo natężenia, wynik byłby bezużyteczny – konstrukcja tego urządzenia po prostu nie jest do tego przeznaczona. Tak naprawdę, profesjonalne podejście do pomiarów wymaga użycia odpowiednich narzędzi i znajomości norm, na przykład wspomnianych już wcześniej PN-EN czy IEC. To właśnie takie standardy pomagają unikać błędów związanych z doborem sprzętu i pozwalają na rzetelne analizowanie instalacji. Reasumując: każde urządzenie pomiarowe ma swoje ściśle określone zadania, a my, jako przyszli technicy, powinniśmy dobrze wiedzieć, co i kiedy stosować. Moim zdaniem, niewłaściwe podejście do tego tematu często bierze się z braku praktyki lub niezrozumienia podstawowych pojęć – i warto to sobie poukładać, zanim przejdziemy do bardziej zaawansowanych zagadnień.

Pytanie 5

Na którym wykresie przedstawiono przebieg piłokształtny?

Ilustracja do pytania
A. Na wykresie 3.
B. Na wykresie 4.
C. Na wykresie 2.
D. Na wykresie 1.
Żeby dobrze rozpoznać przebieg piłokształtny, trzeba odróżniać kilka podstawowych kształtów sygnałów okresowych. Wykres 1 pokazuje klasyczną sinusoidę: przebieg gładki, zaokrąglony, opisany funkcją sinus lub cosinus. Amplituda zmienia się w sposób ciągły, bez odcinków prostoliniowych. Taki sygnał jest typowy np. dla napięcia sieciowego 230 V AC czy wyjścia generatora funkcyjnego ustawionego na „sinus”. To zupełnie inna charakterystyka niż w przebiegu piłokształtnym, gdzie dominują odcinki liniowe i ostre przejścia. Na wykresie 2 widoczny jest przebieg prostokątny. Napięcie skokowo przełącza się pomiędzy dwoma poziomami, dodatnim i ujemnym (lub dodatnim i zerem), a odcinki są poziome. Taki kształt spotykamy w sygnałach cyfrowych, zegarowych, sterujących logiką TTL/CMOS. Tu nie ma ani liniowego narastania, ani opadania – przejścia są niemal pionowe. Mylenie prostokąta z piłą zwykle wynika z tego, że obydwa sygnały mają ostre krawędzie, ale ich przebieg w środku okresu jest kompletnie inny. Wykres 3 przedstawia przebieg trójkątny. Napięcie rośnie liniowo, a potem w podobny sposób liniowo maleje, przy czym stoki są symetryczne – czas narastania i opadania jest podobny, a nachylenia przeciwne, ale zbliżone wartością bezwzględną. To bardzo częsty sygnał w testach wzmacniaczy, filtrów czy układów regulacji. Typowy błąd polega na wrzuceniu „piły” i „trójkąta” do jednego worka, bo oba mają kształt zbliżony do zębów. Różnica jest jednak kluczowa: piłokształtny przebieg ma jedną krawędź łagodną, drugą bardzo stromą, natomiast trójkątny ma dwie krawędzie o podobnym nachyleniu. Przebieg piłokształtny, pokazany na wykresie 4, charakteryzuje się więc wyraźną asymetrią: napięcie narasta liniowo przez większość okresu, po czym następuje gwałtowny skok w dół (lub odwrotnie – szybki skok w górę i wolne opadanie, zależnie od definicji). W praktyce technicznej rozróżnienie tych kształtów jest ważne, bo każdy z nich generuje inne widmo harmonicznych i inaczej zachowuje się w torach analogowych, filtrach czy układach sterowania. W diagnostyce z użyciem oscyloskopu poprawna identyfikacja przebiegu pozwala szybciej dojść, który blok układu pracuje nieprawidłowo i jakie mogą być przyczyny usterki. Dlatego warto wyrobić sobie nawyk dokładnego patrzenia na nachylenia i symetrię sygnału, a nie tylko na ogólny „ząbkowany” kształt.

Pytanie 6

Czynnikiem zagrażającym bezpieczeństwu systemu operacyjnego, który zmusza go do automatycznej aktualizacji, są

A. nieprawidłowo zainstalowane sterowniki sprzętowe
B. nieprawidłowo skonfigurowane uprawnienia do plików
C. niepoprawne hasła użytkowników mających prawa administratora
D. dziury w oprogramowaniu systemowym
Wymienione odpowiedzi dotyczą różnych aspektów bezpieczeństwa systemu operacyjnego, jednak nie prowadzą one bezpośrednio do automatycznej aktualizacji systemu. Niewłaściwie ustawione prawa do plików mogą prowadzić do nieuprawnionego dostępu do danych, ale nie są one bezpośrednim zagrożeniem, które wymuszałoby automatyczne aktualizacje. Z kolei błędnie zainstalowane sterowniki urządzeń mogą powodować problemy z kompatybilnością oraz stabilnością systemu, jednak same w sobie nie stanowią luki, która wymuszałaby pilne działania aktualizacyjne. Błędne hasła użytkowników z prawami administratora, mimo że mogą zagrażać bezpieczeństwu, nie są bezpośrednio związane z lukami w oprogramowaniu systemowym. Typowym błędem myślowym jest utożsamianie kwestii dostępu z lukami w oprogramowaniu. Automatyczne aktualizacje mają na celu eliminację luk w oprogramowaniu, które mogą być wykorzystane przez atakujących, a nie problemów związanych z innymi czynnikami, które wymieniono. Dlatego kluczowe jest zrozumienie, że zagrożenia z zakresu bezpieczeństwa IT są zróżnicowane i wymagają różnych strategii ochrony.

Pytanie 7

Jakie rozwiązanie techniczne pozwala na transmisję danych z szybkością 1 Gb/s z zastosowaniem światłowodu?

A. 1000Base-LX
B. 10GBase-T
C. 10Base5
D. 100Base-FX
Wybór odpowiedzi 10GBase-T jest błędny, ponieważ ten standard Ethernet obsługuje prędkość 10 Gb/s, co znacznie przekracza wymaganą prędkość 1 Gb/s. Chociaż 10GBase-T wykorzystuje miedź do transmisji danych, jego zastosowanie jest ograniczone do mniejszych odległości, maksymalnie do 100 metrów, co czyni go mniej optymalnym wyborem dla dłuższych połączeń. Ponadto, odpowiedź 10Base5 to przestarzały standard, który oferuje zaledwie 10 Mb/s, co zdecydowanie nie spełnia wymagań dotyczących przesyłu danych z prędkością 1 Gb/s. Jego popularność spadła na rzecz nowocześniejszych technologii, które są bardziej efektywne i dostosowane do obecnych potrzeb sieciowych. Odpowiedź 100Base-FX również jest niepoprawna, ponieważ ten standard, podobnie jak 10Base5, oferuje tylko 100 Mb/s, co również jest niewystarczające w kontekście wymaganej prędkości 1 Gb/s. Stosowanie tych starszych standardów może prowadzić do poważnych problemów z wydajnością sieci, w tym do wąskich gardeł i opóźnień w przesyle danych. Typowym błędem myślowym jest zatem poleganie na starych standardach lub mylenie prędkości nominalnych, co skutkuje wyborem rozwiązań, które nie są przystosowane do współczesnych aplikacji i wymagań. Warto zatem zawsze zwracać uwagę na odpowiednie standardy i ich zastosowania, aby zapewnić optymalną wydajność i niezawodność sieci.

Pytanie 8

Na ilustracji, strzałka wskazuje na złącze interfejsu

Ilustracja do pytania
A. COM
B. LPT
C. IDE
D. FDD
IDE, czyli Integrated Drive Electronics, to interfejs do podłączania dysków twardych do komputerów. To jest interfejs szeregowy, co znaczy, że przesyła dane jeden bit na raz, a nie tak jak LPT, który przesyła równolegle. Głównie używa się go do dysków twardych i napędów optycznych, a nie do zewnętrznych urządzeń jak drukarki. Porty IDE są zazwyczaj w środku komputera i mają inną budowę, przez co łatwo je odróżnić od LPT. Z kolei porty COM, znane jako porty szeregowe, służą do komunikacji i podłączania np. modemów czy myszek. Wysyłają dane bit po bicie, co sprawia, że są wolniejsze od portów równoległych, ale mają tę zaletę, że można je podłączyć na dłuższym kablu. Złącza COM są mniejsze od LPT i mają zazwyczaj 9 lub 25 pinów. Mniejsza też jest ich rola, bo FDD, czyli napędy dyskietek, w ogóle nie są powiązane z LPT. Te napędy tylko przechowują dane, nie służą do komunikacji. Ważne jest, żeby rozumieć różnice między tymi interfejsami, bo mylenie ich może prowadzić do błędów w identyfikacji czy użyciu. Warto też zwrócić uwagę na specyfikacje techniczne, żeby dobrze je wykorzystać i wiedzieć, co robić w razie problemów sprzętowych.

Pytanie 9

Jakim symbolem powinien być oznaczony sprzęt komputerowy, aby spełniał wymogi prawne konieczne do sprzedaży w Unii Europejskiej?

Ilustracja do pytania
A. Symbolem 3
B. Symbolem 4
C. Symbolem 1
D. Symbolem 2
Symbol CE oznacza zgodność sprzętu z wymaganiami Unii Europejskiej dotyczącymi bezpieczeństwa zdrowia i ochrony środowiska. Oznaczenie to jest wymagane dla produktów takich jak sprzęt elektroniczny aby mogły być sprzedawane na rynku unijnym. CE to skrót od "Conformité Européenne" co oznacza zgodność europejską. Producent umieszczając ten symbol deklaruje że produkt spełnia wszystkie odpowiednie dyrektywy europejskie takie jak dyrektywa niskonapięciowa czy dyrektywa EMC dotycząca kompatybilności elektromagnetycznej. Przed wprowadzeniem produktu na rynek producent musi przeprowadzić ocenę zgodności która może obejmować testy wewnętrzne i dokumentację techniczną. Symbol CE jest powszechnie rozpoznawany i stanowi potwierdzenie że produkt przeszedł proces oceny zgodności. Dla konsumentów to gwarancja że produkt spełnia minimalne wymagania prawne związane z bezpieczeństwem oraz ochroną zdrowia i środowiska. Oznaczenie CE nie jest jednak znakiem jakości lecz jedynie potwierdzeniem zgodności z regulacjami UE co oznacza że każdy produkt oznaczony CE może być legalnie sprzedawany i użytkowany w krajach członkowskich. Przykładami produktów które muszą mieć oznaczenie CE są komputery sprzęt AGD i urządzenia medyczne.

Pytanie 10

Jaką funkcjonalność oferuje program tar?

A. administrowanie pakietami
B. ustawianie karty sieciowej
C. pokazywanie listy aktualnych procesów
D. archiwizowanie plików
Program tar (tape archive) jest narzędziem, które umożliwia archiwizowanie plików, co oznacza, że potrafi łączyć wiele plików w jeden plik archiwum, często stosowany w celu łatwiejszego zarządzania danymi oraz ich przenoszenia. Jest to niezwykle przydatne w systemach Unix i Linux, gdzie użytkownicy często muszą wykonywać kopie zapasowe, przesyłać pliki przez sieć lub przechowywać dane w sposób zorganizowany. Narzędzie tar obsługuje różne formaty kompresji, co pozwala na zmniejszenie rozmiaru archiwum, a także na ich szybsze przesyłanie i przechowywanie. W praktyce, archiwizacja za pomocą tar jest standardową procedurą, stosowaną w wielu firmach do zabezpieczania danych krytycznych. Na przykład, archiwizacja kodu źródłowego projektu przed jego wdrożeniem pozwala na łatwe przywrócenie wcześniejszej wersji w razie potrzeby. Dodatkowo, tar wspiera operacje takie jak rozpakowywanie archiwów, co czyni go wszechstronnym narzędziem do zarządzania plikami. W branży IT, zarządzanie danymi i archiwizacja stanowią kluczowy element strategii w zakresie bezpieczeństwa danych oraz ciągłości biznesowej.

Pytanie 11

Wpis w dzienniku zdarzeń przedstawiony na ilustracji należy zakwalifikować do zdarzeń typu

Ilustracja do pytania
A. ostrzeżenia
B. informacje
C. inspekcja niepowodzeń
D. błędy
Wpis w dzienniku zdarzeń oznaczony jako poziom Informacje informuje o prawidłowo przeprowadzonym procesie lub operacji bez problemów. Takie wpisy są ważne dla administratorów systemów i specjalistów IT ponieważ dostarczają dowodów na poprawne funkcjonowanie systemu i przeprowadzonych procesów. Na przykład wpis informacyjny może dokumentować pomyślną instalację aktualizacji systemu co jest istotne przy audytach i przy rozwiązywaniu problemów. Dokumentacja tego typu zdarzeń jest zgodna z dobrymi praktykami zarządzania IT takimi jak ITIL które kładą nacisk na monitorowanie i dokumentowanie stanu systemów. Regularne przeglądanie takich wpisów może pomóc w identyfikacji trendów i potencjalnych problemów zanim jeszcze wpłyną na działanie systemu. Ponadto tego typu logi mogą być używane do generowania raportów i analiz wydajności co jest kluczowe w większych środowiskach IT gdzie monitorowanie dużej liczby systemów jest niezbędne do zapewnienia ciągłości działania.

Pytanie 12

Protokół stosowany w sieciach komputerowych do zarządzania zdalnym terminalem w modelu klient-serwer, który nie gwarantuje bezpieczeństwa przekazywanych danych i funkcjonuje tylko w formacie tekstowym, to

A. Remote Desktop Protocol
B. Telnet
C. Internet Protocol
D. Secure Shell
Wybór odpowiedzi Secure Shell (SSH) jest zrozumiały, ponieważ jest to protokół zdalnego dostępu, który zapewnia bezpieczeństwo przesyłanych danych poprzez szyfrowanie. SSH jest standardem w zarządzaniu serwerami, a jego główną zaletą jest ochrona przed podsłuchiwaniem i atakami typu man-in-the-middle. Różni się on jednak od Telnetu, który nie oferuje żadnego z tych zabezpieczeń, co czyni go mniej odpowiednim do użytku w środowiskach, gdzie bezpieczeństwo jest kluczowe. Internet Protocol (IP) to protokół warstwy sieciowej odpowiedzialny za przesyłanie danych między urządzeniami w sieci, ale nie jest bezpośrednio związany z obsługą terminali zdalnych. Z kolei Remote Desktop Protocol (RDP) to protokół opracowany przez firmę Microsoft, który umożliwia zdalne sterowanie komputerem graficznym, co różni się od tekstowego interfejsu Telnetu. Dlatego, wybierając odpowiedź, należy zrozumieć, że protokoły mają różne przeznaczenia i zastosowania. Często myli się funkcjonalność i zastosowania tych technologii, co prowadzi do błędnych wyborów w kontekście ich użytkowania. Właściwe zrozumienie specyfiki każdego z protokołów oraz ich zastosowań w praktyce jest kluczowe dla efektywnego zarządzania systemami i sieciami komputerowymi.

Pytanie 13

Które urządzenie może zostać wykorzystane do rutowania ruchu sieciowego między sieciami VLAN?

A. Przełącznik warstwy drugiej obsługujący Port Based.
B. Przełącznik warstwy trzeciej.
C. Przełącznik warstwy drugiej z tablicą adresów MAC komputerów z nim połączonych.
D. Punkt dostępowy.
W tym pytaniu łatwo się pomylić, bo wszystkie wymienione urządzenia kojarzą się z siecią lokalną, ale tylko jedno z nich faktycznie realizuje routing między VLAN-ami. Częsty błąd polega na wrzucaniu do jednego worka wszystkich przełączników i zakładaniu, że skoro obsługują VLAN-y, to „na pewno jakoś to zrutują”. Niestety, tak to nie działa. Punkt dostępowy (access point) pracuje głównie w warstwie drugiej modelu OSI i jego podstawowym zadaniem jest mostkowanie ruchu między siecią bezprzewodową a przewodową. Owszem, nowocześniejsze kontrolery Wi-Fi potrafią przekierować ruch do konkretnych VLAN-ów w zależności od SSID, ale to nadal nie jest routing między VLAN-ami. AP po prostu wpuszcza ruch do odpowiedniego VLAN-u, a decyzje routingu podejmuje dalej router albo przełącznik L3. Z mojego doświadczenia sporo osób przecenia możliwości samych punktów dostępowych, bo interfejsy konfiguracyjne wyglądają „inteligentnie”, ale logika sieci dalej leży w klasycznych urządzeniach routujących. Przełącznik warstwy drugiej, nawet jeśli obsługuje VLAN-y portowe (Port Based VLAN), nadal działa na adresach MAC i ramkach Ethernet, nie na adresach IP. On potrafi odseparować ruch, stworzyć kilka domen rozgłoszeniowych i przypisać porty do różnych VLAN-ów, ale nie przeanalizuje nagłówka IP, więc nie podejmie decyzji routingu. To samo dotyczy zwykłego przełącznika L2 z tablicą adresów MAC – ta tablica służy jedynie do tego, żeby wiedzieć, na który port wysłać ramkę w obrębie tej samej sieci logicznej. Typowy tok myślenia prowadzący do złej odpowiedzi jest taki: „skoro przełącznik zna MAC-e i obsługuje VLAN-y, to pewnie umie też przekierować ruch między nimi”. W rzeczywistości routing wymaga logiki warstwy trzeciej, czyli analizy adresów IP, tablic routingu, ewentualnie protokołów routingu dynamicznego. Jeśli urządzenie nie jest wyraźnie opisane jako router lub przełącznik warstwy trzeciej, to nie zrealizuje inter-VLAN routingu. W praktycznych sieciach robi się to zawsze przez router z podinterfejsami dla każdego VLAN-u albo przez switch L3 z interfejsami SVI. To jest fundament poprawnej segmentacji sieci zgodnej ze standardami branżowymi.

Pytanie 14

Jak nazywa się metoda dostępu do medium transmisyjnego z detekcją kolizji w sieciach LAN?

A. NetBEUI
B. IPX/SPX
C. WINS
D. CSMA/CD
NetBEUI, WINS i IPX/SPX to protokoły komunikacyjne, które są często mylone z metodami dostępu do medium transmisyjnego, ale nie pełnią one tej samej funkcji co CSMA/CD. NetBEUI to protokół stosowany głównie w małych sieciach lokalnych, który nie wymaga skomplikowanej konfiguracji, ale nie obsługuje wykrywania kolizji, co czyni go mniej efektywnym w bardziej rozbudowanych infrastrukturach. WINS, z kolei, to usługa, która mapuje nazwy komputerów na adresy IP w sieciach Windows, ale nie jest odpowiedzialna za zarządzanie dostępem do medium transmisyjnego. IPX/SPX to zestaw protokołów, który był popularny w sieciach Novell, jednak jego użycie spadło na rzecz TCP/IP i nie zajmuje się mechanizmami wykrywania kolizji. Typowe myślenie, które prowadzi do wyboru tych odpowiedzi, opiera się na skojarzeniu protokołów z funkcjami sieciowymi, a nie na zrozumieniu ich rzeczywistych ról. Użytkownicy mogą uważać, że wszystkie wymienione opcje mają podobne znaczenie, jednak kluczowe jest zrozumienie różnic między metodą dostępu do medium a protokołami komunikacyjnymi. Przy projektowaniu sieci ważne jest, aby wybrać odpowiednie narzędzia i metody zgodne z aktualnymi standardami branżowymi, co zapewnia niezawodność i wydajność transmisji danych.

Pytanie 15

Protokół ARP (Address Resolution Protocol) pozwala na przypisanie logicznych adresów warstwy sieciowej do rzeczywistych adresów warstwy

A. łącza danych
B. transportowej
C. fizycznej
D. aplikacji
Wydaje mi się, że wybór odpowiedzi związanych z warstwami aplikacyjną, fizyczną i transportową pokazuje, że mogło dojść do pewnego nieporozumienia odnośnie tego, co robi ARP. Warstwa aplikacyjna skupia się na interakcji z użytkownikami i obsługuje różne usługi jak HTTP czy FTP, a to nie ma nic wspólnego z mapowaniem adresów w sieci. Warstwa fizyczna mówi o przesyłaniu bitów przez różne media, więc też nie pasuje do rozwiązywania adresów IP. Z kolei warstwa transportowa odpowiada za niezawodność połączeń i segmentację danych, więc również nie ma tutaj swojego miejsca. Może to wynikać z mylnego zrozumienia modelu OSI, bo każda warstwa ma swoje zadania. Kluczowy błąd to myślenie, że ARP działa na innych warstwach, podczas gdy jego miejsce jest właśnie na warstwie łącza danych. Ważne jest też, żeby zrozumieć, jak funkcjonuje sieć lokalna i jakie mechanizmy używamy do przesyłania danych, bo to jest podstawą dla wszelkich działań w sieciach komputerowych.

Pytanie 16

Wskaż nazwę modelu przechowywania i przetwarzania danych opartego na użytkowaniu zasobów dyskowych, obliczeniowych i programowych, udostępnionych przez usługodawcę za pomocą sieci komputerowej.

A. Peer to peer.
B. Chmura obliczeniowa.
C. Internet rzeczy.
D. Serwer FTP.
Opis z pytania bardzo często myli się z innymi pojęciami sieciowymi, bo wszystko dzieje się „gdzieś w sieci”, ale technicznie to zupełnie inne modele. Peer to peer to architektura, w której komputery użytkowników pełnią jednocześnie rolę klienta i serwera. Każdy węzeł sieci P2P może udostępniać i pobierać zasoby bez centralnego serwera. Klasyczny przykład to stare sieci do wymiany plików czy niektóre komunikatory. Tam nie ma jednego dostawcy, który sprzedaje zasoby obliczeniowe czy dyskowe w modelu usługowym, więc nie pasuje to do definicji z pytania. Serwer FTP to po prostu usługa i protokół służący do przesyłania plików (File Transfer Protocol). Możesz się zalogować, wysłać plik, pobrać plik, czasem coś usunąć albo zmienić nazwę. To pojedynczy typ usługi sieciowej, a nie cały model przechowywania i przetwarzania danych w sensie cloud computingu. W praktyce serwer FTP może działać w chmurze, ale sam w sobie nie jest chmurą, tylko jedną z aplikacji. Internet rzeczy to z kolei koncepcja połączenia wielu urządzeń – czujników, kamer, sterowników, inteligentnych żarówek, lodówek – z siecią i często z jakąś centralną platformą. Urządzenia IoT wysyłają dane, reagują na komendy, ale nie definiują sposobu udostępniania zasobów obliczeniowych dla użytkownika końcowego. Typowy błąd polega na tym, że skoro coś „działa przez Internet”, to automatycznie kojarzy się z chmurą albo IoT. W rzeczywistości chmura obliczeniowa to konkretny model usługowy (IaaS, PaaS, SaaS), z rozliczaniem za użycie, wirtualizacją zasobów i możliwością szybkiego skalowania. P2P, FTP i IoT są tylko technologiami lub architekturami, które mogą z tej chmury korzystać, ale jej nie zastępują i nie spełniają definicji podanej w pytaniu.

Pytanie 17

Przedstawione narzędzie podczas naprawy zestawu komputerowego przeznaczone jest do

Ilustracja do pytania
A. wyginania oraz zaciskania metalowych płaszczyzn.
B. zaciskania wtyków, obcinania i ściągania izolacji z przewodów elektrycznych.
C. podstawowych testów elementów elektronicznych, takich jak diody, tranzystory lub rezystory.
D. czyszczenia elementów elektronicznych z resztek pasty i topników.
To narzędzie przedstawione na zdjęciu to klasyczny tester elektroniczny, który w praktyce serwisowej, szczególnie przy naprawach zestawów komputerowych, wykorzystuje się właśnie do podstawowych testów elementów elektronicznych takich jak diody, tranzystory czy rezystory. Pozwala on szybko zweryfikować ciągłość obwodu, obecność napięcia, a często także, czy dany element przewodzi prąd w sposób oczekiwany (np. dioda przewodzi w jedną stronę, tranzystor odpowiednio reaguje na sygnał). Używanie takiego testera jest o tyle praktyczne, że daje możliwość szybkiego wyłapania najczęstszych usterek bez potrzeby rozbierania całego sprzętu czy korzystania z bardziej zaawansowanych narzędzi laboratoryjnych. W branży IT i elektronice użytkowej bardzo docenia się narzędzia, które pozwalają „na biegu” sprawdzić podstawowe parametry i od razu wykluczyć oczywiste awarie. Moim zdaniem, to wręcz niezbędny przyrząd w każdej torbie serwisanta – niejednokrotnie uratował mi skórę przy nagłych naprawach. Warto też pamiętać, że tester taki nie zastąpi pełnoprawnego multimetru, ale jego zastosowanie zgodnie z zaleceniami producenta i ogólnie przyjętymi zasadami bezpieczeństwa (np. IEC 61010) daje pewność, że wyniki są rzetelne, a praca przebiega sprawnie i bezpiecznie. Z mojego doświadczenia wynika, że początkujący technicy często nie doceniają prostoty tego typu narzędzi, a przecież w praktyce sprawdzają się znakomicie tam, gdzie trzeba szybko, ale skutecznie zdiagnozować usterkę.

Pytanie 18

Jak należy rozmieszczać gniazda komputerowe RJ45 w odniesieniu do przestrzeni biurowej zgodnie z normą PN-EN 50174?

A. Gniazdo komputerowe 2 x RJ45 na 20 m2 powierzchni biura
B. Gniazdo komputerowe 2 x RJ45 na 10 m2 powierzchni biura
C. Gniazdo komputerowe 1 x RJ45 na 10 m2 powierzchni biura
D. Gniazdo komputerowe 1 x RJ45 na 20 m2 powierzchni biura
Wybrane odpowiedzi, które sugerują, że na 10 m2 powierzchni biura powinno przypadać jedno gniazdo RJ45 lub że na 20 m2 wystarczą dwa gniazda, są niezgodne z wymogami normy PN-EN 50174, która jednoznacznie określa minimalne standardy dotyczące infrastruktury telekomunikacyjnej. Ograniczenie liczby gniazd do jednego na 10 m2 może prowadzić do niedoboru punktów dostępu, co w praktyce może skutkować przeciążeniem sieci oraz ograniczoną funkcjonalnością biura. Użytkownicy mogą napotkać trudności w podłączaniu różnych urządzeń, co z kolei obniża efektywność pracy oraz zwiększa frustrację. Innym problemem jest wskazanie na 2 gniazda na 20 m2, które również nie spełnia standardów, gdyż norma sugeruje wyższą gęstość gniazd na mniejszą powierzchnię. To podejście może wynikać z niewłaściwej interpretacji potrzeb związanych z infrastrukturą IT w biurze. Współczesne biura wymagają elastyczności oraz efektywności, a zbyt mała liczba gniazd może negatywnie wpłynąć na realizację tych wymagań. Warto zwrócić uwagę, że rozmieszczenie gniazd powinno być planowane z uwzględnieniem przyszłych potrzeb oraz rozwoju technologii, co czyni te błędne odpowiedzi nie tylko niezgodnymi z normami, ale także nieprzemyślanymi w kontekście długoterminowego użytkowania.

Pytanie 19

Który z poniższych systemów operacyjnych jest systemem typu open-source?

A. Linux
B. iOS
C. Windows
D. macOS
Linux to system operacyjny typu open-source, co oznacza, że jego kod źródłowy jest dostępny publicznie i można go dowolnie modyfikować oraz rozpowszechniać. Jest to jedna z jego największych zalet, ponieważ umożliwia społeczności programistów na całym świecie wprowadzanie poprawek, optymalizacji i nowych funkcji, które mogą być szybko wdrażane. Dzięki temu Linux jest niezwykle elastyczny i może być dostosowany do wielu różnych zastosowań, od serwerów, przez desktopy, aż po urządzenia wbudowane. W praktyce oznacza to, że jeśli masz specyficzne potrzeby, możesz dostosować system do swoich wymagań, co jest nieosiągalne w systemach zamkniętych. Linux wspiera wiele architektur sprzętowych, co czyni go wyjątkowo uniwersalnym rozwiązaniem. W dodatku, wiele popularnych dystrybucji Linuxa, takich jak Ubuntu czy Fedora, jest dostępnych za darmo, co czyni go atrakcyjnym wyborem dla wielu użytkowników indywidualnych i organizacji.

Pytanie 20

W systemach operacyjnych z rodziny Windows odpowiednikiem programu fsck z systemu Linux jest aplikacja

A. erase
B. chkdsk
C. tasklist
D. icacls
'chkdsk' to rzeczywiście to, czego szukałeś. To narzędzie w Windows sprawdza dyski twarde i naprawia różne błędy. W sumie, można je porównać do 'fsck' w Linuxie, bo oba zajmują się sprawdzaniem systemu plików i naprawą uszkodzeń. To przydatna sprawa, zwłaszcza jak system ma problemy z czytaniem danych albo coś się psuje podczas pracy na plikach. Żeby użyć 'chkdsk', wystarczy otworzyć wiersz poleceń jako administrator i wpisać 'chkdsk C:', gdzie 'C' to litera dysku do sprawdzenia. Fajnie jest też robić to regularnie, szczególnie po awarii lub intensywnym użytkowaniu, żeby mieć pewność, że wszystko działa jak należy i że nasze dane są bezpieczne. Warto też wiedzieć, że 'chkdsk' można ustawić, żeby działał automatycznie przy starcie systemu, co pomaga w naprawie problemów jeszcze zanim użytkownik zdąży coś zrobić na problematycznym dysku.

Pytanie 21

Jakie polecenie w systemie operacyjnym Windows służy do wyświetlenia konfiguracji interfejsów sieciowych?

A. ipconfig
B. tracert
C. ifconfig
D. hold
Odpowiedź 'ipconfig' jest prawidłowa, ponieważ jest to polecenie używane w systemach operacyjnych Windows do wyświetlania konfiguracji interfejsów sieciowych. Dzięki temu poleceniu użytkownik może uzyskać szczegółowe informacje na temat aktywnych połączeń sieciowych, takich jak adresy IP, maski podsieci oraz bramy domyślne. Jest to kluczowe narzędzie dla administratorów systemów oraz użytkowników, którzy chcą diagnozować problemy z siecią. Na przykład, używając polecenia 'ipconfig /all', można uzyskać szczegółowy widok wszystkich interfejsów sieciowych, w tym informacji o serwerach DNS i adresach MAC. Takie informacje są niezbędne w procesie rozwiązywania problemów oraz w konfiguracji złożonych sieci. W branży IT, znajomość narzędzi do zarządzania konfiguracją sieci jest uznawana za standardową umiejętność, co czyni 'ipconfig' jednym z podstawowych poleceń dla każdego specjalisty zajmującego się sieciami komputerowymi.

Pytanie 22

Jakie polecenie należy zastosować, aby zamontować pierwszą partycję logiczną dysku primary slave w systemie Linux?

A. mount /dev/hdb5 /mnt/hdd
B. mount /dev/hdb3 /mnt/hdd
C. mount /dev/hda4 /mnt/hdd
D. mount /dev/hda2 /mnt/hdd
Wybór jakiejkolwiek innej odpowiedzi prowadzi do błędnego wskazania partycji, co jest kluczowe w kontekście zarządzania systemem plików w Linuxie. Odpowiedź 'mount /dev/hdb3 /mnt/hdd' sugeruje, że użytkownik próbowałby zamontować trzecią partycję na tym samym dysku, co nie byłoby odpowiednie w kontekście pytania o pierwszą partycję logiczną. Podobnie, 'mount /dev/hda2 /mnt/hdd' odnosi się do drugiej partycji na pierwszym dysku 'primary master', co także nie jest zgodne z kontekstem pytania. Odpowiedź 'mount /dev/hda4 /mnt/hdd' również nie jest prawidłowa, ponieważ wskazuje na czwartą partycję na tym samym dysku, co może prowadzić do nieporozumień przy organizowaniu przestrzeni dyskowej. Typowe błędy to mylenie partycji fizycznych z logicznymi oraz nieznajomość konwencji nazewnictwa w systemach Linux. Ważne jest, aby przed montowaniem partycji zapoznać się z ich strukturą oraz zrozumieć, jak system plików jest zorganizowany. W praktyce, niepoprawny wybór partycji może prowadzić do utraty danych lub problemów z dostępem do plików, dlatego kluczowe jest stosowanie się do zasad i norm dotyczących zarządzania dyskami oraz partycjami w systemie Linux. Zrozumienie tych zasad jest niezbędne dla efektywnego administrowania systemem operacyjnym.

Pytanie 23

Komputer powinien działać jako serwer w sieci lokalnej, umożliwiając innym komputerom dostęp do Internetu poprzez podłączenie do gniazda sieci rozległej za pomocą kabla UTP Cat 5e. Na chwilę obecną komputer jest jedynie połączony ze switchem sieci lokalnej również kablem UTP Cat 5e oraz nie dysponuje innymi portami 8P8C. Jakiego komponentu musi on koniecznie nabrać?

A. O większą pamięć RAM
B. O szybszy procesor
C. O dodatkowy dysk twardy
D. O drugą kartę sieciową
Komputer, żeby móc działać jako serwer i dzielić połączenie z Internetem, musi mieć dwie karty sieciowe. Jedna z nich służy do komunikacji w lokalnej sieci (LAN), a druga przydaje się do łączenia z Internetem (WAN). Dzięki temu można spokojnie zarządzać przesyłem danych w obie strony. Takie rozwiązanie jest super ważne, bo pozwala np. na utworzenie serwera, który działa jak brama między komputerami w domu a Internetem. Warto wiedzieć, że posiadanie dwóch kart sieciowych to dobra praktyka, zwiększa to bezpieczeństwo i wydajność. Jeżeli chodzi o standardy IT, to takie podejście pomaga też w segregowaniu ruchu lokalnego i zewnętrznego, co ma duże znaczenie dla ochrony danych i wykorzystania zasobów. Dodatkowo, sporo systemów operacyjnych i rozwiązań serwerowych, takich jak Windows Server czy Linux, wspiera konfiguracje z wieloma kartami.

Pytanie 24

Liczba szesnastkowa 1E2F₍₁₆₎ zapisana w systemie ósemkowym ma postać

A. 7277
B. 17057
C. 74274
D. 7727
Wybór innej odpowiedzi niż 17057 najczęściej wynika z niepoprawnego przeliczania wartości między systemami liczbowymi lub uproszczenia procedury konwersji. W praktyce, jednym z najczęstszych błędów jest próba zamiany każdej cyfry szesnastkowej bezpośrednio na cyfrę ósemkową – co jest niestety niezgodne z zasadami matematycznymi. Szesnastkowy i ósemkowy opierają się na różnych podstawach i nie istnieje prosta „podmiana” cyfr. Kolejnym problemem jest nieuwzględnienie wartości pozycyjnych – na przykład, cyfra 'E' w szesnastkowym to 14 w dziesiętnym, a nie 7 czy 2. Jeśli ktoś uzyskał wyniki takie jak 7277 lub 7727, to najprawdopodobniej próbował przypisać każdej szesnastkowej cyfrze jakąś ósemkową, ignorując ich realną wartość. To klasyczny błąd początkujących, który moim zdaniem pojawia się przez chęć skrócenia drogi albo przez presję czasu. Odpowiedź 74274 sugeruje natomiast, że mogło dojść do pomylenia systemu binarnego z ósemkowym lub niewłaściwego zgrupowania bitów podczas konwersji. W rzeczywistości, poprawna metoda polega na rozbiciu każdej cyfry szesnastkowej na 4 bity, połączeniu wszystkiego w jeden ciąg, a później grupowaniu tych bitów po trzy (dla ósemkowego) od końca i przeliczaniu na cyfry ósemkowe. To zgodne z dobrymi praktykami opisanymi w wielu podręcznikach do informatyki czy elektroniki. Z mojego punktu widzenia, takie błędy są naturalne na początku nauki pracy z systemami liczbowymi – mnie samemu to się zdarzało. Dlatego warto trenować zamianę przez system binarny lub dziesiętny, bo wtedy unika się nieporozumień i nie popełnia się tych drobnych, ale kosztownych w praktyce błędów. W codziennej pracy, np. przy programowaniu niskopoziomowym, takie pomyłki mogą prowadzić do bardzo poważnych konsekwencji, więc dobrze już teraz wyrobić sobie właściwe nawyki.

Pytanie 25

Do zainstalowania serwera proxy w systemie Linux, konieczne jest zainstalowanie aplikacji

A. Postfix
B. Squid
C. Samba
D. Webmin
Squid to wydajny serwer proxy, który jest powszechnie stosowany w systemach Linux do zarządzania ruchem internetowym. Jest to oprogramowanie typu open source, co oznacza, że jest dostępne za darmo i cieszy się szerokim wsparciem społeczności. Squid umożliwia cache'owanie stron internetowych, co znacząco przyspiesza dostęp do najczęściej odwiedzanych zasobów. Dzięki temu nie tylko oszczędzamy pasmo, ale również zmniejszamy obciążenie serwerów zewnętrznych. Dodatkowo, Squid może pełnić rolę filtra treści, co jest przydatne w środowiskach korporacyjnych i edukacyjnych. Możliwość konfigurowania reguł dostępu i autoryzacji użytkowników sprawia, że Squid jest bardzo elastyczny i dostosowuje się do różnych scenariuszy użycia. Warto również zaznaczyć, że Squid obsługuje protokoły HTTP, HTTPS oraz FTP, co czyni go wszechstronnym narzędziem do zarządzania połączeniami sieciowymi.

Pytanie 26

Jakie zakresy adresów IPv4 mogą być używane jako adresy prywatne w lokalnej sieci?

A. 200.186.0.0 ÷ 200.186.255.255
B. 127.0.0.0 ÷ 127.255.255.255
C. 168.172.0.0 ÷ 168.172.255.255
D. 172.16. 0.0 ÷ 172.31.255.255
Zakres adresów IP 127.0.0.0 do 127.255.255.255 jest zarezerwowany dla adresów loopback, co oznacza, że są one używane do testowania lokalnych połączeń na danym urządzeniu. Adres 127.0.0.1 jest powszechnie znany jako 'localhost' i służy do komunikacji wewnętrznej w systemie operacyjnym. Użycie tych adresów w sieciach lokalnych nie jest wskazane, ponieważ nie są one routowane poza urządzenie, co uniemożliwia ich wykorzystanie do komunikacji między różnymi urządzeniami w sieci. Zakres 168.172.0.0 do 168.172.255.255 nie jest zdefiniowany jako prywatny w żadnym standardzie, co oznacza, że mogą być one przypisane jako publiczne adresy IP. Ostatecznie, zakres 200.186.0.0 do 200.186.255.255 również nie znajduje się w ramach prywatnych adresów IP, a adresy te są routowane w Internecie. Typowe błędy, które mogą prowadzić do nieprawidłowych wniosków, obejmują mylenie adresów prywatnych z publicznymi, co może skutkować problemami z dostępem do sieci oraz bezpieczeństwem. Kluczowe jest, aby zrozumieć, jakie adresy są przeznaczone do użytku lokalnego a jakie do komunikacji w Internecie, aby skutecznie projektować i zarządzać sieciami komputerowymi.

Pytanie 27

Urządzenie pokazane na ilustracji służy do zgrzewania wtyków

Ilustracja do pytania
A. BNC
B. E 2000
C. SC
D. RJ 45
Narzędzie przedstawione na rysunku to zaciskarka do wtyków RJ 45 wykorzystywana w sieciach komputerowych opartych na kablach typu skrętka. Wtyki RJ 45 są standardowymi złączami stosowanymi w kablach ethernetowych kategorii 5 6 i wyższych umożliwiającymi połączenia w sieciach LAN. Zaciskarka umożliwia właściwe umiejscowienie przewodów w złączu oraz zapewnia odpowiednie połączenie elektryczne dzięki zaciskaniu metalowych styków na izolacji przewodów. Proces ten wymaga precyzyjnego narzędzia które pozwala na równomierne rozłożenie siły co minimalizuje ryzyko uszkodzenia złącza. Przy prawidłowym użyciu zaciskarki możliwe jest uzyskanie niezawodnych połączeń które charakteryzują się wysoką odpornością na zakłócenia elektromagnetyczne. Warto również zwrócić uwagę na zastosowanie odpowiedniej kategorii kabli zgodnie z obowiązującymi standardami branżowymi jak np. ANSI TIA EIA 568 co zapewnia optymalne parametry transmisji danych. W codziennej praktyce instalatora sieciowego znajomość i umiejętność używania takiego narzędzia jest kluczowa dla zapewnienia jakości i niezawodności połączeń sieciowych.

Pytanie 28

Urządzenie sieciowe funkcjonujące w trzeciej warstwie modelu ISO/OSI, posługujące się adresami IP, to

A. most.
B. przełącznik.
C. wzmacniacz.
D. router.
Router to taki ważny sprzęt w sieciach, działa na trzeciej warstwie modelu ISO/OSI, czyli na warstwie sieci. Jego główne zadanie to kierowanie ruchem danych między różnymi sieciami, a ogólnie mówiąc, używa do tego adresów IP. Jak to działa? Routery analizują, dokąd mają wysłać pakiety danych i decydują, jaka trasa będzie najlepsza. W praktyce oznacza to, że jeśli masz w domu kilka urządzeń, to router pozwala im rozmawiać ze sobą i łączyć się z internetem, korzystając z jednego adresu IP od dostawcy. Warto wiedzieć, że routery powinny być dobrze skonfigurowane, żeby sieć była bezpieczna, na przykład przez włączenie zapory ogniowej i ustalenie mocnych haseł. Często wspierają też różne protokoły jak OSPF czy BGP, które są naprawdę ważne w bardziej skomplikowanych sieciach.

Pytanie 29

Długi oraz dwa krótkie dźwięki sygnałowe BIOS POST od AMI i AWARD sygnalizują problem

A. mikroprocesora
B. zegara systemowego
C. karty sieciowej
D. karty graficznej
Odpowiedź dotycząca karty graficznej jest prawidłowa, ponieważ jeden długi i dwa krótkie sygnały dźwiękowe BIOS POST AMI oraz AWARD jednoznacznie wskazują na problem związany z kartą graficzną. W standardach BIOS-u, sygnały dźwiękowe są używane do diagnostyki sprzętu, a ich interpretacja jest kluczowa dla szybkiego rozwiązywania problemów. Problemy z kartą graficzną mogą obejmować nieprawidłowe połączenia, uszkodzenia samej karty lub brak odpowiedniego zasilania. W praktyce, aby upewnić się, że karta graficzna działa poprawnie, warto regularnie sprawdzać jej połączenia, a także monitorować temperatury podczas pracy, co jest zgodne z dobrymi praktykami w zakresie konserwacji sprzętu komputerowego. W przypadku wystąpienia tego błędu, zaleca się również aktualizację sterowników oraz, w razie potrzeby, przetestowanie karty w innym porcie lub innym systemie, co może pomóc w identyfikacji źródła problemu.

Pytanie 30

Jaki rodzaj routingu jest najbardziej odpowiedni w dużych, szybko zmieniających się sieciach?

A. Statyczny
B. Zewnętrzny
C. Dynamiczny
D. Lokalny
Routing dynamiczny jest najbardziej odpowiedni dla rozbudowanych, szybko zmieniających się sieci ze względu na swoją zdolność do automatycznego dostosowywania się do zmian w topologii sieci. W przeciwieństwie do routingu statycznego, gdzie trasy są konfigurowane ręcznie, routing dynamiczny wykorzystuje protokoły takie jak OSPF, EIGRP czy BGP, które umożliwiają urządzeniom sieciowym wymianę informacji o osiągalnych trasach. Dzięki temu, w przypadku awarii jednego z węzłów, sieć natychmiast znajdzie alternatywną ścieżkę, co zwiększa jej niezawodność i dostępność. Przykładowo, w dużych środowiskach korporacyjnych, gdzie zmiany w infrastrukturze są na porządku dziennym, routing dynamiczny pozwala na efektywne zarządzanie zasobami oraz minimalizację przestojów. Ponadto, protokoły dynamiczne mają możliwość uczenia się i adaptacji do zmieniających się warunków w sieci, co jest kluczowe w przypadku aplikacji wymagających wysokiej dostępności i niskich opóźnień.

Pytanie 31

Jaki będzie wynik operacji odejmowania dwóch liczb szesnastkowych: 60Aₕ – 3BFₕ?

A. 2AEₕ
B. 24Bₕ
C. 349ₕ
D. 39Aₕ
Wynik odejmowania dwóch liczb szesnastkowych: 60A₁₆ – 3BF₁₆ faktycznie daje 24B₁₆ i to jest poprawna odpowiedź. Często spotyka się takie operacje przy pracy z adresami pamięci albo rejestrami mikrokontrolerów. Odejmowanie w systemie szesnastkowym działa na podobnej zasadzie jak w dziesiętnym, tylko podstawą jest tutaj 16 zamiast 10. Ja zawsze polecam najpierw zamienić liczby na dziesiętne, żeby sprawdzić czy rachunek się zgadza, a potem wrócić do szesnastkowego – to bardzo ułatwia weryfikację wyniku. 60A₁₆ to 1546₁₀, 3BF₁₆ to 959₁₀, po odjęciu mamy 587₁₀, co daje właśnie 24B₁₆ po zamianie z powrotem. Branża IT czy elektronika często wymaga sprawnego liczenia w różnych systemach, bo np. podczas debugowania kodu czy przy analizie zrzutów pamięci można spotkać się tylko z szesnastkami. Warto wiedzieć, że standard HEX jest też używany w sieciach komputerowych, np. przy adresach MAC. Moim zdaniem opanowanie takich prostych operacji to must-have dla każdego, kto myśli o poważnej pracy z elektroniką albo programowaniem niskopoziomowym. Z doświadczenia wiem, że taka umiejętność mocno przyspiesza zrozumienie różnych narzędzi używanych w praktyce technicznej.

Pytanie 32

Gdy chce się, aby jedynie wybrane urządzenia mogły uzyskiwać dostęp do sieci WiFi, należy w punkcie dostępowym

A. skonfigurować filtrowanie adresów MAC
B. zmienić kod dostępu
C. zmienić typ szyfrowania z WEP na WPA
D. zmienić częstotliwość radiową
Skonfigurowanie filtrowania adresów MAC w punkcie dostępowym to dobra rzecz, bo pozwala nam na ograniczenie dostępu do WiFi tylko dla tych urządzeń, które chcemy mieć pod kontrolą. Każde urządzenie ma swój unikalny adres MAC, dzięki czemu można je łatwo zidentyfikować w sieci. Jak dodasz adresy MAC do listy dozwolonych, to administrator sieci może zablokować inne urządzenia, które nie są na tej liście. Na przykład, jeśli w biurze chcemy, żeby tylko nasi pracownicy z określonymi laptopami korzystali z WiFi, wystarczy, że ich adresy MAC wprowadzimy do systemu. To naprawdę zwiększa bezpieczeństwo naszej sieci! Warto też pamiętać, że filtrowanie adresów MAC to nie wszystko. To jakby jeden z wielu elementów w układance. Takie coś jak WPA2 i mocne hasła są również super ważne. Dzisiaj zaleca się stosowanie różnych warstw zabezpieczeń, a filtrowanie MAC jest jednym z nich.

Pytanie 33

Jakie polecenie w systemie Linux jest potrzebne do stworzenia archiwum danych?

A. date
B. cal
C. tar
D. grep
Polecenie 'tar' to naprawdę przydatne narzędzie w systemach Unix i Linux, które pozwala na tworzenie archiwów danych. Możesz zgrupować mnóstwo plików i folderów w jeden, co jest mega pomocne, gdy chcesz zaoszczędzić miejsce lub przenieść je gdzieś indziej. Na przykład, żeby stworzyć archiwum, możesz użyć czegoś takiego jak 'tar -cvf archiwum.tar /ścieżka/do/katalogu'. Opcja '-c' oznacza, że tworzysz archiwum, '-v' pokaże ci, co się dzieje, a '-f' pozwala nadać nazwę temu archiwum. Dodatkowo, fajnie jest to połączyć z kompresją, na przykład z gzip, używając '-z' ('tar -czvf archiwum.tar.gz /ścieżka/do/katalogu'). To jest naprawdę dobre podejście do zarządzania danymi, bo pozwala na efektywne przechowywanie oraz szybkie przywracanie danych, co jest super ważne przy backupach i migracjach.

Pytanie 34

Jak nazywa się protokół, który pozwala na ściąganie wiadomości e-mail z serwera?

A. FTP
B. DNS
C. SMTP
D. POP3
Wybór innego protokołu, takiego jak DNS, FTP czy SMTP, wskazuje na pewne nieporozumienia dotyczące roli i funkcji tych technologii w kontekście komunikacji e-mail. DNS (Domain Name System) nie jest protokołem do pobierania wiadomości; jego główną funkcją jest tłumaczenie nazw domen na adresy IP, co umożliwia lokalizację serwerów w sieci. Bez DNS, użytkownicy musieliby pamiętać adresy IP serwerów, co znacząco utrudniłoby korzystanie z Internetu. Z kolei FTP (File Transfer Protocol) jest protokołem transferu plików, służącym do przesyłania plików pomiędzy komputerami, a nie do obsługi poczty elektronicznej. FTP umożliwia zarówno pobieranie, jak i wysyłanie plików, jednak nie ma zastosowania w kontekście wiadomości e-mail. SMTP (Simple Mail Transfer Protocol) jest natomiast używany do wysyłania wiadomości e-mail, nie zaś do ich pobierania. Zrozumienie tych różnic jest kluczowe dla efektywnego zarządzania systemami pocztowymi oraz dla uniknięcia typowych błędów koncepcyjnych. Często mylone funkcje tych protokołów mogą prowadzić do nieporozumień w kwestii ich zastosowania, co może wpłynąć na wydajność i bezpieczeństwo komunikacji elektronicznej.

Pytanie 35

Na ilustracji pokazano przekrój kabla

Ilustracja do pytania
A. S/UTP
B. U/UTP
C. koncentrycznego
D. optycznego
Kabel optyczny, który działa na zasadzie przesyłania danych za pomocą światła w rdzeniu światłowodowym, różni się fundamentalnie od kabla koncentrycznego. Podstawową różnicą jest zastosowanie i budowa kabla optycznego, który składa się z rdzenia i płaszcza wykonanych z włókna szklanego lub tworzywa sztucznego, umożliwiającego szybki przesył danych na bardzo duże odległości bez zakłóceń elektromagnetycznych, co czyni go idealnym do zastosowań w nowoczesnych sieciach telekomunikacyjnych, takich jak internet czy telewizja cyfrowa. Z kolei kable S/UTP i U/UTP to kategorie skrętki nieekranowanej lub ekranowanej, stosowanej przede wszystkim w sieciach komputerowych do transmisji danych. Kabel S/UTP zawiera dodatkowy ekran wokół całej wiązki przewodów, co zwiększa jego odporność na zakłócenia elektromagnetyczne, jednak nadal strukturalnie i funkcjonalnie różni się od kabla koncentrycznego, który ma pojedynczy przewodnik centralny. Kable te są często używane w lokalnych sieciach komputerowych (LAN), gdzie kluczowe jest zapewnienie odpowiedniej przepustowości oraz minimalizacja interferencji. Wybór niewłaściwego typu kabla może prowadzić do problemów z jakością sygnału i niezawodnością połączenia. Zrozumienie różnic w budowie i zastosowaniach tych kabli jest kluczowe dla profesjonalistów zajmujących się projektowaniem i instalacją sieci telekomunikacyjnych oraz komputerowych, co podkreśla znaczenie znajomości odpowiednich standardów przemysłowych, takich jak TIA/EIA i ISO/IEC.

Pytanie 36

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. konfigurowaniem adresu karty sieciowej.
B. dodaniem drugiego dysku twardego.
C. wybraniem pliku z obrazem dysku.
D. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 37

Aby uniknąć utraty danych w aplikacji do ewidencji uczniów, po zakończonej pracy każdego dnia należy wykonać

A. kopię zapasową danych programu
B. aktualizację systemu operacyjnego
C. aktualizację systemu
D. bezpieczne zamknięcie systemu operacyjnego
Wykonywanie kopii zapasowej danych programu jest kluczowym elementem strategii zarządzania danymi w każdej organizacji. Polityka tworzenia kopii zapasowych powinna być zgodna z zasadami dobrego zarządzania danymi, które zalecają regularne archiwizowanie informacji, aby zminimalizować ryzyko utraty cennych danych. Kopie zapasowe powinny być przechowywane w bezpiecznym miejscu, oddzielonym od głównego systemu, co zabezpiecza je przed utratą na skutek awarii sprzętu czy cyberataków. Przykładowo, korzystając z oprogramowania do ewidencji uczniów, warto ustalić harmonogram automatycznego tworzenia kopii zapasowych na koniec każdego dnia, co zapewnia, że wszystkie zmiany wprowadzone w trakcie dnia będą zapisane. Dodatkowo, warto zapoznać się z różnymi metodami tworzenia kopii zapasowych, takimi jak pełne, różnicowe czy przyrostowe, aby dopasować je do potrzeb organizacji. Takie podejście zwiększa bezpieczeństwo danych i zapewnia ich dostępność w razie awarii.

Pytanie 38

Na podstawie przedstawionej na ilustracji konfiguracji, w przypadku, gdy komputer żąda połączenia z inną siecią, w pierwszej kolejności dane zostaną wysłane do urządzenia o adresie

Ilustracja do pytania
A. 10.100.1.232
B. 10.100.1.200
C. 192.168.0.254
D. 192.168.0.5
Poprawna odpowiedź to adres 192.168.0.254, ponieważ w przedstawionej konfiguracji jest to brama domyślna (default gateway) o najniższej metryce. System operacyjny przy wysyłaniu pakietów do innej sieci najpierw sprawdza tablicę routingu i wybiera tę trasę, która jest najbardziej preferowana, czyli ma najniższy koszt/metrykę. W oknie „Zaawansowane ustawienia TCP/IP” widać dwie bramy: 192.168.0.254 z metryką 1 oraz 10.100.1.200 z metryką 2. Metryka 1 oznacza, że ta trasa jest bardziej „opłacalna” dla systemu, więc to właśnie do 192.168.0.254 komputer wyśle pakiety, gdy chce skomunikować się z siecią spoza swoich lokalnych podsieci. Moim zdaniem to jedno z ważniejszych, praktycznych ustawień, bo w realnych sieciach często mamy kilka możliwych wyjść na inne segmenty (np. dwa routery, router + firewall, router + VPN). Dobra praktyka mówi, żeby zawsze jasno określać priorytety poprzez metrykę, zamiast liczyć na automatyczne mechanizmy, które nie zawsze zadziałają tak, jak administrator by chciał. W systemach Windows metryka może być dobierana automatycznie, ale w środowiskach produkcyjnych często ustawia się ją ręcznie, dokładnie tak jak na zrzucie. Warto też zauważyć, że adres 192.168.0.254 należy do tej samej podsieci co adres IP 192.168.0.5 (maska 255.255.255.0), więc pakiety kierowane do bramy mogą być dostarczone bezpośrednio w ramach sieci lokalnej. Następnie router o adresie 192.168.0.254 przejmuje rolę urządzenia pośredniczącego i przekazuje ruch dalej – do Internetu albo do innych sieci wewnętrznych. Jest to klasyczna implementacja modelu TCP/IP, zgodna z tym, jak opisują to standardy IETF i typowe podręczniki do sieci komputerowych. W praktyce, gdybyś miał w firmie dwa wyjścia na świat, np. dwa łącza do różnych operatorów, w ten sam sposób ustawiłbyś metryki, aby kontrolować, które łącze jest główne, a które zapasowe.

Pytanie 39

Jaką funkcję pełni protokół ARP (Address Resolution Protocol)?

A. Zarządza przepływem pakietów w ramach systemów autonomicznych
B. Określa adres MAC na podstawie adresu IP
C. Przekazuje informacje zwrotne dotyczące problemów z siecią
D. Obsługuje grupy multicast w sieciach opartych na protokole IP
Protokół ARP (Address Resolution Protocol) pełni kluczową rolę w komunikacji w sieciach komputerowych, szczególnie w kontekście sieci opartych na protokole Internet Protocol (IP). Jego podstawowym zadaniem jest ustalanie adresu fizycznego (adresu MAC) urządzenia, które ma przypisany dany adres IP. W momencie, gdy komputer chce wysłać dane do innego komputera w tej samej sieci lokalnej, najpierw musi znać jego adres MAC. Protokół ARP wykorzystuje żądania ARP, które są wysyłane jako multicastowe ramki do wszystkich urządzeń w sieci, pytając, kto ma dany adres IP. Odpowiedzią jest adres MAC urządzenia, które posiada ten adres IP. Dzięki temu, ARP umożliwia prawidłowe kierowanie pakietów w warstwie drugiej modelu OSI, co jest niezbędne do efektywnej komunikacji w lokalnych sieciach. Przykładem praktycznego zastosowania ARP jest sytuacja, w której komputer A chce nawiązać połączenie z komputerem B; ARP poprzez identyfikację adresu MAC umożliwia właściwe dostarczenie informacji, co jest fundamentem działania Internetu i lokalnych sieci komputerowych.

Pytanie 40

Jaki termin powinien zostać umieszczony w miejscu z kropkami na schemacie blokowym przedstawiającym strukturę systemu operacyjnego?

Ilustracja do pytania
A. Sterowniki
B. Aplikacje użytkowe
C. Testy wydajnościowe
D. Powłoka
Programy użytkowe, choć istotne, nie pełnią roli pośrednika między użytkownikiem a jądrem systemu operacyjnego. Są to aplikacje, które realizują konkretne zadania użytkowników, takie jak edytory tekstu czy przeglądarki internetowe, ale nie zarządzają bezpośrednio zasobami sprzętowymi ani nie interpretują poleceń użytkownika. Sterowniki natomiast są odpowiedzialne za komunikację między systemem operacyjnym a sprzętem, umożliwiając prawidłowe działanie urządzeń peryferyjnych, jednak nie angażują się w interakcję z użytkownikiem na poziomie interfejsu. Benchmarki, z kolei, to narzędzia służące do oceny wydajności systemu lub jego komponentów, ale nie są częścią operacyjnej struktury systemu operacyjnego. Typowym błędem jest postrzeganie wszystkich elementów systemu operacyjnego jako równoważnych w ich funkcji, podczas gdy każdy z nich pełni specyficzną rolę w ekosystemie IT. Wybór odpowiedniej komponenty do konkretnego zadania wymaga zrozumienia ich unikalnych właściwości i zastosowań. Powłoka, jako jedyna z wymienionych opcji, bezpośrednio umożliwia interakcję użytkownika z systemem przez interpretację i przekazywanie poleceń, co stanowi jej fundamentalną funkcję w architekturze systemu operacyjnego.