Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 19 kwietnia 2026 19:35
  • Data zakończenia: 19 kwietnia 2026 19:48

Egzamin zdany!

Wynik: 36/40 punktów (90,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Na schemacie ilustrującym konstrukcję drukarki, w której toner jest nierównomiernie dostarczany do bębna, należy wskazać wałek magnetyczny oznaczony numerem

Ilustracja do pytania
A. 3
B. 1
C. 2
D. 4
Wałek magnetyczny jest kluczowym elementem w procesie drukowania laserowego odpowiedzialnym za podawanie tonera na bęben. W typowych drukarkach laserowych wałek magnetyczny działa poprzez przyciąganie cząsteczek tonera z kasety i równomierne ich rozprowadzanie na bębnie światłoczułym. Jeśli wałek magnetyczny nie działa prawidłowo może to skutkować nierównomiernym rozprowadzaniem tonera co prowadzi do problemów z jakością druku takich jak pasy lub plamy na wydruku. Wymiana wadliwego wałka magnetycznego jest zgodna z dobrymi praktykami serwisowymi które zalecają regularną konserwację i wymianę komponentów eksploatacyjnych w drukarkach aby zapewnić ich optymalne działanie. Nieprawidłowe działanie wałka magnetycznego może być spowodowane zużyciem zanieczyszczeniami lub uszkodzeniami mechanicznymi dlatego zaleca się regularne przeglądy i czyszczenie tego elementu w celu przedłużenia jego żywotności. Praktyczne doświadczenie pokazuje że kontrola i konserwacja wałków magnetycznych może znacznie zwiększyć efektywność pracy urządzenia oraz zminimalizować koszty związane z naprawami i przestojami.

Pytanie 2

Aby umożliwić wymianę informacji pomiędzy sieciami VLAN, wykorzystuje się

A. punkt dostępowy.
B. modem.
C. koncentrator.
D. router.
Routery są kluczowymi urządzeniami w architekturze sieciowej, które umożliwiają komunikację między różnymi sieciami, w tym między sieciami VLAN (Virtual Local Area Network). VLAN-y są technologią, która pozwala na segmentację ruchu sieciowego w obrębie jednej fizycznej sieci lokalnej, co zwiększa bezpieczeństwo i efektywność zarządzania ruchem. Aby urządzenia znajdujące się w różnych VLAN-ach mogły się ze sobą komunikować, niezbędne jest wykorzystanie routera, który działa na warstwie trzeciej modelu OSI. Routery dokonują inspekcji pakietów i podejmują decyzje o trasowaniu ruchu między VLAN-ami, co umożliwia wymianę danych. Przykładem zastosowania routerów w sieciach VLAN jest konfiguracja trunkingowa, gdzie router łączy z różnymi VLAN-ami przy pomocy jednego interfejsu, wykorzystując protokoły takie jak 802.1Q. Dzięki zastosowaniu routerów można również implementować polityki bezpieczeństwa i zarządzania ruchem, co jest zgodne z dobrą praktyką w inżynierii sieciowej.

Pytanie 3

Płyta główna wyposażona w gniazdo G2 będzie współpracowała z procesorem

A. Intel Core i7
B. Intel Pentium 4 EE
C. AMD Trinity
D. AMD Opteron
Gniazdo G2, znane też jako Socket rPGA988B, jest stosowane głównie w mobilnych procesorach Intela, szczególnie tych z rodziny Core i3, i5 oraz i7 drugiej generacji, czyli tzw. Sandy Bridge i trochę też Ivy Bridge. To gniazdo pojawiało się głównie w laptopach i stacjach roboczych mobilnych, więc jak ktoś składał laptopa na części lub wymieniał CPU w notebooku, to kwestia kompatybilności z G2 była kluczowa. Moim zdaniem warto pamiętać, że chociaż Intel czasami mieszał w oznaczeniach, to G2 nigdy nie był stosowany ani przy procesorach AMD, ani przy starszych desktopowych Pentiumach. Zresztą, jak popatrzymy na dokumentację Intela czy serwisy jak CPU-World, to wyraźnie widać, że G2 łączy się głównie z mobilnymi i7 oraz ich odpowiednikami. Praktycznym przykładem jest laptop Dell Precision M4600 – tam właśnie siedzi i7 na gnieździe G2. Z mojego doświadczenia, jeśli ktoś chce ulepszać laptopa biznesowego z 2011 czy 2012 roku, często właśnie szuka i7 pod G2, żeby zyskać więcej mocy do pracy z aplikacjami CAD czy Photoshopem. Warto dodać, że dobór właściwego gniazda to podstawa przy planowaniu modernizacji sprzętu – błędny wybór skutkuje brakiem kompatybilności i niepotrzebnym wydatkiem. To także dobry przykład, czemu dobrze znać podstawowe standardy i oznaczenia w świecie hardware’u.

Pytanie 4

Minimalna zalecana ilość pamięci RAM dla systemu operacyjnego Windows Server 2008 wynosi przynajmniej

A. 512 MB
B. 1 GB
C. 1,5 GB
D. 2 GB
Wybierając odpowiedzi inne niż 2 GB, można naprawdę się pomylić co do wymagań systemowych. Odpowiedzi takie jak 512 MB, 1 GB, czy 1,5 GB kompletnie nie biorą pod uwagę, czego naprawdę potrzebuje Windows Server 2008. W dzisiejszych czasach pamięć RAM to kluczowy element, który wpływa na to, jak dobrze wszystko działa. Jak jest jej za mało, serwer często korzysta z dysku twardego, co prowadzi do opóźnień. W branży mówi się, że minimalne wymagania to tylko początek, a w praktyce może być tego znacznie więcej w zależności od obciążenia i uruchomionych aplikacji. Ignorując wymagania dotyczące RAM, można napotkać problemy z aplikacjami klienckimi, co podnosi koszty związane z utrzymaniem systemu. Z mojego punktu widzenia, pomijanie tych wskazówek to prosta droga do komplikacji, a ryzyko awarii rośnie, co w pracy nie może być akceptowalne.

Pytanie 5

Jak nazywa się materiał używany w drukarkach 3D?

A. substancja katalityczna
B. ciecz
C. filament
D. proszek węglowy
Filament to najpopularniejszy materiał eksploatacyjny stosowany w drukarkach 3D, szczególnie w technologii FDM (Fused Deposition Modeling). Jest to tworzywo sztuczne w formie długiego, cienkiego drutu, który jest podgrzewany i wytłaczany przez głowicę drukującą, tworząc trójwymiarowy obiekt warstwa po warstwie. Filamenty mogą być wykonane z różnych materiałów, takich jak PLA (kwas polilaktyczny), ABS (akrylonitryl-butadien-styren), PETG (poliester), TPU (termoplastyczny poliuretan) i wiele innych, co pozwala na różnorodność zastosowań w zależności od wymagań projektu. Przykładowo, filament PLA jest biodegradowalny i idealny do prototypowania, podczas gdy ABS jest bardziej odporny na wysokie temperatury i nadaje się do wykonania trwałych części. Wybór odpowiedniego filamentu jest kluczowy dla osiągnięcia pożądanej jakości wydruku oraz właściwości mechanicznych gotowego produktu. Ważnymi standardami w branży są normy dotyczące jakości filamentów, takie jak ISO 9001, które pomagają zapewnić ich spójność i niezawodność.

Pytanie 6

Jaki procesor powinien być zastosowany podczas składania komputera stacjonarnego opartego na płycie głównej Asus M5A78L-M/USB3 AMD760G socket AM3+?

A. AMD A8-7600 S.FM2 BOX
B. AMD FX 8300 3300MHz AM3+ OEM
C. AMD APU A8 7650K 3300MHz FM2+ BOX
D. AMD APU A4 6320 3800MHz FM2
Odpowiedź AMD FX 8300 3300MHz AM3+ OEM jest prawidłowa, ponieważ procesor ten jest zgodny z gniazdem AM3+, które obsługuje płyta główna Asus M5A78L-M/USB3. Płyta ta została zaprojektowana z myślą o procesorach AMD FX, co zapewnia pełną kompatybilność oraz optymalne wykorzystanie możliwości sprzętowych. FX 8300, jako procesor ośmiordzeniowy, oferuje solidną wydajność w zastosowaniach multimedialnych i grach, a także w obliczeniach wielowątkowych. Dzięki technologii Turbo Core, procesor ten może dynamicznie zwiększać swoją częstotliwość, co sprzyja wydajności w wymagających zadaniach. Przykładowo, w grach komputerowych, które korzystają z wielu rdzeni, FX 8300 zapewnia lepsze rezultaty w porównaniu do procesorów z niższą liczbą rdzeni. Standardy montażu komputerowego wymagają, aby procesor był dopasowany do gniazda oraz płyty głównej, co w tym przypadku jest spełnione. Użycie niewłaściwego procesora, jak w przypadku innych opcji, mogłoby prowadzić do problemów z uruchomieniem systemu czy ogólną niekompatybilnością sprzętu.

Pytanie 7

Jakie znaczenie ma parametr LGA 775 zawarty w dokumentacji technicznej płyty głównej?

A. Rodzaj obsługiwanych pamięci
B. Typ gniazda procesora
C. Rodzaj karty graficznej
D. Typ chipsetu płyty
LGA 775, znane również jako Socket T, to standard gniazda procesora opracowany przez firmę Intel, który obsługuje procesory z rodziny Pentium 4, Pentium D, Celeron oraz niektóre modele Xeon. Główna zaleta tego gniazda polega na jego konstrukcji, która wykorzystuje nacięcia w procesorze, aby umożliwić łatwe umieszczanie i usuwanie procesorów bez ryzyka uszkodzenia kontaktów. Dzięki temu użytkownicy mają możliwość wymiany procesora na nowszy model, co stanowi ważny aspekt modernizacji systemu komputerowego. W praktyce, przy wyborze płyty głównej z gniazdem LGA 775, użytkownicy powinni zwrócić uwagę na kompatybilność z konkretnymi procesorami oraz na odpowiednie chłodzenie, które zapewni stabilną pracę. Użycie odpowiednich komponentów oraz przestrzeganie standardów branżowych, takich jak zgodność z instrukcjami producenta, może znacząco wpływać na wydajność oraz długość życia sprzętu.

Pytanie 8

Funkcja systemu Windows Server, umożliwiająca zdalną instalację systemów operacyjnych na komputerach kontrolowanych przez serwer, to

A. WDS
B. GPO
C. FTP
D. DFS
WDS, czyli Windows Deployment Services, to usługa systemu Windows Server, która umożliwia zdalną instalację systemów operacyjnych na komputerach w sieci. Działa na zasadzie protokołu PXE (Preboot Execution Environment), który pozwala komputerom klienckim na bootowanie z obrazów systemów operacyjnych przechowywanych na serwerze. Przykładowo, WDS może być używany w dużych firmach, gdzie konieczne jest jednoczesne zainstalowanie systemu na wielu komputerach. Administratorzy mogą zautomatyzować proces instalacji, co znacznie przyspiesza wdrażanie nowych maszyn. Zastosowanie WDS zmniejsza ilość pracy związanej z ręcznym instalowaniem systemów operacyjnych, a także minimalizuje błędy ludzkie. Dobrą praktyką jest także wykorzystanie WDS w połączeniu z innymi narzędziami, takimi jak System Center Configuration Manager, co pozwala na jeszcze bardziej zintegrowane i efektywne zarządzanie infrastrukturą IT.

Pytanie 9

Protokół SNMP (Simple Network Management Protocol) jest wykorzystywany do

A. szyfrowania połączeń terminalowych z odległymi komputerami
B. konfiguracji sprzętu sieciowego i zbierania danych na jego temat
C. odbierania wiadomości e-mail
D. przydzielania adresów IP oraz ustawień bramy i DNS
Protokół SNMP (Simple Network Management Protocol) jest kluczowym narzędziem w zarządzaniu sieciami komputerowymi. Umożliwia administratorom monitorowanie i zarządzanie różnorodnymi urządzeniami, takimi jak routery, przełączniki, serwery czy punkty dostępu. Dzięki SNMP możliwe jest zbieranie danych o stanie tych urządzeń, ich wydajności oraz konfiguracji. Protokół ten operuje na zasadzie modeli klient-serwer, gdzie urządzenia zarządzane (agent) komunikują się z systemem zarządzającym (menedżer). Przykładem zastosowania jest monitorowanie obciążenia procesora na serwerze – SNMP może dostarczać informacje o bieżącej wydajności CPU, co pozwala na podejmowanie decyzji o optymalizacji zasobów. Standardy te są szeroko stosowane w branży i zgodne z najlepszymi praktykami, co sprawia, że SNMP jest fundamentem nowoczesnych rozwiązań w zakresie zarządzania infrastrukturą IT. Warto również zauważyć, że SNMP wspiera wiele wersji, z których każda wnosi dodatkowe funkcjonalności związane z bezpieczeństwem oraz wydajnością.

Pytanie 10

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 16 GB.
B. 1 modułu 32 GB.
C. 1 modułu 16 GB.
D. 2 modułów, każdy po 8 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 11

Jakie polecenie systemu Windows przedstawione jest na ilustracji?

    Adres fizyczny           Nazwa transportu
===========================================================
    00-23-AE-09-47-CF        Nośnik rozłączony
    00-23-4D-CB-B4-BB        Brak
    00-23-4D-CB-B4-BB        Nośnik rozłączony
A. net view
B. netsatat
C. route
D. getmac
Polecenie getmac w systemie Windows służy do wyświetlenia adresów fizycznych, znanych również jako adresy MAC, oraz powiązanej z nimi nazwy transportu dla wszystkich interfejsów sieciowych w systemie. Adres MAC to unikalny identyfikator przypisany do interfejsu sieciowego, służący do komunikacji w sieciach lokalnych. Narzędzie getmac jest szczególnie użyteczne w zarządzaniu siecią i diagnostyce, ponieważ umożliwia szybkie zidentyfikowanie urządzeń oraz ich aktualnego stanu, co jest kluczowe przy rozwiązywaniu problemów związanych z połączeniami sieciowymi. Możliwość uzyskania adresów MAC bezpośrednio z wiersza poleceń ułatwia administratorom sieci zarządzanie urządzeniami i kontrolowanie ich dostępności w sieci. Dobra praktyka branżowa w zakresie zarządzania siecią obejmuje regularne monitorowanie i dokumentowanie adresów MAC, co pozwala na szybką reakcję w przypadku wykrycia nieautoryzowanych urządzeń. Narzędzie getmac może być zautomatyzowane w skryptach, co jest powszechnie stosowane w większych środowiskach IT do regularnego monitorowania zasobów sieciowych. Praktycznym przykładem zastosowania jest użycie tego narzędzia do weryfikacji stanu połączeń sieciowych oraz diagnostyki problemów z siecią, takich jak brak dostępu do internetu czy anomalia w ruchu sieciowym.

Pytanie 12

Które z kart sieciowych o podanych adresach MAC zostały wytworzone przez tego samego producenta?

A. 00:16:B9:00:1F:FE oraz 00:16:B8:00:2F:FE
B. 00:16:B9:00:1F:FE oraz 00:16:B9:00:2F:FE
C. 00:17:B9:00:1F:FE oraz 00:16:B9:00:2F:FE
D. 00:17:B9:00:1F:FE oraz 00:16:B9:00:1F:FE
Właściwa odpowiedź to para adresów MAC 00:16:B9:00:1F:FE oraz 00:16:B9:00:2F:FE, ponieważ oba adresy zaczynają się od identyfikatora OUI (Organizationally Unique Identifier) 00:16:B9. OUI jest pierwszymi trzema oktetami adresu MAC i jest przypisany do konkretnego producenta urządzeń sieciowych przez IEEE. W praktyce oznacza to, że urządzenia z tym samym OUI są produkowane przez tego samego dostawcę, co może mieć wpływ na ich kompatybilność oraz wsparcie techniczne. Na przykład, w przypadku problemów z siecią, łatwiej jest rozwiązać konflikty, gdy wszystkie urządzenia pochodzą od tego samego producenta. Dodatkowo, znajomość OUI jest przydatna w zarządzaniu siecią i umożliwia identyfikację sprzętu w sieci, co jest kluczowe w kontekście bezpieczeństwa i audytów. Warto również zaznaczyć, że analizując adresy MAC, można dostrzec różnice w modelach i wersjach sprzętu, co pomaga w aktualizacji oraz utrzymaniu infrastruktury sieciowej.

Pytanie 13

Na ilustracji widoczne jest oznaczenie sygnalizacji świetlnej w dokumentacji technicznej laptopa. Wskaż numer odpowiadający kontrolce, która zapala się podczas ładowania akumulatora?

Ilustracja do pytania
A. 4
B. 3
C. 5
D. 2
Kontrolka oznaczona numerem 2 symbolizuje proces ładowania baterii w laptopie co jest zgodne z wytycznymi dotyczącymi identyfikacji wskaźników w urządzeniach elektronicznych. W praktyce kontrolki te są kluczowe dla użytkowników ponieważ dostarczają informacji o stanie zasilania i naładowania baterii. W przypadku gdy laptop jest podłączony do źródła zasilania a bateria jest w trakcie ładowania ta kontrolka zazwyczaj świeci się na określony kolor na przykład pomarańczowy lub migocze sygnalizując aktywność ładowania. Jest to zgodne z międzynarodowymi standardami takimi jak IEC 62079 które dotyczą instrukcji użytkowania produktów elektronicznych. Kontrolki ładowania są zaprojektowane w sposób ułatwiający szybkie i intuicyjne odczytanie ich funkcji co jest istotne dla zapewnienia bezpieczeństwa użytkowania i efektywnego zarządzania energią. Dodatkowo zapewniają one natychmiastową informację zwrotną co do stanu urządzenia co jest nieocenione w sytuacjach kryzysowych gdy wymagane jest szybkie podjęcie decyzji dotyczącej zasilania urządzenia.

Pytanie 14

Na ilustracji procesor jest oznaczony liczbą

Ilustracja do pytania
A. 5
B. 3
C. 2
D. 8
Procesor, oznaczony na rysunku numerem 3, jest centralnym układem scalonym komputera odpowiadającym za wykonywanie instrukcji programowych. Procesory są kluczowym składnikiem jednostki centralnej (CPU), które przetwarzają dane i komunikują się z innymi elementami systemu komputerowego. Ich kluczową cechą jest zdolność do realizacji złożonych operacji logicznych oraz arytmetycznych w krótkim czasie. W praktyce procesory znajdują zastosowanie nie tylko w komputerach osobistych, ale także w urządzeniach mobilnych, serwerach oraz systemach wbudowanych. Standardy przemysłowe, takie jak architektura x86 czy ARM, definiują zestaw instrukcji procesorów, co pozwala na kompatybilność oprogramowania z różnymi modelami sprzętu. Dobre praktyki obejmują chłodzenie procesora poprzez systemy wentylacyjne lub chłodzenia cieczą, co zwiększa wydajność i trwałość urządzeń. Warto również pamiętać o regularnej aktualizacji sterowników, co zapewnia optymalne działanie i bezpieczeństwo systemu.

Pytanie 15

Jaką rolę należy przypisać serwerowi z rodziny Windows Server, aby mógł świadczyć usługi rutingu?

A. Serwer sieci Web (IIS)
B. Usługi zasad i dostępu sieciowego
C. Usługi domenowe w Active Directory
D. Usługi zarządzania dostępem w Active Directory
Wybór usługi zarządzania dostępu w usłudze Active Directory jako odpowiedzi na pytanie o ruting jest błędny, ponieważ ta rola skupia się głównie na kontrolowaniu dostępu do zasobów w sieci, a nie na zarządzaniu ruchem sieciowym. Usługi te mają na celu autoryzację i uwierzytelnianie użytkowników oraz urządzeń w sieci, co jest ważne, ale nie wystarcza do realizacji zadań rutingowych. Z drugiej strony, usługi domenowe w usłudze Active Directory są fundamentalne dla organizacji i zarządzania użytkownikami, ale nie zajmują się bezpośrednio przesyłaniem pakietów danych pomiędzy różnymi segmentami sieci, co jest kluczowe w kontekście rutingu. Serwer sieci Web (IIS) ma zupełnie inną funkcję, koncentrując się na hostowaniu aplikacji internetowych, a nie na zarządzaniu ruchem sieciowym. Takie nieprawidłowe podejście może wynikać z mylnej interpretacji roli poszczególnych serwisów w infrastrukturze IT. W praktyce, aby poprawnie skonfigurować serwer do pełnienia roli routera, należy skupić się na odpowiednich usługach, które rzeczywiście obsługują ruting, a odpowiedzi nie związane z tym tematem prowadzą do błędnych wniosków, co może skutkować brakiem efektywności w zarządzaniu siecią.

Pytanie 16

Jaka usługa musi być aktywna na serwerze, aby stacja robocza mogła automatycznie otrzymywać adres IP?

A. PROXY
B. DNS
C. WINS
D. DHCP
Usługa DHCP (Dynamic Host Configuration Protocol) jest kluczowym elementem w zarządzaniu adresami IP w sieciach komputerowych. Jej głównym zadaniem jest automatyczne przydzielanie adresów IP oraz innych niezbędnych informacji konfiguracyjnych stacjom roboczym w sieci. Dzięki DHCP, urządzenia mogą uzyskiwać adresy IP bez konieczności ręcznego konfigurowania każdego z nich, co znacząco upraszcza zarządzanie dużymi sieciami. Proces ten odbywa się poprzez cztery podstawowe kroki: Discover, Offer, Request i Acknowledge. W praktyce, gdy stacja robocza łączy się z siecią, wysyła zapytanie DHCP Discover, a serwer DHCP odpowiada ofertą, która zawiera dostępny adres IP. Po akceptacji oferty przez stację roboczą, serwer przypisuje adres IP na określony czas. Przykładem zastosowania DHCP może być biuro z wieloma komputerami, gdzie administratorzy mogą łatwo zarządzać przydzielaniem adresów IP, co zminimalizuje ryzyko konfliktów adresów i uprości konfigurację.

Pytanie 17

W hierarchicznym modelu sieci komputery użytkowników stanowią część warstwy

A. dostępu
B. dystrybucji
C. szkieletowej
D. rdzenia
W modelu hierarchicznym sieci komputerowej, warstwa dostępu jest kluczowym elementem odpowiedzialnym za bezpośrednie połączenie z urządzeniami końcowymi, takimi jak komputery użytkowników, drukarki i inne urządzenia peryferyjne. To właśnie w tej warstwie dochodzi do fizycznego podłączenia oraz zarządzania dostępem do zasobów sieciowych. Przykładem zastosowania warstwy dostępu są technologie Ethernet, Wi-Fi oraz różnorodne przełączniki sieciowe, które pełnią rolę punktów dostępowych. W praktyce, warstwa dostępu implementuje różne mechanizmy zabezpieczeń, takie jak kontrola dostępu do sieci (NAC), co pozwala na zarządzanie, które urządzenia mogą korzystać z zasobów sieciowych. Dobrą praktyką w projektowaniu sieci jest segmentacja ruchu w warstwie dostępu, co zwiększa bezpieczeństwo i wydajność całej sieci. Zastosowanie standardów, takich jak IEEE 802.11 dla bezprzewodowych sieci lokalnych, zapewnia większą interoperacyjność i efektywność działań w tej warstwie.

Pytanie 18

Dostosowanie ustawień parametrów TCP/IP urządzenia na podstawie adresu MAC karty sieciowej jest funkcją protokołu

A. FTP
B. HTTP
C. DHCP
D. DNS
Odpowiedź DHCP (Dynamic Host Configuration Protocol) jest prawidłowa, ponieważ ten protokół odpowiada za dynamiczne przydzielanie adresów IP oraz konfigurowanie innych parametrów sieciowych hostów w sieciach IP. Kiedy urządzenie, takie jak komputer czy smartfon, łączy się z siecią, wysyła zapytanie DHCP, które jest odbierane przez serwer DHCP. Serwer ten następnie przypisuje adres IP na podstawie unikalnego adresu MAC karty sieciowej. Przykładowo, w biurze z setkami urządzeń, DHCP automatyzuje proces konfiguracji, co znacznie ułatwia zarządzanie siecią i minimalizuje ryzyko konfliktów adresów IP. Zgodnie ze standardami branżowymi, DHCP może także dostarczać informacje o bramach, serwerach DNS i innych parametrach, co czyni go kluczowym protokołem w nowoczesnych sieciach. Jego stosowanie jest zgodne z najlepszymi praktykami, ponieważ pozwala na elastyczne i efektywne zarządzanie adresacją IP w dynamicznie zmieniających się środowiskach.

Pytanie 19

Ile podsieci tworzą komputery z adresami: 192.168.5.12/25, 192.168.5.50/25, 192.168.5.200/25, 192.158.5.250/25?

A. 3
B. 4
C. 2
D. 1
Komputery o adresach 192.168.5.12/25, 192.168.5.50/25 i 192.168.5.200/25 znajdują się w tej samej podsieci, ponieważ mają identyczną maskę podsieci /25, co oznacza, że pierwsze 25 bitów adresu IP definiuje adres sieciowy. Adresy te należą do zakresu 192.168.5.0 - 192.168.5.127, co oznacza, że są częścią jednej podsieci. Z kolei adres 192.158.5.250/25, z maską 255.255.255.128, znajduje się w zupełnie innej sieci, ponieważ nie zgadza się z pierwszymi 25 bitami, które powinny być takie same dla wszystkich adresów w danej podsieci. To oznacza, że mamy jedną podsieć z trzema komputerami oraz jedną odrębną podsieć dla komputera z adresem 192.158.5.250. W praktyce, zrozumienie podziału na podsieci i przydzielania adresów IP jest kluczowe dla efektywnego zarządzania siecią. Standardy takie jak CIDR (Classless Inter-Domain Routing) są używane do efektywnego przydzielania adresów IP i optymalizacji wykorzystania dostępnych zasobów.

Pytanie 20

W doborze zasilacza do komputera kluczowe znaczenie

A. współczynnik kształtu obudowy
B. mają parametry zainstalowanego systemu operacyjnego
C. ma łączna moc wszystkich komponentów komputera
D. ma rodzaj procesora
Wybór odpowiedniego zasilacza komputerowego jest kluczowy dla stabilności i wydajności całego systemu. Najważniejszym czynnikiem, który należy wziąć pod uwagę, jest łączna moc wszystkich podzespołów komputera, ponieważ zasilacz musi dostarczać wystarczającą ilość energii, aby zasilić każdy komponent. Niewłaściwa moc zasilacza może prowadzić do niestabilności systemu, losowych restartów, a nawet uszkodzeń sprzętu. Standardowo, całkowita moc wszystkich podzespołów powinna być zsumowana, a następnie dodane około 20-30% zapasu mocy, aby zapewnić bezpieczną i stabilną pracę. Na przykład, jeśli złożone komponenty wymagają 400 W, warto zaopatrzyć się w zasilacz o mocy co najmniej 500 W. Przy wyborze zasilacza warto także zwrócić uwagę na jego efektywność, co najlepiej określa certyfikacja 80 PLUS, która zapewnia, że zasilacz działa z wysoką efektywnością energetyczną. Dobrze zbilansowany zasilacz to fundament niezawodnego komputera, szczególnie w przypadku systemów gamingowych i stacji roboczych wymagających dużej mocy.

Pytanie 21

Który z protokołów jest używany do przesyłania plików na serwer?

A. FTP (File Transfer Protocol)
B. DHCP (Dynamic Host Configuration Protocol)
C. DNS (Domain Name System)
D. HTTP (Hyper Text Transfer Protocol)
FTP, czyli File Transfer Protocol, jest protokołem zaprojektowanym specjalnie do przesyłania plików pomiędzy komputerami w sieci. Jest to standardowy protokół internetowy, który umożliwia użytkownikom przesyłanie i pobieranie plików z serwera. FTP działa w oparciu o model klient-serwer, gdzie użytkownik pełni rolę klienta, a serwer jest odpowiedzialny za przechowywanie i udostępnianie plików. Przykładem praktycznego zastosowania FTP może być przesyłanie dużych plików z lokalnego komputera na serwer hostingowy w celu publikacji strony internetowej. FTP obsługuje również różne tryby przesyłania danych, takie jak tryb pasywny i aktywny, co pozwala na lepsze dostosowanie do różnych konfiguracji sieciowych. Standardy FTP są szeroko stosowane w branży IT, a wiele narzędzi i aplikacji, takich jak FileZilla czy WinSCP, oferuje łatwe w użyciu interfejsy graficzne do zarządzania transferem plików za pomocą tego protokołu.

Pytanie 22

Pamięć RAM pokazana na ilustracji jest instalowana na płycie głównej posiadającej gniazdo

Ilustracja do pytania
A. DDR2
B. DDR3
C. DDR4
D. DDR
Pamięci DDR i DDR2 to takie starsze technologie, które były przed DDR3 i mają swoje ograniczenia. DDR, czyli Double Data Rate, jako pierwsze wprowadziło technologię podwójnego przesyłu danych, ale działa na niższych prędkościach, więc ma gorszą przepustowość niż nowsze standardy. DDR2 to kolejna generacja, która miała wyższą częstotliwość i mniej energii zużywała, ale nadal nie dorównywała DDR3. Te starsze pamięci mają różne konfiguracje pinów i napięcia, co sprawia, że nie są zgodne z DDR3. Z kolei DDR4 to następca DDR3 i wprowadza jeszcze lepsze parametry, ale ma inną konstrukcję, przez co nie można włożyć DDR3 do slotu DDR4 i vice versa. Często zdarzają się błędy, gdy ktoś próbuje włożyć pamięć w złe gniazdo, co może zepsuć płytę główną albo RAM. Warto przed zakupem pamięci upewnić się, że będzie pasować do płyty głównej, więc trzeba znać standardy i specyfikacje swojego sprzętu.

Pytanie 23

W sytuacji, gdy brakuje odpowiedniej ilości pamięci RAM do przeprowadzenia operacji, takiej jak uruchomienie aplikacji, system Windows pozwala na przeniesienie nieużywanych danych z pamięci RAM do pliku

A. tpm.sys
B. config.sys
C. pagefile.sys
D. nvraid.sys
Odpowiedź 'pagefile.sys' jest jak najbardziej trafna! To plik, który bardzo mocno pomaga w zarządzaniu pamięcią w Windows. Kiedy aplikacje potrzebują więcej pamięci RAM, niż mamy w komputerze, system przenosi mniej używane dane do tego pliku na dysku. Dzięki temu możemy uruchomić więcej programów, nawet te bardziej wymagające. To naprawdę ważne, bo zapobiega zamrażaniu się systemu. Dobrze jest też wiedzieć, że można zmieniać rozmiar tego pliku w ustawieniach, co pozwala dostosować wydajność do własnych potrzeb. Moim zdaniem, warto monitorować, jak używamy pamięci, aby wszystko działało płynnie – od codziennych zadań po bardziej zaawansowane programy.

Pytanie 24

Transmisja w standardzie 100Base-T korzysta z kabli skrętkowych, które mają

A. 3 pary
B. 1 parę
C. 4 pary
D. 2 pary
Co do liczby par przewodów w kablu dla standardu 100Base-T, to rzeczywiście warto to zrozumieć. Osoby, które wskazały 3 pary, mylą się, bo na prawdę do 100 Mbps wystarczą 2 pary. Jeżeli ktoś zaznaczył 1 parę, to jest błędne myślenie, że jedna para da radę przesyłać dane w obu kierunkach. W 100Base-T trzeba używać dwóch par, bo to umożliwia płynne działanie w obie strony. A 4 pary są zbędne w tym przypadku. W nowszych standardach jak 1000Base-T rzeczywiście używają 4 pary, ale tu to niepotrzebne. Generalnie, nie każda wyższa liczba oznacza lepszą wydajność. Dlatego ważne jest, żeby znać te standardy Ethernet i co one oznaczają, bo to pomaga w podejmowaniu lepszych decyzji na temat konfiguracji sieci.

Pytanie 25

Atak na system komputerowy przeprowadzany jednocześnie z wielu maszyn w sieci, który polega na zablokowaniu działania tego systemu przez zajęcie wszystkich dostępnych zasobów, określany jest mianem

A. Spoofing
B. Brute force
C. DDoS
D. Atak słownikowy
Atak DDoS, czyli Distributed Denial of Service, to forma ataku, w której wiele komputerów, często zainfekowanych złośliwym oprogramowaniem (botnet), współpracuje w celu zablokowania dostępu do zasobów systemu komputerowego. Głównym celem takiego ataku jest przeciążenie serwera, aby uniemożliwić normalne funkcjonowanie usług, co może prowadzić do poważnych strat finansowych oraz problemów z reputacją. W praktyce ataki DDoS mogą być przeprowadzane na różne sposoby, w tym poprzez nadmierne wysyłanie zapytań HTTP, UDP flood, czy też SYN flood. W kontekście bezpieczeństwa IT, organizacje powinny wdrażać rozwiązania ochronne, takie jak firewalle, systemy detekcji intruzów (IDS) oraz korzystać z usług ochrony DDoS oferowanych przez dostawców zewnętrznych, co jest zgodne z najlepszymi praktykami w zarządzaniu bezpieczeństwem informacji. Ponadto, podnoszenie świadomości pracowników na temat zagrożeń związanych z cyberatakami jest kluczowe dla zapobiegania takim incydentom.

Pytanie 26

Program df pracujący w systemach z rodziny Linux pozwala na wyświetlenie

A. informacji o dostępnej przestrzeni dyskowej
B. zawartości ukrytego folderu
C. nazwa aktualnego katalogu
D. tekstu odpowiadającego wzorcowi
Polecenie df, które jest powszechnie używane w systemach operacyjnych z rodziny Linux, jest narzędziem służącym do wyświetlania informacji o dostępnej i używanej przestrzeni dyskowej na zamontowanych systemach plików. Dzięki temu administratorzy mogą szybko ocenić, ile miejsca jest zajęte, a ile dostępne na poszczególnych partycjach. Na przykład, użycie polecenia 'df -h' pozwala na prezentację tych danych w formacie czytelnym dla człowieka, co oznacza, że wartości będą przedstawione w jednostkach KB, MB lub GB. To jest szczególnie użyteczne w kontekście monitorowania zasobów systemowych w serwerach i stacjach roboczych, gdzie zarządzanie przestrzenią dyskową jest kluczowe dla zapewnienia płynności działania systemu. Dodatkowo, narzędzie to wspiera zarządzanie przestrzenią dyskową zgodnie z dobrymi praktykami branżowymi, umożliwiając wczesne wykrywanie problemów związanych z niewystarczającą ilością miejsca, co może prowadzić do awarii aplikacji lub całego systemu.

Pytanie 27

Nie jest możliwe tworzenie okresowych kopii zapasowych z dysku serwera na przenośnych nośnikach typu

A. płyta CD-RW
B. karta SD
C. płyta DVD-ROM
D. karta MMC
Płyty DVD-ROM to takie nośniki, które można zapisać tylko raz. W przeciwieństwie do płyt CD-RW, które można edytować i zapisywać na nich wiele razy, DVD-ROM nie da się modyfikować ani usuwać. To sprawia, że nie są najlepszym wyborem do robienia regularnych kopii zapasowych, bo nie da się na nich nic zmieniać. Jak myślę o backupie, to zazwyczaj wybieram nośniki, na których mogę to robić wielokrotnie, jak na przykład dyski twarde czy taśmy. W praktyce dobrze jest mieć możliwość łatwego dostępu do danych i ich aktualizacji, żeby nie stracić cennych informacji.

Pytanie 28

Według KNR (katalogu nakładów rzeczowych) montaż 4-parowego modułu RJ45 oraz złącza krawędziowego to 0,07 r-g, natomiast montaż gniazd abonenckich natynkowych wynosi 0,30 r-g. Jak wysoki będzie koszt robocizny za zamontowanie 10 pojedynczych gniazd natynkowych z modułami RJ45, jeśli wynagrodzenie godzinowe montera-instalatora wynosi 20,00 zł?

A. 120,00 zł
B. 60,00 zł
C. 74,00 zł
D. 14,00 zł
Aby obliczyć koszt robocizny montażu 10 gniazd natynkowych z modułami RJ45, należy uwzględnić stawkę godzinową oraz czas potrzebny na wykonanie tego zadania. Zgodnie z KNR, montaż gniazda abonenckiego natynkowego wynosi 0,30 r-g, co oznacza, że na zamontowanie jednego gniazda potrzeba 0,30 roboczogodziny. Zatem dla 10 gniazd będzie to: 10 gniazd x 0,30 r-g = 3,00 r-g. Stawka godzinowa montera wynosi 20,00 zł, więc całkowity koszt robocizny obliczamy mnożąc 3,00 r-g przez 20,00 zł/r-g, co daje 60,00 zł. Jednakże, musimy również uwzględnić montaż modułów RJ45. Montaż jednego modułu RJ45 na skrętce 4-parowej to 0,07 r-g. Dla 10 modułów RJ45 będzie to: 10 modułów x 0,07 r-g = 0,70 r-g. Koszt montażu modułów wynosi: 0,70 r-g x 20,00 zł/r-g = 14,00 zł. Podsumowując, całkowity koszt robocizny to 60,00 zł + 14,00 zł = 74,00 zł. Dlatego poprawną odpowiedzią jest 74,00 zł. Przykład ten ilustruje, jak ważne jest uwzględnienie wszystkich elementów pracy montażowej w obliczeniach, co jest zgodne z dobrymi praktykami w branży instalacyjnej.

Pytanie 29

Aby uzyskać listę procesów aktualnie działających w systemie Linux, należy użyć polecenia

A. who
B. ps
C. dir
D. show
Polecenie 'ps' w systemie Linux jest kluczowym narzędziem do monitorowania i zarządzania procesami działającymi w systemie. Jego pełna forma to 'process status', a jego zadaniem jest wyświetlenie informacji o aktualnie uruchomionych procesach, takich jak ich identyfikatory PID, wykorzystanie pamięci, stan oraz czas CPU. Dzięki możliwościom filtrowania i formatowania wyników, 'ps' jest niezwykle elastyczne, co czyni je niezastąpionym narzędziem w codziennej administracji systemami. Na przykład, użycie polecenia 'ps aux' pozwala uzyskać pełen widok na wszystkie procesy, w tym te uruchomione przez innych użytkowników. W praktyce, administratorzy często łączą 'ps' z innymi poleceniami, takimi jak 'grep', aby szybko zidentyfikować konkretne procesy, co jest zgodne z dobrymi praktykami zarządzania systemami. Zrozumienie i umiejętność korzystania z 'ps' jest fundamentem dla każdego, kto zajmuje się administracją systemów Linux, a jego znajomość jest kluczowym elementem w rozwiązywaniu problemów związanych z wydajnością czy zarządzaniem zasobami.

Pytanie 30

Urządzenie peryferyjne, które jest kontrolowane przez komputer i wykorzystywane do obsługi dużych, płaskich powierzchni, a do produkcji druków odpornych na czynniki zewnętrzne używa farb rozpuszczalnikowych, to ploter

A. kreślący
B. solwentowy
C. tnący
D. piaskowy
Odpowiedź 'solwentowy' jest prawidłowa, ponieważ plotery solwentowe są specjalistycznymi urządzeniami przeznaczonymi do druku na różnych powierzchniach, w tym na materiałach wielkoformatowych. Te urządzenia wykorzystują farby na bazie rozpuszczalników, które zapewniają wysoką odporność na czynniki zewnętrzne, takie jak promieniowanie UV, woda czy różne substancje chemiczne. Dzięki temu, wydruki wykonane przy użyciu ploterów solwentowych są idealne do zastosowań zewnętrznych, na przykład w reklamie, gdzie wytrzymałość i żywotność wydruków są kluczowe. Plotery te oferują również szeroki wachlarz kolorów oraz możliwość uzyskiwania intensywnych barw, co czyni je popularnym wyborem w branży graficznej. Warto również zwrócić uwagę na standardy ekologiczne, które dotyczą tych technologii, takie jak wdrażanie rozwiązań mających na celu ograniczenie emisji lotnych związków organicznych (VOC). Przykładowe zastosowania to produkcja banerów, naklejek czy billboardów, które muszą być odporne na różne warunki atmosferyczne. W związku z tym, wybór plotera solwentowego jest często decyzją strategiczną w kontekście zapewnienia jakości i trwałości wydruków.

Pytanie 31

Przedstawiony skaner należy podłączyć do komputera przy użyciu złącza

Ilustracja do pytania
A. USB-B
B. Mini USB
C. Micro USB
D. USB-A
Wybrałeś poprawnie – w tym konkretnym modelu skanera zastosowano złącze Mini USB. To złącze, choć dziś rzadziej spotykane, było niegdyś prawdziwym standardem w urządzeniach peryferyjnych takich jak skanery, aparaty cyfrowe czy niektóre starsze dyski zewnętrzne. Złącze Mini USB pozwala na stabilne połączenie z komputerem, zapewniając nie tylko transfer danych, ale często także zasilanie urządzenia. W praktyce, kiedy widzisz urządzenia z pierwszej dekady XXI wieku, bardzo prawdopodobne jest właśnie użycie Mini USB, zanim na dobre zastąpiono je Micro USB i, później, USB-C. Moim zdaniem Mini USB jest dość wygodny w podłączaniu – nie tak delikatny jak Micro, ale mniejszy i zgrabniejszy od klasycznego USB-B, które częściej występuje w drukarkach. Dużo osób myli Mini USB z Micro USB, bo oba są dość małe, ale różnią się kształtem i grubością. Od strony technicznej Mini USB spełnia standardy USB 2.0, co pozwala na prędkości transferu do 480 Mb/s – zupełnie wystarczające w przypadku nawet szybkich skanerów dokumentów. Branżowe dobre praktyki zawsze zalecają stosowanie oryginalnego przewodu z właściwą końcówką, bo różnice w kształcie mogą prowadzić do uszkodzeń portu. Jeśli więc masz do czynienia ze sprzętem tego typu, pamiętaj o Mini USB – to właśnie ten typ wtyku jest najodpowiedniejszy.

Pytanie 32

Jak nazywa się seria procesorów produkowanych przez firmę Intel, charakteryzująca się małymi wymiarami oraz niskim zużyciem energii, zaprojektowana z myślą o urządzeniach mobilnych?

A. Atom
B. Alpha
C. Radeon
D. Athlon
Rodzina procesorów Intel Atom została zaprojektowana z myślą o zastosowaniach mobilnych, co czyni je idealnym rozwiązaniem dla urządzeń takich jak netbooki, tablety czy inteligentne urządzenia IoT. Procesory te charakteryzują się niewielkimi rozmiarami oraz niskim poborem energii, co sprawia, że są szczególnie przydatne w sytuacjach, gdzie długotrwała praca na baterii jest kluczowa. W praktyce, procesory Atom są wykorzystywane w urządzeniach takich jak ultrabooki, co pozwala na efektywne zarządzanie energią oraz zapewnia wystarczającą moc obliczeniową do codziennych zadań, takich jak przeglądanie internetu czy edytowanie dokumentów. Dzięki zastosowaniu architektury x86, procesory Atom są w stanie obsługiwać szereg aplikacji i systemów operacyjnych, co czyni je wszechstronnym wyborem dla producentów sprzętu. Warto również zauważyć, że procesory Atom są zgodne z najnowszymi standardami bezpieczeństwa i wydajności, co wspiera ich zastosowanie w nowoczesnych rozwiązaniach technologicznych.

Pytanie 33

Które z urządzeń używanych w sieci komputerowej NIE WPŁYWA na liczbę domen kolizyjnych?

A. Switch
B. Hub
C. Router
D. Server
Serwer to urządzenie, które pełni rolę w zarządzaniu zasobami i usługami w sieci komputerowej, ale nie jest odpowiedzialny za zarządzanie ruchem sieciowym w sposób, który wpływa na liczbę domen kolizyjnych. Domeny kolizyjne to obszary w sieci, w których urządzenia mogą kolidować ze sobą podczas przesyłania danych. W przypadku serwera, jego głównym zadaniem jest udostępnianie zasobów, takich jak pliki czy aplikacje, a nie kontrolowanie ruchu. Przykładem praktycznego zastosowania serwera może być lokalny serwer plików w biurze, który umożliwia pracownikom dostęp do dokumentów, lecz nie wpływa na to, jak wiele urządzeń może jednocześnie przesyłać dane w sieci. Standardy takie jak IEEE 802.3 definiują zasady działania sieci Ethernet, a serwery są projektowane w sposób, który wspiera te zasady, pozostając jednak poza koncepcją kolizji. W kontekście rozwoju sieci, serwery często współpracują z innymi urządzeniami, które rzeczywiście mogą zmieniać liczbę domen kolizyjnych, jak przełączniki czy rutery.

Pytanie 34

Płyta główna serwerowa potrzebuje pamięci z rejestrem do prawidłowego funkcjonowania. Który z poniższych modułów pamięci będzie zgodny z tą płytą?

A. Kingston 4GB 1333MHz DDR3 Non-ECC CL9 DIMM
B. Kingston 8GB 1333MHz DDR3 ECC Reg CL9 DIMM 2Rx8
C. Kingston 4GB 1600MHz DDR3 ECC CL11 DIMM 1,5 V
D. Kingston Hynix B 8GB 1600MHz DDR3L CL11 ECC SODIMM 1,35 V
Prawidłowa odpowiedź to Kingston 8GB 1333MHz DDR3 ECC Reg CL9 DIMM 2Rx8, bo ten moduł pamięci pasuje do wymagań serwerowych płyt głównych, które zazwyczaj potrzebują pamięci z rejestrem (Registered ECC). Ta rejestrowana pamięć ECC ma w sobie mechanizmy, które mogą wykrywać i naprawiać błędy w danych, co znacznie poprawia stabilność i niezawodność systemów serwerowych. W takich miejscach, gdzie ciągła praca i bezpieczeństwo danych są na pierwszym miejscu, to jest kluczowa cecha. Moduły tego typu korzystają z dodatkowego układu, co pozwala na większą ilość pamięci, co jest ważne zwłaszcza przy intensywnych obliczeniach. Na przykład, serwery w centrach danych, które wymagają wysokiej wydajności, korzystają właśnie z takiej pamięci. W kontekście branżowych standardów, pamięci z rejestrem są zgodne z DDR3 i mają konkretne parametry jak prędkość 1333MHz i opóźnienie CL9, co czyni je świetnym wyborem do zastosowań w serwerach.

Pytanie 35

Aby poprawić bezpieczeństwo zasobów sieciowych, administrator sieci komputerowej w firmie został zobowiązany do podziału istniejącej lokalnej sieci komputerowej na 16 podsieci. Pierwotna sieć miała adres IP 192.168.20.0 z maską 255.255.255.0. Jaką maskę sieci powinien zastosować administrator?

A. 255.255.255.248
B. 255.255.255.240
C. 255.255.255.224
D. 255.255.255.192
Wybór maski 255.255.255.240 jest prawidłowy, ponieważ pozwala podzielić sieć 192.168.20.0 na 16 podsieci, zgodnie z wymaganiem administratora. Maska 255.255.255.240 (w notacji CIDR to /28) oznacza, że 4 bity są używane do identyfikacji podsieci, co umożliwia stworzenie 2^4 = 16 podsieci. Każda z tych podsieci ma 16 adresów, z czego 14 jest dostępnych dla hostów (dwa adresy są zarezerwowane – jeden dla identyfikatora sieci, a drugi dla adresu rozgłoszeniowego). W praktyce, podział na podsieci poprawia zarządzanie ruchem sieciowym oraz zwiększa bezpieczeństwo, ograniczając zasięg potencjalnych ataków. W sieciach lokalnych istotne jest stosowanie takich technik jak VLANy oraz segmentacja, co jest zgodne z najlepszymi praktykami w inżynierii sieci. Taki podział umożliwia administratorom lepsze kontrolowanie dostępu do zasobów oraz monitorowanie ruchu w sieci, co jest kluczowe w kontekście bezpieczeństwa IT.

Pytanie 36

Aby uzyskać wyświetlenie podanych informacji o systemie Linux w terminalu, należy skorzystać z komendy

Linux atom 3.16.0-5-amd64 #1 SMP Debian 3.16.51-3+deb8u1 (2018-01-08) x86_64 GNU/Linux
A. factor 22
B. uptime
C. hostname
D. uname -a
Polecenie uname -a jest używane w systemach Linux i Unix do wyświetlania szczegółowych informacji o systemie operacyjnym. Parametr -a powoduje, że polecenie zwraca kompletny zestaw danych dotyczących systemu, w tym nazwę kernela, nazwę hosta, wersję kernela, datę kompilacji oraz architekturę sprzętową. Takie informacje są kluczowe dla administratorów systemowych i programistów, którzy potrzebują pełnego obrazu środowiska, w którym pracują. Wiedza o wersji kernela czy architekturze sprzętowej może determinować wybór oprogramowania, które będzie działać optymalnie na danym systemie. Ponadto uname -a jest standardowym narzędziem dostępnym w większości dystrybucji Linuxa, co czyni je uniwersalnym rozwiązaniem w diagnostyce systemu. Przykładowo, przy rozwiązywaniu problemów z kompatybilnością oprogramowania, te informacje mogą pomóc w identyfikacji, czy dany problem jest specyficzny dla konkretnej wersji kernela lub architektury. Zrozumienie wyniku tego polecenia jest zatem istotną umiejętnością w kontekście zarządzania i utrzymania systemów Linuxowych.

Pytanie 37

Które z metod szyfrowania wykorzystywanych w sieciach bezprzewodowych jest najsłabiej zabezpieczone przed łamaniem haseł?

A. WPA AES
B. WPA2
C. WEP
D. WPA TKIP
WEP, czyli Wired Equivalent Privacy, to protokół bezpieczeństwa, który pojawił się w 1997 roku jako część standardu IEEE 802.11. Jego głównym celem było zabezpieczenie sieci bezprzewodowych na poziomie, który byłby porównywalny z sieciami przewodowymi. Niestety, po czasie okazało się, że WEP ma sporo słabości. Największym problemem jest krótki klucz szyfrujący, który można łatwo złamać. Ataki statystyczne, jak np. atak IV, pozwalają napastnikom przechwycić dane i odszyfrować klucze, co sprawia, że WEP jest naprawdę łatwy do złamania. Jest sporo narzędzi, jak Aircrack-ng, które potrafią to zrobić w praktyce. Dlatego dzisiaj WEP uznaje się za przestarzały i nie powinno się go stosować w nowych sieciach. Lepiej skorzystać z nowszych standardów, jak WPA2, które korzystają z lepszych algorytmów szyfrowania, takich jak AES, co znacznie poprawia bezpieczeństwo.

Pytanie 38

W warstwie łącza danych modelu odniesienia ISO/OSI możliwą przyczyną błędów działania lokalnej sieci komputerowej jest

A. nadmierna liczba rozgłoszeń.
B. wadliwe okablowanie.
C. tłumienie okablowania.
D. zakłócenie sygnału radiowego.
Poprawnie wskazana została warstwa łącza danych i zjawisko, które faktycznie do niej pasuje, czyli nadmierna liczba rozgłoszeń (broadcastów). W modelu ISO/OSI warstwa łącza danych odpowiada m.in. za adresowanie MAC, ramkowanie, wykrywanie kolizji (w starszych technologiach), kontrolę dostępu do medium i obsługę ramek w obrębie jednej domeny rozgłoszeniowej. Rozgłoszenia są wysyłane właśnie na poziomie warstwy 2, do adresu docelowego FF:FF:FF:FF:FF:FF, a przełączniki (switche) przekazują je na wszystkie porty w danym VLAN-ie. Jeśli takich ramek jest za dużo, powstaje tzw. broadcast storm, który potrafi praktycznie sparaliżować sieć lokalną. Stacje robocze i urządzenia sieciowe muszą wtedy przetwarzać ogromną liczbę ramek, co powoduje wysokie obciążenie CPU, opóźnienia, gubienie ramek i ogólnie wrażenie „mulącej” sieci. Z mojego doświadczenia w sieciach biurowych nadmierne broadcasty wynikają często z błędnej konfiguracji protokołów typu STP, źle działających aplikacji rozgłaszających się w sieci lub pętli w topologii. Dobre praktyki mówią jasno: domeny rozgłoszeniowe trzeba ograniczać (VLAN-y), kontrolować ruch za pomocą odpowiednich mechanizmów (np. storm control na switchach) i dbać o poprawną konfigurację protokołów warstwy 2. W nowoczesnych sieciach firmowych projektuje się topologię tak, żeby rozgłoszenia nie zalewały całej infrastruktury, tylko były zamknięte w rozsądnie małych segmentach. To jest właśnie typowy problem i typowe rozwiązania na poziomie warstwy łącza danych – idealny przykład, jak teoria z modelu ISO/OSI przekłada się na praktykę w serwerowni czy małej sieci szkolnej.

Pytanie 39

Użytkownik systemu Windows wybrał opcję powrót do punktu przywracania. Które pliki powstałe po wybranym punkcie nie zostaną naruszone przez tę akcję?

A. Pliki sterowników.
B. Pliki osobiste.
C. Pliki aktualizacji.
D. Pliki aplikacji.
Pliki osobiste to takie dokumenty, zdjęcia, filmy i inne dane użytkownika, które przechowujesz np. na pulpicie, w folderach Dokumenty, Obrazy itp. Funkcja przywracania systemu Windows została zaprojektowana tak, by nie ingerować w te pliki podczas cofania zmian. To naprawdę ważne, bo czasami przywrócenie systemu pozwala rozwiązać różne problemy techniczne, a jednocześnie użytkownik nie traci własnych, często bardzo cennych danych. Moim zdaniem to jedna z kluczowych zalet tej funkcji – skupia się na systemowych plikach, rejestrze, sterownikach i ustawieniach, zostawiając w spokoju Twoje prywatne rzeczy. Praktycznie wygląda to tak, że jeśli zainstalujesz jakąś aplikację, sterownik czy aktualizację po utworzeniu punktu przywracania, to po cofnięciu systemu mogą one zniknąć lub wrócić do wcześniejszej wersji, ale zdjęcia czy dokumenty, które zrobiłeś w międzyczasie, pozostaną na dysku. W środowisku korporacyjnym uznaje się, że przywracanie systemu nie jest substytutem backupu danych użytkownika, lecz mechanizmem do szybkiego odzyskiwania sprawności systemu operacyjnego. Warto więc regularnie korzystać z kopii zapasowych osobistych plików, bo przywracanie systemu nie chroni przed ich przypadkową utratą, np. przez wirusa czy fizyczne uszkodzenie dysku. Tak czy inaczej, narzędzie przywracania systemu celowo pomija zmiany w plikach użytkownika, bo to po prostu najbardziej sensowne i bezpieczne podejście.

Pytanie 40

Termin określający wyrównanie tekstu do prawego i lewego marginesu to

A. interlinią
B. wersalikiem
C. kapitalikiem
D. justowaniem
Justowanie to proces wyrównywania tekstu w dokumencie do prawego i lewego marginesu, co sprawia, że tekst jest bardziej estetyczny i uporządkowany. Technika ta jest powszechnie stosowana w publikacjach drukowanych, takich jak książki, czasopisma czy broszury, a także w dokumentach elektronicznych. Dzięki justowaniu tekst staje się bardziej czytelny, a jego układ jest harmonijny, co jest szczególnie ważne w kontekście materiałów marketingowych i profesjonalnych. W praktyce, justowanie może odwzorowywać różne style wizualne, w zależności od potrzeb projektu, co wynika z zastosowania odpowiednich algorytmów wyrównywania i przestrzeni między wyrazami. Warto zaznaczyć, że standardy typograficzne, takie jak te wprowadzane przez American National Standards Institute (ANSI) czy International Organization for Standardization (ISO), podkreślają znaczenie estetyki i czytelności tekstu, co czyni justowanie kluczowym elementem w projektowaniu wszelkiego rodzaju dokumentów.