Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 12 maja 2026 09:02
  • Data zakończenia: 12 maja 2026 09:23

Egzamin zdany!

Wynik: 20/40 punktów (50,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Podaj domyślny port używany do przesyłania poleceń w serwerze FTP

A. 110
B. 21
C. 25
D. 20
Port 21 jest domyślnym portem do przekazywania poleceń w protokole FTP (File Transfer Protocol). Protokół ten służy do przesyłania plików między klientem a serwerem w sieci. Protokół FTP działa w modelu klient-serwer, gdzie klient nawiązuje połączenie z serwerem, a port 21 jest używany do inicjowania sesji oraz przesyłania poleceń, takich jak logowanie czy komendy do przesyłania plików. W praktycznych zastosowaniach, gdy użytkownik korzysta z klienta FTP, np. FileZilla lub WinSCP, to właśnie port 21 jest wykorzystywany do połączenia z serwerem FTP. Ponadto, standard RFC 959 precyzuje, że port 21 jest przeznaczony dla komend, podczas gdy port 20 jest używany do transferu danych w trybie aktywnym. Znajomość tych portów i ich funkcji jest kluczowa dla administratorów sieci oraz profesjonalistów zajmujących się bezpieczeństwem, ponieważ niewłaściwe zarządzanie portami może prowadzić do problemów z bezpieczeństwem i nieefektywnością transferu plików.

Pytanie 2

Aby zapobiec uszkodzeniom układów scalonych przy serwisie sprzętu komputerowego, należy korzystać z

A. opaski antystatycznej
B. okularów ochronnych
C. skórzanych rękawiczek
D. gumowych rękawiczek
Okulary ochronne, gumowe rękawiczki i skórzane rękawiczki, mimo że mogą być użyteczne w różnych kontekstach pracy z elektroniką, nie chronią skutecznie przed zagrożeniem, jakim są wyładowania elektrostatyczne. Okulary ochronne są istotne, gdyż chronią wzrok przed odpryskami czy kurzem, ale nie mają wpływu na ochronę układów scalonych przed ESD. Gumowe i skórzane rękawiczki mogą zapewniać pewną izolację, ale nie są zaprojektowane do rozpraszania ładunków elektrostatycznych. Użytkownicy często mylą te akcesoria z rzeczywistą ochroną przed ESD, co może prowadzić do złych praktyk i nieodpowiedniego przygotowania stanowiska pracy. Warto wiedzieć, że najlepszym sposobem na ochronę wrażliwych komponentów jest zastosowanie opaski antystatycznej, która bezpośrednio uziemia osobę pracującą, eliminując ryzyko uszkodzeń. Ignorowanie tej zasady jest powszechnym błędem, który może prowadzić do nieodwracalnych uszkodzeń układów scalonych, a tym samym do zwiększenia kosztów napraw i wymiany sprzętu. W kontekście naprawy i konserwacji urządzeń elektronicznych, fundamentalne jest stosowanie odpowiednich środków ochronnych, które są zgodne z normami branżowymi dotyczącymi bezpieczeństwa i ochrony przed ESD.

Pytanie 3

Brak informacji o parzystości liczby lub o znaku wyniku operacji w ALU może sugerować problemy z funkcjonowaniem

A. pamięci cache
B. wskaźnika stosu
C. tablicy rozkazów
D. rejestru flagowego
Odpowiedzi takie jak pamięć cache, wskaźnik stosu oraz tablica rozkazów są nieodpowiednie w kontekście braku informacji o parzystości liczby czy znaku wyniku operacji w ALU. Pamięć cache jest technologią, która optymalizuje dostęp do danych, przechowując często używane informacje, ale nie ma wpływu na operacje arytmetyczne czy logiczne wykonywane przez ALU. Jej rola polega na zwiększeniu wydajności systemu przez minimalizowanie opóźnień w dostępie do pamięci głównej. Wskaźnik stosu z kolei zarządza strukturą danych zwaną stosem, która jest używana do przechowywania adresów powrotu oraz lokalnych zmiennych, a nie do zarządzania wynikami operacji arytmetycznych. Z perspektywy działania ALU, wskaźnik stosu nie ma nic wspólnego z informacjami o parzystości czy znaku. Tablica rozkazów to z kolei strona architektury procesora, która przechowuje instrukcje do wykonania; jednak odpowiedzialność za zarządzanie wynikami leży w rejestrach, a nie w tablicy rozkazów. Właściwe zrozumienie ról tych komponentów jest kluczowe dla efektywnego projektowania systemów komputerowych. Często mylenie tych terminów prowadzi do nieporozumień dotyczących działania architektury komputerowej i jej elementów składowych. Ważne jest, aby w kontekście programowania i architektury komputerowej, mieć jasność co do funkcji każdego z komponentów, aby unikać błędów w projektowaniu oraz implementacji.

Pytanie 4

Jakiego typu macierz RAID nie zapewnia odporności na awarie żadnego z dysków tworzących jej strukturę?

A. RAID 0
B. RAID 4
C. RAID 6
D. RAID 2
RAID 4 to macierz, która wdraża technologię parity, co pozwala na zapewnienie pewnego poziomu ochrony danych. W przypadku awarii jednego z dysków, dane mogą być odtworzone dzięki przechowywanej parze, co czyni ją odporną na pojedyncze awarie. Z kolei RAID 6 pozwala na jednoczesne wystąpienie dwóch awarii dysków dzięki zastosowaniu podwójnej parzystości, co sprawia, że jest bardziej niezawodny w porównaniu do RAID 4. RAID 2 z kolei, choć rzadko stosowany w praktyce, wykorzystuje technologię dysków z kodowaniem Hamming w celu korekcji błędów, co również zwiększa poziom ochrony danych. Zrozumienie różnic między tymi konfiguracjami jest kluczowe w kontekście projektowania systemów przechowywania danych. Użytkownicy często mylnie przypisują RAID 0 cechy innych konfiguracji, co prowadzi do błędnych przekonań o jej bezpieczeństwie. RAID 0, pomimo wysokiej wydajności, nie oferuje żadnej redundancji, co czyni ją nieodpowiednią do zastosowań, gdzie utrata danych może być katastrofalna. Kluczowym błędem jest nieodróżnianie wydajności od bezpieczeństwa, co jest fundamentem w wyborze odpowiedniej konfiguracji RAID w zależności od potrzeb organizacji.

Pytanie 5

Moduł funkcjonalny, który nie znajduje się w kartach dźwiękowych, to skrót

A. DSP
B. ROM
C. DAC
D. GPU
Tak, wybrałeś GPU, co jest jak najbardziej w porządku! Karty dźwiękowe nie mają w sobie modułów do przetwarzania grafiki, bo GPU to specjalny chip do obliczeń związanych z grafiką. No i wiadomo, że jego głównym zadaniem jest renderowanie obrazów i praca z 3D. A karty dźwiękowe? One mają inne zadania, jak DAC, który zamienia sygnały cyfrowe na analogowe, oraz DSP, który ogarnia różne efekty dźwiękowe. To właśnie dzięki nim możemy cieszyć się jakością dźwięku w muzyce, filmach czy grach. Warto zrozumieć, jak te wszystkie elementy działają, bo to bardzo ważne dla ludzi zajmujących się dźwiękiem i multimediami.

Pytanie 6

Komunikat tekstowy KB/Interface error, wyświetlony na ekranie komputera z BIOS POST firmy AMI, informuje o błędzie

A. sterownika klawiatury.
B. pamięci GRAM.
C. baterii CMOS.
D. rozdzielczości karty graficznej.
Komunikat KB/Interface error na ekranie BIOS POST firmy AMI oznacza problem z interfejsem klawiatury, czyli tak naprawdę coś nie gra na linii komunikacji płyty głównej z klawiaturą. KB to skrót od 'keyboard', a BIOS już podczas testu POST sprawdza, czy klawiatura odpowiada poprawnie. Z mojego doświadczenia, ten błąd pojawia się najczęściej, gdy klawiatura jest źle podłączona, kabel jest uszkodzony albo port PS/2 (czasem USB) nie działa jak trzeba – naprawdę warto wtedy spróbować innego portu albo sprawdzić klawiaturę na innym komputerze. W przypadku starszych płyt głównych, sterownik klawiatury jest zintegrowany z kontrolerem płyty, więc awaria tej części sprzętu również wygeneruje taki komunikat. Fachowo rzecz biorąc, BIOS bazuje na podstawowym sterowniku sprzętowym PS/2, który musi być sprawny, żeby klawiatura zadziałała na tym etapie. Często naprawa ogranicza się do wymiany klawiatury albo oczyszczenia styków, chociaż znam przypadki, gdzie winny był nawet uszkodzony BIOS. W serwisie, jeśli KB/Interface error utrzymuje się mimo sprawdzonego osprzętu, zwykle bierze się wtedy pod lupę płytę główną. Dobrym zwyczajem w informatyce jest zawsze zaczynać diagnostykę od rzeczy najprostszych – czyli właśnie peryferiów – zanim zaczniemy szukać problemów po stronie sprzętu czy firmware. Takie komunikaty BIOS-owe to w sumie klasyka diagnostyki, warto je znać i rozumieć nawet przy pracy z nowszymi systemami, gdzie podobne zasady nadal obowiązują.

Pytanie 7

W topologii gwiazdy każde urządzenie działające w sieci jest

A. skonfigurowane z dwoma sąsiadującymi komputerami
B. spojone ze sobą przewodami, tworząc zamknięty pierścień.
C. podłączone do węzła sieci.
D. połączone z jedną magistralą.
Topologia sieci nie polega na podłączeniu urządzeń do jednej magistrali, co jest typowe dla topologii magistrali. W takim układzie wszystkie urządzenia są połączone do wspólnego przewodu, co może prowadzić do problemów z kolizjami i ograniczoną wydajnością, zwłaszcza w większych sieciach. W przypadku awarii magistrali cała sieć przestaje działać. Z kolei połączenia pomiędzy dwoma sąsiadującymi komputerami sugerują strukturę sieci w formie łańcucha, co jest charakterystyczne dla topologii pierścienia lub łańcucha. W takim układzie awaria jednego urządzenia może zakłócić komunikację w całej sieci. Natomiast połączenie urządzeń w zamknięty pierścień implikuje topologię pierścienia, w której każde urządzenie jest połączone z dwoma innymi, tworząc cykl. Taki system również niesie ryzyko, ponieważ awaria jednego połączenia może sparaliżować cały układ. Niezrozumienie różnic między tymi topologiami prowadzi do błędnych wniosków odnośnie do efektywności i bezpieczeństwa sieci, co w praktyce objawia się problemami z wydajnością i zarządzaniem siecią.

Pytanie 8

W którym programie należy zmodyfikować ustawienia, aby użytkownik komputera mógł wybrać z menu i uruchomić jeden z kilku systemów operacyjnych zainstalowanych na jego komputerze?

A. GEDIT
B. CMD
C. QEMU
D. GRUB
GRUB to właśnie ten program, który pozwala wybrać system operacyjny podczas startu komputera. Moim zdaniem, każdy kto kiedykolwiek miał do czynienia z instalacją np. dwóch systemów, wie że bez menedżera bootowania – jak GRUB – nie byłoby to takie proste. GRUB (Grand Unified Bootloader) to otwartoźródłowy bootloader wykorzystywany głównie w systemach Linux, ale świetnie radzi sobie również z innymi systemami, np. Windows czy BSD. Modyfikując jego plik konfiguracyjny (np. grub.cfg), można ustawiać kolejność systemów na liście, dodawać własne wpisy, a nawet ustawiać domyślny wybór. Praktycznie w każdej dokumentacji Linuksa znajdziesz rozdział o GRUB-ie, bo to jest podstawowe narzędzie do zarządzania wieloma systemami na jednym sprzęcie. Branżową dobrą praktyką jest, by po instalacji kolejnego systemu odświeżyć konfigurację GRUB np. poleceniem update-grub, żeby wszystkie systemy były widoczne. Pozwala to uniknąć problemów z dostępem do któregoś z nich. Z mojego doświadczenia wynika, że opanowanie podstaw GRUB-a to ważna umiejętność dla każdego, kto chce bawić się wieloma systemami operacyjnymi lub testować różne dystrybucje Linuksa. Często też w większych firmach administratorzy wykorzystują zaawansowane opcje GRUB-a, np. do szyfrowania dysków czy obsługi własnych skryptów startowych. W skrócie: GRUB to podstawa, jeśli myślisz o multi-boot na poważnie.

Pytanie 9

Aby uzyskać informacje na temat aktualnie działających procesów w systemie Linux, można użyć polecenia

A. su
B. rm
C. ls
D. ps
Polecenie 'ps' w systemie Linux jest kluczowym narzędziem służącym do wyświetlania informacji o bieżących procesach. Skrót 'ps' oznacza 'process status', co doskonale oddaje jego funkcjonalność. Umożliwia ono użytkownikom przeglądanie listy procesów działających w systemie, a także ich stanu, wykorzystania pamięci i innych istotnych parametrów. Przykładowe użycie polecenia 'ps aux' pozwala na uzyskanie szczegółowych informacji o wszystkich procesach, w tym tych, które są uruchomione przez innych użytkowników. Dzięki temu administratorzy i użytkownicy mają możliwość monitorowania aktywności systemu, diagnozowania problemów oraz optymalizacji użycia zasobów. W kontekście dobrej praktyki, korzystanie z polecenia 'ps' jest niezbędne do zrozumienia, jakie procesy obciążają system, co jest kluczowe w zarządzaniu systemami wielozadaniowymi, gdzie optymalizacja wydajności jest priorytetem. Warto również zaznaczyć, że na podstawie wyników polecenia 'ps' można podejmować decyzje dotyczące zarządzania procesami, takie jak ich zatrzymywanie czy priorytetyzacja.

Pytanie 10

Jakie stwierdzenie o routerach jest poprawne?

A. Podejmują decyzje o przesyłaniu danych na podstawie adresów IP
B. Działają w warstwie transportu
C. Działają w warstwie łącza danych
D. Podejmują decyzje o przesyłaniu danych na podstawie adresów MAC
Ruter nie operuje w warstwie łącza danych, co jest fundamentalnym błędem w zrozumieniu jego funkcji. Warstwa łącza danych zajmuje się adresowaniem fizycznym, głównie za pomocą adresów MAC, co dotyczy lokalnych sieci, natomiast ruter, jako urządzenie sieciowe, analizuje adresy IP w warstwie sieci. Odpowiedzi sugerujące, że ruter podejmuje decyzje na podstawie adresów MAC, mylnie interpretują rolę rutera, ponieważ te adresy są używane przez przełączniki, a nie rutery. Ponadto, ruter nie działa w warstwie transportowej, gdzie protokoły, takie jak TCP i UDP, są odpowiedzialne za zarządzanie transmisją danych pomiędzy aplikacjami. Jest to często mylone z funkcjami związanymi z połączeniami oraz kontrolą przepływu, które są bardziej związane z warstwą transportową. Typowym błędem jest również nieodróżnianie funkcji routerów od funkcji przełączników, co prowadzi do zamieszania dotyczącego adresowania i kierowania ruchu w sieci. Zrozumienie tych podstawowych różnic jest kluczowe dla prawidłowej konfiguracji i administrowania sieciami komputerowymi.

Pytanie 11

Do umożliwienia komunikacji pomiędzy sieciami VLAN, wykorzystuje się

A. Modem
B. Punkt dostępowy
C. Koncentrator
D. Router
Router jest urządzeniem, które umożliwia komunikację między różnymi sieciami, w tym sieciami VLAN. VLAN, czyli Virtual Local Area Network, to technologia, która pozwala na segregację ruchu sieciowego w obrębie tej samej fizycznej sieci. Aby dane mogły być wymieniane między różnymi VLAN-ami, konieczne jest użycie routera, który zajmuje się przesyłaniem pakietów danych między tymi odrębnymi segmentami sieci. Router jest w stanie analizować adresy IP oraz inne informacje w nagłówkach pakietów, co pozwala na ich prawidłowe kierowanie. Przykładowo, w dużych organizacjach, gdzie różne działy mogą mieć swoje VLAN-y (np. dział finansowy i IT), router umożliwia tym działom wymianę informacji, przy jednoczesnym zachowaniu bezpieczeństwa i segregacji danych. Stosowanie routerów w kontekście VLAN-ów jest zgodne z dobrą praktyką w projektowaniu rozbudowanych architektur sieciowych, co podkreśla znaczenie tych urządzeń w zwiększaniu efektywności i bezpieczeństwa komunikacji sieciowej.

Pytanie 12

Minimalna zalecana ilość pamięci RAM dla systemu operacyjnego Windows Server 2008 wynosi przynajmniej

A. 1,5 GB
B. 1 GB
C. 2 GB
D. 512 MB
Wybierając odpowiedzi inne niż 2 GB, można naprawdę się pomylić co do wymagań systemowych. Odpowiedzi takie jak 512 MB, 1 GB, czy 1,5 GB kompletnie nie biorą pod uwagę, czego naprawdę potrzebuje Windows Server 2008. W dzisiejszych czasach pamięć RAM to kluczowy element, który wpływa na to, jak dobrze wszystko działa. Jak jest jej za mało, serwer często korzysta z dysku twardego, co prowadzi do opóźnień. W branży mówi się, że minimalne wymagania to tylko początek, a w praktyce może być tego znacznie więcej w zależności od obciążenia i uruchomionych aplikacji. Ignorując wymagania dotyczące RAM, można napotkać problemy z aplikacjami klienckimi, co podnosi koszty związane z utrzymaniem systemu. Z mojego punktu widzenia, pomijanie tych wskazówek to prosta droga do komplikacji, a ryzyko awarii rośnie, co w pracy nie może być akceptowalne.

Pytanie 13

Jeśli podczas podłączania stacji dysków elastycznych 1,44 MB kabel sygnałowy zostanie włożony odwrotnie, to

A. BIOS komputera rozpozna stację dysków jako 2,88 MB
B. BIOS komputera prawidłowo zidentyfikuje stację dysków
C. BIOS komputera zgłosi błąd w podłączeniu stacji dysków
D. stacja dysków zostanie uszkodzona
Odpowiedź wskazująca, że BIOS komputera zgłosi błąd podłączenia stacji dysków jest poprawna, ponieważ stacje dysków elastycznych, podobnie jak inne urządzenia peryferyjne, muszą być podłączone zgodnie z określonymi standardami złącz. W przypadku stacji dysków 1,44 MB, kabel danych ma określoną orientację, a odwrotne podłączenie spowoduje, że sygnały nie będą przesyłane prawidłowo. BIOS, jako oprogramowanie niskiego poziomu odpowiedzialne za inicjalizację sprzętu podczas uruchamiania komputera, wykonuje różne testy, w tym wykrywanie podłączonych urządzeń. W przypadku stacji dysków, jeśli sygnały są nieprawidłowe, BIOS nie jest w stanie ich zidentyfikować, co skutkuje błędem podłączenia. Praktyczny aspekt tej wiedzy odnosi się do codziennych czynności serwisowych, gdzie należy upewnić się, że wszystkie połączenia kablowe są przeprowadzone zgodnie z zaleceniami producenta. Wiedza ta jest kluczowa w kontekście napraw i konserwacji sprzętu komputerowego, gdzie błędne podłączenie urządzeń może prowadzić do nieprawidłowego działania systemu lub jego uszkodzenia.

Pytanie 14

Jaką rolę pełnią elementy Tr1 i Tr2, które są widoczne na schemacie ilustrującym kartę sieciową Ethernet?

Ilustracja do pytania
A. Informują o aktywności karty sieciowej za pomocą dźwięków
B. Zapewniają separację obwodu elektrycznego sieci LAN od obwodu elektrycznego komputera
C. Oferują szyfrowanie oraz deszyfrowanie danych przesyłanych przez sieć
D. Wskazują szybkość pracy karty sieciowej poprzez świecenie na zielono
Izolacja obwodu elektrycznego jest kluczową funkcją transformatorów Tr1 i Tr2 w kartach sieciowych Ethernet. Transformator Ethernet zapewnia galwaniczne oddzielenie obwodów sieciowych od urządzeń, do których są podłączone. Dzięki temu zabezpiecza urządzenia przed różnicami potencjałów, które mogą występować w różnych segmentach sieci, co jest szczególnie istotne w środowiskach o dużych zakłóceniach elektrycznych. Izolacja transformatorowa chroni przed przepięciami i zwarciami, minimalizując ryzyko uszkodzenia sprzętu komputerowego. W praktyce oznacza to, że wszelkie zakłócenia i piki napięciowe występujące w sieci nie przenoszą się bezpośrednio na sprzęt komputerowy, co mogłoby spowodować jego uszkodzenie. Transformator Ethernet jest zatem zgodny z normami bezpieczeństwa i dobrymi praktykami branżowymi, które wymagają zapewnienia bezpieczeństwa i niezawodności w pracy sieci komputerowych. Standard IEEE 802.3 określa wymagania dotyczące izolacji galwanicznej, w tym minimalne napięcie probiercze, które transformator musi wytrzymać, aby spełniać normy bezpieczeństwa. W ten sposób transformator zapewnia bezpieczne użytkowanie sieci, chroniąc sprzęt i dane przed nieprzewidzianymi awariami elektrycznymi.

Pytanie 15

Jaką liczbę komputerów można zaadresować w sieci z maską 255.255.255.224?

A. 25 komputerów
B. 30 komputerów
C. 32 komputery
D. 27 komputerów
Odpowiedź 30 komputerów jest prawidłowa, ponieważ maska podsieci 255.255.255.224 oznacza, że mamy do czynienia z maską o długości 27 bitów (22 bity do identyfikacji podsieci i 5 bitów do identyfikacji hostów). Aby obliczyć liczbę dostępnych adresów IP dla hostów w takiej podsieci, stosujemy wzór 2^n - 2, gdzie n to liczba bitów przeznaczonych na hosty. W naszym przypadku mamy 5 bitów, co daje 2^5 = 32. Jednakże musimy odjąć 2 adresy: jeden dla adresu sieci (wszystkie bity hostów ustawione na 0) i jeden dla adresu rozgłoszeniowego (wszystkie bity hostów ustawione na 1). Dlatego 32 - 2 = 30. Taka konfiguracja jest powszechnie stosowana w małych sieciach lokalnych, gdzie zarządzanie adresami jest kluczowe. Umożliwia to efektywne wykorzystanie przestrzeni adresowej i jest zgodne z zasadami projektowania sieci, gdzie każda podsieć powinna mieć odpowiednią liczbę adresów dla urządzeń. Przykład zastosowania tej maski to sieci biurowe, gdzie liczba urządzeń jest ograniczona, a efektywność w zarządzaniu adresami jest istotna.

Pytanie 16

Polecenie to zostało wydane przez Administratora systemu operacyjnego w trakcie ręcznej konfiguracji sieciowego interfejsu. Wynikiem wykonania tego polecenia jest ```netsh interface ip set address name="Glowna" static 151.10.10.2 255.255.0.0 151.10.0.1```

A. ustawienie maski 24-bitowej
B. aktywacja dynamicznego przypisywania adresów IP
C. przypisanie adresu 151.10.0.1 jako domyślnej bramy
D. dezaktywacja interfejsu
Polecenie wydane za pomocą komendy 'netsh interface ip set address name="Glowna" static 151.10.10.2 255.255.0.0 151.10.0.1' ustawia adres IP oraz maskę podsieci dla interfejsu o nazwie 'Glowna'. W tym przypadku adres '151.10.0.1' został określony jako brama domyślna, co jest kluczowe w kontekście routingu. Brama domyślna jest to adres IP routera, przez który urządzenie komunikuje się z innymi sieciami, w tym z internetem. Ustawienie bramy domyślnej jest niezbędne, aby urządzenie mogło wysyłać pakiety do adresów spoza swojej lokalnej podsieci. Dobre praktyki dotyczące konfiguracji sieci zalecają, aby brama domyślna była zawsze odpowiednio skonfigurowana, co zapewnia prawidłowe funkcjonowanie komunikacji w sieci. Przykładem praktycznego zastosowania tej komendy może być sytuacja, gdy administrator sieci konfiguruje nowe urządzenie, które musi uzyskać dostęp do zewnętrznych zasobów. Bez poprawnie ustawionej bramy domyślnej, urządzenie nie będzie mogło komunikować się z innymi sieciami.

Pytanie 17

Jaką normę wykorzystuje się przy okablowaniu strukturalnym w komputerowych sieciach?

A. TIA/EIA-568-B
B. PN-EN 12464-1:2004
C. ISO/IEC 8859-2
D. PN-EN ISO 9001:2009
Wybór normy PN-EN 12464-1:2004 jako podstawy do okablowania strukturalnego w sieciach komputerowych jest nieadekwatny, ponieważ ta norma dotyczy oświetlenia wnętrz i nie ma żadnego zastosowania w kontekście instalacji sieciowych. Wiele osób może mylnie sądzić, że normy związane z oświetleniem mogą mieć zastosowanie w kontekście okablowania, co prowadzi do błędnych wniosków. Również odwołanie się do normy ISO/IEC 8859-2, która dotyczy kodowania znaków, jest błędne, ponieważ nie ma ona nic wspólnego z aspektami fizycznego okablowania czy strukturą sieci. To może wynikać z niewłaściwego zrozumienia, że wszystkie normy ISO/IEC są powiązane z sieciami komputerowymi, co jest nieprawdziwą generalizacją. W kontekście standardów jakości, PN-EN ISO 9001:2009 odnosi się do systemów zarządzania jakością, a nie do specyfikacji technicznych dla infrastruktury sieciowej. Użytkownicy mogą często mylić różne normy, co skutkuje nieprawidłowym doborem standardów do projektów technologicznych. Aby skutecznie projektować i instalować sieci komputerowe, niezbędne jest zrozumienie specyfiki norm, takich jak TIA/EIA-568-B, które są dostosowane do wymogów telekomunikacyjnych, a nie normy, które dotyczą innych dziedzin, takich jak oświetlenie czy zarządzanie jakością.

Pytanie 18

Uruchomienie systemu Windows w trybie debugowania pozwala na

A. zapobieganie ponownemu automatycznemu uruchamianiu systemu w przypadku wystąpienia błędu.
B. uruchomienie systemu z ostatnią poprawną konfiguracją.
C. tworzenie pliku dziennika <i>LogWin.txt</i> podczas startu systemu.
D. eliminację błędów w działaniu systemu.
Tryb debugowania w systemie Windows to naprawdę narzędzie raczej dla zaawansowanych użytkowników, administratorów lub programistów. Pozwala on na uruchomienie systemu w taki sposób, by możliwe było monitorowanie i analizowanie działania jądra systemu oraz sterowników. Chodzi o to, by wykryć i zlokalizować przyczynę poważnych błędów czy nietypowych zachowań systemu. W praktyce tryb debugowania umożliwia wpięcie się z zewnętrznym debuggerem (np. przez port szeregowy lub sieciowy) i przechwycenie komunikatów diagnostycznych, które pozwalają krok po kroku „rozebrać” system na czynniki pierwsze. Moim zdaniem, to świetna opcja, kiedy standardowe metody naprawy zawodzą albo kiedy testuje się nowe sterowniki czy rozwiązania sprzętowe. Przykład? Chociażby sytuacja, w której komputer losowo się zawiesza i nie wiadomo, czy winny jest sprzęt, czy oprogramowanie – wtedy tryb debugowania pozwala zostawić ślad, gdzie dokładnie coś poszło nie tak. Warto dodać, że w środowiskach produkcyjnych raczej nie używa się tego trybu na co dzień, bo spowalnia uruchamianie systemu i generuje dodatkowy ruch diagnostyczny. Branżowo, debugowanie systemu operacyjnego to podstawa przy rozwoju sterowników, rozwiązywaniu problemów BSOD (blue screen of death) oraz przy customizacji systemu dla niestandardowych platform sprzętowych. Tego typu działania mieszczą się w kanonie pracy administratora systemów, zwłaszcza tam gdzie stabilność całej infrastruktury jest krytyczna.

Pytanie 19

Narzędziem do zarządzania usługami katalogowymi w systemach Windows Server, które umożliwia przeniesienie komputerów do jednostki organizacyjnej wskazanej przez administratora, jest polecenie

A. dcdiag
B. dsrm
C. redircmp
D. redirusr
Wybór dcdiag, dsrm lub redirusr jako narzędzi do przekierowywania komputerów do jednostek organizacyjnych w Active Directory jest błędny z kilku powodów. Narzędzie dcdiag służy do diagnostyki i analizowania stanu kontrolerów domeny, a nie do zarządzania jednostkami organizacyjnymi. Jego funkcjonalność koncentruje się na sprawdzaniu zdrowia systemu Active Directory oraz identyfikacji problemów, co czyni je użytecznym, ale nie w kontekście przekierowywania komputerów. Z kolei dsrm, które jest używane do usuwania obiektów z Active Directory, również nie ma funkcji związanych z automatycznym przypisywaniem komputerów do OU. Użycie tego polecenia do tego celu byłoby nie tylko niewłaściwe, ale także mogłoby prowadzić do utraty ważnych danych. Redirusr, z drugiej strony, służy do przekierowywania kont użytkowników do odpowiednich jednostek organizacyjnych, co pokazuje jego ograniczenie w kontekście komputerów. Typowym błędem w myśleniu, który prowadzi do wyboru tych opcji, jest mylne utożsamienie różnych funkcji narzędzi Active Directory. Kluczowe jest zrozumienie, że organizacja zasobów w Active Directory wymaga precyzyjnego i dobrze zrozumiałego zastosowania odpowiednich narzędzi i poleceń, aby zachować porządek i bezpieczeństwo w infrastrukturze IT.

Pytanie 20

Pamięć, która działa jako pośrednik pomiędzy pamięcią operacyjną a procesorem o dużej prędkości, to

A. CACHE
B. SSD
C. ROM
D. FDD
Wybór odpowiedzi takiej jak SSD, FDD czy ROM odzwierciedla pewne nieporozumienia dotyczące roli różnych typów pamięci w systemach komputerowych. Rozpocznijmy od SSD (Solid State Drive), które są urządzeniami przechowującymi dane z wykorzystaniem pamięci flash. Chociaż SSD charakteryzują się dużą szybkością dostępu i są powszechnie stosowane jako nośniki danych, nie pełnią one funkcji bufora pomiędzy pamięcią operacyjną a procesorem. Są bardziej porównywalne z tradycyjnymi dyskami twardymi (HDD) jako miejsce do przechowywania danych na dłuższą metę. FDD (Floppy Disk Drive) to technologia przestarzała, która służyła do transferu danych, ale ze względu na swoje ograniczenia w szybkości i pojemności, nie może być porównywana do nowoczesnych rozwiązań pamięciowych. ROM (Read-Only Memory) to rodzaj pamięci, która jest wykorzystywana do przechowywania danych, które nie zmieniają się w trakcie działania systemu, takich jak firmware. Jednak nie ma ona zdolności do dynamicznego buforowania, co czyni ją nieodpowiednią w kontekście pomocy procesorowi w szybkim dostępie do często używanych danych. W praktyce, błędem jest myślenie, że urządzenia te mogą zastąpić pamięć CACHE, gdyż ich funkcje i zastosowania są diametralnie różne, co podkreśla kluczowe znaczenie rozróżnienia między różnymi typami pamięci w architekturze komputerowej.

Pytanie 21

Industry Standard Architecture to norma magistrali, według której szerokość szyny danych wynosi

A. 16 bitów
B. 128 bitów
C. 64 bitów
D. 32 bitów
Wybór 128 bitów może sugerować, że masz pojęcie o nowoczesnych standardach komputerowych, ale pomijasz ważny kontekst historyczny związany z ISA. 128-bitowe magistrale to bardziej nowoczesne podejście, wykorzystywane w architekturach SIMD, które głównie są w GPU i niektórych procesorach ogólnego przeznaczenia. W ISA, która powstała w latach 80-tych, zbyt szeroka szyna danych nie była ani wykonalna technicznie, ani potrzebna, biorąc pod uwagę dostępne technologie. Z kolei 64 bity odnoszą się do nowszych standardów jak x86-64, ale w przypadku ISA to nie ma sensu. Często ludzie myślą, że szersza szyna to od razu lepsza wydajność, ale to nie do końca prawda. Warto pamiętać, że sama szerokość szyny to tylko jedna z wielu rzeczy, które wpływają na wydajność systemu. W kontekście ISA, która miała 16-bitową szerokość, kluczowe jest zrozumienie jej ograniczeń i możliwości. Dlatego przy analizie architektur komputerowych warto patrzeć zarówno na historyczne, jak i techniczne aspekty, żeby lepiej zrozumieć, jak technologia komputerowa się rozwijała.

Pytanie 22

Aby zamontować katalog udostępniony w sieci komputerowej w systemie Linux, należy wykorzystać komendę

A. connect
B. join
C. view
D. mount
Polecenie 'mount' jest kluczowym narzędziem w systemie Linux, które służy do montowania systemów plików, w tym również katalogów udostępnionych w sieci. Umożliwia to użytkownikom dostęp do danych znajdujących się na zewnętrznych serwerach czy urządzeniach w sposób, który sprawia, że wyglądają one jak lokalne foldery. Przykładowo, aby zmapować katalog NFS (Network File System), można użyć polecenia 'mount -t nfs serwer:/ścieżka/do/katalogu /mnt/punkt_montowania'. Dobrą praktyką jest utworzenie odpowiednich punktów montowania w katalogu '/mnt' lub '/media', co ułatwia organizację i zarządzanie systemem plików. Ponadto, w przypadku użycia systemów plików SMB, komenda wyglądałaby 'mount -t cifs //serwer/udział /mnt/punkt_montowania', co pokazuje elastyczność tego narzędzia. Warto również wspomnieć, że montowanie systemów plików powinno być przeprowadzane z odpowiednimi uprawnieniami, a w przypadku montowania przy starcie systemu można edytować plik '/etc/fstab', aby zautomatyzować ten proces.

Pytanie 23

Jakie zabezpieczenie w dokumentacji technicznej określa mechanizm zasilacza komputerowego zapobiegający przegrzaniu urządzenia?

A. OPP
B. SCP
C. UVP
D. OTP
Wybór UVP, SCP albo OPP jako mechanizmów ochrony przed przegrzaniem zasilacza to błąd z paru powodów. UVP to Under Voltage Protection, czyli zabezpieczenie przed za niskim napięciem, nie wysoką temperaturą. Jego rolą jest ochrona urządzeń, gdy napięcie spadnie za nisko, a to nie ma nic wspólnego z temperaturą. SCP, czyli Short Circuit Protection, dotyczy ochrony przed zwarciami, co też nie ma nic do przegrzewania. To zabezpieczenie wyłącza zasilacz, gdy wystąpi zwarcie, żeby chronić zarówno zasilacz, jak i inne komputery. OPP, czyli Over Power Protection, chroni zasilacz przed zbyt dużym poborem mocy. To ważne zabezpieczenie, ale nie ma związku z temperaturą. Często osoby, które podejmują złe decyzje w tym temacie, nie rozumieją, że każdy z tych mechanizmów pełni inną rolę w zasilaniu. Znajomość tych zabezpieczeń jest kluczowa, żeby zapewnić bezpieczeństwo i stabilność systemu komputerowego. Dobrze jest wiedzieć, jakie zabezpieczenie jest potrzebne, żeby zminimalizować ryzyko przegrzewania, przeciążenia czy zwarcia.

Pytanie 24

Jaki skrót oznacza rodzaj licencji Microsoft dedykowanej dla szkół, uczelni, instytucji rządowych oraz dużych firm?

A. VLSC
B. BOX
C. MOLP
D. OEM
Wybór VLSC, OEM czy BOX jako typów licencji nie jest właściwy w kontekście organizacji takich jak szkoły i uczelnie. VLSC, czyli Volume Licensing Service Center, to platforma zarządzająca licencjami dla dużych organizacji, ale sama w sobie nie jest licencją, a narzędziem do jej zarządzania. Używanie tej platformy nie dostarcza licencji, które mogłyby być bezpośrednio przypisane do użytkowników, co czyni ten wybór mylnym. Licencje OEM (Original Equipment Manufacturer) są zaś przypisane do konkretnego sprzętu i nie mogą być przenoszone pomiędzy urządzeniami, co ogranicza ich elastyczność w instytucjach, które często aktualizują lub zmieniają sprzęt. Licencje BOX to jednostkowe licencje, które są sprzedawane w formie fizycznego nośnika, co nie jest praktyczne dla instytucji edukacyjnych, które potrzebują dostępu do oprogramowania na wielu komputerach w różnych lokalizacjach. Wybierając nieodpowiednią licencję, instytucje mogą napotkać problemy z zarządzaniem zasobami, co może prowadzić do niezgodności z regulacjami prawnymi oraz zwiększenia kosztów operacyjnych. Właściwe zrozumienie różnic pomiędzy typami licencji jest niezbędne dla efektywnego zarządzania zasobami IT oraz zapewnienia zgodności z wymaganiami prawnymi.

Pytanie 25

Zamiana taśmy barwiącej wiąże się z eksploatacją drukarki

A. igłowej
B. laserowej
C. termicznej
D. atramentowej
Drukowanie z użyciem technologii laserowej polega na tworzeniu obrazu na bębnie światłoczułym, a następnie przenoszeniu tonera na papier. Toner jest substancją w proszku, a nie płynem, co eliminuje potrzebę korzystania z taśmy barwiącej. W przypadku drukarek atramentowych, proces polega na nanoszeniu kropli atramentu na papier z kartridżów, co także nie wymaga taśmy. Drukarki termiczne działają na zupełnie innej zasadzie, wykorzystując ciepło do wywoływania reakcji chemicznych w papierze termicznym, co również nie ma nic wspólnego z taśmami barwiącymi. Zachowanie błędnych przekonań o wymianie taśmy w tych typach drukarek wynika z mylnego utożsamiania różnych technologii druku. Kluczowa różnica między tymi systemami, a drukarkami igłowymi, polega na mechanizmie transferu atramentu na papier oraz zastosowanych materiałach eksploatacyjnych. Dlatego ważne jest, aby użytkownicy dobrze rozumieli, jak funkcjonują różne technologie druku i jakie materiały są dla nich charakterystyczne, co zapobiega nieporozumieniom oraz nieefektywnemu użytkowaniu sprzętu.

Pytanie 26

W systemach Windows istnieje możliwość przypisania użytkownika do dowolnej grupy za pomocą panelu

A. fsmgmt
B. lusrmgr
C. certsrv
D. services
Wybór przystawek certsrv, fsmgmt i services jako narzędzi do zarządzania grupami użytkowników w systemach Windows jest niepoprawny z kilku względów. Przede wszystkim przystawka certsrv, która służy do zarządzania certyfikatami w infrastrukturze klucza publicznego, nie ma żadnych funkcji związanych z zarządzaniem użytkownikami czy grupami. Jej głównym celem jest umożliwienie administracji certyfikatów, co jest zupełnie innym obszarem niż kontrola dostępu do zasobów systemowych. Z kolei przystawka fsmgmt, czyli 'File Share Management', koncentruje się na zarządzaniu udostępnionymi folderami i nie ma funkcji związanych z przypisywaniem użytkowników do grup. Pomocne w obsłudze współdzielonych zasobów, nie zaspokaja potrzeb związanych z zarządzaniem użytkownikami. Ostatnia opcja, przystawka services, służy do zarządzania usługami systemowymi, takimi jak ich uruchamianie czy zatrzymywanie. Dlatego nie ma zastosowania w kontekście przypisywania użytkowników do grup. Typowym błędem, który prowadzi do wyboru tych opcji, jest mylenie różnych aspektów zarządzania systemem operacyjnym. Kluczowe jest zrozumienie, że każda z tych przystawek ma swoje specyficzne zastosowanie, a ich niewłaściwe użycie może prowadzić do nieefektywnego zarządzania i obniżenia bezpieczeństwa systemu.

Pytanie 27

Kable łączące poziome punkty dystrybucyjne z centralnym punktem dystrybucyjnym określa się jako

A. połączenia telekomunikacyjne
B. okablowanie poziome
C. połączenia systemowe
D. okablowanie pionowe
Wybór niewłaściwego typu okablowania może prowadzić do wielu problemów w systemie telekomunikacyjnym. Okablowanie poziome odnosi się do kabli, które łączą urządzenia w obrębie jednego piętra, a nie między kondygnacjami. Takie połączenia są kluczowe na poziomie lokalnym, jednak nie zastępują potrzeby okablowania pionowego, które ma za zadanie transportowanie sygnałów między różnymi piętrami budynku. Połączenia systemowe to termin, który odnosi się bardziej do integrowania różnych systemów telekomunikacyjnych, a nie specyficznie do okablowania. Z kolei połączenia telekomunikacyjne mogą być ogólnym określeniem dla wszelkich kabli przesyłających dane, ale nie definiują one konkretnej struktury okablowania. W konsekwencji, pomylenie tych terminów może prowadzić do nieefektywnego planowania i wykonania sieci, co w rezultacie obniża jej wydajność oraz wiarygodność. Istotne jest, aby podczas projektowania systemu telekomunikacyjnego zwracać uwagę na standardy, takie jak ANSI/TIA-568, które precyzują, w jaki sposób powinno być zainstalowane okablowanie pionowe i poziome, aby zapewnić optymalne funkcjonowanie sieci.

Pytanie 28

Firma świadcząca usługi sprzątania potrzebuje drukować faktury tekstowe w czterech kopiach równocześnie, na papierze samokopiującym. Jaką drukarkę powinna wybrać?

A. Atramentową
B. Igłową
C. Termosublimacyjną
D. Laserową
Wybór drukarki, która nie jest igłowa, w kontekście drukowania faktur na papierze samokopiującym, prowadzi do szeregu problemów. Drukarki termosublimacyjne, podczas gdy oferują wysoką jakość wydruku, nie są przystosowane do zastosowań, w których konieczne jest jednoczesne uzyskanie wielu kopii. Proces termosublimacji polega na podgrzewaniu barwników, co skutkuje ich przenikaniem w strukturę papieru, jednak nie zapewnia to możliwości wydruku na kilku warstwach papieru samokopiującego. Podobnie, drukarki laserowe, które wykorzystują technologię toneru, również nie będą w stanie efektywnie drukować na papierze samokopiującym. W ich przypadku, toner nie przylega do papieru na tyle mocno, aby umożliwić przeniesienie obrazu na kolejne warstwy, co jest kluczowe w przypadku takich dokumentów jak faktury. Z kolei drukarki atramentowe, mimo że potrafią generować wysokiej jakości wydruki kolorowe, mogą być problematyczne, jeśli chodzi o koszt eksploatacji i czas schnięcia tuszu, co w przypadku samokopiujących arkuszy może prowadzić do rozmazywania się wydruków. W rezultacie, brak zrozumienia specyfiki potrzeb związanych z drukowaniem dokumentów może prowadzić do wyboru niewłaściwego urządzenia, co w dłuższej perspektywie może generować znaczne problemy organizacyjne oraz dodatkowe koszty.

Pytanie 29

Aby zapewnić największe bezpieczeństwo danych przy wykorzystaniu dokładnie 3 dysków, powinny one być zapisywane w macierzy dyskowej

A. RAID 50
B. RAID 10
C. RAID 5
D. RAID 6
RAID 5 to jeden z najpopularniejszych sposobów na zabezpieczenie danych przy ograniczonej liczbie dysków, zwłaszcza gdy mamy ich dokładnie trzy. W tym trybie informacje są rozkładane na wszystkie dostępne dyski, a dodatkowo rozprowadzana jest suma kontrolna (parzystość), która umożliwia odtworzenie danych nawet jeśli jeden z dysków ulegnie awarii. To bardzo praktyczne rozwiązanie, wykorzystywane w małych serwerach plików, NAS-ach czy nawet w środowiskach biurowych, gdzie liczy się kompromis między pojemnością, wydajnością a bezpieczeństwem. Moim zdaniem RAID 5 to taki trochę złoty środek – nie poświęcamy aż tyle przestrzeni jak w RAID 1, a i tak zyskujemy ochronę przed utratą danych. Zwróć uwagę, że uruchomienie RAID 5 na trzech dyskach jest zgodne z dokumentacją producentów i normami branżowymi – to jest absolutne minimum i żaden inny z popularnych trybów nie działa z tak małą liczbą dysków, zapewniając jednocześnie pełne bezpieczeństwo przy awarii jednego z nich. Warto zapamiętać też, że RAID 5 pozwala na równoczesny odczyt z wielu dysków, więc wydajność też nie jest zła, zwłaszcza przy pracy z dużymi plikami. Oczywiście przy większej liczbie dysków efektywność i odporność na awarie może się jeszcze zwiększyć, ale przy trzech RAID 5 wyciska maksimum z tego, co mamy.

Pytanie 30

Użycie polecenia net accounts w Wierszu poleceń systemu Windows, które ustawia maksymalny czas ważności hasła, wymaga zastosowania opcji

A. /FORCELOGOFF
B. /MAXPWAGE
C. /TIMES
D. /EXPIRES
Odpowiedzi, które nie dotyczą opcji /MAXPWAGE, pokazują powszechnie występujące nieporozumienia dotyczące polecenia net accounts oraz zarządzania hasłami w systemie Windows. Opcja /TIMES jest używana do definiowania godzin, w których konto użytkownika może być używane, co jest zupełnie inną funkcjonalnością. Jej zastosowanie nie wpływa na politykę wymiany haseł, ale raczej na dostępność konta w określonych porach. Z kolei opcja /EXPIRES, która ustala datę wygaśnięcia konta użytkownika, również nie ma bezpośredniego związku z zarządzaniem hasłami, a raczej dotyczy całkowitego zablokowania dostępu do konta. Natomiast /FORCELOGOFF to opcja, która wymusza wylogowanie użytkownika po upływie określonego czasu, co może być pomocne w zarządzaniu sesjami użytkowników, ale nie dotyczy mechanizmu wymiany haseł. Te nieprawidłowe odpowiedzi mogą prowadzić do błędnych wniosków na temat bezpieczeństwa systemów informatycznych. Administratorzy powinni zrozumieć, że skoncentrowanie się na zarządzaniu hasłami jako kluczowym elemencie polityki bezpieczeństwa to klucz do ochrony danych. Użycie niewłaściwych opcji przy konfiguracji haseł może prowadzić do luk w zabezpieczeniach, dlatego tak ważne jest, aby dobrze znać dostępne polecenia i ich funkcje.

Pytanie 31

Aby uzyskać wyświetlenie podanych informacji o systemie Linux w terminalu, należy skorzystać z komendy

Linux atom 3.16.0-5-amd64 #1 SMP Debian 3.16.51-3+deb8u1 (2018-01-08) x86_64 GNU/Linux
A. uname -a
B. hostname
C. factor 22
D. uptime
Polecenie hostname służy do wyświetlania lub ustawiania nazwy hosta aktualnie używanej przez system. Samo w sobie nie dostarcza szczegółowych informacji o systemie operacyjnym, takich jak wersja kernela czy architektura sprzętu, co czyni je niewłaściwym wyborem w kontekście zadania wymagającego kompleksowych danych systemowych. Uptime natomiast odpowiada za pokazanie, jak długo system działa bez przerwy od ostatniego uruchomienia. Jest to przydatne narzędzie do monitorowania stabilności i dostępności systemu, lecz nie dostarcza żadnych informacji o wersji kernela czy architektury. Polecenie factor 22 służy do matematycznego rozkładu liczby na jej czynniki pierwsze i jest zupełnie niezwiązane z wyciąganiem informacji o systemie operacyjnym. Często błędnym założeniem jest, że podstawowe komendy takie jak hostname czy uptime mogą dostarczać pełnego obrazu systemu, jednak są one ograniczone do specyficznych aspektów działania systemu. Aby uzyskać pełne informacje o systemie, trzeba użyć dedykowanych narzędzi, takich jak uname, które są zaprojektowane do tego celu. Zrozumienie specyfiki każdej z tych komend pozwala na efektywne zarządzanie systemem i unikanie typowych błędów wynikających z nieznajomości ich funkcji i ograniczeń. Dzięki temu możliwe jest osiąganie bardziej precyzyjnych i użytecznych wyników w codziennym administrowaniu systemami.

Pytanie 32

Jak nazywa się atak na sieć komputerową, który polega na przechwytywaniu przesyłanych w niej pakietów?

A. nasłuchiwanie
B. ICMP echo
C. spoofing
D. skanowanie sieci
Nasłuchiwanie, czyli sniffing, to całkiem ważna technika, jeśli mówimy o atakach na sieci komputerowe. W skrócie, chodzi o to, że atakujący przechwytuje dane, które są przesyłane przez sieć. Zazwyczaj do tego używa odpowiedniego oprogramowania, jak na przykład Wireshark, który pozwala mu monitorować i analizować, co się dzieje w ruchu sieciowym. Dzięki tej technice, osoby nieuprawnione mogą łatwo zdobyć poufne informacje, takie jak hasła czy dane osobowe. W kontekście zabezpieczeń sieciowych, rozumienie nasłuchiwaniu jest naprawdę kluczowe. Organizacje powinny wdrażać różne środki ochrony, typu szyfrowanie danych (patrz protokoły HTTPS, SSL/TLS), żeby zminimalizować ryzyko ujawnienia informacji. Warto też myśleć o segmentacji sieci i monitorowaniu podejrzanych działań, żeby wykrywać i blokować takie ataki. Ogólnie, im więcej wiemy o nasłuchiwaniu, tym lepiej możemy chronić nasze sieci przed nieautoryzowanym dostępem.

Pytanie 33

Do jakiego typu wtyków przeznaczona jest zaciskarka pokazana na ilustracji?

Ilustracja do pytania
A. RJ45
B. E2000
C. BNC
D. SC/PC
Zaciskarka, którą widzisz na zdjęciu, to naprawdę fajne narzędzie do montażu złącz BNC. Te złącza, znane jako BNC (Bayonet Neill-Concelman), są używane wszędzie, gdzie mamy do czynienia z telekomunikacją i wideo, zwłaszcza w systemach CCTV czy profesjonalnym sprzęcie audio-wideo. Dzięki swojemu bagnetowemu mechanizmowi te złącza montuje się bardzo szybko i pewnie. Zaciskarka jest zaprojektowana, żeby dobrze zacisnąć metalowe elementy złącza na kablu koncentrycznym, co z kolei daje nam trwałe połączenie. Ważne, aby dobrze skalibrować narzędzie, bo inaczej możemy uszkodzić złącze. Podczas montażu złączy BNC musimy też dbać o integralność dielektryka w kablu, bo to wpływa na jakość sygnału. Praca z tym narzędziem wymaga, żeby technik znał standardy dotyczące kabli koncentrycznych i wiedział, jakich narzędzi i procedur używać, jak opisano w normach EIA/TIA. Ta wiedza jest naprawdę kluczowa, żeby instalacje działały prawidłowo i były trwałe.

Pytanie 34

Złocenie styków złącz HDMI ma na celu

A. poprawę przewodności oraz żywotności złącza.
B. zwiększenie przepustowości powyżej wartości określonych standardem.
C. umożliwienie przesyłu obrazu w jakości 4K.
D. stworzenie produktu o charakterze ekskluzywnym, aby uzyskać większe wpływy ze sprzedaży.
Wokół złocenia styków HDMI narosło sporo mitów, które są utrwalane przez producentów akcesoriów i marketingowe opisy. Wiele osób uważa, że złoto na stykach istotnie podnosi jakość przesyłu sygnału, co jest nieporozumieniem. Złocenie nie umożliwia transferu obrazu w jakości 4K, bo za to odpowiadają przede wszystkim parametry kabla zgodne ze standardem HDMI (np. wersja 2.0 lub nowsza – dla 4K przy 60Hz, odpowiednia przepustowość, ekranowanie itd.). Jakość przesyłanego obrazu i dźwięku nie zależy od materiału pokrywającego styki, o ile połączenie jest wolne od uszkodzeń i korozji. Podobnie, przewodność elektryczna oraz wydłużenie żywotności złącza dzięki złotemu pokryciu są w praktyce pomijalne – styki HDMI w warunkach domowych praktycznie nie są narażone na utlenianie czy ścieranie, a różnica w przewodności pomiędzy złotem a miedzią nie ma tu realnego znaczenia. To nie jest sprzęt przemysłowy, gdzie warunki są ekstremalne i częstość rozłączeń bardzo duża. Często można spotkać się z przekonaniem, że złocenie zwiększa przepustowość powyżej wartości określonych przez standard – to niestety nieprawda, bo fizyczne ograniczenia interfejsu i zastosowanej elektroniki są niezależne od złotych powłok. Standard HDMI zawiera ścisłe wymagania dotyczące parametrów transmisji, które muszą być spełnione niezależnie od materiału styków. W rzeczywistości, złocenie jest stosowane głównie w celach marketingowych, żeby produkt wyglądał na „lepszy” i można go było sprzedać drożej. Takie podejście opiera się na typowym błędzie myślowym, że jeśli coś jest droższe lub „złote”, to musi być lepsze technicznie. Tymczasem w codziennym użytkowaniu nie zauważysz różnicy – ważniejsze jest po prostu, żeby kabel był zgodny ze standardem HDMI i sprawny mechanicznie.

Pytanie 35

Granice domeny kolizyjnej nie są określane przez porty takich urządzeń jak

A. most (ang. bridge)
B. koncentrator (ang. hub)
C. router
D. przełącznik (ang. switch)
Koncentrator (ang. hub) jest urządzeniem sieciowym, które działa na warstwie fizycznej modelu OSI. Jego podstawowym zadaniem jest rozsyłanie sygnałów do wszystkich podłączonych urządzeń w sieci. W przeciwieństwie do routerów, przełączników i mostów, koncentratory nie analizują ani nie kierują ruchu na podstawie adresów MAC czy IP. Oznacza to, że nie mają zdolności do wydzielania domen kolizyjnych, ponieważ każde urządzenie podłączone do koncentratora współdzieli tę samą domenę kolizyjną. W praktyce oznacza to, że jeśli jedno urządzenie wysyła dane, inne muszą czekać na swoją kolej, co może prowadzić do problemów z wydajnością w większych sieciach. Standardy takie jak IEEE 802.3 definiują działanie sieci Ethernet, w której koncentratory mogą być używane, jednak w nowoczesnych architekturach sieciowych coraz częściej zastępują je bardziej efektywne urządzenia, takie jak przełączniki, które segregują ruch i minimalizują kolizje. Dlatego zrozumienie roli koncentratora jest kluczowe dla projektowania i zarządzania współczesnymi sieciami komputerowymi.

Pytanie 36

Aby mieć możliwość tworzenia kont użytkowników, komputerów oraz innych obiektów, a także centralnego przechowywania informacji o nich, konieczne jest zainstalowanie na serwerze Windows roli

A. usługi Domain Name System w usłudze Active Directory
B. usługi domenowe Active Directory
C. usługi certyfikatów Active Directory
D. Active Directory Federation Service
Usługi domenowe Active Directory (AD DS) to kluczowa rola w systemie Windows Server, która umożliwia zarządzanie użytkownikami, komputerami i innymi obiektami w sieci. Pomocą AD DS jest centralne przechowywanie informacji o wszystkich obiektach w domenie, co pozwala na łatwe zarządzanie uprawnieniami i dostępem do zasobów. Przykładowo, wdrożenie AD DS umożliwia administratorom tworzenie i zarządzanie kontami użytkowników oraz grupami, co jest niezbędne w każdej organizacji. Dzięki AD DS, administratorzy mogą również konfigurować polityki zabezpieczeń i kontrolować dostęp do zasobów sieciowych z wykorzystaniem grup zabezpieczeń. Ponadto, wdrożenie AD DS jest zgodne z najlepszymi praktykami branżowymi, które zalecają centralizację zarządzania użytkownikami oraz implementację mechanizmów autoryzacji. To podejście nie tylko zwiększa bezpieczeństwo, ale także poprawia efektywność zarządzania. Warto zauważyć, że AD DS jest fundamentem dla wielu innych usług Windows Server, takich jak usługi certyfikatów czy Federation Services, co czyni go kluczowym elementem infrastruktury IT w organizacji.

Pytanie 37

Na rysunku przedstawiono konfigurację urządzenia WiFi. Wskaż, które z poniższych stwierdzeń dotyczących tej konfiguracji jest poprawne?

Ilustracja do pytania
A. Filtrowanie adresów MAC jest wyłączone
B. Dostęp do sieci bezprzewodowej jest możliwy tylko dla siedmiu urządzeń
C. W tej chwili w sieci WiFi pracuje 7 urządzeń
D. Urządzenia w sieci mają adresy klasy A
Filtrowanie adresów MAC jest mechanizmem bezpieczeństwa stosowanym w sieciach bezprzewodowych w celu ograniczenia dostępu do sieci na podstawie unikalnych adresów MAC urządzeń. W konfiguracji przedstawionej na rysunku opcja filtrowania adresów MAC jest wyłączona co oznacza że każde urządzenie które zna dane sieci takie jak nazwa sieci SSID i hasło może się do niej podłączyć bez dodatkowej autoryzacji. Wyłączenie filtrowania może być celowe w środowiskach gdzie wiele urządzeń musi mieć szybki i nieskrępowany dostęp do sieci co jest często spotykane w miejscach publicznych czy dużych biurach. Praktyka ta jest jednak uważana za mniej bezpieczną gdyż każdy kto zna dane dostępowe może połączyć się z siecią. Z tego powodu w środowiskach wymagających wysokiego poziomu bezpieczeństwa zaleca się włączenie filtrowania adresów MAC jako dodatkowy środek kontroli dostępu obok innych metod takich jak WPA3 czy uwierzytelnianie użytkowników przez serwery RADIUS. Filtrowanie adresów MAC można łatwo skonfigurować w panelu administracyjnym routera co pozwala na precyzyjne kontrolowanie które urządzenia mogą łączyć się z siecią.

Pytanie 38

Umożliwienie stacjom roboczym Windows, OS X oraz Linux korzystania z usług drukowania Linuxa i serwera plików zapewnia serwer

A. APACHE
B. POSTFIX
C. SAMBA
D. SQUID
SAMBA to otwarte oprogramowanie, które implementuje protokół SMB/CIFS, umożliwiając współdzielenie plików oraz drukowanie pomiędzy systemami Linux i Unix a klientami Windows oraz Mac OS X. Dzięki SAMBA można zintegrować różnorodne systemy operacyjne w jedną, spójną sieć, co jest kluczowe w środowiskach mieszanych. Przykładem zastosowania SAMBA może być sytuacja, w której dział IT w firmie chce, aby pracownicy korzystający z komputerów z Windows mogli łatwo uzyskiwać dostęp do katalogów i drukarek, które są fizycznie podłączone do serwera z systemem Linux. W kontekście dobrych praktyk, SAMBA zapewnia również mechanizmy autoryzacji i uwierzytelniania, co jest zgodne z zasadami zabezpieczania danych i zarządzania dostępem. Dodatkowo, SAMBA wspiera integrację z Active Directory, co umożliwia centralne zarządzanie użytkownikami i zasobami. Warto również zauważyć, że SAMBA jest szeroko stosowana w wielu organizacjach, co potwierdza jej stabilność, wsparcie społeczności i ciągły rozwój.

Pytanie 39

Nazwa licencji oprogramowania komputerowego, które jest dystrybuowane bezpłatnie, lecz z ograniczoną przez twórcę funkcjonalnością w porównaniu do pełnej, płatnej wersji, gdzie po upływie 30 dni zaczynają się wyświetlać reklamy oraz przypomnienia o konieczności rejestracji, to

A. adware
B. GNU-GPL
C. liteware
D. OEM
Odpowiedzi, które nie są poprawne, odnoszą się do różnych typów licencji i modeli dystrybucji oprogramowania. OEM, czyli Original Equipment Manufacturer, to licencja, która jest często stosowana przez producentów sprzętu komputerowego. Tego typu oprogramowanie jest sprzedawane wraz z nowymi komputerami i ma ograniczone prawo do przenoszenia między urządzeniami, co czyni je nieodpowiednim kontekstem dla opisanego przypadku, gdzie mamy do czynienia z aplikacją, którą można testować za darmo przed zakupem pełnej wersji. Adware to oprogramowanie, które wyświetla reklamy na ekranie użytkownika, często bez jego zgody. Choć może być związane z modelami freemium lub liteware, adware generalnie nie ma ograniczonej funkcjonalności przed wystąpieniem reklam, co czyni je mniej adekwatnym terminem w tym kontekście. GNU-GPL to z kolei licencja open source, która pozwala na dowolne użytkowanie, modyfikowanie i dystrybucję oprogramowania, co również nie pasuje do opisanego modelu liteware, który wymaga rejestracji po upływie terminu próbnego. Zrozumienie tych różnic jest kluczowe, aby skutecznie poruszać się w środowisku licencji i modeli dystrybucji oprogramowania, co jest istotne dla każdego profesjonalisty w branży IT.

Pytanie 40

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. wybraniem pliku z obrazem dysku.
B. dodaniem drugiego dysku twardego.
C. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
D. konfigurowaniem adresu karty sieciowej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.