Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 5 maja 2026 10:31
  • Data zakończenia: 5 maja 2026 10:37

Egzamin zdany!

Wynik: 27/40 punktów (67,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Narzędziem do zarządzania usługami katalogowymi w systemach Windows Server, które umożliwia przeniesienie komputerów do jednostki organizacyjnej wskazanej przez administratora, jest polecenie

A. dsrm
B. dcdiag
C. redirusr
D. redircmp
Wybór dcdiag, dsrm lub redirusr jako narzędzi do przekierowywania komputerów do jednostek organizacyjnych w Active Directory jest błędny z kilku powodów. Narzędzie dcdiag służy do diagnostyki i analizowania stanu kontrolerów domeny, a nie do zarządzania jednostkami organizacyjnymi. Jego funkcjonalność koncentruje się na sprawdzaniu zdrowia systemu Active Directory oraz identyfikacji problemów, co czyni je użytecznym, ale nie w kontekście przekierowywania komputerów. Z kolei dsrm, które jest używane do usuwania obiektów z Active Directory, również nie ma funkcji związanych z automatycznym przypisywaniem komputerów do OU. Użycie tego polecenia do tego celu byłoby nie tylko niewłaściwe, ale także mogłoby prowadzić do utraty ważnych danych. Redirusr, z drugiej strony, służy do przekierowywania kont użytkowników do odpowiednich jednostek organizacyjnych, co pokazuje jego ograniczenie w kontekście komputerów. Typowym błędem w myśleniu, który prowadzi do wyboru tych opcji, jest mylne utożsamienie różnych funkcji narzędzi Active Directory. Kluczowe jest zrozumienie, że organizacja zasobów w Active Directory wymaga precyzyjnego i dobrze zrozumiałego zastosowania odpowiednich narzędzi i poleceń, aby zachować porządek i bezpieczeństwo w infrastrukturze IT.

Pytanie 2

Gdzie w systemie Linux umieszczane są pliki specjalne urządzeń, które są tworzone podczas instalacji sterowników?

A. /proc
B. /dev
C. /sbin
D. /var
Katalog /dev w Linuxie to takie miejsce, gdzie trzymamy pliki specjalne, które reprezentują różne urządzenia w systemie. Jak się instaluje sterowniki, to te pliki się tworzą, żeby system mógł rozmawiać z hardware'em. Na przykład, plik /dev/sda to pierwszy dysk twardy w systemie. To dość ciekawe, jak w Unixie wszystko traktuje się jak plik - nawet urządzenia. Warto regularnie sprawdzać, co w /dev siedzi, żeby być pewnym, że wszystko działa jak należy. A w systemach takich jak systemd pliki w tym katalogu mogą się tworzyć lub znikać samoczynnie, więc warto mieć to na oku.

Pytanie 3

Ilustracja pokazuje panel ustawień bezprzewodowego urządzenia dostępowego, który umożliwia

Ilustracja do pytania
A. konfigurację serwera DHCP
B. ustawienie nazwy hosta
C. określenie maski podsieci
D. przypisanie adresów MAC do kart sieciowych
Konfiguracja serwera DHCP na panelu konfiguracyjnym bezprzewodowego urządzenia dostępowego jest kluczowym krokiem w zarządzaniu siecią. DHCP, czyli Dynamic Host Configuration Protocol, automatycznie przydziela adresy IP urządzeniom w sieci, co upraszcza procesy administracyjne i zmniejsza ryzyko konfliktów adresów IP. W panelu konfiguracyjnym można ustawić początkowy adres IP, co pozwala na zdefiniowanie zakresu adresów, które będą przydzielane klientom. Można też określić maksymalną liczbę użytkowników DHCP, co zapewnia kontrolę nad zasobami sieciowymi. Ustawienia te są kluczowe w sieciach zarówno domowych, jak i korporacyjnych, gdzie automatyzacja przydzielania adresów IP oszczędza czas administratorów. Dobre praktyki zalecają również ustawienie czasu dzierżawy, co wpływa na to, jak długo dany adres IP pozostaje przypisany do urządzenia. Praktyczne zastosowanie tego polega na unikaniu ręcznego przydzielania adresów IP, co w przypadku dużych sieci jest czasochłonne i podatne na błędy. Serwery DHCP są integralnym elementem nowoczesnych sieci, a ich konfiguracja według najlepszych praktyk zwiększa efektywność i niezawodność połączeń sieciowych

Pytanie 4

Program Mozilla Firefox jest udostępniany na zasadach licencji

A. Liteware
B. OEM
C. GNU MPL
D. MOLP
Mozilla Firefox działa na licencji GNU MPL, co oznacza, że jest to tak zwane oprogramowanie open source. Dzięki temu użytkownicy mogą z niego korzystać, zmieniać go i dzielić się swoimi modyfikacjami z innymi. To sprzyja innowacjom i współpracy wśród programistów. Na przykład, każdy może dostosować przeglądarkę do swoich potrzeb, a programiści na całym świecie mogą dodawać nowe funkcje. Licencja GNU MPL wspiera zasady wolnego oprogramowania, więc wszyscy mają szansę przyczynić się do jej rozwoju, ale ważne, by wszelkie zmiany były udostępniane na takich samych zasadach. Dzięki temu mamy większą przejrzystość, bezpieczeństwo i zaufanie do kodu, co jest kluczowe, zwłaszcza w aplikacjach internetowych, które muszą dbać o prywatność i dane użytkowników. Używanie oprogramowania na licencji GNU MPL jest po prostu dobrą praktyką w branży IT, bo pozwala na tworzenie lepszych i bardziej elastycznych rozwiązań.

Pytanie 5

Zgodnie z normą PN-EN 50174, okablowanie poziome w systemie okablowania strukturalnego to segment okablowania pomiędzy

A. gniazdkiem użytkownika a terminalem końcowym
B. punktami rozdzielczymi w głównych pionach budynku
C. punktem rozdzielczym a gniazdem użytkownika
D. serwerem a szkieletem sieci
Zgodnie z normą PN-EN 50174, okablowanie poziome w systemie okablowania strukturalnego odnosi się do połączeń pomiędzy punktem rozdzielczym a gniazdem użytkownika. Jest to kluczowa część infrastruktury sieciowej, ponieważ to właśnie przez tę część okablowania sygnał trafia do końcowych urządzeń użytkowników, takich jak komputery, telefony czy inne urządzenia sieciowe. W praktyce oznacza to, że projektując system okablowania, inżynierowie muszą dokładnie zaplanować trasę kabli oraz ich rodzaj, aby zapewnić optymalne parametry transmisji danych, minimalizując jednocześnie zakłócenia. Okablowanie poziome powinno spełniać określone normy dotyczące długości kabli, ich jakości oraz ochrony przed zakłóceniami elektromagnetycznymi. Warto również pamiętać o standardach instalacji, takich jak ISO/IEC 11801, które korespondują z PN-EN 50174, co pozwala na uzyskanie wysokiej jakości i niezawodności systemów sieciowych.

Pytanie 6

Ataki na systemy komputerowe, które odbywają się poprzez podstępne pozyskiwanie od użytkowników ich danych osobowych, często wykorzystywane są w postaci fałszywych komunikatów z różnych instytucji lub od dostawców usług e-płatności i innych znanych organizacji, to

A. phishing
B. brute force
C. SYN flooding
D. DDoS
Phishing to technika oszustwa internetowego, która ma na celu wyłudzenie poufnych informacji, takich jak hasła czy dane osobowe, poprzez podszywanie się pod zaufane instytucje. Atakujący często stosują fałszywe e-maile lub strony internetowe, które wyglądają na autentyczne. Na przykład, użytkownik może otrzymać e-mail rzekomo od banku, w którym znajduje się link do strony, która imituje stronę logowania. Kliknięcie w ten link może prowadzić do wprowadzenia danych logowania na nieautoryzowanej stronie, co skutkuje ich przejęciem przez cyberprzestępców. Aby zabezpieczyć się przed phishingiem, należy stosować dobre praktyki, takie jak sprawdzanie adresu URL przed wprowadzeniem danych oraz korzystanie z dwuskładnikowej autoryzacji. Znajomość tej techniki jest kluczowa w kontekście ochrony danych osobowych i bezpieczeństwa transakcji online, a organizacje powinny regularnie szkolić swoich pracowników w zakresie rozpoznawania i reagowania na takie zagrożenia.

Pytanie 7

W jakim systemie numerycznym przedstawione są zakresy We/Wy na ilustracji?

Ilustracja do pytania
A. Ósemkowym
B. Binarnym
C. Szesnastkowym
D. Dziesiętnym
Rozważając system binarny, warto zauważyć, że chociaż jest on fundamentalny dla samego działania komputerów, nie jest praktyczny do bezpośredniego użycia w zarządzaniu zasobami systemowymi ze względu na swoją długość i złożoność. System binarny składa się tylko z dwóch cyfr, 0 i 1, przez co reprezentacja dużych liczb wymaga wielu cyfr, co zwiększa ryzyko błędów przy ręcznym ich przetwarzaniu i odczycie. System ósemkowy, również oparty na potęgach liczby 2, nie jest powszechnie używany w kontekście zarządzania zasobami systemowymi. Choć historycznie miał swoje zastosowania, obecnie jego użycie jest ograniczone, ponieważ system szesnastkowy jest bardziej efektywny i zrozumiały dla specjalistów IT. System dziesiętny, najbardziej intuicyjny dla ludzi, ze względu na swoje szerokie zastosowanie w codziennym życiu, nie jest efektywny w kontekście sprzętu komputerowego. Komputery operują na bazie dwójkowej, więc naturalnym wyborem jest system szesnastkowy, który jest bardziej zwięzły i łatwiejszy do konwersji z systemu binarnego. Koncepcja użycia systemu dziesiętnego w zarządzaniu zasobami sprzętowymi jest błędna, ponieważ nie odzwierciedla rzeczywistego sposobu ich reprezentacji i adresowania w systemach operacyjnych. Decyzja o użyciu systemu szesnastkowego w informatyce wynika z jego efektywności i praktyczności w zarządzaniu i diagnozowaniu technologii komputerowych, co czyni go standardem branżowym w tym obszarze. Poprawne rozumienie i zastosowanie odpowiednich systemów liczbowych jest kluczowe dla skutecznego zarządzania systemami komputerowymi i urządzeniami peryferyjnymi.

Pytanie 8

Na ilustracji pokazano tylną część panelu

Ilustracja do pytania
A. modemu
B. mostu
C. koncentratora
D. routera
Tylna część urządzenia przedstawiona na rysunku to router co jest rozpoznawalne po charakterystycznych portach Ethernet oznaczonych jako WAN i LAN Routery pełnią kluczową rolę w sieciach komputerowych umożliwiając połączenie różnych urządzeń i zarządzanie ruchem sieciowym Port WAN służy do podłączenia do sieci szerokopasmowej takiej jak internet i jest zazwyczaj połączony z modemem lub innym urządzeniem dostępowym Z kolei porty LAN są używane do połączenia lokalnych urządzeń w sieci takich jak komputery drukarki czy inne urządzenia sieciowe Współczesne routery często oferują dodatkowe funkcje takie jak obsługa sieci Wi-Fi firewall VPN i QoS co umożliwia lepsze zarządzanie przepustowością i bezpieczeństwem sieci Routery są zgodne ze standardami IEEE 802.11 co zapewnia interoperacyjność między różnymi urządzeniami Dostępne porty USB umożliwiają podłączenie urządzeń peryferyjnych takich jak dyski twarde drukarki co rozszerza funkcjonalność sieci domowej Routery są powszechnie stosowane zarówno w sieciach domowych jak i w małych oraz średnich przedsiębiorstwach umożliwiając efektywne zarządzanie ruchem danych i bezpieczeństwem sieci

Pytanie 9

Wskaż usługę, którą należy skonfigurować na serwerze aby blokować ruch sieciowy?

A. Zarządca SMNP.
B. IIS
C. Zapora sieciowa.
D. DNS
Prawidłowo – aby blokować ruch sieciowy na serwerze, konfigurujemy zaporę sieciową (firewall). To właśnie firewall decyduje, które pakiety sieciowe są przepuszczane, a które odrzucane, na podstawie zdefiniowanych reguł. Można filtrować ruch po adresach IP, portach, protokołach (TCP/UDP/ICMP), kierunku (ruch przychodzący/wychodzący), a nawet po aplikacjach. W praktyce administracji serwerami to jedno z absolutnie podstawowych narzędzi bezpieczeństwa. W systemach Windows rolę tę pełni „Zapora systemu Windows z zabezpieczeniami zaawansowanymi” albo firewall wbudowany w rozwiązania typu Windows Server, często zarządzany przez zasady grup (GPO). W Linuksie najczęściej używa się iptables, nftables, firewalld czy ufw. Niezależnie od konkretnego narzędzia, idea zawsze jest ta sama: domyślnie zamykamy wszystko, a otwieramy tylko to, co jest naprawdę potrzebne (np. port 80/443 dla serwera WWW, 22 dla SSH, 3389 dla RDP). To jest taka podstawowa dobra praktyka – zasada najmniejszych uprawnień, ale w kontekście ruchu sieciowego. W środowiskach produkcyjnych zapora sieciowa bywa warstwowa: mamy firewalle sprzętowe na brzegu sieci (np. w routerach, UTM-ach) oraz lokalne zapory programowe na każdym serwerze. Moim zdaniem sensownie skonfigurowany firewall to jedna z najskuteczniejszych i najtańszych form ochrony – chroni przed skanowaniem portów, prostymi atakami z zewnątrz, ogranicza skutki przejęcia jednego hosta, bo nie pozwala mu swobodnie gadać z całą resztą sieci. Standardy bezpieczeństwa, takie jak dobre praktyki CIS Benchmarks czy wytyczne OWASP, wyraźnie wskazują na konieczność stosowania filtracji ruchu sieciowego i separacji usług właśnie poprzez zapory. W codziennej pracy administratora konfiguracja firewall’a to chleb powszedni przy wystawianiu nowych serwerów do sieci lokalnej lub Internetu.

Pytanie 10

Aby skaner działał prawidłowo, co należy zrobić?

A. smarować łożyska wentylatorów chłodzenia jednostki centralnej
B. nie wkładać kartek z zszywkami do podajnika urządzenia, jeśli jest automatyczny
C. posiadać zainstalowany program antywirusowy w systemie
D. sprawdzać temperaturę podzespołów komputera
Wybór odpowiedzi dotyczącej nie wkładania kartek ze zszywkami do podajnika automatycznego skanera jest kluczowy dla zapewnienia właściwego funkcjonowania tego urządzenia. Zszywki mogą powodować zacięcia i uszkodzenia mechaniczne, co prowadzi do problemów z wydajnością oraz zwiększa koszty serwisowania. W standardach branżowych zaleca się używanie papieru wolnego od zszywek, ponieważ większość skanerów, szczególnie te z automatycznymi podajnikami, nie jest przystosowanych do obsługi dokumentów z metalowymi elementami. Praktycznym przykładem jest sytuacja, gdy użytkownik skanuje dokumenty biurowe - wprowadzenie kartek ze zszywkami może spowodować awarię, która wymaga czasochłonnej naprawy. Dobrą praktyką jest również regularne przeszkolenie personelu z zasad prawidłowego użytkowania sprzętu, co znacząco wpływa na jego żywotność i efektywność.

Pytanie 11

Kiedy adres IP komputera ma formę 176.16.50.10/26, to jakie będą adres rozgłoszeniowy oraz maksymalna liczba hostów w danej sieci?

A. 176.16.50.36; 6 hostów
B. 176.16.50.62; 63 hosty
C. 176.16.50.63; 62 hosty
D. 176.16.50.1; 26 hostów
Odpowiedź 176.16.50.63; 62 hosty jest jak najbardziej trafna. Żeby ogarnąć adres rozgłoszeniowy i maksymalną liczbę hostów w sieci, trzeba się przyjrzeć masce podsieci. W tym przypadku mamy maskę /26, co znaczy, że 26 bitów jest zajętych na identyfikację sieci, a 6 bitów zostaje dla hostów. Można to obliczyć tak: 2 do potęgi n, minus 2, gdzie n to liczba bitów dla hostów. Dla 6 bitów wychodzi 2^6 - 2, czyli 64 - 2, co daje nam 62 hosty. Adres rozgłoszeniowy uzyskujemy ustawiając wszystkie bity hostów na 1. Więc w naszej sieci, z adresem IP 176.16.50.10 i maską /26, mamy zakres od 176.16.50.0 do 176.16.50.63, co wskazuje, że adres rozgłoszeniowy to 176.16.50.63. Te obliczenia to podstawa w projektowaniu sieci komputerowych, więc dobrze, że się z tym zapoznałeś!

Pytanie 12

Przedstawiony na ilustracji symbol oznacza

Ilustracja do pytania
A. koncentrator.
B. punkt dostępowy.
C. ruter bezprzewodowy.
D. przełącznik.
Symbol przedstawiony na ilustracji to klasyczny, podręcznikowy znak rutera bezprzewodowego, bardzo zbliżony do ikon używanych w materiałach Cisco czy w dokumentacji projektowej sieci. Charakterystyczny jest okrągły kształt z trzema strzałkami wskazującymi różne kierunki – to właśnie graficzne odwzorowanie funkcji rutowania, czyli przekazywania pakietów między różnymi sieciami. W wersji bezprzewodowej taki ruter zazwyczaj łączy w sobie kilka funkcji: jest bramą do Internetu (gateway), pełni rolę punktu dostępowego Wi‑Fi (AP), często ma wbudowany przełącznik Ethernet (switch) dla kilku portów LAN, a do tego realizuje NAT, DHCP i podstawowe funkcje firewall. W praktyce, w domu lub małym biurze, gdy mówimy „router Wi‑Fi”, mamy na myśli właśnie takie wielofunkcyjne urządzenie, które zapewnia zarówno łączność przewodową, jak i bezprzewodową. Od strony standardów warto kojarzyć, że część bezprzewodowa opiera się na normach IEEE 802.11 (np. 802.11n/ac/ax), natomiast samo rutowanie pakietów odbywa się na trzeciej warstwie modelu OSI (warstwa sieciowa), z użyciem protokołu IP. Moim zdaniem dobrze jest od początku odróżniać ruter od przełącznika i punktu dostępowego, mimo że w praktyce w jednym pudełku mamy wszystko naraz – na schematach i egzaminach te ikony reprezentują konkretne role w sieci, a nie marketingową nazwę urządzenia z marketu. W dobrych praktykach projektowania sieci przyjmuje się, że ruter wyznacza granicę między sieciami (np. LAN a Internetem), segmentuje ruch i może realizować zaawansowane polityki QoS, filtrowanie pakietów, tunelowanie VPN czy dynamiczne protokoły routingu. Dlatego poprawne rozpoznanie symbolu rutera to podstawa do czytania diagramów sieciowych i rozumienia, którędy faktycznie „płynie” ruch w sieci.

Pytanie 13

Które z wymienionych mediów nie jest odpowiednie do przesyłania danych teleinformatycznych?

A. sieć15KV
B. światłowód
C. skrętka
D. sieć 230V
Sieć 15KV jest niewłaściwym medium do przesyłania danych teleinformatycznych, ponieważ jest to sieć wysokiego napięcia, której głównym celem jest transport energii elektrycznej, a nie danych. Wysokie napięcie używane w takich sieciach stwarza poważne zagrożenia dla urządzeń teleinformatycznych, a także dla ludzi. W przeciwieństwie do tego, światłowód, skrętka czy inne medium stosowane w telekomunikacji są projektowane z myślą o przesyłaniu informacji. Światłowody oferują wysoką przepustowość i są odporne na zakłócenia elektromagnetyczne, co czyni je idealnym rozwiązaniem dla nowoczesnych sieci. Skrętka, z kolei, jest popularnym medium w lokalnych sieciach komputerowych, a jej konstrukcja minimalizuje wpływ zakłóceń. W przypadku sieci 15KV, brak odpowiednich protokołów i standardów dla transmisji danych oznacza, że nie może ona być stosowana do przesyłania informacji. Przykładem dobrego rozwiązania teleinformatycznego są sieci LAN, które wykorzystują skrętkę i światłowody zgodnie z normami IEEE 802.3, co gwarantuje ich wydajność i bezpieczeństwo.

Pytanie 14

Thunderbolt to interfejs:

A. równoległy, asynchroniczny i przewodowy.
B. szeregowy, asynchroniczny i bezprzewodowy.
C. szeregowy, dwukanałowy, dwukierunkowy i przewodowy.
D. równoległy, dwukanałowy, dwukierunkowy i bezprzewodowy.
Thunderbolt to zdecydowanie jeden z najciekawszych interfejsów, jakie pojawiły się w ostatnich latach w sprzęcie komputerowym – moim zdaniem wciąż trochę niedoceniany przez zwykłych użytkowników. Technicznie rzecz biorąc, Thunderbolt jest interfejsem szeregowym, co oznacza, że dane przesyłane są jednym strumieniem, a nie wieloma równoległymi liniami jak np. w dawnych portach drukarkowych. Do tego dochodzi dwukierunkowość – czyli dane mogą być wysyłane i odbierane jednocześnie (full duplex), co jest szczególnie ważne przy pracy z profesjonalnymi urządzeniami audio/wideo czy zewnętrznymi dyskami SSD, gdzie transfer musi być szybki i niezawodny. No i ta przewodowość – Thunderbolt korzysta z kabli, żeby zapewnić odpowiednią przepustowość i stabilność, a jednocześnie eliminuje opóźnienia typowe dla rozwiązań bezprzewodowych. W praktyce, to właśnie dzięki tej technologii możliwe jest np. podłączenie kilku monitorów 4K albo stacji dokującej do jednego laptopa za pomocą pojedynczego kabla. Thunderbolt opiera się na standardach opracowywanych wspólnie przez Intela i Apple, a obecnie trwają prace nad wersją Thunderbolt 5, która jeszcze bardziej zwiększa szybkość i liczbę obsługiwanych kanałów. Niezłe jest też to, że Thunderbolt obsługuje protokoły PCI Express i DisplayPort, więc daje ogromną elastyczność. Dla mnie to taki swiss army knife w świecie złącz komputerowych.

Pytanie 15

Jakie urządzenie należy wykorzystać w sieci Ethernet, aby zredukować liczbę kolizji pakietów?

A. Regenerator
B. Bramkę VoIP
C. Koncentrator
D. Przełącznik
Przełącznik (switch) to urządzenie sieciowe, które działa na poziomie drugiego poziomu modelu OSI (warstwa łącza danych) i ma za zadanie przekazywanie ramek danych między różnymi urządzeniami w sieci Ethernet. Główną zaletą przełączników jest ich zdolność do tworzenia osobnych domen kolizji. Oznacza to, że każdy port przełącznika może działać jako odrębny kanał komunikacyjny, co znacznie minimalizuje ryzyko kolizji pakietów. Dzięki temu, w sieciach z dużym ruchem, przełączniki umożliwiają równoczesne przesyłanie danych przez wiele urządzeń bez zakłóceń. Przełączniki wykorzystują adresy MAC do zarządzania ruchem, co pozwala na efektywne kierowanie danych do odpowiednich odbiorców. W praktyce, wdrożenie przełączników w sieciach lokalnych (LAN) jest standardową praktyką, a ich użycie jest zgodne z normami IEEE 802.3, które definiują standardy dla Ethernetu. Używając przełączników, administratorzy sieci mogą nie tylko zwiększyć wydajność sieci, ale także uprościć zarządzanie ruchem i poprawić bezpieczeństwo poprzez segmentację sieci.

Pytanie 16

Jakie złącze, które pozwala na podłączenie monitora, znajduje się na karcie graficznej pokazanej na ilustracji?

Ilustracja do pytania
A. DVI-I, HDMI, S-VIDEO
B. DVI-D (Single Link), DP, HDMI
C. DVI-D (Dual Link), HDMI, DP
D. DVI-A, S-VIDEO, DP
Odpowiedź DVI-D (Dual Link) HDMI DP jest trafna. Na karcie graficznej, którą widzimy, są te złącza, a to są te, które najczęściej spotkasz w nowoczesnych monitorach. DVI-D (Dual Link) to cyfrowe złącze, które pozwala na wyższe rozdzielczości, nawet do 2560x1600 pikseli. To jest mega ważne w branży, gdzie jakość obrazu się liczy. HDMI za to to uniwersalne złącze, które przesyła zarówno obraz, jak i dźwięk, więc sprawdza się świetnie w zastosowaniach multimedialnych. To standard, który znajdziesz w telewizorach, monitorach, a nawet projektorach. A DisplayPort, czyli DP, to nowoczesne złącze, które również obsługuje dźwięk oraz dodatkowe funkcje, jak łączenie kilku monitorów. Co ciekawe, DP jest szybsze od HDMI, co jest ważne, gdy mówimy o ultra wysokich rozdzielczościach. Dlatego te złącza - DVI-D (Dual Link), HDMI i DP - dają dużą elastyczność w podłączaniu różnych monitorów i są zgodne z tym, co się aktualnie dzieje w technologiach IT.

Pytanie 17

W systemie Windows, po dezaktywacji domyślnego konta administratora i ponownym uruchomieniu komputera

A. jest dostępne po starcie systemu w trybie awaryjnym
B. nie umożliwia zmiany hasła do konta
C. pozwala na uruchamianie niektórych usług z tego konta
D. jest niedostępne, gdy system włączy się w trybie awaryjnym
Domyślne konto administratora w systemie Windows, nawet po jego dezaktywacji, pozostaje dostępne w trybie awaryjnym. Tryb ten jest przeznaczony do rozwiązywania problemów, co oznacza, że system ładuje minimalną ilość sterowników i usług. W tym kontekście konto administratora staje się dostępne, co umożliwia użytkownikowi przeprowadzenie diagnozowania i naprawy systemu. Przykładowo, jeśli pojawią się problemy z systemem operacyjnym, użytkownik może uruchomić komputer w trybie awaryjnym i uzyskać dostęp do konta administratora, co pozwala na usunięcie złośliwego oprogramowania czy naprawę uszkodzonych plików systemowych. Dobrą praktyką jest, aby administratorzy byli świadomi, że konto to jest dostępne w trybie awaryjnym, a tym samym powinni podejmować odpowiednie środki bezpieczeństwa, takie jak silne hasła czy zabezpieczenia fizyczne komputera. Warto również zauważyć, że w niektórych konfiguracjach systemowych konto administratora może być widoczne nawet wtedy, gdy zostało wyłączone w normalnym trybie pracy. Dlatego dbanie o bezpieczeństwo konta administratora jest kluczowe w zarządzaniu systemami Windows.

Pytanie 18

Aby zmienić istniejące konto użytkownika przy użyciu polecenia net user oraz wymusić reset hasła po kolejnej sesji logowania użytkownika, jaki parametr należy dodać do tego polecenia?

A. logonpasswordchg
B. expirespassword
C. passwordchg
D. passwordreq
Parametr logonpasswordchg w poleceniu net user służy do wymuszenia zmiany hasła użytkownika przy następnym logowaniu. Jest to kluczowy element zarządzania bezpieczeństwem kont w systemie Windows, ponieważ regularna zmiana haseł pomaga w ochronie przed nieautoryzowanym dostępem. W praktyce, aby wymusić zmianę hasła, administratorzy mogą używać polecenia w następujący sposób: net user nazwa_użytkownika /logonpasswordchg:yes. Taki sposób umożliwia nie tylko zabezpieczenie konta, ale również spełnia wymogi wielu organizacji dotyczące polityki haseł. Dobre praktyki w zakresie bezpieczeństwa informatycznego zalecają, aby użytkownicy zmieniali hasła co pewien czas, co zwiększa ogólny poziom bezpieczeństwa. Warto również pamiętać o stosowaniu złożonych haseł oraz korzystaniu z mechanizmów takich jak MFA (Multi-Factor Authentication), aby dodatkowo wzmocnić ochronę konta.

Pytanie 19

Ile adresów urządzeń w sieci jest dostępnych dzięki zastosowaniu klasy adresowej C w systemach opartych na protokołach TCP/IP?

A. 200
B. 100
C. 254
D. 256
Wybór 100 jako liczby dostępnych adresów w klasie C jest wynikiem nieporozumienia dotyczącego konstrukcji adresów IP. Klasa C nie ogranicza się tylko do 100 adresów, a zrozumienie, jak działa segmentacja adresów IP, jest kluczowe. Liczba 200 również nie ma podstaw, ponieważ po odjęciu adresów zarezerwowanych nie możemy uzyskać takiej liczby dostępnym adresów w tej klasie. Warto również zauważyć, że 256 to liczba teoretyczna, ale w rzeczywistości, ze względu na zarezerwowane adresy, dostępnych jest tylko 254. Typowe błędy myślowe, które prowadzą do tych nieprawidłowych odpowiedzi, to ignorowanie zarezerwowanych adresów oraz niewłaściwe zrozumienie podziału na segmenty sieciowe i hostów. Kluczowe jest zrozumienie, że adresy IP są zorganizowane w klasy, a każda klasa ma swoje zasady dotyczące rozdzielania adresów na część sieciową i część hosta. Dodatkowo, administracja siecią wymaga znajomości nie tylko liczby adresów, ale także ich efektywnego wykorzystania, co jest istotne w kontekście rozwoju Internetu oraz zarządzania adresami w organizacjach.

Pytanie 20

Jaką konfigurację sieciową może posiadać komputer, który należy do tej samej sieci LAN co komputer z adresem 192.168.1.10/24?

A. 192.168.1.11 i 255.255.0.0
B. 192.168.1.11 i 255.255.255.0
C. 192.168.0.11 i 255.255.255.0
D. 192.168.0.11 i 255.255.0.0
Adres IP 192.168.1.11 z maską 255.255.255.0 jest całkiem nieźle skonfigurowany. Działa, bo oba komputery są w tej samej podsieci, co znaczy, że mają wspólną część adresu. W przypadku tej maski, pierwsze trzy oktety (czyli 192.168.1) identyfikują sieć, a ostatni oktet (11) to jakby numer konkretnego komputera w tej sieci. Czyli można powiedzieć, że komputery z adresami w zakresie od 192.168.1.1 do 192.168.1.254 mogą się dogadać bez potrzeby używania routera, co jest dość ważne dla wydajności w lokalnych sieciach. Pamiętaj, żeby unikać konfliktów adresów, bo w tej samej podsieci każdy komp musi mieć unikalny adres IP. Maski podsieci, jak ta, są popularne w małych sieciach i ułatwiają konfigurację, więc to dobry wybór.

Pytanie 21

Ile punktów abonenckich (2 x RJ45) powinno być zainstalowanych w biurze o powierzchni 49 m2, zgodnie z normą PN-EN 50167?

A. 4
B. 5
C. 9
D. 1
Zgodnie z normą PN-EN 50167, w pomieszczeniu biurowym o powierzchni 49 m2 zaleca się zapewnienie pięciu punktów abonenckich 2 x RJ45. Odpowiednia ilość punktów abonenckich jest kluczowa dla zapewnienia wydajnej komunikacji sieciowej oraz dostępu do Internetu. W praktyce, każdy punkt abonencki powinien obsługiwać konkretne urządzenia, takie jak komputery, drukarki czy telefony IP. Przyjmując ogólną zasadę, że na każde 10 m2 powierzchni biurowej powinien przypadać przynajmniej jeden punkt abonencki, w przypadku 49 m2, można obliczyć zapotrzebowanie na 4,9 punktów, co zaokrąglone daje 5 punktów. Takie podejście nie tylko zwiększa komfort pracy w biurze, ale również uwzględnia możliwe przyszłe rozszerzenia infrastruktury sieciowej. Warto również zwrócić uwagę, że w przestrzeniach biurowych, gdzie może występować większa liczba użytkowników, komponenty sieciowe muszą być dostosowane do większego obciążenia, co potwierdza zasadność ustalonej liczby punktów abonenckich.

Pytanie 22

Do czego służy program firewall?

A. ochrony dysku przed przepełnieniem
B. zabezpieczenia systemu przed błędnymi aplikacjami
C. zapobiegania przeciążeniu procesora przez system
D. ochrony sieci LAN oraz systemów przed intruzami
Firewall, lub zapora sieciowa, to kluczowy element zabezpieczeń, który chroni sieci LAN oraz systemy przed nieautoryzowanym dostępem i atakami intruzów. Pełni on funkcję filtrowania ruchu sieciowego, analizując pakiety danych, które przychodzą i wychodzą z sieci. Dzięki regułom skonfigurowanym przez administratorów, firewall może blokować niebezpieczne połączenia oraz zezwalać na ruch zgodny z politykami bezpieczeństwa. Przykładem zastosowania firewallu może być jego użycie w przedsiębiorstwie, gdzie zabezpiecza on wewnętrzną sieć przed atakami z zewnątrz, takimi jak skanowania portów czy ataki DDoS. Istnieją różne typy firewalli, w tym zapory sprzętowe oraz programowe, które są stosowane w zależności od potrzeb organizacji. Dobre praktyki w zarządzaniu firewallami obejmują regularne aktualizacje reguł, monitorowanie logów oraz audyty bezpieczeństwa, aby zminimalizować ryzyko nieautoryzowanego dostępu. W kontekście rosnących zagrożeń w cyberprzestrzeni, odpowiednia konfiguracja i utrzymanie firewalli jest niezbędne dla zapewnienia integralności i poufności danych.

Pytanie 23

Jakie protokoły przesyłają cykliczne kopie tablic routingu do sąsiadującego rutera i NIE ZAWIERAJĄ pełnych informacji o dalekich ruterach?

A. RIP, IGRP
B. EGP, BGP
C. EIGRP, OSPF
D. OSPF, RIP
Wybór protokołów RIP (Routing Information Protocol) i IGRP (Interior Gateway Routing Protocol) jako odpowiedzi nie jest prawidłowy ze względu na różnice w sposobie wymiany informacji o routingu. RIP jest protokołem wektora odległości, który działa na zasadzie cyklicznego przesyłania pełnych tablic routingu co 30 sekund. Chociaż jest prosty w implementacji, jego architektura nie pozwala na efektywne przekazywanie tylko zmienionych informacji, co prowadzi do znacznego obciążenia sieci. IGRP, pomimo że jest bardziej zaawansowanym protokołem, również opiera się na przesyłaniu pełnych informacji o tablicach routingu, co czyni go mniej odpowiednim w kontekście efektywności. Z kolei OSPF i EIGRP, które są w stanie działać w bardziej dynamicznych środowiskach, wykorzystują techniki przesyłania zaktualizowanych informacji o stanie łączy i metrykach, co prowadzi do lepszej optymalizacji tras w sieci. Wybór EGP (Exterior Gateway Protocol) oraz BGP (Border Gateway Protocol) również nie jest poprawny, ponieważ te protokoły są zaprojektowane do działania na granicach systemów autonomicznych i nie stosują mechanizmu okresowego przesyłania tablic rutingu. Często błędne rozumienie różnic między protokołami wewnętrznymi, a zewnętrznymi prowadzi do nieporozumień w ich zastosowaniu. Kluczowe jest zrozumienie, że efektywność routingu w dużych sieciach zależy nie tylko od wyboru protokołu, ale również od jego odpowiedniej konfiguracji i implementacji zgodnie z potrzebami danej infrastruktury.

Pytanie 24

Cechą oprogramowania służącego do monitorowania zdarzeń metodą Out-Of-Band w urządzeniach sieciowych jest  

A. wykorzystanie do przesyłania komunikatów tej samej sieci, którą przesyłane są dane.
B. wykorzystanie do przesyłania komunikatów alternatywnej sieci, działającej niezależnie.
C. brak możliwości rozwiązania problemów w przypadku awarii sieci monitorowanej.          
D. niższa cena w porównaniu do oprogramowania monitorującego metodą In-Band.   
Prawidłowo wskazana cecha idealnie oddaje sens monitoringu Out-of-Band. W tej metodzie oprogramowanie nadzorujące urządzenia sieciowe korzysta z zupełnie oddzielnej, alternatywnej sieci komunikacyjnej, która działa niezależnie od sieci produkcyjnej, po której chodzą normalne dane użytkowników. Chodzi tu zwykle o osobną sieć zarządzającą: osobne porty konsolowe, porty zarządzające (np. Ethernet management), czasem osobne VLAN-y tylko do managementu albo nawet dedykowany modem LTE. Dzięki temu, nawet jeśli główna sieć ma awarię, jest zapętlona, przeciążona albo źle skonfigurowana, administrator nadal ma dostęp do przełączników, routerów czy firewalli i może je zdalnie diagnozować oraz naprawiać. Z mojego doświadczenia Out-of-Band to jedna z kluczowych dobrych praktyk w większych sieciach firmowych, data center czy u operatorów. Standardowo łączy się to z wykorzystaniem konsolowych serwerów terminali, osobnych switchy zarządzających i odseparowanych adresacji IP, często w połączeniu z VPN-em tylko do managementu. Takie rozwiązanie znacznie podnosi dostępność usług i zgodność z wymaganiami wysokiej niezawodności (HA) oraz zasadami bezpieczeństwa – np. odseparowanie płaszczyzny danych (data plane) od płaszczyzny zarządzania (management plane). W praktyce, jeśli np. ktoś źle skonfiguruje ACL na routerze i odetnie ruch w sieci produkcyjnej, przez Out-of-Band dalej możesz się na ten router zalogować i cofnąć zmiany. Właśnie ta niezależność kanału komunikacji jest najważniejszą, podręcznikową cechą monitoringu i zarządzania Out-of-Band.

Pytanie 25

Aby skutecznie zabezpieczyć system operacyjny przed atakami złośliwego oprogramowania, po zainstalowaniu programu antywirusowego konieczne jest

A. zainstalowanie dodatkowego programu antywirusowego dla zwiększenia bezpieczeństwa
B. aktualizowanie oprogramowania i baz wirusów oraz regularne skanowanie systemu
C. wykupienie licencji na oprogramowanie antywirusowe i korzystanie z programu chkdsk
D. niedostarczanie swojego hasła dostępowego oraz wykonywanie defragmentacji dysków twardych
Program antywirusowy jest kluczowym elementem ochrony systemu operacyjnego przed złośliwym oprogramowaniem. Po jego zainstalowaniu, niezwykle istotne jest regularne aktualizowanie zarówno samego programu, jak i baz wirusów. Aktualizacje dostarczają najnowsze definicje wirusów oraz poprawki, które mogą eliminować luki bezpieczeństwa. Bez tych aktualizacji, program może nie być w stanie zidentyfikować najnowszych zagrożeń. Ponadto, regularne skanowanie systemu pozwala na wczesne wykrywanie i neutralizowanie potencjalnych zagrożeń, co jest częścią proaktywnej strategii bezpieczeństwa. Dobrym przykładem jest korzystanie z harmonogramu zadań w systemach operacyjnych, co pozwala na automatyczne uruchamianie skanowania w wyznaczonych odstępach czasu. W ramach branżowych standardów ochrony danych, takich jak ISO/IEC 27001, regularne aktualizacje i skanowanie są zalecane jako najlepsze praktyki, które mogą znacznie zredukować ryzyko infekcji złośliwym oprogramowaniem i zachować integralność systemu.

Pytanie 26

Wtyczka (modularne złącze męskie) przedstawiona na rysunku stanowi zakończenie przewodu

Ilustracja do pytania
A. F/UTP
B. światłowodowego
C. U/UTP
D. koncentrycznego
Rozważając inne opcje, należy zrozumieć istotę złączy i ich zastosowanie w różnych typach kabli. Kable światłowodowe nie są zakończone złączami RJ-45, ponieważ używają innego typu złączy, takich jak SC czy LC, które są dostosowane do transmisji danych za pomocą światła. Kable koncentryczne, które są stosowane w telewizji kablowej i połączeniach antenowych, również nie używają złączy RJ-45; typowym złączem dla nich jest złącze typu F. Z kolei kable U/UTP, czyli Unshielded Twisted Pair, podobnie jak F/UTP mogą używać złączy RJ-45, ale brak ekranowania w kablach U/UTP sprawia, że są one bardziej podatne na zakłócenia elektromagnetyczne. W związku z tym, w miejscach o dużym natężeniu takich zakłóceń, używa się kabli F/UTP, które zapewniają dodatkową ochronę dzięki ekranowaniu. Typowym błędem jest mylenie rodzajów kabli i ich przeznaczenia, co prowadzi do niewłaściwego doboru komponentów sieciowych. Zrozumienie różnic między tymi technologiami jest kluczowe dla zapewnienia optymalnej wydajności i stabilności systemów teleinformatycznych. Dokonanie niewłaściwego wyboru może prowadzić do problemów z sygnałem i utratą danych, dlatego ważne jest, aby dobrze znać specyfikacje i zastosowanie każdego z rodzaju kabli i złączy.

Pytanie 27

W jednostce ALU w akumulatorze zapisano liczbę dziesiętną 500. Jaką ona ma binarną postać?

A. 110110000
B. 111110100
C. 111111101
D. 111011000
Błędne odpowiedzi mogą wynikać z niepoprawnych obliczeń lub błędnego zrozumienia systemów liczbowych. Na przykład, odpowiedź 111111101, która wydaje się być bliska, jest wynikiem przekształcenia liczby 509, a nie 500. Takie pomyłki mogą wystąpić, gdy osoby nie stosują odpowiednich kroków podczas konwersji. Inna odpowiedź, 111011000, odpowiada liczbie 448, co również jest wynikiem błędnego przeliczenia. Prawidłowy proces konwersji liczby dziesiętnej na binarną wymaga systematycznego podejścia, w którym każda reszta dzielenia ma kluczowe znaczenie. Niedostateczne zrozumienie tego procesu może prowadzić do typowych błędów myślowych, takich jak oszacowywanie wartości binarnych bez dokładnych obliczeń. Odpowiedź 110110000 reprezentuje liczbę 432, co pokazuje, jak łatwo można zjechać z właściwego toru, nie wykonując kroków obliczeniowych metodycznie. Aby uniknąć tych pomyłek, warto praktykować konwersje na prostych przykładach, co pozwoli na lepsze opanowanie tej umiejętności. Ponadto, zrozumienie, jak systemy binarne są wykorzystywane w komputerach, w tym pamięci i procesorach, ma fundamentalne znaczenie dla pracy w dziedzinie informatyki.

Pytanie 28

Czym jest OTDR?

A. reflektometr.
B. spawarka.
C. urządzenie światłowodowe dla przełącznika.
D. tester kabli miedzianych.
OTDR, czyli Optical Time Domain Reflectometer, to zaawansowane urządzenie służące do pomiaru i diagnostyki włókien optycznych. Jego główną funkcją jest wykrywanie i lokalizowanie strat sygnału oraz niedoskonałości w instalacjach światłowodowych. OTDR działa na zasadzie wysyłania impulsów światła przez włókno optyczne i analizowania powracającego sygnału, co pozwala na określenie odległości do miejsca wystąpienia problemu. Przykładowe zastosowanie OTDR obejmuje inspekcję i konserwację sieci telekomunikacyjnych oraz monitorowanie jakości połączeń światłowodowych. W branży telekomunikacyjnej, zgodnie z normami ITU-T G.650, OTDR jest niezbędnym narzędziem do zapewnienia optymalnej wydajności sieci. Dzięki precyzyjnym pomiarom użytkownik może szybko identyfikować problematyczne odcinki, co znacząco przyspiesza proces naprawy oraz minimalizuje przestoje w sieci. Warto również zwrócić uwagę, że wiele nowoczesnych OTDR oferuje funkcje automatycznej analizy danych, co ułatwia diagnozowanie oraz dokumentowanie wyników pomiarów.

Pytanie 29

AES (ang. Advanced Encryption Standard) to?

A. nie można go zaimplementować sprzętowo
B. nie może być używany do szyfrowania plików
C. jest poprzednikiem DES (ang. Data Encryption Standard)
D. wykorzystuje symetryczny algorytm szyfrujący
Pierwsza z niepoprawnych odpowiedzi sugeruje, że AES jest poprzednikiem DES (Data Encryption Standard). To stwierdzenie jest mylące, ponieważ AES nie jest bezpośrednim następcą DES, lecz zupełnie innym algorytmem, który powstał w odpowiedzi na ograniczenia DES, takie jak jego wrażliwość na ataki brute force z powodu krótkiego klucza (56 bitów). DES został uznany za przestarzały, a AES został wprowadzony jako standard szyfrowania, aby zapewnić wyższy poziom bezpieczeństwa. Kolejna odpowiedź twierdzi, że AES nie może być wykorzystywany przy szyfrowaniu plików, co jest całkowicie nieprawdziwe. W rzeczywistości AES jest bardzo często wykorzystywany do szyfrowania plików w różnych aplikacjach, takich jak oprogramowanie do szyfrowania dysków czy archiwizowania danych. Innym błędnym stwierdzeniem jest to, że AES nie może być zaimplementowany sprzętowo. AES jest szeroko stosowany w sprzętowych modułach bezpieczeństwa (HSM), a także w rozwiązaniach takich jak karty inteligentne. Warto zauważyć, że błędne przekonania mogą wynikać z niezrozumienia różnicy między algorytmem a jego zastosowaniem w różnych kontekstach, co prowadzi do mylnych wniosków dotyczących możliwości i ograniczeń AES.

Pytanie 30

Jakie jest oprogramowanie serwerowe dla systemu Linux, które pozwala na współdziałanie z grupami roboczymi oraz domenami Windows?

A. Samba
B. Apache
C. CUPS
D. NTP
Samba to super narzędzie, które pozwala systemom Linux komunikować się z Windowsami. Moim zdaniem, to naprawdę przydatna opcja, bo możemy zrobić z Linuxa serwer plików czy drukarek dla użytkowników Windows. Samba wykorzystuje protokoły SMB i CIFS, co sprawia, że wymiana danych między tymi systemami jest naprawdę prosta. Na przykład, w firmie, gdzie są komputery z różnymi systemami, Samba umożliwia wspólne korzystanie z dokumentów czy drukarek, co na pewno zwiększa efektywność pracy. Zauważyłem, że Samba ma wiele przydatnych funkcji, jak kontrola dostępu czy autoryzacja użytkowników, więc jest to narzędzie, które warto mieć w swoim arsenale w dziedzinie IT.

Pytanie 31

Impulsator pozwala na diagnozowanie uszkodzonych układów logicznych komputera między innymi poprzez

A. sprawdzenie stanu wyjściowego układu
B. analizę stanów logicznych obwodów cyfrowych
C. kalibrację mierzonych parametrów elektrycznych
D. wprowadzenie na wejście układu stanu wysokiego
Odczytanie stanu wyjściowego układu nie jest funkcją impulsatora, lecz jest zadaniem narzędzi pomiarowych, takich jak multimetru lub oscyloskopu. Te urządzenia pozwalają na bezpośredni pomiar napięcia na wyjściu układów logicznych, jednak nie są skonstruowane do wprowadzania sygnałów na wejście. Podawanie na wejście układu stanu wysokiego jest kluczowe dla testów, ale samo odczytanie stanu wyjściowego nie dostarcza informacji o wydajności układu w reakcji na zmiany sygnałów. Kalibracja mierzonych wielkości elektrycznych dotyczy raczej precyzyjnych pomiarów parametrów elektrycznych, a nie testowania logiki układów. Kalibracja jest procesem dostosowywania urządzenia pomiarowego, by uzyskać dokładne wyniki, ale nie ma związku z bezpośrednim testowaniem układów logicznych. Badanie stanów logicznych obwodów cyfrowych jest ogólnym określeniem działań związanych z analizą, lecz nie odnosi się bezpośrednio do funkcji impulsatora. Typowym błędem jest mylenie funkcji testowania z pomiarem, co prowadzi do nieprawidłowych wniosków dotyczących zastosowania impulsatorów. W rzeczywistości, impulsator koncentruje się na wprowadzaniu sygnałów, a nie na pasywnym obserwowaniu wyjść układów.

Pytanie 32

Po zainstalowaniu systemu Linux, użytkownik pragnie skonfigurować kartę sieciową poprzez wprowadzenie ustawień dotyczących sieci. Jakie działanie należy podjąć, aby to osiągnąć?

A. /etc/profile
B. /etc/shadow
C. /etc/network/interfaces
D. /etc/resolv.configuration
Poprawna odpowiedź to /etc/network/interfaces, ponieważ jest to główny plik konfiguracyjny używany w wielu dystrybucjach systemu Linux do zarządzania ustawieniami sieciowymi. W tym pliku użytkownik może definiować różne interfejsy sieciowe, przypisywać im adresy IP, maski podsieci oraz inne istotne parametry, takie jak brama domyślna i serwery DNS. Na przykład, aby skonfigurować interfejs eth0 z adresem IP 192.168.1.10, użytkownik wpisze: 'iface eth0 inet static' oraz 'address 192.168.1.10'. Warto zaznaczyć, że w zależności od wybranej dystrybucji, dostępne są różne narzędzia do edytowania tego pliku, takie jak nano czy vim. Praktyczna znajomość edycji pliku /etc/network/interfaces jest kluczowa dla administratorów systemu, którzy muszą zarządzać połączeniami sieciowymi w sposób wydajny i zgodny z najlepszymi praktykami branżowymi. Użytkowanie tego pliku wpisuje się w standardy konfiguracji systemów Unix/Linux, co czyni go niezbędnym narzędziem do zrozumienia i zarządzania infrastrukturą sieciową.

Pytanie 33

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 8 GB.
B. 1 modułu 16 GB.
C. 1 modułu 32 GB.
D. 2 modułów, każdy po 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 34

Do sprawdzenia, czy w okablowaniu występują odwrócone pary przewodów, stosowany jest test

A. przesłuchu zbliżnego.
B. przesłuchu zdalnego.
C. mapy połączeń.
D. długości toru.
W diagnostyce okablowania strukturalnego łatwo pomylić różne rodzaje testów, bo wszystkie wykonuje się często jednym urządzeniem. Jednak każdy z nich bada zupełnie inne zjawiska i nie wszystkie nadają się do wykrywania odwróconych par przewodów. Wiele osób intuicyjnie zakłada, że skoro przesłuch zbliżny albo zdalny mówi coś o jakości transmisji, to przy okazji „wyłapie” też błędy w połączeniach. To jest właśnie typowy błąd myślowy. Test przesłuchu zbliżnego (NEXT – Near-End Crosstalk) służy do oceny, jak silne są zakłócenia indukowane między parami przewodów na tym samym końcu kabla. Ma to znaczenie przy wyższych kategoriach okablowania, np. kat. 5e, 6, 6A, gdzie wymagane są konkretne poziomy tłumienia przesłuchów. Ten test może pokazać, że kabel jest kiepsko zarobiony, że pary są zbyt mocno rozplecione albo kabel jest uszkodzony mechanicznie, ale jego głównym celem nie jest identyfikacja, czy para 1–2 nie została zamieniona z parą 3–6. Podobnie test przesłuchu zdalnego (FEXT – Far-End Crosstalk, czasem pochodne typu ELFEXT) bada zakłócenia na drugim końcu toru, co jest ważne dla ogólnej jakości linii, ale dalej mówimy o parametrach transmisyjnych, a nie o topologii połączeń żył. Z kolei test długości toru, często wykonywany metodą TDR (Time Domain Reflectometry) albo prostszą metodą pomiaru opóźnienia propagacji, informuje nas o długości przewodu i ewentualnym miejscu przerwy czy zwarcia. To przydatne, gdy kabel jest uszkodzony w ścianie lub pod podłogą, ale ten pomiar nie powie nic o tym, czy pary zostały zamienione. Kluczowe jest zrozumienie, że odwrócone pary, zamiany żył czy split pair to błędy logiczne w okablowaniu, więc jedynym sensownym testem jest test mapy połączeń, który sprawdza kolejność i parowanie wszystkich żył od końca do końca. Bez obejrzenia tej „mapy” tester po prostu nie ma jak stwierdzić, że dwie pary zostały fizycznie podłączone w złe miejsca. Dlatego poleganie wyłącznie na pomiarach przesłuchów lub długości toru do wykrywania tego typu usterek jest po prostu niezgodne z dobrymi praktykami i standardami TIA/EIA dla okablowania strukturalnego.

Pytanie 35

Dysk z systemem plików FAT32, na którym regularnie przeprowadza się działania usuwania starych plików oraz dodawania nowych plików, doświadcza

A. defragmentacji
B. fragmentacji
C. kolokacji
D. relokacji
Defragmentacja, kolokacja i relokacja to terminy, które są często mylone z fragmentacją, jednak odnoszą się do innych procesów i koncepcji w zarządzaniu danymi na dyskach. Defragmentacja to proces mający na celu zredukowanie fragmentacji poprzez przenoszenie fragmentów plików do sąsiadujących bloków, co przyspiesza dostęp do danych. Choć ten proces jest konieczny w przypadku fragmentacji, nie jest to odpowiedź na pytanie dotyczące przyczyn fragmentacji. Kolokacja zajmuje się umieszczaniem powiązanych danych w bliskiej odległości na dysku, co ma na celu poprawę efektywności operacji odczytu i zapisu, ale nie jest to problem wynikający z działania systemu plików. Relokacja dotyczy przenoszenia danych na inny obszar dysku lub inny nośnik (np. w wyniku uszkodzenia lub pełnego wykorzystania przestrzeni), co również nie odnosi się do zjawiska fragmentacji. Fragmentacja wynika z cyklicznych operacji kasowania i zapisu na dysku, co prowadzi do chaotycznego rozmieszczenia danych, a nie z działań związanych z ich organizacją czy przenoszeniem. Zrozumienie tych różnic jest kluczowe dla skutecznego zarządzania danymi i optymalizacji wydajności systemu komputerowego.

Pytanie 36

Diagnozowanie uszkodzonych komponentów komputera przez sprawdzenie stanu wyjściowego układu cyfrowego umożliwia

A. sonometr.
B. kalibrator.
C. sonda logiczna.
D. impulsator.
W świecie serwisu komputerowego i elektroniki bardzo łatwo pomylić narzędzia o zbliżonych nazwach albo podobnym sposobie użycia, ale zupełnie innej funkcji. Sonometr jest narzędziem do pomiaru natężenia dźwięku, wykorzystywany raczej przez akustyków czy inżynierów od środowiska, a nie przez elektroników naprawiających układy cyfrowe. Kalibrator natomiast służy do ustawiania, weryfikacji i regulacji dokładności urządzeń pomiarowych, na przykład multimetrów czy przetworników, ale nie pozwala diagnozować stanu linii logicznych ani wyjść układów cyfrowych. Impulsator, choć brzmi nieco komputerowo, to narzędzie generujące impulsy elektryczne o określonych parametrach – faktycznie czasem bywa przydatny do testowania reakcji układów cyfrowych na sygnały wejściowe, ale sam z siebie nie umożliwia bezpośredniego sprawdzenia, jaki jest stan logiczny na wyjściu układu. W praktyce, typowym błędem jest myślenie, że każdy sprzęt generujący sygnały wystarczy do diagnozy – a to tak nie działa. Sonda logiczna jest wyjątkowa, bo nie ingeruje w badany układ, tylko „podgląda” i daje jednoznaczną informację o stanie logicznym (0, 1, czasem stan nieustalony). To właśnie ta zdolność pasywnej obserwacji odróżnia ją od innych narzędzi. Moim zdaniem, wiele nieporozumień bierze się z nieprecyzyjnego rozumienia nazw – impulsator i sonda logiczna to zupełnie inne instrumenty, choć oba pojawiają się w laboratoriach elektroniki. Dla pełnej diagnozy układów cyfrowych nie wystarczy głośność dźwięku ani precyzja kalibracji urządzeń, tylko możliwość śledzenia sygnałów logicznych w czasie rzeczywistym. Takie możliwości daje wyłącznie sonda logiczna.

Pytanie 37

W przedsiębiorstwie trzeba było zreperować 5 komputerów i serwer. Czas potrzebny na naprawę każdego z komputerów wyniósł 1,5 godziny, a serwera 2,5 godziny. Stawka za usługę to 100,00 zł za roboczogodzinę, a do tego doliczany jest podatek VAT w wysokości 23%. Jaka kwota brutto będzie należna za tę usługę?

A. 1023,00 zł
B. 2460,00 zł
C. 2046,00 zł
D. 1230,00 zł
W przypadku obliczeń związanych z kosztami usług naprawczych, wiele osób może popełnić błąd w szacowaniu całkowitego czasu pracy. Na przykład, niektórzy mogą błędnie zsumować czas naprawy komputerów bez uwzględnienia serwera, co prowadzi do zaniżenia całkowitego kosztu. Warto również zwrócić uwagę na to, że nieprawidłowe stosowanie stawki VAT może znacznie wypaczyć wyniki finansowe. Często zdarza się, że osoby obliczają VAT na całkowity koszt robót zamiast na podstawie kosztu przed opodatkowaniem. Typowym błędem jest także pomijanie istotnych elementów składowych wyceny, takich jak stawki za roboczogodzinę czy opłaty dodatkowe, które powinny być uwzględnione w końcowym rozrachunku. W kontekście prawidłowego obliczania należności za usługi, niezwykle ważne jest zrozumienie, jak wylicza się czas pracy oraz w jaki sposób te obliczenia przekładają się na ostateczną fakturę. W praktyce, nieprawidłowe podejście do obliczeń może prowadzić do konfliktów z klientami oraz problemów z płynnością finansową firmy, dlatego tak istotne jest przestrzeganie standardów i dobrych praktyk w branży.

Pytanie 38

W usłudze, jaką funkcję pełni protokół RDP?

A. poczty elektronicznej w systemie Linux
B. pulpitu zdalnego w systemie Windows
C. SCP w systemie Windows
D. terminalowej w systemie Linux
Protokół RDP (Remote Desktop Protocol) jest standardowym rozwiązaniem opracowanym przez firmę Microsoft, które umożliwia zdalny dostęp do pulpitu systemu operacyjnego Windows. Dzięki RDP użytkownicy mogą łączyć się z komputerem zdalnym, co pozwala na zdalne wykonywanie zadań, zarządzanie systemem oraz korzystanie z aplikacji, jak gdyby znajdowali się fizycznie przy tym urządzeniu. Protokół RDP obsługuje wiele funkcji, takich jak kompresja danych, szyfrowanie oraz zarządzanie sesjami, co czyni go bezpiecznym i wydajnym rozwiązaniem dla użytkowników oraz administratorów systemów. Przykładowo, w przypadku pracy zdalnej, RDP pozwala na dostęp do zasobów firmy bez konieczności fizycznej obecności w biurze, co jest szczególnie istotne w kontekście rosnącej popularności pracy zdalnej i hybrydowej. Warto zaznaczyć, że RDP jest zgodny z wieloma dobrami praktykami, takimi jak zastosowanie silnych haseł oraz wieloskładnikowej autoryzacji, co znacznie podnosi poziom bezpieczeństwa zdalnych połączeń.

Pytanie 39

Jak przywrócić stan rejestru systemowego w edytorze Regedit, wykorzystując wcześniej utworzoną kopię zapasową?

A. Załaduj gałąź rejestru
B. Importuj
C. Eksportuj
D. Kopiuj nazwę klucza
Aby przywrócić stan rejestru systemowego w edytorze Regedit za pomocą wcześniej utworzonej kopii zapasowej, należy skorzystać z opcji "Importuj". Funkcja ta pozwala na załadowanie plików z rozszerzeniem .reg, które zawierają zapisane klucze rejestru oraz ich wartości. Przykładowo, jeśli wcześniej eksportowaliśmy klucz rejestru do pliku .reg w celu zabezpieczenia ustawień systemowych, możemy go później zaimportować, aby przywrócić te ustawienia. Ważne jest, aby przed importem upewnić się, że plik pochodzi z zaufanego źródła, aby uniknąć potencjalnych zagrożeń związanych z niepożądanymi zmianami w rejestrze. Importowanie jest standardową praktyką w zarządzaniu rejestrem, stosowaną zarówno przez administratorów systemów, jak i użytkowników chcących utrzymać porządek w konfiguracji swojego systemu operacyjnego. Dobrą praktyką jest również tworzenie regularnych kopii zapasowych rejestru, aby móc w razie potrzeby szybko przywrócić poprzedni stan systemu.

Pytanie 40

Jaki akronim oznacza program do tworzenia graficznych wykresów ruchu, który odbywa się na interfejsach urządzeń sieciowych?

A. ICMP
B. MRTG
C. CDP
D. SMTP
Wybór innych akronimów, takich jak CDP, ICMP czy SMTP, wskazuje na pewne nieporozumienia dotyczące funkcji oraz zastosowania tych protokołów w kontekście monitorowania ruchu sieciowego. CDP, czyli Cisco Discovery Protocol, jest używany do zbierania informacji o urządzeniach Cisco w sieci, ale nie służy do graficznego przedstawiania danych o ruchu. ICMP, czyli Internet Control Message Protocol, jest protokołem używanym głównie do diagnostyki i informowania o błędach w transmisji danych, a nie do monitorowania obciążenia interfejsów. Z kolei SMTP, czyli Simple Mail Transfer Protocol, jest protokołem do wysyłania wiadomości e-mail i nie ma żadnego zastosowania w kontekście monitorowania ruchu sieciowego. Wybierając niewłaściwy akronim, możemy popełnić podstawowy błąd myślowy, polegający na myleniu różnych warstw i funkcji protokołów w architekturze sieci. Zrozumienie, jakie są podstawowe różnice między tymi technologiami oraz ich rolą w zarządzaniu siecią, jest kluczowe dla skutecznego monitorowania i optymalizacji zasobów sieciowych. Uczy to również, jak ważne jest właściwe dobieranie narzędzi oraz protokołów do konkretnego zadania, co stanowi fundament efektywnego zarządzania infrastrukturą IT.