Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 10 kwietnia 2026 11:27
  • Data zakończenia: 10 kwietnia 2026 11:34

Egzamin zdany!

Wynik: 30/40 punktów (75,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu— sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W komputerach obsługujących wysokowydajne zadania serwerowe, konieczne jest użycie dysku z interfejsem

A. SATA
B. USB
C. SAS
D. ATA
Wybór nieprawidłowego interfejsu dysku może znacznie wpłynąć na wydajność i niezawodność systemu serwerowego. Dyski ATA (Advanced Technology Attachment) są przestarzałym rozwiązaniem stosowanym głównie w komputerach stacjonarnych, a ich wydajność nie spełnia wymogów nowoczesnych aplikacji serwerowych. ATA ma ograniczoną prędkość transferu danych, co czyni go niewłaściwym wyborem dla zadań wymagających intensywnego dostępu do danych. USB (Universal Serial Bus) jest interfejsem zaprojektowanym głównie do podłączania urządzeń peryferyjnych, a nie do pracy z dyskami twardymi w środowisku serwerowym, gdzie liczy się szybkość i wydajność. Użycie USB w tym kontekście może prowadzić do wąskich gardeł i niskiej wydajności. Z kolei SATA (Serial ATA) jest lepszym wyborem niż ATA, ale nadal nie dorównuje SAS, szczególnie w środowiskach, gdzie wymagana jest wysoka dostępność i niezawodność. SATA jest bardziej odpowiedni dla jednostek desktopowych i mniejszych serwerów, gdzie wymagania dotyczące wydajności są mniejsze. Wybierając dysk do serwera, należy zwrócić szczególną uwagę na specyfikacje i charakterystykę obciążenia, aby uniknąć typowych błędów myślowych, które mogą prowadzić do niewłaściwych decyzji. Rekomendowane jest korzystanie z dysków SAS w poważnych zastosowaniach serwerowych, aby zapewnić optymalną wydajność i niezawodność.

Pytanie 2

Na ilustracji, strzałka wskazuje na złącze interfejsu

Ilustracja do pytania
A. IDE
B. COM
C. FDD
D. LPT
Gniazdo LPT to taki port równoległy, który kiedyś był mega popularny do podłączania drukarek i innych urządzeń. Jego wygląd jest dość charakterystyczny, bo jest szeroki i ma sporo pinów, co umożliwia przesyłanie danych równocześnie w kilku bitach. Dlatego nazywamy go równoległym. W przeszłości używano go nie tylko do drukarek, ale też do programowania różnych urządzeń elektronicznych i komunikacji z urządzeniami pomiarowymi. Dziś porty LPT są już rzadziej spotykane, zwłaszcza że USB wzięło ich miejsce, oferując szybszy transfer i większą wszechstronność. Nadal jednak można je znaleźć w niektórych specjalistycznych zastosowaniach, zwłaszcza w przemyśle czy laboratoriach. Warto rozumieć, jak to wszystko działa, bo jest to przydatne dla osób zajmujących się starszymi urządzeniami czy systemami, gdzie LPT wciąż odgrywa jakąś rolę. Dobrym pomysłem jest też znać standardy IEEE 1284, które dotyczą portów równoległych, bo mogą pomóc w pracy z tą technologią.

Pytanie 3

Sieci lokalne o architekturze klient-serwer są definiowane przez to, że

A. wszystkie komputery w sieci są sobie równe
B. żaden komputer nie ma dominującej roli wobec innych
C. wszystkie komputery klienckie mają możliwość korzystania z zasobów innych komputerów
D. istnieje jeden dedykowany komputer, który udostępnia swoje zasoby w sieci
Sieci lokalne typu klient-serwer opierają się na architekturze, w której jeden komputer, zwany serwerem, pełni rolę centralnego punktu udostępniania zasobów, takich jak pliki, aplikacje czy usługi. W tej konfiguracji inne komputery, nazywane klientami, korzystają z zasobów serwera. To podejście jest zgodne z powszechnie stosowanymi standardami w branży IT, takimi jak model OSI oraz protokoły TCP/IP, które definiują sposób komunikacji w sieciach komputerowych. Dzięki tej architekturze, serwer może efektywnie zarządzać dostępem do zasobów oraz zapewniać bezpieczeństwo, kontrolując, którzy klienci mają dostęp do określonych usług. Praktycznym przykładem może być sieć w biurze, gdzie serwer plików umożliwia pracownikom przetrzymywanie i udostępnianie dokumentów. W sytuacjach wymagających dużej liczby użytkowników lub skomplikowanych aplikacji, ta struktura pozwala na lepszą organizację i zwiększoną wydajność, co jest zgodne z najlepszymi praktykami w zarządzaniu sieciami.

Pytanie 4

W pierwszym oktecie adresów IPv4 klasy B znajdują się liczby mieszczące się w przedziale

A. od 64 do 127
B. od 192 do 223
C. od 32 do 63
D. od 128 do 191
Adresy IPv4 klasy B są definiowane na podstawie wartości pierwszego oktetu w adresie IP. W przypadku klasy B, pierwszy oktet mieści się w zakresie od 128 do 191. Klasa ta jest stosowana głównie w dużych sieciach, gdzie potrzebne jest więcej adresów niż w klasie A, ale mniej niż w klasie C. Przykładowo, adresy takie jak 128.0.0.1 czy 190.255.255.255 są typowymi adresami klasy B. W praktyce, organizacje korzystające z tej klasy mogą przydzielać do 65,536 adresów IP w obrębie jednej sieci, co czyni ją idealną do zastosowań takich jak duże przedsiębiorstwa, które potrzebują wielu urządzeń w jednej sieci lokalnej. Warto również zauważyć, że klasy adresów IP są częścią starszego podejścia do routingu, a obecnie coraz częściej stosuje się CIDR (Classless Inter-Domain Routing), który umożliwia bardziej elastyczne przydzielanie adresów IP.

Pytanie 5

Nawiązywanie szyfrowanych połączeń pomiędzy hostami w sieci publicznej Internet, wykorzystywane w kontekście VPN (Virtual Private Network), to

A. trasowanie
B. tunelowanie
C. mostkowanie
D. mapowanie
Tunelowanie to kluczowa technika stosowana w tworzeniu zaszyfrowanych połączeń w architekturze VPN (Virtual Private Network). Proces ten polega na tworzeniu bezpiecznego 'tunelu' przez publiczną sieć, co pozwala na przesyłanie danych w sposób zaszyfrowany i prywatny. W praktyce, tunelowanie angażuje różne protokoły, takie jak IPsec, L2TP czy SSTP, które zapewniają ochronę danych przed podsłuchiwaniem oraz integralność przesyłanych informacji. Na przykład, w organizacjach, które umożliwiają pracownikom zdalny dostęp do wewnętrznych zasobów, tunelowanie odgrywa kluczową rolę w zapewnieniu bezpieczeństwa tych połączeń. Dzięki tunelowaniu, każdy pakiet danych podróżujący przez Internet jest chroniony, co stosuje się w dobrych praktykach bezpieczeństwa sieci. Dodatkowo, standardy takie jak IETF RFC 4301 definiują zasady dotyczące bezpieczeństwa tuneli, co czyni tę technikę nie tylko efektywną, ale również zgodną z uznawanymi normami branżowymi.

Pytanie 6

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 16 GB.
B. 1 modułu 32 GB.
C. 2 modułów, każdy po 16 GB.
D. 2 modułów, każdy po 8 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 7

Na zdjęciu ukazano złącze zasilające

Ilustracja do pytania
A. Molex do dysków twardych
B. ATX12V zasilania procesora
C. dysków wewnętrznych SATA
D. stacji dyskietek
Złącze ATX12V jest kluczowym elementem w zasilaniu nowoczesnych komputerów PC szczególnie odpowiadając za dostarczenie stabilnej mocy do procesora. Standard ATX12V został wprowadzony przez firmę Intel w celu zapewnienia większej wydajności energetycznej oraz obsługi nowoczesnych procesorów które wymagają większej mocy niż mogłyby dostarczyć starsze złącza. Złącze to zwykle posiada 4 lub 8 pinów i jest bezpośrednio podłączane do płyty głównej w okolicach gniazda procesora zapewniając dostarczenie napięcia 12V. Jego charakterystyczna budowa z wyraźnie oddzielonymi stykami pozwala na łatwe rozpoznanie i prawidłowe podłączenie zapobiegając błędnym instalacjom które mogłyby prowadzić do niestabilności systemu. Złącze ATX12V jest standardem branżowym wspieranym przez większość nowoczesnych płyt głównych i zasilaczy co czyni go niezbędnym elementem w procesie budowy i konfiguracji systemu komputerowego. Zrozumienie jego funkcji i poprawnego zastosowania jest istotne dla każdego profesjonalisty zajmującego się montażem i serwisem komputerów.

Pytanie 8

Jakie parametry można śledzić w przypadku urządzenia przy pomocy S.M.A.R.T.?

A. Procesora
B. Dysku twardego
C. Płyty głównej
D. Chipsetu
S.M.A.R.T., czyli Self-Monitoring, Analysis and Reporting Technology, to technologia, która działa w dyskach twardych oraz SSD. Dzięki niej możemy śledzić, w jakim stanie są nasze nośniki. To mega ważne, bo dzięki informacjom o błędach odczytu czy temperaturze, możemy zareagować, zanim coś pójdzie nie tak. Moim zdaniem, to naprawdę przydatne narzędzie, zwłaszcza w dużych firmach, gdzie przechowuje się masę danych. Taki system do automatycznego raportowania stanu dysków to istna must-have dla każdego administratora. Powinno się regularnie sprawdzać raporty S.M.A.R.T., żeby uniknąć niespodzianek i zwiększyć pewność działania naszych systemów.

Pytanie 9

Jednym z metod ograniczenia dostępu do sieci bezprzewodowej dla osób nieuprawnionych jest

A. zmiana standardu szyfrowania z WPA na WEP
B. dezaktywacja rozgłaszania identyfikatora sieci
C. wyłączenie szyfrowania
D. zmiana kanału transmisji sygnału
Wyłączenie rozgłaszania identyfikatora sieci (SSID) jest efektywnym sposobem na zwiększenie bezpieczeństwa sieci bezprzewodowej. Gdy SSID nie jest rozgłaszany, użytkownicy nie zobaczą nazwy sieci w dostępnych sieciach Wi-Fi, co może zniechęcić potencjalnych intruzów do próby połączenia. Praktyka ta jest szczególnie istotna w środowiskach, gdzie dostęp do sieci może być nieautoryzowany. Warto pamiętać, że chociaż to rozwiązanie nie zapewnia pełnej ochrony, stanowi ono pierwszy krok w kierunku zabezpieczenia sieci. Dodatkowo, dobrym rozwiązaniem jest dodanie silnych metod szyfrowania, takich jak WPA3, oraz użycie filtrowania adresów MAC, co zapewnia dodatkowy poziom ochrony. W branży bezpieczeństwa sieciowego wyłączenie rozgłaszania SSID jest często zalecane jako jeden z elementów większej strategii ochrony danych i dostępu do zasobów.

Pytanie 10

Jaki protokół jest używany przez komendę ping?

A. IPX
B. SMTP
C. FTP
D. ICMP
Odpowiedź ICMP (Internet Control Message Protocol) jest poprawna, ponieważ to właśnie ten protokół jest wykorzystywany przez polecenie ping do testowania łączności między urządzeniami w sieci. Ping wysyła pakiety ICMP Echo Request do określonego adresu IP i oczekuje na odpowiedź w postaci pakietu ICMP Echo Reply. Dzięki temu administratorzy sieci mogą szybko zdiagnozować problemy z połączeniami sieciowymi, takie jak niska jakość sygnału czy przerwy w komunikacji. ICMP jest częścią zestawu protokołów TCP/IP i działa na poziomie sieci, co pozwala na wymianę informacji o błędach oraz statusie trasowania. W praktyce, używając narzędzia ping, można uzyskać cenny wgląd w stan sieci, co jest zgodne z najlepszymi praktykami w zarządzaniu sieciami komputerowymi. Należy pamiętać, że ICMP może być ograniczany przez zapory sieciowe, co może wpłynąć na wyniki testów ping.

Pytanie 11

Równoważnym zapisem 232 bajtów jest zapis

A. 2GB
B. 4GiB
C. 1GiB
D. 8GB
Dokładnie tak, zapis 2^32 bajtów to właśnie 4 GiB, czyli 4 gibibajty. W informatyce bardzo często napotykamy się na rozróżnienie pomiędzy jednostkami opartymi na potęgach dwójki (GiB, MiB, KiB) a tymi opartymi na potęgach dziesiątki (GB, MB, kB). Standard IEC precyzyjnie definiuje, że 1 GiB to 1024^3 bajtów, czyli 1 073 741 824 bajtów. Skoro 2^32 to dokładnie 4 294 967 296 bajtów, po podzieleniu tej liczby przez wartość 1 GiB otrzymujemy właśnie 4 GiB bez żadnych zaokrągleń. W praktyce, chociaż w sklepach czy reklamach często używa się GB, to w technicznych zastosowaniach—na przykład przy partycjonowaniu dysków, adresacji pamięci RAM czy systemowych narzędziach—korzysta się z jednostek GiB, żeby uniknąć nieporozumień. Moim zdaniem to bardzo ważne, żeby już na etapie nauki wyraźnie rozróżniać te jednostki, bo potem przy pracy z systemami operacyjnymi, serwerami czy programowaniem niskopoziomowym niejednokrotnie można się na tym "przejechać". Opieranie się na potęgach dwójki jest naturalne dla komputerów, bo cała architektura bazuje na binarnym systemie liczbowym. Warto wiedzieć, że np. adresacja w 32-bitowych systemach operacyjnych naturalnie zamyka się w zakresie 4 GiB, co jest ograniczeniem architekturalnym. Takie niuanse są kluczowe w praktyce, szczególnie gdy pracuje się z dużą ilością danych lub sprzętem na poziomie systemowym.

Pytanie 12

W jakim systemie występuje jądro hybrydowe (kernel)?

A. Windows
B. QNX
C. MorphOS
D. Linux
Odpowiedzi wskazujące na Linux, MorphOS i QNX, mimo że są to interesujące systemy operacyjne, są niepoprawne w kontekście pytania o jądro hybrydowe. Linux wykorzystuje jądro monolityczne, co oznacza, że wszystkie funkcje jądra są zintegrowane w jednej dużej jednostce. Ta architektura, mimo że oferuje wysoką wydajność, może powodować problemy z zarządzaniem zasobami oraz stabilnością systemu. W przypadku MorphOS, jest to system operacyjny, który skupia się na mikrojądrach i nie posiada hybrydowego podejścia, co również czyni tę odpowiedź nieprawidłową. Z kolei QNX, będący systemem operacyjnym czasu rzeczywistego, bazuje na mikrojądrze, co sprawia, że nie spełnia kryteriów hybrydowego jądra. Typowym błędem myślowym prowadzącym do takich odpowiedzi jest mylenie różnych architektur jądra i ich zastosowań. Użytkownicy często nie zdają sobie sprawy, że jądra monolityczne i mikrojądra mają odmienne cele i są zoptymalizowane pod różne scenariusze. W praktyce, wybór architektury jądra ma istotny wpływ na wydajność i stabilność systemu operacyjnego.

Pytanie 13

Aby zrealizować transfer danych pomiędzy siecią w pracowni a siecią ogólnoszkolną, która ma inną adresację IP, należy zastosować

A. przełącznik
B. ruter
C. koncentrator
D. punkt dostępowy
Ruter jest urządzeniem, które pełni kluczową rolę w wymianie danych pomiędzy różnymi sieciami, szczególnie gdy te sieci mają różne adresacje IP. Ruter analizuje pakiety danych i podejmuje decyzje na podstawie informacji zawartych w nagłówkach tych pakietów. W przypadku, gdy sieci mają różne adresy IP, ruter przeprowadza proces routingu, który umożliwia przesyłanie danych z jednej sieci do drugiej. Przykładem praktycznego zastosowania rutera może być sytuacja w szkolnej infrastrukturze, gdzie ruter łączy sieć lokalną z siecią ogólnoszkolną, co pozwala uczniom na dostęp do zasobów edukacyjnych w internecie. Dodatkowo, ruter często pełni funkcję zapory sieciowej (firewall), co zwiększa bezpieczeństwo przesyłanych danych. W branży IT obowiązują standardy, takie jak RFC 791 (IP) oraz RFC 1812 (IPv4 routing), które określają zasady działania ruterów oraz ich integracji z innymi elementami sieci. Dobre praktyki obejmują również zarządzanie trasami za pomocą protokołów takich jak OSPF czy BGP, co pozwala na efektywne zarządzanie dużymi sieciami. Zrozumienie funkcji rutera jest kluczowe dla każdego, kto zajmuje się administracją sieci.

Pytanie 14

Narzędzie przedstawione do nadzorowania sieci LAN to

C:\Users\egzamin>nmap localhost
Starting Nmap 7.80 ( https://nmap.org ) at 2019-11-26 20:23 ?rodkowoeuropejski czas stand.
Nmap scan report for localhost (127.0.0.1)
Host is up (0.00s latency).
Other addresses for localhost (not scanned): ::1
Not shown: 988 closed ports
PORT      STATE SERVICE
135/tcp   open  msrpc
445/tcp   open  microsoft-ds
1025/tcp  open  NFS-or-IIS
1026/tcp  open  LSA-or-nterm
1027/tcp  open  IIS
1029/tcp  open  ms-lsa
1030/tcp  open  iad1
1031/tcp  open  iad2
1044/tcp  open  dcutility
1234/tcp  open  hotline
2869/tcp  open  icslap
16992/tcp open  amt-soap-http

Nmap done: 1 IP address (1 host up) scanned in 0.94 seconds
A. konfigurator sieci
B. skaner portów
C. zapora sieciowa
D. konfigurator IP
Skaner portów, taki jak Nmap przedstawiony na obrazku, jest narzędziem służącym do monitorowania sieci LAN poprzez identyfikację otwartych portów na hostach. Pozwala to administratorom sieci na wykrywanie potencjalnych luk bezpieczeństwa oraz nieautoryzowanych usług działających w sieci. Nmap, jako jeden z najbardziej popularnych skanerów portów, umożliwia przeprowadzanie audytów bezpieczeństwa, pomagając w ocenie bezpieczeństwa systemów poprzez identyfikację otwartych portów i wersji działających usług. Wykorzystując techniki skanowania, takie jak TCP SYN, TCP Connect czy skanowanie UDP, Nmap jest w stanie precyzyjnie określić stan portów oraz dostępność usług. W praktyce, regularne skanowanie sieci za pomocą takich narzędzi jest uważane za dobrą praktykę, pomagając w utrzymaniu bezpieczeństwa i stabilności infrastruktury sieciowej. Stosowanie skanerów portów powinno być częścią kompleksowego podejścia do bezpieczeństwa, obejmującego również zarządzanie aktualizacjami oprogramowania, konfigurację zapór ogniowych oraz systemy wykrywania intruzów. Dzięki skanowaniu portów można również zidentyfikować nieprawidłowo skonfigurowane maszyny lub urządzenia, które mogą stanowić zagrożenie dla całej sieci. Wszystkie te elementy pomagają w budowie odpornej i bezpiecznej infrastruktury IT, zgodnie z najlepszymi praktykami w branży.

Pytanie 15

Liczbie 16 bitowej 0011110010101110 wyrażonej w systemie binarnym odpowiada w systemie szesnastkowym liczba

A. 3DFE
B. 3DAE
C. 3CBE
D. 3CAE
Liczba 16-bitowa 0011110010101110 zapisana w systemie dwójkowym odpowiada liczbie szesnastkowej 3CAE. Aby przeliczyć liczbę z systemu binarnego na szesnastkowy, możemy podzielić dane na grupy po cztery bity, co jest standardową praktyką, ponieważ każda cyfra szesnastkowa odpowiada czterem bitom. W tym przypadku mamy: 0011 (3), 1100 (C), 1010 (A), 1110 (E). Tak więc 0011 1100 1010 1110 daje nam 3CAE w systemie szesnastkowym. Umiejętność konwersji liczb między systemami liczbowymi jest niezwykle ważna w dziedzinie informatyki i programowania, szczególnie w kontekście niskopoziomowego programowania, obliczeń w systemach wbudowanych oraz przy pracy z protokołami sieciowymi. Przykładowo, w programowaniu w języku C, często korzysta się z konwersji między tymi systemami przy manipulacji danymi w pamięci. Wiedza na temat systemów liczbowych jest również istotna w zakresie kryptografii oraz analizy danych, gdzie precyzyjna reprezentacja wartości jest kluczowa.

Pytanie 16

Pierwszym krokiem, który należy podjąć, aby chronić ruter przed nieautoryzowanym dostępem do jego panelu administracyjnego, jest

A. zmiana loginu i hasła dla wbudowanego konta administratora
B. zmiana domyślnej nazwy sieci (SSID) na unikalną
C. włączenie szyfrowania przy użyciu klucza WEP
D. aktywacja filtrowania adresów MAC
To, co napisałeś o tych metodach zabezpieczeń, ma sens, ale nie wszystko jest takie proste. Filtrowanie adresów MAC, szyfrowanie WEP i zmiana SSID mogą pomóc, ale nie są wystarczające. Filtrowanie MAC daje możliwość blokowania czy zezwalania na dostęp, ale złodzieje mogą to łatwo obejść. Szyfrowanie WEP, cóż, nie jest już uznawane za bezpieczne – można je złamać w parę minut. Co do SSID, zmiana nazwy na jakąś unikatową może pomóc w ukrywaniu sieci, ale osoby z odpowiednią wiedzą i tak ją znajdą. Więc lepiej traktować te metody jako dodatek, a nie jedyną ochronę. Nie zapominaj, że najważniejsze to zmiana domyślnych loginów i haseł – to podstawowa sprawa.

Pytanie 17

Termin "PIO Mode" odnosi się do trybu operacyjnego

A. kanału IDE
B. pamięci
C. modemu
D. napędu FDD
Tryb "PIO Mode" to taki sposób pracy, który dotyczy kanału IDE, czyli tego, jak podłącza się dyski twarde i napędy optyczne w komputerach. PIO, czyli Programmed Input/Output, to metoda przesyłania danych, gdzie procesor zajmuje się transferem pomiędzy urządzeniem a pamięcią. Trochę to spowalnia transfer, szczególnie jak przesyłamy duże ilości informacji. Kiedyś PIO było dosyć popularne, ale teraz wolimy używać szybszych rozwiązań, jak DMA, bo one odciążają procesor. W standardach, takich jak ATA/ATAPI, znajdziesz różne tryby dla IDE, a PIO to jeden z nich, który sprawdzi się tam, gdzie nie potrzeba aż takiego wyczynu, a liczy się przede wszystkim prosta realizacja. Warto wiedzieć, jakie są różnice pomiędzy tymi trybami, by móc lepiej ustawić swój sprzęt i system operacyjny.

Pytanie 18

Jakie jest oprogramowanie serwerowe dla systemu Linux, które pozwala na współdziałanie z grupami roboczymi oraz domenami Windows?

A. Samba
B. CUPS
C. NTP
D. Apache
Samba to super narzędzie, które pozwala systemom Linux komunikować się z Windowsami. Moim zdaniem, to naprawdę przydatna opcja, bo możemy zrobić z Linuxa serwer plików czy drukarek dla użytkowników Windows. Samba wykorzystuje protokoły SMB i CIFS, co sprawia, że wymiana danych między tymi systemami jest naprawdę prosta. Na przykład, w firmie, gdzie są komputery z różnymi systemami, Samba umożliwia wspólne korzystanie z dokumentów czy drukarek, co na pewno zwiększa efektywność pracy. Zauważyłem, że Samba ma wiele przydatnych funkcji, jak kontrola dostępu czy autoryzacja użytkowników, więc jest to narzędzie, które warto mieć w swoim arsenale w dziedzinie IT.

Pytanie 19

Na ilustracji pokazano porty karty graficznej. Które złącze jest cyfrowe?

Ilustracja do pytania
A. tylko złącze 1
B. tylko złącze 2
C. tylko złącze 3
D. złącze 1 oraz 2
Złącze numer 1 widoczne na zdjęciu to złącze VGA (Video Graphics Array) które wykorzystuje sygnał analogowy do przesyłania obrazu do monitora. Technologia VGA jest starsza i chociaż była bardzo popularna w przeszłości obecnie jest rzadziej używana ze względu na niższą jakość przesyłanego obrazu w porównaniu do nowszych złączy cyfrowych. Złącze numer 2 przypomina złącze S-Video które również jest analogowe i używane głównie do przesyłu obrazu wideo o niskiej rozdzielczości. Złącze VGA oraz S-Video są mniej efektywne w przesyłaniu obrazu wysokiej jakości ponieważ są podatne na zakłócenia sygnału i ograniczenia rozdzielczości. W przeciwieństwie do nich złącze numer 3 czyli DVI oferuje bezstratny przesył cyfrowego sygnału wideo co eliminuje problemy związane z konwersją sygnału analogowego na cyfrowy. W rezultacie złącza VGA i S-Video nie są preferowanymi rozwiązaniami w nowoczesnych systemach komputerowych gdzie wymagane są wysokiej jakości wyświetlenia. Typowym błędem jest przyjmowanie że każde złącze wideo jest cyfrowe co wprowadza w błąd zwłaszcza w kontekście starszych technologii. Ostatecznie wybór odpowiedniego złącza zależy od wymagań jakości obrazu i kompatybilności z urządzeniami docelowymi.

Pytanie 20

Wskaż cechę platformy wirtualizacji Hyper-V.

A. Brak integracji z chmurą.
B. Brak kompatybilności z systemami z rodziny Windows.
C. Bezpośrednie uruchamianie aplikacji na systemie Linux.
D. Bezpośrednie funkcjonowanie na sprzęcie fizycznym.
W tym pytaniu łatwo wpaść w kilka typowych pułapek związanych z nieprecyzyjnym kojarzeniem roli Hyper‑V. Po pierwsze, stwierdzenie o braku integracji z chmurą jest mylące. Hyper‑V jest ściśle związany z ekosystemem Microsoftu, a więc i z Azure. W praktyce używa się go często jako fundamentu lokalnej infrastruktury wirtualnej, która może być rozszerzona do modelu hybrydowego, np. poprzez Azure Site Recovery, Azure Backup czy integrację z System Center Virtual Machine Manager. Mówienie, że Hyper‑V „nie integruje się z chmurą”, jest po prostu niezgodne z realiami wdrożeń w firmach. Drugi błędny trop to brak kompatybilności z systemami z rodziny Windows. Jest wręcz odwrotnie: Hyper‑V został zaprojektowany przez Microsoft właśnie z myślą o Windows Server i Windows jako systemach gościa. Oczywiście obsługuje też Linuxa (z oficjalnymi dodatkami integracyjnymi), ale Windows to jego naturalne środowisko. Często uczniowie mylą tu dwie rzeczy: zgodność systemu hosta i obsługiwanych maszyn wirtualnych z tym, na czym sam hypervisor jest uruchamiany. Tutaj Hyper‑V jest elementem Windows Server lub specjalnej edycji Hyper‑V Server. Kolejne nieporozumienie to utożsamianie Hyper‑V z mechanizmem „bezpośredniego uruchamiania aplikacji na systemie Linux”. Hyper‑V nie służy do odpalania aplikacji bezpośrednio na Linuxie, tylko do tworzenia maszyn wirtualnych, na których dopiero instalujemy system Linux, a potem aplikacje. Działa tu klasyczny model: hypervisor → maszyna wirtualna → system operacyjny → aplikacje. Mylenie tych warstw prowadzi do błędnych założeń, jakby Hyper‑V był jakimś środowiskiem uruchomieniowym dla programów linuksowych, co nie ma technicznego sensu. Kluczowe jest zrozumienie, że jego główną cechą jest rola hipernadzorcy typu 1, działającego bezpośrednio na sprzęcie fizycznym i zarządzającego wieloma systemami gościa, zarówno Windows, jak i Linux, zgodnie z dobrymi praktykami wirtualizacji serwerów.

Pytanie 21

Czym jest postcardware?

A. formą licencji oprogramowania
B. rodzajem wirusa komputerowego
C. typem karty sieciowej
D. typem usługi poczty elektronicznej
Postcardware to termin odnoszący się do specyficznego rodzaju licencji oprogramowania, który jest stosunkowo rzadki, ale istotny w kontekście marketingu i dystrybucji produktów cyfrowych. W ramach tej licencji, użytkownicy mogą korzystać z oprogramowania za darmo, pod warunkiem, że wyślą pocztówkę do autora lub dostawcy oprogramowania, co stanowi formę komunikacji zwrotnej lub podziękowania. Tego rodzaju licencje są często wykorzystywane przez programistów indywidualnych lub małe firmy, które chcą promować swoje produkty, a jednocześnie uzyskać informacje zwrotne od użytkowników. Przykładem może być prosty program graficzny, który można pobrać bezpłatnie, ale jego producent oczekuje, że użytkownicy przynajmniej raz skontaktują się z nim, aby wyrazić swoje opinie. Postcardware jest związane z praktykami freeware, ale różni się od nich tym, że wymaga aktywnego działania ze strony użytkownika, co może również zwiększyć zaangażowanie i lojalność w stosunku do produktu. Warto zwrócić uwagę, że chociaż postcardware nie jest szczególnie powszechnym modelem licencyjnym, ilustruje różnorodność podejść do dystrybucji oprogramowania, które mogą być dostosowane do potrzeb deweloperów i użytkowników.

Pytanie 22

Jaki rodzaj dysków jest podłączany do złącza IDE na płycie głównej komputera?

A. FLASH
B. SCSI
C. ATA
D. SSD
Wybrane odpowiedzi, takie jak SSD, SCSI i FLASH, nie są zgodne z wymaganiami związanymi z gniazdem IDE. SSD (Solid State Drive) to nowoczesny typ pamięci masowej, który używa technologii flash, a jego interfejsy komunikacyjne, takie jak SATA lub NVMe, różnią się od tradycyjnego interfejsu IDE. SSD nie jest bezpośrednio podłączany do gniazda IDE, co sprawia, że ta odpowiedź jest niepoprawna. SCSI (Small Computer System Interface) to kolejne złącze, które różni się od IDE i jest często stosowane w serwerach oraz stacjach roboczych do podłączania dysków twardych oraz innych urządzeń. SCSI wymaga specjalnych kontrolerów oraz kabli, co czyni je bardziej skomplikowanym w użyciu w porównaniu do prostoty interfejsu ATA. Z kolei technologia FLASH odnosi się do rodzaju pamięci, a nie do interfejsu dyskowego. Choć pamięci flash mogą być używane w różnych zastosowaniach, ich połączenie z gniazdem IDE nie jest standardowe ani praktyczne. Typowe błędy myślowe prowadzące do takich wniosków często wynikają z nieporozumień dotyczących różnicy między typem pamięci a interfejsem komunikacyjnym. Wiedza o tych różnicach jest ważna dla skutecznego wyboru odpowiednich komponentów w budowie komputerów oraz w rozwiązywaniu problemów z kompatybilnością sprzętową.

Pytanie 23

Podczas testowania połączeń sieciowych za pomocą polecenia ping użytkownik otrzymał wyniki przedstawione na rysunku. Jakie może być źródło braku odpowiedzi serwera przy pierwszym teście, zakładając, że domena wp.pl ma adres 212.77.100.101?

C:\Users\uczen>ping wp.pl
Żądanie polecenia ping nie może znaleźć hosta wp.pl. Sprawdź nazwę i ponów próbe.

C:\Users\uczen>ping 212.77.100.101

Badanie 212.77.100.101 z 32 bajtami danych:
Odpowiedź z 212.77.100.101: bajtów=32 czas=19ms TTL=127
Odpowiedź z 212.77.100.101: bajtów=32 czas=35ms TTL=127
Odpowiedź z 212.77.100.101: bajtów=32 czas=40ms TTL=127
Odpowiedź z 212.77.100.101: bajtów=32 czas=20ms TTL=127

Statystyka badania ping dla 212.77.100.101:
    Pakiety: Wysłane = 4, Odebrane = 4, Utracone = 0
             (0% straty),
Szacunkowy czas błądzenia pakietów w millisekundach:
    Minimum = 19 ms, Maksimum = 40 ms, Czas średni = 28 ms
A. Nieobecność adresów serwera DNS w konfiguracji karty sieciowej
B. Brak domyślnej bramy w ustawieniach karty sieciowej
C. Nieprawidłowy adres IP przypisany do karty sieciowej
D. Brak przypisania serwera DHCP do karty sieciowej
Brak adresów serwera DNS w konfiguracji karty sieciowej powoduje, że komputer nie jest w stanie przetłumaczyć nazwy domeny wp.pl na jej odpowiadający adres IP 212.77.100.101. DNS, czyli Domain Name System, jest kluczowym elementem infrastruktury internetowej, który umożliwia przekształcanie czytelnych dla człowieka nazw domen na adresy IP zrozumiałe dla komputerów. Bez poprawnie skonfigurowanych serwerów DNS, komputer nie może skutecznie nawiązać połączenia z serwerem, co skutkuje błędem przy pierwszej próbie użycia polecenia ping. W praktyce wiele systemów operacyjnych umożliwia automatyczne przypisywanie adresów DNS za pomocą DHCP, jednak w przypadku braku odpowiedniego serwera DHCP lub jego nieprawidłowej konfiguracji, użytkownik musi ręcznie wprowadzić adresy DNS. Dobrymi praktykami jest korzystanie z powszechnie dostępnych serwerów DNS, takich jak te dostarczane przez Google (8.8.8.8 i 8.8.4.4), które są znane z wysokiej wydajności i niezawodności. Prawidłowa konfiguracja serwerów DNS jest kluczowa dla stabilnego i szybkiego działania aplikacji sieciowych oraz ogólnego doświadczenia użytkownika w korzystaniu z Internetu.

Pytanie 24

Jakie są skutki działania poniższego polecenia ```netsh advfirewall firewall add rule name="Open" dir=in action=deny protocol=TCP localport=53```?

A. Blokowanie działania usługi DNS opartej na protokole TCP
B. Wyłączenie reguły o nazwie Open w zaporze sieciowej
C. Otworzenie portu 53 dla protokołu TCP
D. Zaimportowanie ustawienia zapory sieciowej z katalogu in action
Większość z pozostałych odpowiedzi jest po prostu błędna, bo źle interpretują to polecenie dotyczące reguły zapory. Sformułowanie 'otwarcie portu 53 dla TCP' to kompletne nieporozumienie, bo to polecenie nie otwiera, tylko blokuje port. Otwarcie portu oznacza, że ruch na nim jest dozwolony, a to sprzeczne z tym, co mówi akcja 'deny'. A ta odpowiedź, co mówi 'usunięcie z zapory reguły Open', też jest myląca. To polecenie dodaje nową regułę, a nie usuwa jakąkolwiek. To dość ważne, żeby to wiedzieć. Co do importowania ustawień zapory z katalogu in action, to w ogóle nie pasuje, bo to polecenie nie dotyczy importu, a tworzenia reguły. Sporo osób myli blokowanie ruchu z jego otwieraniem lub usuwaniem, co prowadzi do błędnego rozumienia mechanizmów zabezpieczeń. Uważam, że kluczowe jest, żeby przed jakimiś zmianami w ustawieniach zapory dobrze zrozumieć, co każda reguła robi, żeby nie zablokować czegoś ważnego w sieci.

Pytanie 25

W systemach operacyjnych Windows konto użytkownika, które ma najwyższe domyślne uprawnienia, należy do grupy

A. goście
B. operatorzy kopii zapasowych
C. administratorzy
D. użytkownicy zaawansowani
Odpowiedź 'administratorzy' jest poprawna, ponieważ konta użytkowników przypisane do grupy administratorów w systemie Windows mają najwyższe uprawnienia domyślne. Administratorzy mogą instalować oprogramowanie, zmieniać ustawienia systemowe oraz zarządzać innymi kontami użytkowników. Z perspektywy praktycznej, administratorzy są odpowiedzialni za zapewnienie bezpieczeństwa systemu, aktualizacje oraz ochronę danych użytkowników. W organizacjach, administratorzy pełnią kluczową rolę w zarządzaniu dostępem do zasobów, co jest zgodne z zasadami minimalnych uprawnień, które zalecają przyznawanie użytkownikom tylko tych praw, które są niezbędne do wykonywania ich zadań. Dobrym przykładem zastosowania tych uprawnień jest konfiguracja serwera, gdzie administratorzy mogą wprowadzać zmiany w ustawieniach bezpieczeństwa, dodawać nowe konta użytkowników oraz nadzorować logi systemowe. W praktyce administracja kontami użytkowników w Windows wymaga znajomości narzędzi, takich jak 'Zarządzanie komputerem', co pozwala na skuteczne i bezpieczne zarządzanie dostępem do zasobów systemowych.

Pytanie 26

Analiza tłumienia w torze transmisyjnym na kablu umożliwia ustalenie

A. różnic pomiędzy zdalnymi przesłuchami
B. spadku mocy sygnału w konkretnej parze przewodów
C. błędów instalacyjnych polegających na zamianie par
D. czasoprzestrzeni opóźnienia propagacji
Pomiar tłumienia w kablowym torze transmisyjnym jest kluczowym parametrem, który pozwala ocenić spadek mocy sygnału w danej parze przewodu. Tłumienie odnosi się do utraty energii sygnału podczas jego przesyłania przez medium transmisyjne, co może mieć istotny wpływ na jakość i niezawodność komunikacji. W praktyce, wysoka wartość tłumienia może prowadzić do zniekształcenia sygnału, co z kolei może skutkować błędami w przesyłanych danych. Pomiar tłumienia jest szczególnie ważny w zastosowaniach telekomunikacyjnych, takich jak instalacje telefoniczne czy sieci LAN, gdzie normy, takie jak TIA/EIA-568, określają maksymalne wartości tłumienia dla różnych rodzajów kabli. W przypadku kabli miedzianych, typowe wartości tłumienia wynoszą od 1 do 2 dB na 100 metrów, w zależności od częstotliwości sygnału. Niskie tłumienie jest pożądane, aby zapewnić efektywną wymianę danych oraz minimalizować potrzebę dodatkowych wzmacniaczy sygnału, co wpływa na wydajność i koszty systemu.

Pytanie 27

Zgodnie z aktualnymi normami BHP, zalecana odległość oczu od ekranu monitora powinna wynosić

A. 20-39 cm
B. 75-110 cm
C. 39-49 cm
D. 40-75 cm
Zgodnie z obowiązującymi przepisami BHP, optymalna odległość oczu od ekranu monitora powinna wynosić od 40 do 75 cm. Ta zasada opiera się na badaniach dotyczących ergonomii oraz zdrowia wzroku. Utrzymywanie tej odległości pomaga zminimalizować zmęczenie oczu oraz pozwala na lepszą ostrość widzenia, co ma kluczowe znaczenie dla osób spędzających długie godziny przed komputerem. Praktyczne zastosowanie tej zasady polega na dostosowaniu miejsca pracy, w tym na właściwej regulacji wysokości i kątów nachylenia monitora, aby zapewnić komfortowe warunki pracy. Warto zainwestować również w odpowiednie oświetlenie, aby zredukować odblaski na ekranie. Dodatkowo, regularne przerwy oraz ćwiczenia dla oczu mogą wspierać zdrowie wzroku i zapobiegać dolegliwościom związanym z długotrwałym korzystaniem z monitorów. Standardy ergonomiczne takie jak ISO 9241-3 podkreślają znaczenie odpowiedniego ustawienia monitora w kontekście zachowania zdrowia użytkowników.

Pytanie 28

Wartość liczby ABBA zapisana w systemie heksadecymalnym odpowiada w systemie binarnym liczbie

A. 1010 1011 1011 1010
B. 1011 1010 1010 1011
C. 1010 1111 1111 1010
D. 0101 1011 1011 0101
Liczba ABBA w systemie heksadecymalnym składa się z czterech cyfr: A, B, B, A. Każda z tych cyfr odpowiada czterem bitom w systemie binarnym. Cyfra A w heksadecymalnym odpowiada wartości 10 w systemie dziesiętnym, co w postaci dwójkowej zapisuje się jako 1010. Cyfra B odpowiada wartości 11 w systemie dziesiętnym, co w postaci dwójkowej to 1011. Kiedy umieścimy te wartości w kolejności odpowiadającej liczbie ABBA, otrzymujemy 1010 (A) 1011 (B) 1011 (B) 1010 (A). W rezultacie mamy pełną liczbę binarną: 1010 1011 1011 1010. Zrozumienie konwersji między systemami liczbowymi jest kluczowe w informatyce, szczególnie w programowaniu i inżynierii oprogramowania, gdzie często musimy przekształcać dane między różnymi reprezentacjami. Dobra praktyka w tej dziedzinie obejmuje również zrozumienie, jak te konwersje wpływają na wydajność i użycie pamięci w aplikacjach, co jest istotne w kontekście optymalizacji kodu i działania algorytmów.

Pytanie 29

Komputer uzyskuje dostęp do Internetu za pośrednictwem sieci lokalnej. Gdy użytkownik wpisuje w przeglądarkę internetową adres www.wp.pl, nie może otworzyć strony WWW, natomiast podanie adresu IP, przykładowo 212.77.100.101, umożliwia otwarcie tej strony. Jakie mogą być tego powody?

A. Brak serwera DNS
B. Brak serwera WINS
C. Brak adresu bramy
D. Brak serwera PROXY
Brak serwera DNS jest kluczowym problemem w tej sytuacji, ponieważ DNS (Domain Name System) odpowiada za tłumaczenie nazw domen na adresy IP. Kiedy użytkownik wpisuje adres strony, np. www.wp.pl, system operacyjny żąda od serwera DNS przetłumaczenia tej nazwy na odpowiadający jej adres IP. Jeśli serwer DNS nie działa lub jest niedostępny, komputer nie jest w stanie nawiązać połączenia z odpowiednim serwerem, co skutkuje brakiem dostępu do strony. W przypadku wpisania bezpośredniego adresu IP, system omija proces DNS, co pozwala na nawiązanie połączenia z serwerem. W praktyce, aby zapewnić prawidłowe działanie aplikacji internetowych i dostęp do zasobów w sieci, ważne jest, aby konfiguracja serwera DNS była poprawna oraz aby urządzenia w sieci miały odpowiednie ustawienia DNS. Standardy branżowe, takie jak RFC 1035, definiują mechanizmy działania DNS, które są kluczowe dla prawidłowego funkcjonowania internetu.

Pytanie 30

Jakie urządzenie powinno być użyte do segmentacji domeny rozgłoszeniowej?

A. Hub
B. Ruter
C. Switch
D. Mostek
Ruter jest urządzeniem, które odgrywa kluczową rolę w podziale domeny rozgłoszeniowej, co jest istotne w zapewnieniu efektywnego zarządzania ruchem sieciowym. Domena rozgłoszeniowa to segment sieci, w którym urządzenia mogą wysyłać ramki rozgłoszeniowe, a ruter działa na granicy tych segmentów, filtrując i przekierowując ruch. Dzięki temu ruter nie tylko zmniejsza ilość ruchu w domenie rozgłoszeniowej, ale również poprawia bezpieczeństwo i wydajność sieci. W praktyce, zastosowanie routerów w sieciach lokalnych pozwala na segregację różnych segmentów, co jest szczególnie istotne w dużych organizacjach, gdzie różne działy mogą mieć odmienne wymagania dotyczące bezpieczeństwa i wydajności. Standardy takie jak IEEE 802.1Q dotyczące wirtualnych sieci lokalnych (VLAN) pokazują, jak ruter może być użyty do efektywnego zarządzania ruchem w złożonych topologiach sieciowych, a także do zapewnienia izolacji między różnymi grupami użytkowników. Współczesne routery często wspierają także protokoły takie jak OSPF czy BGP, co umożliwia dynamiczne zarządzanie trasami w większych, rozproszonych sieciach.

Pytanie 31

Wskaź zestaw wykorzystywany do diagnozowania logicznych systemów elektronicznych na płycie głównej komputera, który nie reaguje na próbę uruchomienia zasilania?

Ilustracja do pytania
A. Rys. B
B. Rys. A
C. Rys. D
D. Rys. C
Rysunek A przedstawia logiczny analizator stanów, który jest niezbędnym narzędziem w diagnostyce komputerowych układów elektronicznych. Jest to urządzenie pozwalające na obserwację i rejestrację przebiegów logicznych na pinach układów scalonych, takich jak mikrokontrolery czy procesory na płycie głównej. W przypadku problemów z uruchomieniem komputera, takich jak brak reakcji na włączenie zasilania, analizator stanów umożliwia technikowi sprawdzenie, czy sygnały kontrolne i zegarowe są generowane prawidłowo. Dzięki takiemu narzędziu możliwe jest diagnozowanie błędów w komunikacji między komponentami, jak również identyfikacja problematycznych obwodów. Profesjonalne analizatory stanów oferują wiele funkcji, takich jak wyzwalanie zdarzeń, analiza protokołów komunikacyjnych oraz możliwość podłączenia do komputera w celu zaawansowanej analizy danych. Zgodnie z najlepszymi praktykami, użycie analizatora stanów jest kluczowym elementem w procesie testowania i walidacji projektów elektronicznych. Pozwala to na wczesne wykrycie problemów, co jest zgodne z zasadami efektywnej diagnostyki i konserwacji sprzętu elektronicznego. Narzędzie to jest standardem w branży elektronicznej, używane zarówno w serwisach naprawczych, jak i podczas projektowania nowych urządzeń.

Pytanie 32

Na jakich portach brama sieciowa powinna umożliwiać ruch, aby klienci w sieci lokalnej mieli możliwość ściągania plików z serwera FTP?

A. 80 i 443
B. 20 i 21
C. 110 i 995
D. 22 i 25
Odpowiedź 20 i 21 jest prawidłowa, ponieważ te numery portów są standardowymi portami używanymi przez protokół FTP (File Transfer Protocol). Port 21 jest portem kontrolnym, który służy do zarządzania połączeniem, w tym do przesyłania poleceń i informacji o stanie. Z kolei port 20 jest używany do przesyłania danych w trybie aktywnym FTP. W praktyce, kiedy użytkownik w sieci lokalnej łączy się z serwerem FTP, jego klient FTP najpierw łączy się z portem 21, aby nawiązać sesję, a następnie ustala połączenie danych na porcie 20. To podejście jest zgodne z zaleceniami standardów IETF dla protokołu FTP, co czyni je najlepszą praktyką w kontekście transferu plików w sieciach lokalnych oraz w Internecie. Warto również zauważyć, że wiele firewalli i systemów zabezpieczeń wymaga, aby te porty były otwarte, aby umożliwić poprawne funkcjonowanie usług FTP.

Pytanie 33

Określenie najbardziej efektywnej trasy dla połączenia w sieci to

A. sniffing
B. routing
C. tracking
D. conntrack
Routing, czyli wyznaczanie optymalnej trasy dla połączenia sieciowego, jest kluczowym procesem w zarządzaniu ruchu w sieciach komputerowych. Proces ten polega na określaniu najefektywniejszej drogi, jaką dane powinny przejść od nadawcy do odbiorcy. Przykładem zastosowania routingu jest sieć Internet, gdzie różne protokoły, takie jak OSPF (Open Shortest Path First) czy BGP (Border Gateway Protocol), umożliwiają dynamiczne wyznaczanie tras w zależności od aktualnych warunków sieciowych. Routing nie tylko zwiększa efektywność przesyłania danych, ale także wpływa na niezawodność i wydajność całej infrastruktury sieciowej. Dobrym przykładem praktycznym jest sytuacja, gdy jedna z tras do serwera staje się niedostępna; protokoły routingu automatycznie aktualizują tablice routingu, aby znaleźć alternatywne połączenie. Zrozumienie koncepcji routingu oraz jego implementacji jest niezbędne dla każdego specjalisty w dziedzinie sieci komputerowych, a znajomość standardów branżowych, takich jak IETF, jest kluczowa dla efektywnego projektowania i zarządzania sieciami.

Pytanie 34

Złośliwe programy komputerowe, które potrafią replikować się same i wykorzystują luki w systemie operacyjnym, a także mają zdolność modyfikowania oraz uzupełniania swojej funkcjonalności, nazywamy

A. robaki
B. trojany
C. wirusy
D. rootkity
Robaki, czyli tak zwane 'worms', to takie ciekawe programy, które same się kopiują. Korzystają z luk w systemie operacyjnym, żeby rozprzestrzeniać się w sieci. W odróżnieniu od wirusów, które muszą być wpakowane w inne programy, robaki działają niezależnie. Ich największa moc to właśnie ta zdolność do kopiowania się na inne maszyny, co czyni je naprawdę niebezpiecznymi. Przykłady robaków, które wprowadziły sporo zamieszania, to chociażby Blaster i Sasser. Żeby się przed nimi bronić, firmy powinny mieć aktualne oprogramowanie zabezpieczające, regularnie aktualizować systemy operacyjne i wprowadzać zasady, które pomogą monitorować ruch w sieci. Dobrze jest też ograniczać dostęp do podejrzanych źródeł. Standardy jak ISO/IEC 27001 są bardzo przydatne w zarządzaniu bezpieczeństwem informacji, co jest niezwykle ważne w obliczu zagrożeń, które stwarzają robaki.

Pytanie 35

Jakie złącze, które pozwala na podłączenie monitora, znajduje się na karcie graficznej pokazanej na ilustracji?

Ilustracja do pytania
A. DVI-A, S-VIDEO, DP
B. DVI-D (Single Link), DP, HDMI
C. DVI-I, HDMI, S-VIDEO
D. DVI-D (Dual Link), HDMI, DP
Odpowiedź DVI-D (Dual Link) HDMI DP jest trafna. Na karcie graficznej, którą widzimy, są te złącza, a to są te, które najczęściej spotkasz w nowoczesnych monitorach. DVI-D (Dual Link) to cyfrowe złącze, które pozwala na wyższe rozdzielczości, nawet do 2560x1600 pikseli. To jest mega ważne w branży, gdzie jakość obrazu się liczy. HDMI za to to uniwersalne złącze, które przesyła zarówno obraz, jak i dźwięk, więc sprawdza się świetnie w zastosowaniach multimedialnych. To standard, który znajdziesz w telewizorach, monitorach, a nawet projektorach. A DisplayPort, czyli DP, to nowoczesne złącze, które również obsługuje dźwięk oraz dodatkowe funkcje, jak łączenie kilku monitorów. Co ciekawe, DP jest szybsze od HDMI, co jest ważne, gdy mówimy o ultra wysokich rozdzielczościach. Dlatego te złącza - DVI-D (Dual Link), HDMI i DP - dają dużą elastyczność w podłączaniu różnych monitorów i są zgodne z tym, co się aktualnie dzieje w technologiach IT.

Pytanie 36

Czym jest patchcord?

A. pasywny komponent będący elementem wyposażenia szafy krosowniczej do instalacji gniazd
B. kabel krosowy wykorzystywany do łączenia urządzeń lub gniazd
C. krótki fragment światłowodu z fabrycznie wykonanym zakończeniem
D. ekranowane złącze RJ45
Wybór niewłaściwej odpowiedzi może wynikać z pomylenia roli patchcordu z innymi elementami infrastruktury sieciowej. Pasywne elementy, takie jak gniazda w szafach krosowniczych, nie pełnią funkcji połączeniowej, a jedynie umożliwiają dostęp do sieci, co oznacza, że nie można ich uznać za odpowiednik patchcordu. W kontekście odpowiedzi dotyczącej krótkiego odcinka światłowodu z fabrycznie zarobioną końcówką, warto podkreślić, że chociaż patchcordy mogą być wykonane z włókien światłowodowych, ich definicja wykracza poza ten opis. Patchcordy są przede wszystkim używane do szybkiego łączenia urządzeń, a nie jedynie jako element światłowodowy. Również ekranowane gniazdo RJ45, jako komponent systemu, nie pełni funkcji patchcordu, lecz jest jedynie punktem przyłączeniowym, co nie koresponduje z definicją patchcordu. Właściwe zrozumienie funkcji różnych elementów sieciowych jest kluczowe w projektowaniu i utrzymaniu efektywnych systemów komunikacyjnych. Typowe błędy myślowe prowadzące do takich wniosków to niedostateczna znajomość zastosowań konkretnych komponentów oraz brak zrozumienia ich roli w całym ekosystemie sieciowym. Właściwe rozróżnienie między różnymi rodzajami kabli i elementów sieciowych jest niezbędne dla efektywnego projektowania infrastruktury sieciowej, co jest kluczowe dla zapewnienia wysokiej wydajności i niezawodności systemów teleinformatycznych.

Pytanie 37

Wskaż procesor współpracujący z przedstawioną płytą główną.

Ilustracja do pytania
A. Intel Celeron-430 1.80 GHz, s-755
B. AMD Ryzen 5 1600, 3.2 GHz, s-AM4, 16 MB
C. Intel i5-7640X 4.00 GHz 6 MB, s-2066
D. AMD X4-880K 4.00GHz 4 MB, s-FM2+, 95 W
Prawidłowe dobranie procesora do płyty głównej to absolutny fundament pracy technika komputerowego. W tym przypadku kluczowa jest zgodność podstawki CPU (tzw. socketu) oraz chipsetu płyty z konkretnym modelem procesora. Często można spotkać się z błędnym przekonaniem, że wszystkie procesory danego producenta są ze sobą zamienne – to poważny błąd. Przykładowo, procesor Intel Celeron-430 wykorzystuje podstawkę LGA 775, która dawno już wyszła z użycia i jest niekompatybilna z nowoczesnymi płytami głównymi, które stosują znacznie gęstsze i nowocześniejsze układy pinów. Z kolei AMD Ryzen 5 1600 to jednostka pod gniazdo AM4, które dedykowane jest całkowicie innej platformie – AMD, a nie Intel. Zdarza się też, że ktoś wybiera procesor AMD X4-880K, ponieważ kojarzy, że to mocny układ, lecz on korzysta z podstawki FM2+, typowej dla tańszych płyt głównych AMD sprzed kilku lat, kompletnie nieprzystających do rozwiązań Intela z gniazdem 2066. Typowy błąd to skupianie się tylko na taktowaniu lub liczbie rdzeni, a pomijanie kwestii kompatybilności fizycznej i technologicznej. Moim zdaniem warto pamiętać, że każda seria płyt głównych ma swoją wyspecjalizowaną rodzinę procesorów – w tym przypadku podstawka LGA 2066 i chipset X299 są dopasowane do procesorów Intel z serii Core X. W praktyce, jeśli dobierzesz nieodpowiedni CPU, komputer po prostu nie ruszy, a w najgorszym razie możesz nawet uszkodzić sprzęt. Zawsze warto sprawdzić listę kompatybilności na stronie producenta płyty głównej – to żelazna zasada, o której często się zapomina, szczególnie przy starszym lub nietypowym sprzęcie.

Pytanie 38

Na diagramie mikroprocesora blok wskazany strzałką pełni rolę

Ilustracja do pytania
A. przetwarzania wskaźnika do następnej instrukcji programu
B. wykonywania operacji arytmetycznych i logicznych na liczbach
C. przechowywania aktualnie przetwarzanej instrukcji
D. zapisywania kolejnych adresów pamięci zawierających rozkazy
W mikroprocesorze blok ALU (Arithmetic Logic Unit) jest odpowiedzialny za wykonywanie operacji arytmetycznych i logicznych na liczbach. Jest to kluczowy element jednostki wykonawczej procesora, który umożliwia realizację podstawowych działań matematycznych, takich jak dodawanie, odejmowanie, mnożenie i dzielenie. Oprócz operacji arytmetycznych ALU wykonuje także operacje logiczne, takie jak AND, OR, NOT oraz XOR, które są fundamentalne w procesach decyzyjnych i manipulacji danymi w systemie binarnym. Współczesne procesory mogą zawierać zaawansowane jednostki ALU, które pozwalają na równoległe przetwarzanie danych, co zwiększa ich wydajność i efektywność w realizacji złożonych algorytmów. Zastosowanie ALU obejmuje szeroko pojętą informatykę i przemysł technologiczny, od prostych kalkulacji w aplikacjach biurowych po skomplikowane obliczenia w symulacjach naukowych i grach komputerowych. W projektowaniu mikroprocesorów ALU jest projektowane z uwzględnieniem standardów takich jak IEEE dla operacji zmiennoprzecinkowych co gwarantuje dokładność i spójność obliczeń w różnych systemach komputerowych.

Pytanie 39

Przygotowując ranking dostawców łączy internetowych należy zwrócić uwagę, aby jak najmniejsze wartości miały parametry

A. download i latency.
B. latency i jitter.
C. upload i jitter.
D. upload i download.
Poprawnie wskazałeś, że w rankingu dostawców internetu chcemy, żeby jak najmniejsze były przede wszystkim parametry latency (opóźnienie) i jitter (zmienność opóźnienia). W praktyce to właśnie one decydują o „responsywności” łącza, czyli o tym, jak szybko sieć reaguje na nasze działania. Przepustowość (download, upload) oczywiście też jest ważna, ale jej zwykle nie optymalizujemy „w dół” – im więcej, tym lepiej. Natomiast opóźnienia i ich wahania staramy się minimalizować. Latency to czas, który pakiet potrzebuje, żeby przejść z twojego komputera do serwera i z powrotem (np. w poleceniu ping mierzymy właśnie RTT – round-trip time). Niskie latency jest kluczowe przy grach online, wideokonferencjach, VoIP (np. rozmowy przez Teams, Zoom, Skype), pracy zdalnej na pulpicie zdalnym, a nawet przy zwykłym przeglądaniu stron – strona po prostu szybciej zaczyna się ładować. W nowoczesnych sieciach dąży się do wartości rzędu kilkunastu–kilkudziesięciu ms dla połączeń krajowych. W SLA (Service Level Agreement) operatorzy często podają maksymalne opóźnienia dla określonych tras. Jitter to różnica w kolejnych pomiarach opóźnienia. Może być tak, że średnie latency jest w miarę OK, ale jitter jest wysoki i wtedy ruch czasu rzeczywistego (głos, wideo) zaczyna się rwać, pojawiają się lagi, artefakty, komunikatory audio-video muszą mocniej buforować pakiety, co skutkuje opóźnieniami w rozmowie. Z mojego doświadczenia w firmach bardziej zwraca się uwagę właśnie na jitter przy wdrożeniach VoIP czy systemów call center niż na samą „gołą” prędkość łącza. W dobrych praktykach branżowych przy projektowaniu sieci pod aplikacje czasu rzeczywistego (np. zgodnie z zaleceniami ITU-T dla VoIP czy zaleceniami producentów systemów UC) przyjmuje się, że: latency powinno być możliwie niskie (np. <150 ms dla rozmów głosowych), jitter minimalny (często <30 ms), a straty pakietów na bardzo niskim poziomie. W rankingach operatorów, jeśli chcemy ocenić jakość łącza „pod jakość użytkownika”, sensownie jest posługiwać się właśnie latency, jitter, packet loss, a dopiero potem patrzeć na prędkości pobierania i wysyłania. Twoja odpowiedź dokładnie wpisuje się w takie profesjonalne podejście do oceny jakości usług internetowych.

Pytanie 40

Funkcja znana jako: "Pulpit zdalny" standardowo operuje na porcie

A. 3390
B. 3379
C. 3389
D. 3369

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź 3389 jest poprawna, ponieważ port ten jest domyślnie używany przez protokół RDP (Remote Desktop Protocol), który umożliwia zdalny dostęp do komputerów oraz zarządzanie nimi. Użycie tego portu pozwala na bezpieczną komunikację z serwerem, co jest kluczowe w kontekście administracji IT, zwłaszcza w środowiskach korporacyjnych. RDP jest szeroko stosowany w zarządzaniu serwerami oraz w pracy zdalnej, co czyni go istotnym narzędziem w arsenale administratorów systemów. Zrozumienie domyślnego portu RDP, czyli 3389, jest fundamentem dla właściwej konfiguracji zapór ogniowych oraz zabezpieczeń sieciowych. Aby zwiększyć bezpieczeństwo, wiele organizacji decyduje się na zmianę domyślnego portu na inny, co może pomóc w ochronie przed nieautoryzowanym dostępem. Dobre praktyki sugerują dodatkowe zabezpieczenia, takie jak stosowanie VPN oraz wieloskładnikowe uwierzytelnianie, co zwiększa bezpieczeństwo zdalnego dostępu do zasobów. Takie podejście sprzyja zgodności z normami bezpieczeństwa oraz redukcji ryzyka ataków.