Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 31 stycznia 2026 15:13
  • Data zakończenia: 31 stycznia 2026 15:40

Egzamin zdany!

Wynik: 25/40 punktów (62,5%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Na ilustracji przedstawiono ustawienie karty sieciowej, której adres MAC wynosi

Ethernet adapter VirtualBox Host-Only Network:

   Connection-specific DNS Suffix  . :
   Description . . . . . . . . . . . : VirtualBox Host-Only Ethernet Adapter
   Physical Address. . . . . . . . . : 0A-00-27-00-00-07
   DHCP Enabled. . . . . . . . . . . : No
   Autoconfiguration Enabled . . . . : Yes
   Link-local IPv6 Address . . . . . : fe80::e890:be2b:4c6c:5aa9%7(Preferred)
   IPv4 Address. . . . . . . . . . . : 192.168.56.1(Preferred)
   Subnet Mask . . . . . . . . . . . : 255.255.255.0
   Default Gateway . . . . . . . . . :
   DHCPv6 IAID . . . . . . . . . . . : 134873127
   DHCPv6 Client DUID. . . . . . . . : 00-01-00-01-1F-04-2D-93-00-1F-D0-0C-7B-12
   DNS Servers . . . . . . . . . . . : fec0:0:0:ffff::1%1
                                       fec0:0:0:ffff::2%1
                                       fec0:0:0:ffff::3%1
   NetBIOS over Tcpip. . . . . . . . : Enabled
A. FEC0:0:0:FFFF::2
B. 192.168.56.1
C. FE80::E890:BE2B:4C6C:5AA9
D. 0A-00-27-00-00-07
Adres MAC jest unikalnym identyfikatorem przypisanym do karty sieciowej przez producenta. Składa się z 48 bitów, co zazwyczaj przedstawiane jest jako 12-cyfrowy adres zapisany w formacie szesnastkowym, np. 0A-00-27-00-00-07. Ten adres jest kluczowy w komunikacji na poziomie warstwy łącza danych w modelu OSI, umożliwiając urządzeniom wzajemne rozpoznawanie się w sieci lokalnej. Standard IEEE dla adresów MAC określa, że pierwsze 24 bity to identyfikator producenta (OUI), a pozostałe 24 bity są unikalne dla danego urządzenia. Zastosowanie adresów MAC jest szerokie, od filtrowania w sieciach Wi-Fi po konfigurację reguł bezpieczeństwa w sieciach LAN. W praktyce, znajomość adresu MAC jest nieoceniona przy diagnozowaniu problemów sieciowych oraz przy konfiguracji sprzętu sieciowego, gdzie identyfikacja urządzeń fizycznych jest niezbędna. W porównaniu do adresów IP, które mogą się zmieniać (szczególnie w przypadku DHCP), adresy MAC pozostają stałe, zapewniając spójność identyfikacji w długim okresie użytkowania.

Pytanie 2

Zasadniczym sposobem zabezpieczenia danych przechowywanych na serwerze jest

A. ustawienie punktu przywracania systemu
B. tworzenie kopii zapasowej
C. automatyczne wykonywanie kompresji danych
D. uruchomienie ochrony systemu
Tworzenie kopii bezpieczeństwa danych jest podstawowym mechanizmem ochrony danych znajdujących się na serwerze, ponieważ pozwala na ich odzyskanie w przypadku awarii, ataku cybernetycznego czy przypadkowego usunięcia. Regularne tworzenie kopii zapasowych jest uznawane za najlepszą praktykę w zarządzaniu danymi, a standardy takie jak ISO 27001 podkreślają znaczenie bezpieczeństwa danych. Przykładem wdrożenia tej praktyki może być stosowanie rozwiązań takich jak systemy RAID, które przechowują dane na wielu dyskach, lub zewnętrzne systemy kopii zapasowych, które wykonują automatyczne backupy. Oprócz tego, ważne jest, aby kopie bezpieczeństwa były przechowywane w różnych lokalizacjach, co zwiększa ich odporność na awarie fizyczne. Nie należy również zapominać o regularnym testowaniu odtwarzania danych z kopii zapasowych, co zapewnia pewność ich integralności i użyteczności w krytycznych momentach. Takie podejście nie tylko minimalizuje ryzyko utraty danych, ale także pozwala na szybsze przywrócenie ciągłości działania organizacji.

Pytanie 3

Minimalną wartość długości hasła użytkownika w systemie Windows można ustawić poprzez komendę

A. net user
B. net accounts
C. net config
D. net computer
Inne wymienione polecenia, takie jak 'net user', 'net config' i 'net computer', nie są przeznaczone do ustawiania polityki haseł w systemie Windows. Polecenie 'net user' służy do zarządzania kontami użytkowników, w tym do dodawania, usuwania czy zmiany informacji o użytkownikach, ale nie umożliwia bezpośredniego ustawienia minimalnej długości hasła. Chociaż może być użyte w kontekście zarządzania użytkownikami, jego funkcjonalność w zakresie zabezpieczeń haseł jest ograniczona. 'Net config' to polecenie służące do konfiguracji różnych usług sieciowych, a nie do zarządzania polityką haseł. W przypadku 'net computer', jego zastosowanie dotyczy zarządzania kontami komputerów w sieci, co również nie ma związku z politykami haseł. Użytkownicy mogą mylnie sądzić, że wszystkie polecenia związane z 'net' mają podobne zastosowania, jednak każde z nich ma specyficzne funkcje i ograniczenia. Zrozumienie tych różnic jest kluczowe w celu prawidłowego zarządzania systemem i jego bezpieczeństwem.

Pytanie 4

Dobrze zaprojektowana sieć komputerowa powinna zapewniać możliwość rozbudowy, czyli charakteryzować się

A. nadmiarowością
B. redundancją
C. skalowalnością
D. wydajnością
Wydajność, redundancja i nadmiarowość to ważne aspekty projektowania sieci komputerowej, ale nie są one bezpośrednio związane z jej skalowalnością. Wydajność odnosi się do zdolności sieci do przetwarzania danych w określonym czasie. Choć wydajność jest kluczowa, to nie gwarantuje możliwości rozbudowy sieci w przyszłości. W rzeczywistości, sieć może być wydajna, ale niezdolna do łatwej rozbudowy, co prowadzi do potencjalnych problemów w dłuższej perspektywie. Redundancja i nadmiarowość dotyczą zapobieganiu awariom oraz zapewnieniu ciągłości działania, co jest istotne dla utrzymania wysokiej dostępności. Redundancja polega na posiadaniu dodatkowych komponentów, które mogą przejąć funkcje uszkodzonych elementów, podczas gdy nadmiarowość odnosi się do celowego wprowadzenia dodatkowych zasobów, aby zwiększyć niezawodność. Choć te podejścia są niezbędne w infrastrukturze krytycznej, nie wpływają one na zdolność sieci do efektywnej rozbudowy. Typowym błędem myślowym jest mylenie tych terminów i założenie, że wystarczająca wydajność lub redundancja automatycznie oznaczają, że sieć jest skalowalna. W rzeczywistości, aby sieć była rzeczywiście elastyczna w rozbudowie, projektanci muszą skupić się na jej skalowalności, co wymaga przemyślanej architektury i planowania.

Pytanie 5

Jakie urządzenie należy zastosować, aby połączyć sieć lokalną wykorzystującą adresy prywatne z Internetem?

A. repeater
B. router
C. hub
D. switch
Router jest urządzeniem sieciowym, które umożliwia podłączenie lokalnej sieci komputerowej do Internetu, a także zarządzanie ruchem danych pomiędzy różnymi sieciami. Główna rola routera polega na translacji adresów IP, co pozwala na komunikację między urządzeniami w sieci lokalnej, które posługują się adresami prywatnymi, a zewnętrznymi zasobami sieciowymi, które używają adresów publicznych. Przykładowo, w typowej konfiguracji domowej, router łączy się z dostawcą usług internetowych (ISP) i przydziela adresy prywatne (np. 192.168.1.x) urządzeniom w sieci lokalnej. Dzięki NAT (Network Address Translation) urządzenia te mogą jednocześnie korzystać z Internetu, korzystając z jednego publicznego adresu IP. Routery często oferują dodatkowe funkcje, takie jak zapora ogniowa czy serwer DHCP, co czyni je wszechstronnymi urządzeniami do zarządzania lokalnymi sieciami komputerowymi.

Pytanie 6

Które bity w 48-bitowym adresie MAC identyfikują producenta?

A. Pierwsze 24 bity
B. Ostatnie 8 bitów
C. Pierwsze 8 bitów
D. Ostatnie 24 bity
W 48-bitowym adresie sprzętowym MAC, pierwsze 24 bity są zarezerwowane na identyfikator producenta, znany jako Organizationally Unique Identifier (OUI). OUI jest przypisany przez IEEE (Institute of Electrical and Electronics Engineers) i służy do identyfikacji producentów sprzętu sieciowego, co pozwala na uniknięcie konfliktów adresów. W praktyce, kiedy urządzenie sieciowe jest produkowane, producent przypisuje unikalny OUI do swojego sprzętu, co umożliwia rozróżnienie urządzeń w sieci. Na przykład, karty sieciowe firmy Cisco będą miały OUI rozpoczynający się od konkretnego zestawu bitów, co umożliwia administratorom sieci identyfikację urządzeń różnych producentów. Znajomość struktury adresów MAC jest niezwykle istotna w kontekście zarządzania siecią, zapewnienia bezpieczeństwa oraz diagnostyki problemów sieciowych, ponieważ pozwala na szybką identyfikację nielubianych producentów lub urządzeń potencjalnie problematycznych. Warto również dodać, że kolejne 24 bity adresu MAC są używane jako identyfikator unikalny dla konkretnego urządzenia produkowanego przez danego producenta, co zapewnia dodatkową warstwę unikalności w sieci.

Pytanie 7

Który z protokołów jest stosowany w procesie rozpoczęcia sesji VoIP?

A. SDP
B. MCGP
C. MIME
D. SIP
Protokół SIP (Session Initiation Protocol) jest kluczowym elementem w zakresie inicjacji i zarządzania sesjami VoIP (Voice over Internet Protocol). Jego głównym celem jest ustalenie, modyfikacja oraz zakończenie sesji multimedialnych, co obejmuje zarówno połączenia głosowe, jak i wideo. SIP działa na zasadzie zestawiania połączeń poprzez wymianę komunikatów, co pozwala na elastyczne zarządzanie sesjami. Protokół ten zyskał popularność ze względu na swoją prostotę oraz zdolność do integracji z różnymi typami urządzeń i aplikacji. Przykładowo, w praktyce SIP często współpracuje z protokołem SDP (Session Description Protocol), który zajmuje się określaniem parametrów sesji, takich jak kodeki i adresy IP. W branży telekomunikacyjnej SIP jest standardem uznawanym przez IETF (Internet Engineering Task Force) i jest szeroko stosowany w rozwiązaniach takich jak VoIP, telefonia IP oraz systemy komunikacji unifikowanej. Stosowanie SIP w organizacjach pozwala na efektywne zarządzanie połączeniami, co prowadzi do znaczącego obniżenia kosztów komunikacji.

Pytanie 8

W systemie Windows 7 konfigurację interfejsu sieciowego można przeprowadzić, używając rozwinięcia polecenia

A. telnet
B. nslookup
C. netsh
D. tracert
Odpowiedzi, które nie obejmują polecenia 'netsh', wskazują na nieporozumienie dotyczące narzędzi do zarządzania interfejsem sieciowym w systemie Windows. 'Telnet' to protokół umożliwiający zdalne logowanie do innych urządzeń w sieci, ale nie jest przeznaczony do konfigurowania interfejsów sieciowych. Może być używany do testowania połączeń z serwerami, ale nie pozwala na modyfikację ustawień sieciowych. 'Tracert' jest narzędziem do diagnostyki, które śledzi trasę pakietów do określonego adresu IP, pomagając w identyfikacji problemów z trasowaniem, lecz również nie służy do konfiguracji interfejsów. Z kolei 'nslookup' to narzędzie do zapytań DNS, które pozwala na sprawdzanie informacji związanych z nazwami domen, co ma zastosowanie w kontekście rozwiązywania problemów z DNS, ale nie ma zastosowania przy konfiguracji interfejsów sieciowych. Typowe błędy myślowe, które mogą prowadzić do wyboru tych odpowiedzi, obejmują mylenie różnych typów narzędzi – można na przykład błędnie sądzić, że każde narzędzie związane z siecią może służyć do konfiguracji, co jest nieprawdziwe. Właściwe zrozumienie ról poszczególnych narzędzi jest kluczowe dla efektywnego zarządzania infrastrukturą sieciową.

Pytanie 9

Której aplikacji należy użyć, aby sprawdzić parametry S.M.A.R.T.?

A. GPU-Z
B. CPU-Z
C. HD Tune
D. WireShark
Poprawnie – do sprawdzania parametrów S.M.A.R.T. typowo używa się właśnie takich narzędzi jak HD Tune. S.M.A.R.T. (Self-Monitoring, Analysis and Reporting Technology) to wbudowany w dyski twarde i SSD mechanizm monitorowania stanu nośnika. Dysk sam zbiera statystyki o swojej pracy: liczbę realokowanych sektorów, błędy odczytu/zapisu, temperaturę, czas pracy, liczbę prób rozruchu itp. Program HD Tune potrafi te dane odczytać, zinterpretować i przedstawić w czytelnej formie, często z kolorowym oznaczeniem atrybutów, które są poza normą. W praktyce, w serwisie czy w firmie, użycie HD Tune (albo podobnych narzędzi) to jedna z podstawowych czynności diagnostycznych przy problemach z dyskiem: wolne działanie systemu, zawieszki, błędy przy kopiowaniu plików, nieudane instalacje systemu. Moim zdaniem warto przyjąć dobrą praktykę, żeby przy każdym podejrzeniu problemów z dyskiem najpierw sprawdzić S.M.A.R.T., a dopiero potem bawić się w reinstalację systemu. HD Tune umożliwia też wykonanie prostego testu powierzchni, co w połączeniu z analizą S.M.A.R.T. daje całkiem wiarygodny obraz kondycji nośnika. W branży serwisowej jest to traktowane jako standardowy krok diagnostyczny, zanim podejmie się decyzję o odzyskiwaniu danych czy wymianie dysku na nowy. Warto też pamiętać, że regularne monitorowanie S.M.A.R.T. (np. raz na kilka miesięcy w komputerach firmowych) pozwala wykryć wczesne objawy degradacji nośnika i zaplanować wymianę zanim dojdzie do krytycznej awarii i utraty danych. To się po prostu opłaca organizacyjnie i finansowo.

Pytanie 10

Udostępniono w sieci lokalnej jako udział specjalny folder o nazwie egzamin znajdujący się na komputerze o nazwie SERWER_2 w katalogu głównym dysku C:. Jak powinna wyglądać ścieżka dostępu do katalogu egzamin, w którym przechowywany jest folder macierzysty dla konta użytkownika o określonym loginie?

A. \\SERWER_2\$egzamin$\%USERNAME%
B. \\SERWER_2\$egzamin\%USERNAME%
C. \\SERWER_2\egzamin$\%USERNAME%
D. \\SERWER_2\egzamin$\%USERNAME%
Wiele osób myli składnię ścieżek sieciowych w Windows, szczególnie jeśli chodzi o udziały specjalne i dynamiczne odwoływanie się do katalogów użytkowników. Często pojawia się zamieszanie z miejscem umieszczenia znaku dolara oraz zastosowaniem zmiennych systemowych. W niektórych błędnych odpowiedziach dolara dodano w złym miejscu, np. przy nazwie folderu zamiast udziału, albo pominięto go całkowicie, co sprawia, że zasób nie jest ukryty i nie spełnia funkcji udziału specjalnego. Inny typowy błąd to używanie znaku dolara przed nazwą udziału czy folderu bez zrozumienia, jak Windows interpretuje udostępnianie – system wymaga, by znak ten był na końcu nazwy udziału w definicji udziału, nie w ścieżce fizycznej. Bywa także, że osoby myślą, iż użycie 'egzamin$' w ścieżce, gdy fizyczny folder nie ma znaku dolara w nazwie, jest błędem, jednak to właśnie logika udziałów sieciowych pozwala rozróżnić nazwę udziału od folderu na dysku. Niekiedy można się też pomylić przy używaniu zmiennej %USERNAME%. Jej brak w ścieżce skutkuje, że każdy użytkownik trafiałby nie do swojego, a wspólnego katalogu, co zupełnie rozmija się z zasadami bezpieczeństwa i praktyką pracy w domenach. Praktyka pokazuje, że administratorzy powinni zawsze sprawdzać, jak nazywają udziały i przekazywać jasne instrukcje użytkownikom, bo nieintuicyjne nazewnictwo i niestandardowe ścieżki mogą prowadzić do frustracji albo – co gorsza – do przypadkowego ujawnienia poufnych danych. Z mojego doświadczenia źle skonfigurowane ścieżki sieciowe potrafią być powodem wielu niejasności w pracy zespołów czy w procesie nadawania uprawnień, dlatego warto dobrze opanować tę tematykę.

Pytanie 11

Użycie trunkingowego połączenia między dwoma przełącznikami umożliwia

A. zablokowanie wszelkich niepotrzebnych połączeń na danym porcie
B. zwiększenie wydajności połączenia poprzez użycie dodatkowego portu
C. przesyłanie w jednym łączu ramek pochodzących od wielu wirtualnych sieci lokalnych
D. ustawienie agregacji portów, która zwiększa przepustowość między przełącznikami
Zabranie się do analizy odpowiedzi, które nie dotyczą funkcji trunkingu, ujawnia powszechne nieporozumienia dotyczące podstawowych zasad działania sieci. Zablokowanie wszystkich nadmiarowych połączeń na konkretnym porcie nie odnosi się do funkcjonalności trunków. Trunkowanie polega na umożliwieniu przesyłania danych z różnych VLAN-ów, a nie na blokowaniu połączeń. Z kolei zwiększenie przepustowości połączenia przez wykorzystanie kolejnego portu odnosi się bardziej do koncepcji agregacji portów, która łączy wiele portów w jeden logiczny port w celu zwiększenia wydajności. W trunkingowaniu nie chodzi o dodawanie portów, lecz o efektywne używanie istniejącego jednego połączenia do komunikacji z wieloma VLAN-ami. Ponadto, skonfigurowanie agregacji portów, zwiększającej przepustowość między przełącznikami, jest inną techniką i nie jest bezpośrednio związane z trunkingiem. Te koncepcje są czasami mylone, ponieważ dotyczą różnych aspektów zarządzania ruchem w sieci, co prowadzi do błędnych wniosków. Warto zrozumieć, że trunking to specyficzna technika, która ma na celu optymalizację komunikacji między VLAN-ami, a nie ogólną poprawę przepustowości połączeń.

Pytanie 12

Narzędziem systemu Windows, służącym do sprawdzenia wpływu poszczególnych procesów i usług na wydajność procesora oraz tego, w jakim stopniu generują one obciążenie pamięci czy dysku, jest

A. resmon
B. cleanmgr
C. credwiz
D. dcomcnfg
Wybierając inne narzędzia niż resmon, łatwo wpaść w pułapkę myślenia, że wszystkie wbudowane aplikacje Windowsa są uniwersalne do zarządzania wydajnością. Na przykład credwiz to narzędzie do zarządzania kopiami zapasowymi poświadczeń użytkownika – zupełnie nie dotyczy ono monitorowania procesów czy pamięci. To typowy przykład mylenia narzędzi konfiguracyjnych z diagnostycznymi. Cleanmgr, czyli Oczyszczanie dysku, skupia się tylko na usuwaniu zbędnych plików i na pewno nie pokazuje, które aplikacje czy procesy aktualnie obciążają komputer. Co ciekawe, cleanmgr czasami poprawia wydajność, ale zupełnie pośrednio – przez zwolnienie miejsca na dysku, nie przez bezpośredni monitoring zasobów. Dcomcnfg to z kolei panel do zarządzania konfiguracją DCOM i usługami komponentów – to już bardzo specjalistyczne narzędzie, służy głównie administratorom do ustawiania uprawnień i zabezpieczeń aplikacji rozproszonych, a nie do analizy wydajności systemu. Z mojego doświadczenia wynika, że sporo osób po prostu nie zna resmona, bo jest mniej znany niż Menedżer zadań albo myli jego funkcje z innymi narzędziami administracyjnymi. W branży IT przyjęło się, że do monitorowania wydajności procesora, RAM-u czy dysku stosuje się wyłącznie narzędzia specjalistyczne, które pokazują dane w czasie rzeczywistym i potrafią rozbić zużycie zasobów na poszczególne procesy, a do tej kategorii należy właśnie resmon. Wybór innych aplikacji wynika często z powierzchownej znajomości systemu lub skupienia się na zadaniach pobocznych, takich jak konfiguracja poświadczeń czy czyszczenie plików tymczasowych, które nie mają wpływu na szczegółową analizę zużycia zasobów przez procesy. Dlatego przy problemach z wydajnością zdecydowanie polecam zawsze zaczynać od resmona – to narzędzie, które pozwala najszybciej zdiagnozować prawdziwe źródło problemu.

Pytanie 13

Aby komputer stacjonarny mógł współdziałać z urządzeniami używającymi złącz pokazanych na ilustracji, konieczne jest wyposażenie go w interfejs

Ilustracja do pytania
A. DVI-A
B. HDMI
C. Fire Wire
D. Display Port
Display Port to taki cyfrowy interfejs, który głównie służy do przesyłania obrazu z komputera do monitora. Ma tę fajną zaletę, że potrafi przesyłać wideo w bardzo wysokiej rozdzielczości, a przy tym również dźwięk, co sprawia, że jest super uniwersalny dla nowoczesnych urządzeń multimedialnych. Zgodność ze standardami VESA to kolejna rzecz, dzięki której można go używać z wieloma różnymi sprzętami. Dodatkowo, Display Port ma opcję synchronizacji dynamicznej obrazu, co jest mega ważne dla graczy i dla tych, którzy zajmują się edycją wideo. W zawodowych środowiskach często wybiera się właśnie Display Port, bo obsługuje wyższe rozdzielczości i częstotliwości odświeżania niż starsze złącza. A to, że można połączyć kilka monitorów za pomocą jednego kabla, to już w ogóle bajka, bo znacznie ułatwia życie i porządek z kablami. Wybierać Display Port to pewny krok w stronę lepszej jakości obrazu i dźwięku oraz dobrą inwestycję na przyszłość, bo technologie się rozwijają, a ten interfejs sobie z tym poradzi.

Pytanie 14

Jak nazywa się protokół bazujący na architekturze klient-serwer oraz na modelu żądanie-odpowiedź, który jest używany do transferu plików?

A. FTP
B. SSH
C. ARP
D. SSL
Każda z pozostałych opcji reprezentuje różne protokoły i technologie, które nie są przeznaczone bezpośrednio do udostępniania plików w architekturze klient-serwer. Protokół SSH (Secure Shell) jest używany głównie do bezpiecznego zdalnego logowania i zarządzania systemami, co czyni go nieodpowiednim do przesyłania plików w tradycyjny sposób. Choć SSH może być używane w kontekście transferu plików przez SFTP, to sam protokół nie jest bezpośrednio związany z udostępnianiem plików, a jego główną funkcją jest zapewnienie bezpiecznego dostępu do urządzeń. SSL (Secure Sockets Layer) to protokół używany do zabezpieczania transmisji danych przez sieć, ale nie jest to protokół transferu plików. Jego rolą jest szyfrowanie połączeń, co pozwala na bezpieczną wymianę informacji, jednak nie dotyczy bezpośrednio samego udostępniania plików. Protokół ARP (Address Resolution Protocol) działa na niższym poziomie sieciowym, odpowiadając za mapowanie adresów IP na adresy MAC i nie ma żadnego związku z transferem plików. Typowym błędem myślowym jest mylenie funkcji różnych protokołów oraz nieznajomość ich zastosowań w praktyce. Warto pamiętać, że wybór odpowiedniego protokołu transferu plików powinien opierać się na jego specyficznych możliwościach oraz zgodności z wymaganiami dotyczącymi bezpieczeństwa i efektywności."

Pytanie 15

Aby połączyć dwa przełączniki oddalone o 200 m i osiągnąć minimalną przepustowość 200 Mbit/s, jakie rozwiązanie należy zastosować?

A. skrętkę UTP
B. kabel koncentryczny 50 Ω
C. skrętkę STP
D. światłowód
Skrętka UTP, STP i kabel koncentryczny 50 Ω mają sporo ograniczeń, przez co nie nadają się do łączenia dwóch przełączników na 200 m przy wymaganiu 200 Mbit/s. Skrętka UTP jest popularna w sieciach, ale jej maksymalny zasięg to 100 m. Kiedy wyjdzie się poza ten limit, jakość sygnału się pogarsza, co może prowadzić do utraty danych i opóźnień. Skrętka STP, która trochę lepiej znosi zakłócenia, też nie da rady, bo ma podobne ograniczenia. Użycie tych kabli w takiej sytuacji na pewno spowoduje problemy z niezawodnością połączenia. A kabel koncentryczny 50 Ω to już trochę staroć. Używa się go głównie w telekomunikacji, a w nowoczesnych sieciach LAN nie sprawdzi się, bo potrzebujemy dużo większych prędkości. Wybierając złe medium do transmisji, można się naprawdę zdenerwować i ponieść dodatkowe koszty związane z utrzymaniem sieci. Ważne jest, żeby zrozumieć, że obecne aplikacje potrzebują nie tylko odpowiedniej przepustowości, ale także stabilności i jakości połączenia, a to najlepiej zapewnia światłowód.

Pytanie 16

Jakie polecenie należy wykorzystać, aby w terminalu pokazać przedstawione informacje o systemie Linux?

Arch Linux 2.6.33-ARCH  (myhost) (tty1)

myhost login: root
Password:
[root@myhost ~]#

Linux myhost 2.6.33-ARCH #1 SMP PREEMPT Thu May 13 12:06:25 CEST 2010 i686 Intel
(R) Pentium(R) 4 CPU 2.80GHz GenuineIntel GNU/Linux
A. uptime
B. uname -a
C. hostname
D. factor 22
Polecenie 'uname -a' w systemie Linux służy do wyświetlenia szczegółowych informacji o systemie operacyjnym. Jest to bardzo przydatne w kontekście administracji systemem, ponieważ daje pełny obraz wersji jądra, nazwy hosta, architektury i innych kluczowych informacji. Na przykład, po wykonaniu 'uname -a', użytkownik otrzymuje dane takie jak wersja jądra, która jest istotna przy instalacji sterowników czy rozwiązywaniu problemów związanych z kompatybilnością oprogramowania. Zrozumienie znaczenia i struktury informacji zwracanych przez 'uname -a' jest kluczowe dla administratora systemu. Warto wiedzieć, że 'uname' można użyć z różnymi opcjami, np. 'uname -r' wyświetli tylko wersję jądra. Wiedza o jądrach i ich wersjach jest niezbędna do zarządzania systemem i zapewnienia jego bezpieczeństwa oraz sprawności działania. Jest to standardowe narzędzie w środowisku Unix/Linux, szeroko wykorzystywane w praktyce zawodowej.

Pytanie 17

Sprzęt, na którym można skonfigurować sieć VLAN, to

A. most przezroczysty (transparent bridge)
B. firewall
C. switch
D. regenerator (repeater)
Switch to urządzenie, które odgrywa kluczową rolę w tworzeniu i zarządzaniu sieciami VLAN (Virtual Local Area Network). Pozwala na segmentację ruchu sieciowego, co zwiększa bezpieczeństwo i wydajność. VLAN-y umożliwiają grupowanie urządzeń w logiczne sieci, niezależnie od ich fizycznej lokalizacji, co jest szczególnie przydatne w dużych organizacjach. Na przykład, w biurze, gdzie różne działy, takie jak IT, HR i finanse, mogą być odseparowane, co zwiększa bezpieczeństwo danych. Dobrą praktyką jest przypisanie różnych VLAN-ów dla poszczególnych działów, co ogranicza dostęp do wrażliwych informacji tylko do uprawnionych użytkowników. Standardy takie jak IEEE 802.1Q definiują, jak VLAN-y są implementowane w sieciach Ethernet, co jest powszechnie stosowane w branży. Dzięki switchom zarządzanym możliwe jest dynamiczne przypisywanie portów do różnych VLAN-ów, co zapewnia elastyczność w zarządzaniu siecią.

Pytanie 18

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. konfigurowaniem adresu karty sieciowej.
B. wybraniem pliku z obrazem dysku.
C. dodaniem drugiego dysku twardego.
D. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 19

Kluczowym mechanizmem zabezpieczającym dane przechowywane na serwerze jest

A. tworzenie kopii bezpieczeństwa
B. uruchomienie ochrony systemu
C. generowanie punktu przywracania systemu
D. automatyczne realizowanie kompresji danych
Tworzenie kopii bezpieczeństwa to fundamentalny element strategii ochrony danych na serwerze. Umożliwia to zabezpieczenie danych przed ich utratą w wyniku awarii sprzętu, błędów ludzkich czy ataków złośliwego oprogramowania. W praktyce, regularne tworzenie kopii bezpieczeństwa, na przykład codziennie lub co tydzień, powinno być integralną częścią procedur zarządzania danymi. W przypadku incydentu, administratorzy mogą szybko przywrócić dane do stanu sprzed awarii. Dobrą praktyką jest stosowanie zasady 3-2-1, która zaleca posiadanie trzech kopii danych na dwóch różnych nośnikach, z jedną kopią przechowywaną w innym miejscu. Standardy takie jak ISO/IEC 27001 kładą nacisk na zarządzanie ryzykiem związanym z utratą danych, a regularne kopie bezpieczeństwa są kluczowym elementem tego procesu. Warto również brać pod uwagę różne metody tworzenia kopii zapasowych, takie jak pełne, przyrostowe i różnicowe, aby optymalizować czas i miejsce przechowywania.

Pytanie 20

Użytkownik o nazwie Gość należy do grupy o nazwie Goście. Grupa Goście jest częścią grupy Wszyscy. Jakie ma uprawnienia użytkownik Gość w folderze test1?

Ilustracja do pytania
A. Użytkownik Gość posiada tylko uprawnienia zapisu do folderu test1
B. Użytkownik Gość nie ma uprawnień do folderu test1
C. Użytkownik Gość ma uprawnienia tylko do odczytu folderu test1
D. Użytkownik Gość ma pełne uprawnienia do folderu test1
W systemach operacyjnych, takich jak Windows, uprawnienia do folderów i plików są zarządzane poprzez przypisywanie ich użytkownikom i grupom. Użytkownik Gość, jako członek grupy Goście, dziedziczy uprawnienia przypisane tej grupie. Na załączonym obrazku widać, że grupa Goście ma odmówione wszelkie uprawnienia do folderu test1. W praktyce oznacza to, że żadna operacja, taka jak odczyt, zapis czy zmiana, nie jest dozwolona dla użytkowników tej grupy. Zasada dziedziczenia uprawnień oznacza, że jeśli grupa, do której należy użytkownik, ma odmówione uprawnienia, to pojedynczy użytkownik także ich nie posiada, chyba że ma nadane uprawnienia indywidualne, co tutaj nie ma miejsca. To podejście do zarządzania uprawnieniami jest zgodne z najlepszymi praktykami, które zalecają minimalizację dostępu do niezbędnego minimum, co zwiększa bezpieczeństwo systemu. Dzięki temu administracja dostępem do zasobów jest bardziej przewidywalna i łatwiejsza w zarządzaniu, a użytkownicy nie mają niepotrzebnych lub nieintencjonalnych uprawnień.

Pytanie 21

Jakim portem domyślnie odbywa się przesyłanie poleceń (command) serwera FTP?

A. 20
B. 21
C. 110
D. 25
Port 21 jest domyślnym portem dla protokołu FTP (File Transfer Protocol), który jest standardem służącym do transferu plików w sieciach. Użycie portu 21 jako portu kontrolnego jest zgodne z ustaleniami IETF (Internet Engineering Task Force) i jest szeroko stosowane w branży IT. Na tym porcie klient FTP nawiązuje połączenie z serwerem, aby wysłać polecenia, takie jak logowanie czy przeglądanie folderów. Przykładowo, podczas korzystania z oprogramowania FTP, takiego jak FileZilla, wpisując adres serwera, automatycznie używa portu 21, chyba że użytkownik wskaże inny. To standardowe podejście zapewnia łatwość konfiguracji i zgodność z różnorodnymi serwerami FTP. Warto również zauważyć, że dla bezpieczniejszego transferu danych, można używać FTP Secure (FTPS) lub SSH File Transfer Protocol (SFTP), które zajmują inne porty, jednak dla klasycznego FTP port 21 pozostaje powszechnie uznawanym standardem.

Pytanie 22

Jakie zagrożenia eliminują programy antyspyware?

A. oprogramowanie antywirusowe
B. programy szpiegujące
C. ataki typu DoS oraz DDoS (Denial of Service)
D. programy działające jako robaki
Programy antyspyware są specjalistycznymi narzędziami zaprojektowanymi w celu wykrywania, zapobiegania i usuwania programów szpiegujących. Te złośliwe oprogramowania, znane również jako spyware, mają na celu zbieranie informacji o użytkownikach bez ich zgody, co może prowadzić do naruszenia prywatności oraz kradzieży danych. Oprogramowanie antyspyware skanuje system w poszukiwaniu takich programów i blokuje ich działanie, stosując różne metody, takie jak monitorowanie aktywności systemowej, analizy zachowań aplikacji czy porównywanie znanych sygnatur szkodliwego oprogramowania. Przykładem praktycznym może być sytuacja, w której użytkownik instaluje darmowy program, który mimo korzystnej funkcjonalności, zawiera elementy spyware. Program antyspyware wykryje takie zagrożenie i zablokuje instalację lub usunie już zainstalowane komponenty, co jest zgodne z najlepszymi praktykami w zakresie zabezpieczeń IT, które zalecają regularne skanowanie systemu oraz aktualizację oprogramowania bezpieczeństwa.

Pytanie 23

Jakie oprogramowanie należy zainstalować, aby serwer Windows mógł obsługiwać usługi katalogowe?

A. kontroler domeny
B. rolę serwera Web
C. usługi zarządzania prawami
D. rolę serwera DHCP
Kontroler domeny jest kluczowym elementem infrastruktury sieciowej opartej na systemach Windows, który zarządza usługami katalogowymi w sieci. Głównym zadaniem kontrolera domeny jest przechowywanie informacji o członkach domeny, w tym komputerach i użytkownikach, oraz zarządzanie ich uwierzytelnianiem i autoryzacją. Dzięki Active Directory, które jest głównym komponentem usługi katalogowej, administratorzy mogą zarządzać dostępem do zasobów sieciowych, co jest niezbędne w każdej organizacji. Przykładem zastosowania kontrolera domeny w praktyce może być sytuacja, gdy pracownik loguje się do swojego komputera w sieci korporacyjnej; kontroler domeny weryfikuje jego dane uwierzytelniające i przyznaje dostęp do odpowiednich zasobów. Zgodnie z najlepszymi praktykami, w większych organizacjach zaleca się posiadanie co najmniej dwóch kontrolerów domeny dla zapewnienia redundancji i zwiększonej dostępności usług. Dzięki temu organizacja może zminimalizować ryzyko utraty dostępu do krytycznych zasobów w przypadku awarii jednego z kontrolerów.

Pytanie 24

Koprocesor (Floating Point Unit) w systemie komputerowym jest odpowiedzialny za realizację

A. operacji na liczbach całkowitych
B. operacji na liczbach naturalnych
C. podprogramów
D. operacji zmiennoprzecinkowych
Koprocesor, znany również jako jednostka zmiennoprzecinkowa (Floating Point Unit, FPU), jest specjalizowanym procesorem, który obsługuje operacje arytmetyczne na liczbach zmiennoprzecinkowych. Liczby te są istotne w obliczeniach inżynieryjnych, naukowych i finansowych, gdzie wymagana jest wysoka precyzja i zakres wartości. Użycie FPU pozwala na szybkie przetwarzanie takich operacji, co jest kluczowe w programowaniu złożonych algorytmów, takich jak symulacje fizyczne, obliczenia numeryczne czy renderowanie grafiki 3D. Na przykład, w grafice komputerowej, obliczenia dotyczące ruchu obiektów, oświetlenia i cieni są często wykonywane przy użyciu operacji zmiennoprzecinkowych, które wymagają dużej mocy obliczeniowej. W standardach programowania, takich jak IEEE 754, zdefiniowane są zasady reprezentacji liczb zmiennoprzecinkowych, co zapewnia spójność i dokładność obliczeń w różnych systemach komputerowych. Dzięki zastosowaniu FPU, programiści mogą tworzyć bardziej wydajne aplikacje, które są w stanie obsługiwać skomplikowane obliczenia w krótszym czasie.

Pytanie 25

Jaki protokół do obsługi poczty elektronicznej pozwala na przykład na przechowywanie odebranych e-maili na serwerze, zarządzanie różnymi folderami, usuwanie wiadomości oraz przenoszenie ich pomiędzy folderami?

A. Multipurpose Internet Mail Extensions (MIME)
B. Simple Mail Transfer Protocol (SMTP)
C. Post Office Protocol (POP)
D. Internet Message Access Protocol (IMAP)
Post Office Protocol (POP) jest to protokół pocztowy, który działa na zasadzie pobierania wiadomości e-mail z serwera na lokalne urządzenie użytkownika. Główną jego wadą jest to, że po pobraniu wiadomości są one zazwyczaj usuwane z serwera, co uniemożliwia ich późniejszy dostęp z innych urządzeń. Użytkownik, który korzysta z POP, może napotkać problemy związane z brakiem synchronizacji między różnymi urządzeniami, co w dzisiejszym zdalnym świecie staje się coraz bardziej problematyczne. Simple Mail Transfer Protocol (SMTP) to z kolei protokół, który służy do wysyłania wiadomości e-mail, a nie ich odbierania czy przechowywania. SMTP jest odpowiedzialny za przesyłanie wiadomości między serwerami, ale nie oferuje funkcjonalności związanej z zarządzaniem wiadomościami na serwerze. Z kolei Multipurpose Internet Mail Extensions (MIME) to zestaw standardów, który pozwala na przesyłanie różnorodnych formatów danych przez e-mail, jak obrazy czy pliki audio, ale nie jest protokołem pocztowym. Wszystkie te odpowiedzi prowadzą do typowych błędów myślowych, takich jak mylenie protokołów do wysyłania e-maili z tymi do ich zarządzania lub przechowywania. Kluczowe jest zrozumienie specyfiki każdego protokołu oraz ich zastosowania w kontekście dzisiejszej komunikacji internetowej.

Pytanie 26

Kiedy wygasa autorskie prawo majątkowe dotyczące programu komputerowego, stworzonego przez kilku programistów, którzy jako jego autorzy podpisali aplikację swoimi imionami i nazwiskami?

A. Po 50 latach od śmierci współtwórcy, który przeżył pozostałych.
B. Po 70 latach od śmierci współtwórcy, który przeżył pozostałych.
C. Po 50 latach od daty śmierci współtwórcy, który zmarł najwcześniej.
D. Po 70 latach od daty śmierci współtwórcy, który zmarł najwcześniej.
W pytaniu o termin wygaśnięcia autorskich praw majątkowych do programu komputerowego, błędne odpowiedzi wynikają zazwyczaj ze stereotypowego podejścia lub z nieznajomości aktualnych przepisów prawa autorskiego. Często popełnianym błędem jest myślenie, że wystarczy policzyć lata od śmierci pierwszego z twórców, co jest niezgodne z logiką ochrony praw zbiorowych. Zgodnie z polskim prawem (ustawa o prawie autorskim i prawach pokrewnych), gdy utwór ma kilku współtwórców, prawa majątkowe wygasają dopiero po upływie 70 lat od śmierci tego twórcy, który przeżył pozostałych. Skąd się biorą inne okresy? 50 lat to przestarzały termin, który kiedyś obowiązywał w Polsce, zanim dostosowano przepisy do standardów unijnych. Wciąż jednak funkcjonuje to przekonanie, bo niektórzy pamiętają stare regulacje. Z kolei liczenie od śmierci najwcześniej zmarłego współtwórcy to totalne nieporozumienie – takie podejście mogłoby prowadzić do nieuczciwej sytuacji, w której prawa wygasają, gdy jeden z autorów umiera, a reszta nadal żyje i pracuje nad rozwojem programu. To nielogiczne i niezgodne z praktyką branżową. Takie myślenie bierze się chyba z uproszczonego rozumienia zasad dziedziczenia albo z braku doświadczenia w pracy zespołowej nad projektami programistycznymi. Moim zdaniem warto zawsze sprawdzać aktualny stan prawny i pamiętać, że w projektach zespołowych ochrona praw dotyczy wszystkich współtwórców aż do końca życia ostatniego z nich, a potem przez kolejne 70 lat. To nie tylko wymóg formalny, ale też praktyczna ochrona interesów każdego członka zespołu i jego rodziny.

Pytanie 27

Jakie urządzenie powinno się zastosować do podłączenia żył kabla skrętki do gniazda Ethernet?

A. Zaciskarkę RJ-11
B. Zaciskarkę RJ-45
C. Wciskacz LSA
D. Zaciskarkę BNC
Zaciskarka BNC, RJ-45 i RJ-11 to narzędzia, które są niby do różnych zastosowań w telekomunikacji i nie da się ich użyć do podłączania żył kabli skrętki do gniazd Ethernet. Zaciskarka BNC jest głównie do kabli koncentrycznych, które są używane w systemach CCTV i do przesyłania sygnałów wideo. Nie zadziała z Ethernetem, bo nie obsługuje transmisji danych tak, jak skrętka. Zaciskarka RJ-45, mimo że wygląda na odpowiednią, nie jest do wciśnięcia żył w LSA, a to jest kluczowe dla jakości połączenia. Co do zaciskarki RJ-11, ona działa z cieńszymi kablami telefonicznymi, które mają inną konfigurację żył. Jak użyjesz tych narzędzi w niewłaściwy sposób, to możesz mieć problemy z połączeniem, takie jak utraty pakietów czy niska przepustowość. Ci, co zajmują się instalacją sieci, muszą pamiętać, że używanie odpowiednich narzędzi jest istotne, żeby mieć dobrze działającą infrastrukturę telekomunikacyjną. Wiedza o tym, jak i gdzie używać tych narzędzi, pozwala uniknąć typowych błędów, które mogą powodować poważne kłopoty w działaniu sieci.

Pytanie 28

Narzędzie systemów operacyjnych Windows używane do zmiany ustawień interfejsów sieciowych, na przykład przekształcenie dynamicznej konfiguracji karty sieciowej w konfigurację statyczną, to

A. ipconfig
B. netstat
C. nslookup
D. netsh
Wybierając odpowiedzi inne niż "netsh", można napotkać na typowe nieporozumienia dotyczące funkcji i zastosowania narzędzi sieciowych w systemach Windows. Na przykład, "nslookup" jest narzędziem do diagnostyki DNS i służy do sprawdzania informacji o nazwach domen, a nie do modyfikacji ustawień interfejsów sieciowych. Użytkownicy mogą mylnie sądzić, że narzędzie to ma zastosowanie w konfiguracji adresów IP, podczas gdy jego głównym celem jest badanie danych związanych z DNS, takich jak adresy IP odpowiadające danym nazwom. Z drugiej strony, "netstat" to aplikacja służąca do monitorowania połączeń sieciowych oraz statystyk protokołów, dostarczająca informacje o aktywnych połączeniach, portach oraz ich statusie. To narzędzie również nie ma funkcji konfiguracyjnych i może być mylnie interpretowane jako użyteczne w kontekście zmiany adresów IP. Natomiast "ipconfig" odgrywa kluczową rolę w wyświetlaniu aktualnych ustawień IP oraz konfiguracji interfejsów, ale jego możliwości ograniczają się do prezentacji danych, a nie ich modyfikacji. To prowadzi do nieporozumień, gdzie użytkownicy mogą sądzić, że "ipconfig" umożliwia zmianę konfiguracji, co jest błędnym założeniem. Kluczowe jest zrozumienie, że każde z tych narzędzi ma swoje specyficzne zastosowanie i nie zastępuje funkcji, które oferuje "netsh" w kontekście zarządzania interfejsami sieciowymi.

Pytanie 29

Co umożliwia zachowanie równomiernego rozkładu ciepła pomiędzy procesorem a radiatorem?

A. Silikonowy spray
B. Pasta grafitowa
C. Mieszanka termiczna
D. Klej
Wybór niesprawdzonych substancji, takich jak pasta grafitowa, silikonowy spray czy klej, w kontekście transferu ciepła między procesorem a radiatorem jest błędny z kilku istotnych powodów. Pasta grafitowa, mimo że ma pewne właściwości przewodzące, nie jest dedykowanym rozwiązaniem do efektywnego transferu ciepła. Jej zastosowanie może prowadzić do niejednorodnego rozkładu ciepła, co z kolei może skutkować przegrzewaniem procesora, ponieważ nie wypełnia mikro-nierówności w sposób, jakiego oczekuje się od pasty termoprzewodzącej. Silikonowy spray, choć może oferować pewną izolację, nie jest przeznaczony do przewodzenia ciepła. Jego właściwości mogą prowadzić do powstania warstwy izolacyjnej, co blokuje efektywny transfer ciepła, a tym samym może powodować przegrzewanie podzespołów. Zastosowanie kleju również nie ma sensu w kontekście chłodzenia. Klej nie tylko nie przewodzi ciepła, ale może także spowodować trwale uszkodzenie komponentów w przypadku konieczności ich demontażu. W praktyce, wykorzystanie niewłaściwych substancji prowadzi do nieefektywnego odprowadzania ciepła, co jest sprzeczne z podstawowymi zasadami dotyczących montażu elektronicznych elementów. Właściwe podejście oparte na sprawdzonych materiałach, takich jak mieszanki termiczne, jest kluczowe dla zapewnienia optymalnej wydajności systemu oraz jego trwałości.

Pytanie 30

Jaki procesor pasuje do płyty głównej o podanej specyfikacji?

Ilustracja do pytania
A. B
B. C
C. D
D. A
Procesor Intel Celeron z odpowiedzi A jest kompatybilny z płytą główną, ponieważ oba posiadają gniazdo socket 1150. Socket jest fizycznym i elektrycznym interfejsem pomiędzy procesorem a płytą główną. Użycie odpowiedniego gniazda jest kluczowe, aby zapewnić prawidłowe działanie całego systemu. Płyty główne z gniazdem 1150 są zgodne z procesorami Intel wyprodukowanymi w technologii Haswell. Jest to ważne, gdyż dobór kompatybilnych komponentów wpływa na stabilność i wydajność systemu. Praktyczne zastosowanie tej wiedzy obejmuje składanie komputerów, gdzie wybór odpowiednich części zapewnia optymalne działanie. Socket 1150 obsługuje również pamięć DDR3, co jest zgodne z opisem płyty głównej. Wybór odpowiedniego procesora jest kluczowym elementem w projektowaniu systemów komputerowych, a zastosowanie standardów i dobrych praktyk, takich jak dopasowanie socketu, minimalizuje ryzyko problemów z kompatybilnością, co jest istotne w kontekście profesjonalnej budowy komputerów.

Pytanie 31

Ustawienia przedstawione na ilustracji odnoszą się do

Ilustracja do pytania
A. Karty sieciowej
B. Modemu
C. Skanera
D. Drukarki
Ustawienia przedstawione na rysunku dotyczą modemu, co można zrozumieć poprzez analizę opcji związanych z portem COM oraz użyciem buforów FIFO. Modemy często korzystają z portów szeregowych COM do komunikacji z komputerem. Standard UART 16550 jest używany w komunikacji szeregowej i pozwala na wykorzystanie buforów FIFO, co zwiększa efektywność transmisji danych. Bufory FIFO umożliwiają gromadzenie danych w kolejce, co minimalizuje przerwy i zwiększa płynność transmisji. Dzięki temu modem może obsługiwać dane w bardziej zorganizowany sposób, co jest kluczowe dla stabilności połączenia. Użycie buforów FIFO oznacza większą odporność na zakłócenia i mniejsze ryzyko utraty danych. W kontekście praktycznym, umiejętność konfiguracji takich ustawień jest ważna dla zapewnienia optymalnej wydajności i niezawodności komunikacji modemowej. Dobre praktyki zakładają dobór odpowiednich wartości buforów w zależności od specyfiki połączenia i wymagań sieciowych, co jest kluczowe dla profesjonalnej konfiguracji urządzeń komunikacyjnych.

Pytanie 32

W systemie SI jednostką do mierzenia napięcia jest

A. amper
B. wolt
C. wat
D. herc
Wolt (V) jest jednostką miary napięcia w układzie SI, która mierzy różnicę potencjałów elektrycznych między dwoma punktami. Został zdefiniowany na podstawie pracy wykonywanej przez jednostkę ładunku elektrycznego, gdy przechodzi przez element obwodu. Na przykład, gdy napięcie wynosi 5 woltów, oznacza to, że pomiędzy dwoma punktami jest ustalona różnica potencjału, która pozwala na przepływ prądu. W praktyce, wolt jest kluczowym parametrem w elektrotechnice i elektronice, wpływając na projektowanie urządzeń elektrycznych, takich jak zasilacze, akumulatory, a także w systemach telekomunikacyjnych. Dobrą praktyką jest mierzenie napięcia w obwodach za pomocą multimetru, co pozwala na monitorowanie i diagnostykę układów elektronicznych. Przykłady zastosowania napięcia to różne urządzenia domowe, takie jak żarówki, które działają na napięciu 230 V, czy systemy fotowoltaiczne, w których napięcie generowane przez ogniwa słoneczne ma kluczowe znaczenie dla efektywności zbierania energii.

Pytanie 33

Na podstawie oznaczenia pamięci DDR3 PC3-16000 można stwierdzić, że pamięć ta

A. pracuje z częstotliwością 16000 MHz
B. ma przepustowość 16 GB/s
C. ma przepustowość 160 GB/s
D. pracuje z częstotliwością 160 MHz
Kwestie oznaczeń pamięci RAM często bywają mylące, głównie dlatego że producenci stosują różne systemy nazewnictwa. Skrót PC3-16000 nie odnosi się ani do częstotliwości zegara pamięci, ani do bezpośredniej liczby gigabajtów danych, które można przesłać w jednym cyklu. To częsty błąd, że ktoś patrzy na liczby w nazwie i automatycznie zakłada, że dotyczą one taktowania, np. 16000 MHz. Tak wysokie częstotliwości dla RAM to póki co science-fiction – nawet najnowsze moduły DDR5 mają znacznie niższe wartości zegara. Podobnie, 160 GB/s przepustowości to parametr, który przekracza możliwości DDR3 i nawet najwydajniejsze obecnie spotykane pamięci operacyjne są znacznie poniżej tej wartości. Również częstotliwość 160 MHz nie ma tutaj uzasadnienia – DDR3 pracuje zazwyczaj w zakresie 800–2133 MHz (a efektywnie, dzięki podwójnemu transferowi danych, te wartości się jeszcze mnożą), ale nigdy nie jest to 160 MHz. Mylenie oznaczenia „PC3-16000” z częstotliwością wynika też z tego, że dla kart graficznych czy procesorów nierzadko stosuje się inne sposoby oznaczania, gdzie częstotliwość rzeczywiście występuje w nazwie produktu. W pamięciach operacyjnych jednak bardziej liczy się przepustowość, bo ona realnie przekłada się na wydajność systemu – pozwala szybciej przesyłać dane między procesorem a RAM-em. Osoby, które nie zwracają uwagi na te różnice często potem dziwią się, że komputer nie działa szybciej mimo „wyższego MHz” na opakowaniu. Kluczową sprawą jest, żeby nie patrzeć tylko na jedną liczbę, a rozumieć całą specyfikację i jej konsekwencje – w praktyce to właśnie przepustowość, czyli ilość danych przesyłana na sekundę, jest jednym z najważniejszych parametrów pamięci RAM. Dla DDR3 PC3-16000 to 16 GB/s i to jest ta właściwa interpretacja.

Pytanie 34

Co spowoduje zmiana opcji Fast Boot na wartość Enabledw konfiguracji BIOS przedstawionej na ilustracji?

Ilustracja do pytania
A. Przy następnym uruchomieniu komputera nastąpi aktualizacja BIOS.
B. Uruchamianie systemu operacyjnego na komputerze nastąpi z szybkiego dysku SSD.
C. Komputer będzie uruchamiał się z systemu operacyjnego zainstalowanego na nośniku USB 3.0.
D. Komputer będzie uruchamiał się szybciej, ponieważ między innymi pominięte zostaną niektóre testy sprzętu.
Warto tu uporządkować kilka pojęć, bo odpowiedzi mylą kilka zupełnie różnych mechanizmów. Opcja Fast Boot w BIOS/UEFI nie decyduje o tym, z jakiego nośnika system się uruchomi ani jaki dokładnie typ dysku zostanie użyty. Za wybór urządzenia startowego odpowiadają ustawienia w sekcji Boot Option Priorities, ewentualnie jednorazowe menu bootowania wywoływane klawiszem typu F8/F12. Fast Boot jedynie skraca fazę inicjalizacji sprzętu, czyli to, co dzieje się jeszcze zanim system operacyjny w ogóle zacznie się ładować. Typowym błędem jest mylenie „szybkiego startu” BIOS/UEFI z „szybkim dyskiem” albo z „bootowaniem z USB 3.0”. To, że komputer startuje szybciej, nie oznacza, że nagle zacznie uruchamiać się z pendrive’a czy z konkretnego SSD. Jeśli priorytet startu nadal ma dysk twardy z systemem, to po włączeniu Fast Boot po prostu szybciej dojdziesz do ekranu logowania, ale kolejność urządzeń się nie zmieni. Kolejna kwestia to USB 3.0. Obsługa portów i nośników USB 3.0 zależy od kontrolera na płycie głównej i sterowników w systemie operacyjnym, a nie od samej opcji Fast Boot. W niektórych implementacjach wręcz bywa odwrotnie: w trybie szybkiego startu firmware ogranicza pełną inicjalizację kontrolerów USB, co może utrudnić bootowanie z niektórych pendrive’ów, dopóki system nie załaduje własnych sterowników. Pojawia się też wątek aktualizacji BIOS. To jest całkowicie odrębna procedura: wymaga uruchomienia specjalnego narzędzia (wbudowanego w UEFI lub działającego z poziomu systemu/pendrive’a) i wskazania pliku z nowym firmware. Przestawienie jednej opcji typu Enabled/Disabled nigdy samo z siebie nie wywołuje flashowania BIOS – byłoby to zbyt ryzykowne i sprzeczne z dobrymi praktykami producentów płyt głównych. Podsumowując, Fast Boot to funkcja optymalizująca czas trwania POST i inicjalizacji sprzętu, a nie przełącznik źródła bootowania, protokołu USB czy aktualizacji firmware. Dobra praktyka to świadomie oddzielać konfigurację kolejności startu od opcji przyspieszających ten proces, żeby uniknąć właśnie takich nieporozumień.

Pytanie 35

Wskaż zakres adresów hostów w sieci 172.16.4.0/24?

A. 172.16.4.0 ÷ 172.16.4.255
B. 172.16.4.1 ÷ 172.16.4.255
C. 172.16.4.1 ÷ 172.16.4.254
D. 172.16.4.0 ÷ 172.16.4.126
Prawidłowo wskazany zakres 172.16.4.1 ÷ 172.16.4.254 wynika bezpośrednio z maski /24. Notacja CIDR „/24” oznacza, że 24 bity przeznaczone są na część sieciową, a 8 bitów na część hosta. Dla adresu 172.16.4.0/24 maska to 255.255.255.0, więc wszystkie adresy od 172.16.4.0 do 172.16.4.255 należą do jednej tej samej sieci logicznej. W tej puli dwa adresy są zarezerwowane: pierwszy (172.16.4.0) to adres sieci, a ostatni (172.16.4.255) to adres rozgłoszeniowy (broadcast). Z tego powodu realne adresy, które można przypisać hostom (komputerom, drukarkom, routerom na interfejsach itp.) mieszczą się w zakresie od 172.16.4.1 do 172.16.4.254. To jest klasyczna reguła: w każdej podsieci zgodnej z IPv4 nie używamy adresu z samymi zerami w części hosta (adres sieci) i z samymi jedynkami w części hosta (broadcast). W praktyce, gdy konfigurujesz serwer DHCP w małej sieci biurowej, właśnie taki zakres wpisujesz jako „scope” – np. 172.16.4.10–172.16.4.200, ale zawsze w ramach całego dostępnego przedziału 172.16.4.1–172.16.4.254. Moim zdaniem warto od razu przyzwyczaić się do liczenia tego „z głowy”: przy /24 od razu wiesz, że masz 256 adresów w podsieci, z czego 254 dla hostów. To jest standardowa, podręcznikowa sytuacja, często spotykana w małych sieciach LAN, konfiguracjach routerów SOHO czy prostych projektach sieci szkolnych. W większych środowiskach, przy projektowaniu adresacji według dobrych praktyk (np. VLSM, podział na VLAN-y), ta sama zasada nadal obowiązuje – zawsze pierwszy adres to sieć, ostatni to broadcast, a hosty mieszczą się pomiędzy nimi.

Pytanie 36

SuperPi to aplikacja używana do oceniania

A. wydajności procesorów o podwyższonej częstotliwości
B. poziomu niewykorzystanej pamięci operacyjnej RAM
C. sprawności dysków twardych
D. obciążenia oraz efektywności kart graficznych
SuperPi to narzędzie, które służy do testowania wydajności procesorów, zwłaszcza w kontekście ich zdolności do obliczeń przy zwiększonej częstotliwości taktowania. Program ten wykonuje obliczenia matematyczne, mierząc czas potrzebny na obliczenie wartości liczby Pi do określonej liczby miejsc po przecinku. Dzięki temu użytkownicy mogą porównywać wydajność różnych procesorów w warunkach obciążenia, co jest szczególnie istotne dla entuzjastów overclockingu oraz profesjonalistów zajmujących się optymalizacją wydajności systemów komputerowych. W praktyce, SuperPi może być używany do testowania stabilności systemu po podkręceniu procesora, co jest kluczowe dla zapobiegania awariom oraz zapewnienia, że system działa poprawnie pod dużym obciążeniem. Ponadto, oprogramowanie to dostarcza również informacji o czasie przetwarzania, który jest cennym wskaźnikiem efektywności procesora w kontekście obliczeń matematycznych. Użytkownicy często porównują wyniki SuperPi z innymi benchmarkami, aby uzyskać pełny obraz wydajności swojego sprzętu, co jest zgodne z najlepszymi praktykami w dziedzinie testowania sprzętu komputerowego.

Pytanie 37

Który z poniższych adresów IPv4 należy do klasy C?

A. 240.220.0.4
B. 220.191.0.3
C. 168.192.0.1
D. 191.168.0.2
Adres IPv4 220.191.0.3 należy do klasy C, ponieważ jego pierwszy oktet mieści się w przedziale od 192 do 223. Klasa C jest szczególnie istotna w kontekście routingu w Internecie, ponieważ pozwala na wykorzystanie dużej liczby adresów IP dla mniejszych sieci. Klasyfikacja adresów IP opiera się na pierwszym oktetcie, co jest zgodne z konwencjami ustalonymi przez IANA (Internet Assigned Numbers Authority). W praktyce, sieci klasy C są często wykorzystywane przez małe i średnie przedsiębiorstwa oraz w sytuacjach, gdy organizacje potrzebują odrębnych podsieci dla różnych działów. Warto zauważyć, że adresy klasy C są zwykle przypisywane w formacie CIDR (Classless Inter-Domain Routing), co pozwala na bardziej elastyczne zarządzanie przestrzenią adresową. Przykładem praktycznego zastosowania adresu klasy C może być budowanie lokalnej sieci komputerowej w firmie, gdzie router jest skonfigurowany do obsługi sieci 192.168.1.0/24, co pozwala na przydzielenie 254 unikalnych adresów IP. Zrozumienie klasyfikacji adresów IP jest kluczowe dla każdego, kto pracuje z sieciami komputerowymi.

Pytanie 38

Który adres IP reprezentuje hosta działającego w sieci o adresie 192.168.160.224/28?

A. 192.168.160.225
B. 192.168.160.192
C. 192.168.160.239
D. 192.168.160.240
Adres IP 192.168.160.225 jest poprawnym adresem hosta w sieci o adresie 192.168.160.224/28, ponieważ ta sieć ma maskę podsieci 255.255.255.240, co oznacza, że z identyfikatora sieci można wydzielić 16 adresów IP. Adresy w tej podsieci to 192.168.160.224 (adres sieci), 192.168.160.225 (pierwszy adres hosta), przez 192.168.160.239 (ostatni adres hosta), a 192.168.160.240 to adres rozgłoszeniowy. W związku z tym, adres 192.168.160.225 jest pierwszym dostępny adresem hosta, co czyni go poprawnym wyborem. W praktyce, przydzielanie adresów IP w takiej sieci jest kluczowe w kontekście efektywnego zarządzania adresacją, a także w zapewnieniu, że każdy host w sieci ma unikalny adres. W standardach branżowych, takie podejście do adresacji IP jest zgodne z zasadami CIDR (Classless Inter-Domain Routing), które umożliwiają bardziej elastyczne podejście do podziału adresów IP i minimalizacji marnotrawstwa adresów.

Pytanie 39

W dokumentacji technicznej głośnika komputerowego oznaczenie "10 W" dotyczy jego

A. mocy
B. zakresu pracy
C. częstotliwości
D. napięcia
Zapis "10 W" w dokumentacji technicznej głośnika komputerowego odnosi się do jego mocy, co jest kluczowym parametrem wpływającym na wydajność urządzenia. Moc głośnika, mierzona w watach (W), określa zdolność głośnika do przetwarzania energii elektrycznej na dźwięk. W przypadku głośników komputerowych, moc nominalna jest istotna, ponieważ wpływa na głośność dźwięku, jakość oraz zdolność do reprodukcji dźwięków o różnych częstotliwościach. Przykładowo, głośnik o mocy 10 W jest zdolny do generowania wyraźnego dźwięku w większości zastosowań domowych, takich jak granie w gry czy słuchanie muzyki. W praktyce, dobór głośnika o odpowiedniej mocy do systemu audio jest kluczowy dla zapewnienia optymalnego doświadczenia dźwiękowego, a także dla zachowania jakości dźwięku przy większych poziomach głośności. W branży audio, standardy dotyczące mocy głośników są regulowane przez organizacje takie jak Consumer Electronics Association (CEA), co zapewnia jednolitość i przejrzystość w specyfikacjach.

Pytanie 40

Zamieszczony komunikat tekstowy wyświetlony na ekranie komputera z zainstalowanym systemem Windows wskazuje na

Ilustracja do pytania
A. stare lub uszkodzone sterowniki sprzętowe.
B. błędną konfigurację adresu IP karty Wi-Fi.
C. źle skojarzone aplikacje domyślne.
D. brak włączonej Zapory systemowej.
Komunikat o błędzie "HAL INITIALIZATION FAILED" na niebieskim ekranie, czyli tak zwany Blue Screen of Death (BSOD), jednoznacznie wskazuje na poważny problem ze sprzętem lub jego obsługą przez system, a najczęściej – na nieprawidłowe, stare albo uszkodzone sterowniki sprzętowe. HAL (Hardware Abstraction Layer) to warstwa systemu Windows, która odpowiada za komunikację między systemem operacyjnym a sprzętem komputera. Jeśli jej inicjalizacja się nie powiedzie, zazwyczaj winne są sterowniki, które mogą być niezgodne z aktualną wersją Windows lub są po prostu uszkodzone. Moim zdaniem, to bardzo typowy scenariusz po aktualizacji systemu lub wymianie podzespołów, zwłaszcza kart graficznych czy płyt głównych – wtedy często zapomina się o aktualizacji sterowników. Praktyka pokazuje, że regularne pobieranie i instalowanie najnowszych sterowników bezpośrednio od producenta sprzętu, a nie zdawanie się na te domyślne z Windows Update, znacznie zmniejsza ryzyko takich awarii. Branżowe zalecenia Microsoftu i producentów sprzętu są tutaj jasne: sterowniki muszą być zawsze zgodne z wersją systemu i sprzętem. To nie tylko kwestia stabilności, ale też bezpieczeństwa. Z mojego doświadczenia wynika, że gdy pojawia się taki BSOD z HAL, naprawdę warto od razu sprawdzić, czy nie ma jakichś nowych wersji driverów oraz czy sprzęt nie wykazuje fizycznych oznak uszkodzenia. Tego typu wiedza przydaje się nie tylko w pracy informatyka, ale i każdemu, kto dba o sprawny komputer w domu.