Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 28 kwietnia 2026 19:09
  • Data zakończenia: 28 kwietnia 2026 19:20

Egzamin niezdany

Wynik: 18/40 punktów (45,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

W którym miejscu w edytorze tekstu należy wprowadzić tekst lub ciąg znaków, który ma być widoczny na wszystkich stronach dokumentu?

A. W polu tekstowym
B. W przypisach dolnych
C. W nagłówku lub stopce
D. W przypisach końcowych
Wprowadzenie informacji lub ciągów znaków, które mają pojawiać się na wszystkich stronach dokumentu, odbywa się w nagłówku lub stopce. Nagłówek to obszar, który znajduje się na górze każdej strony, natomiast stopka znajduje się na dole. Umożliwia to umieszczanie takich elementów jak numer strony, tytuł dokumentu czy nazwisko autora w sposób automatyczny, co jest nie tylko estetyczne, ale również praktyczne. Przykładem zastosowania nagłówków i stopek może być wprowadzenie numeracji stron w długich dokumentach, takich jak raporty, prace dyplomowe czy publikacje. Używanie nagłówków i stopek jest zgodne z zasadami dobrego projektowania dokumentów, co sprawia, że są one bardziej czytelne i zorganizowane. Warto również zaznaczyć, że różne edytory tekstu, takie jak Microsoft Word czy Google Docs, oferują łatwe narzędzia do edytowania tych obszarów, co pozwala na łatwe dostosowanie treści do potrzeb użytkownika. Taka funkcjonalność jest kluczowa dla profesjonalnych dokumentów, gdzie spójność i estetyka mają ogromne znaczenie.

Pytanie 2

Użycie trunkingowego połączenia między dwoma przełącznikami umożliwia

A. zwiększenie wydajności połączenia poprzez użycie dodatkowego portu
B. ustawienie agregacji portów, która zwiększa przepustowość między przełącznikami
C. przesyłanie w jednym łączu ramek pochodzących od wielu wirtualnych sieci lokalnych
D. zablokowanie wszelkich niepotrzebnych połączeń na danym porcie
Zabranie się do analizy odpowiedzi, które nie dotyczą funkcji trunkingu, ujawnia powszechne nieporozumienia dotyczące podstawowych zasad działania sieci. Zablokowanie wszystkich nadmiarowych połączeń na konkretnym porcie nie odnosi się do funkcjonalności trunków. Trunkowanie polega na umożliwieniu przesyłania danych z różnych VLAN-ów, a nie na blokowaniu połączeń. Z kolei zwiększenie przepustowości połączenia przez wykorzystanie kolejnego portu odnosi się bardziej do koncepcji agregacji portów, która łączy wiele portów w jeden logiczny port w celu zwiększenia wydajności. W trunkingowaniu nie chodzi o dodawanie portów, lecz o efektywne używanie istniejącego jednego połączenia do komunikacji z wieloma VLAN-ami. Ponadto, skonfigurowanie agregacji portów, zwiększającej przepustowość między przełącznikami, jest inną techniką i nie jest bezpośrednio związane z trunkingiem. Te koncepcje są czasami mylone, ponieważ dotyczą różnych aspektów zarządzania ruchem w sieci, co prowadzi do błędnych wniosków. Warto zrozumieć, że trunking to specyficzna technika, która ma na celu optymalizację komunikacji między VLAN-ami, a nie ogólną poprawę przepustowości połączeń.

Pytanie 3

Aby uniknąć utraty danych w systemie do ewidencji uczniów, po zakończeniu codziennej pracy należy wykonać

A. bezpieczne zamknięcie systemu operacyjnego
B. aktualizację systemu operacyjnego
C. kopię zapasową danych programu
D. aktualizację programu
Dokonanie kopii zapasowej danych programu to kluczowy krok w zapewnieniu ochrony danych, który powinien być realizowany regularnie, a szczególnie po zakończeniu pracy każdego dnia. Kopia zapasowa to zapisana forma danych, która pozwala na ich przywrócenie w przypadku utraty lub uszkodzenia oryginalnych plików. W kontekście programów do ewidencji uczniów, takich jak systemy zarządzania danymi uczniów, wykonanie kopii zapasowej pozwala na zabezpieczenie istotnych informacji, takich jak dane osobowe uczniów, wyniki ocen, frekwencja oraz inne ważne statystyki. Przykładem dobrych praktyk w tej dziedzinie jest wdrożenie strategii 3-2-1, która zakłada posiadanie trzech kopii danych, na dwóch różnych nośnikach (np. dysk twardy i chmura) oraz jednej kopii przechowywanej w innej lokalizacji. Regularne tworzenie kopii zapasowych powinno być częścią polityki zarządzania danymi w każdej instytucji edukacyjnej.

Pytanie 4

Router w sieci LAN posiada przypisany adres IP 192.168.50.1. Został skonfigurowany w taki sposób, że przydziela komputerom wszystkie dostępne adresy IP w sieci 192.168.50.0 z maską 255.255.255.0. Jaka jest maksymalna liczba komputerów, które mogą działać w tej sieci?

A. 253
B. 254
C. 255
D. 256
Odpowiedzi 254, 256 oraz 255 są nieprawidłowe z powodu nieprawidłowego rozumienia zasad adresacji IP i zarządzania przestrzenią adresową w sieciach lokalnych. W przypadku adresu IP 192.168.50.1 z maską 255.255.255.0, sieć ma zakres adresów od 192.168.50.0 do 192.168.50.255. Adres 192.168.50.0 jest adresem sieci, a 192.168.50.255 jest adresem rozgłoszeniowym, co oznacza, że nie mogą być one przydzielane urządzeniom w sieci. Przyjmując, że całkowita liczba adresów w tej podsieci wynosi 256 (od 0 do 255), musimy pamiętać o tych dwóch zarezerwowanych adresach, co pozostawia 254 adresy do dyspozycji. Jednak maksymalna liczba komputerów, które mogą jednocześnie korzystać z tej sieci to 253. Odpowiedź 254 jest błędna, ponieważ sugeruje, że można przydzielić również adres rozgłoszeniowy, co w praktyce jest niemożliwe. Odpowiedzi 256 oraz 255 są również wynikiem błędnych założeń, ponieważ nie uwzględniają zasady rezerwacji adresów w sieciach IP. Przy projektowaniu i zarządzaniu siecią lokalną, zgodność z normami adresacji oraz zrozumienie mechanizmów przydzielania adresów IP jest kluczowe dla zapewnienia stabilności i wydajności sieci.

Pytanie 5

Proces aktualizacji systemów operacyjnych ma na celu przede wszystkim

A. usunięcie luk w systemie, które obniżają poziom bezpieczeństwa.
B. redukcję fragmentacji danych.
C. dodawanie nowych aplikacji dla użytkowników.
D. zaniżenie ochrony danych użytkownika.
Aktualizacja systemów operacyjnych jest kluczowym procesem zapewniającym bezpieczeństwo oraz stabilność działania systemu. Głównym celem tego procesu jest naprawa luk systemowych, które mogą być wykorzystywane przez złośliwe oprogramowanie, co z kolei zmniejsza ogólny poziom bezpieczeństwa. W miarę odkrywania nowych podatności przez badaczy bezpieczeństwa, producenci systemów operacyjnych, tacy jak Microsoft, Apple czy Linux, regularnie udostępniają aktualizacje, które eliminują te zagrożenia. Przykładowo, aktualizacje mogą zawierać poprawki dla błędów, które umożliwiają atakującym dostęp do poufnych danych użytkowników. Praktycznym zastosowaniem tej wiedzy jest regularne sprawdzanie dostępności aktualizacji i ich instalacja, co jest zalecane przez standardy branżowe, takie jak NIST SP 800-53, które podkreślają znaczenie zarządzania lukami bezpieczeństwa w systemach informatycznych. W ten sposób użytkownicy mogą zabezpieczyć swoje dane i systemy przed nieautoryzowanym dostępem oraz innymi zagrożeniami.

Pytanie 6

Określ, jaki jest rezultat wykonania powyższego polecenia.

netsh advfirewall firewall add rule name="Open" dir=in action=deny protocol=TCP localport=53
A. Umożliwienie dostępu do portu 53 dla protokołu TCP
B. Zlikwidowanie reguły o nazwie Open w zaporze sieciowej
C. Blokowanie działania usługi DNS opartej na w protokole TCP
D. Zaimportowanie konfiguracji zapory sieciowej z folderu in action
Polecenie netsh advfirewall firewall add rule name='Open' dir=in action=deny protocol=TCP localport=53 dodaje regułę zapory sieciowej, która blokuje ruch przychodzący na porcie 53 dla protokołu TCP. Port 53 jest standardowo używany przez usługi DNS, które mogą działać zarówno w oparciu o protokół TCP, jak i UDP. Blokowanie portu 53 dla TCP może być częścią strategii bezpieczeństwa sieci mającej na celu zapobieganie nieautoryzowanym połączeniom DNS, które mogłyby być wykorzystywane do ataków typu DNS tunneling lub innych rodzajów nadużyć. Zgodnie z dobrymi praktykami bezpieczeństwa sieci, kontrola nad ruchem DNS jest kluczowym elementem ochrony infrastruktury IT. W środowiskach korporacyjnych często stosuje się taką kontrolę, aby uniemożliwić nieautoryzowanym aplikacjom nawiązywanie połączeń z zewnętrznymi serwerami DNS, co mogłoby prowadzić do przecieków danych. Warto również zaznaczyć, że blokowanie TCP na porcie 53 nie wpływa na typowe zapytania DNS, które w większości przypadków używają protokołu UDP, chyba że dane zapytanie przekracza limity rozmiaru dla UDP.

Pytanie 7

W jakim typie członkostwa w VLAN port może należeć do wielu sieci VLAN?

A. Multi-VLAN
B. Dynamicznym VLAN
C. Port-Based VLAN
D. Statycznym VLAN
Odpowiedź 'Multi-VLAN' jest poprawna, ponieważ ten rodzaj członkostwa w VLAN (Virtual Local Area Network) pozwala na przypisanie portu do wielu VLAN-ów jednocześnie. W praktyce oznacza to, że jeden port na przełączniku może obsługiwać ruch sieciowy z różnych VLAN-ów, co jest szczególnie przydatne w środowiskach, gdzie wiele różnych usług jest dostarczanych przez jedną infrastrukturę. Na przykład, port używany do podłączenia serwera może być skonfigurowany jako członek VLAN-u dla ruchu biurowego oraz VLAN-u dla gości, umożliwiając jednocześnie różnym grupom użytkowników dostęp do określonych zasobów. Tego typu konfiguracja jest zgodna z najlepszymi praktykami w zakresie zarządzania ruchem w sieci i zwiększa elastyczność oraz efektywność operacyjną. Dodatkowo, w przypadku użycia protokołów takich jak 802.1Q, tagowanie ramek VLAN rozwiązuje kwestie związane z segregacją ruchu i zapewnia bezpieczeństwo, co czyni Multi-VLAN istotnym rozwiązaniem w nowoczesnych sieciach komputerowych.

Pytanie 8

Menadżer rozruchu, który umożliwia wybór systemu operacyjnego Linux do załadowania, to

A. Boot Magic
B. Grub
C. Ranish Partition Manager
D. Smart Boot Manager
Wybór bootloadera jest istotnym aspektem konfiguracji systemu operacyjnego, a zrozumienie jego funkcji pozwala na lepsze zarządzanie systemem. Smart Boot Manager to narzędzie, które może wspierać uruchamianie systemu, jednak jego głównym celem jest umożliwienie uruchamiania systemów z różnych nośników, a nie zarządzanie ich wyborem na poziomie systemu operacyjnego, jak robi to Grub. Boot Magic jest oprogramowaniem, które również pozwala na wybór systemu operacyjnego, ale jest mniej popularne i nie tak wszechstronne jak Grub, co czyni je rozwiązaniem mniej efektywnym w kontekście nowoczesnych zastosowań. Ranish Partition Manager to narzędzie do zarządzania partycjami, które nie działa jako bootloader. Chociaż pozwala na tworzenie, usuwanie i modyfikację partycji, nie ma funkcji wybierania systemu operacyjnego do uruchomienia. Typowym błędem jest zrozumienie, że wszystkie te narzędzia mają podobną funkcjonalność – jednak każde z nich spełnia inną rolę w zarządzaniu systemem. Aby wybierać system operacyjny, potrzebny jest bootloader, który zarządza procesem uruchamiania, co w pełni realizuje Grub. Właściwe zrozumienie funkcji i różnic pomiędzy tymi narzędziami jest kluczowe dla skutecznej konfiguracji i zarządzania środowiskiem operacyjnym.

Pytanie 9

W usłudze, jaką funkcję pełni protokół RDP?

A. terminalowej w systemie Linux
B. pulpitu zdalnego w systemie Windows
C. poczty elektronicznej w systemie Linux
D. SCP w systemie Windows
Protokół RDP (Remote Desktop Protocol) jest standardowym rozwiązaniem opracowanym przez firmę Microsoft, które umożliwia zdalny dostęp do pulpitu systemu operacyjnego Windows. Dzięki RDP użytkownicy mogą łączyć się z komputerem zdalnym, co pozwala na zdalne wykonywanie zadań, zarządzanie systemem oraz korzystanie z aplikacji, jak gdyby znajdowali się fizycznie przy tym urządzeniu. Protokół RDP obsługuje wiele funkcji, takich jak kompresja danych, szyfrowanie oraz zarządzanie sesjami, co czyni go bezpiecznym i wydajnym rozwiązaniem dla użytkowników oraz administratorów systemów. Przykładowo, w przypadku pracy zdalnej, RDP pozwala na dostęp do zasobów firmy bez konieczności fizycznej obecności w biurze, co jest szczególnie istotne w kontekście rosnącej popularności pracy zdalnej i hybrydowej. Warto zaznaczyć, że RDP jest zgodny z wieloma dobrami praktykami, takimi jak zastosowanie silnych haseł oraz wieloskładnikowej autoryzacji, co znacznie podnosi poziom bezpieczeństwa zdalnych połączeń.

Pytanie 10

Jakie polecenie w systemie Windows służy do zbadania trasy, po jakiej przesyłane są pakiety w sieci?

A. netstat
B. tracert
C. route
D. ipconfig
Odpowiedzi takie jak 'ipconfig', 'netstat' czy 'route' są często mylone z funkcjonalnością polecenia 'tracert', jednak każde z nich ma zupełnie inne zastosowanie w kontekście diagnostyki sieci. 'Ipconfig' służy do wyświetlania i konfiguracji ustawień IP na komputerze, takich jak adresy IP, maski podsieci oraz bramy domyślnej. Umożliwia to użytkownikom zarządzanie ich połączeniami sieciowymi, ale nie dostarcza informacji o trasie pakietów w sieci. Natomiast 'netstat' jest narzędziem do monitorowania aktywnych połączeń sieciowych i otwartych portów, co może być pomocne w analizie ruchu, ale nie w śledzeniu drogi, jaką pokonują pakiety. Z kolei 'route' jest poleceniem do zarządzania tablicą routingu w systemie operacyjnym. Umożliwia ono dodawanie, usuwanie lub modyfikowanie wpisów routingu, lecz nie ma za zadanie analizowania trasy pakietów. Zrozumienie różnicy między tymi narzędziami jest kluczowe, aby efektywnie zarządzać siecią i diagnostyką problemów. W praktyce, często zdarza się, że osoby nieprzygotowane technicznie mylą te narzędzia, co prowadzi do niejasności w analizie problemów sieciowych. Właściwe stosowanie narzędzi diagnostycznych może znacząco poprawić wydajność operacyjną i zminimalizować czas przestoju w przypadku problemów z łącznością.

Pytanie 11

Aby podłączyć drukarkę z interfejsem równoległym do komputera, który ma jedynie porty USB, należy użyć adaptera

A. USB na LPT
B. USB na COM
C. USB na RS-232
D. USB na PS/2
Adapter USB na LPT jest właściwym rozwiązaniem w przypadku podłączania urządzenia z portem równoległym (LPT) do komputera wyposażonego jedynie w porty USB. Ethernet w standardzie LPT (Line Printer Terminal) to złącze stosowane do komunikacji z drukarkami i innymi urządzeniami peryferyjnymi, które wymagają większej przepustowości niż tradycyjne złącza szeregowe. Adaptery USB na LPT konwertują sygnały USB na sygnały równoległe, co umożliwia integrację starszych urządzeń z nowoczesnymi komputerami. W praktyce, po podłączeniu adaptera, system operacyjny zazwyczaj automatycznie wykrywa drukarkę i instaluje odpowiednie sterowniki, co czyni proces prostym i intuicyjnym. Warto również zauważyć, że zgodność z normami USB i LPT zapewnia stabilność połączenia oraz minimalizuje ryzyko utraty danych, co jest istotne w kontekście wydajności zadań drukarskich. W związku z tym, jeśli korzystasz z drukarki starszego typu z portem LPT, wybór adaptera USB na LPT jest najlepszym rozwiązaniem, aby zapewnić prawidłowe działanie urządzenia przy zachowaniu wszystkich standardów branżowych.

Pytanie 12

Według normy PN-EN 50174 maksymalny rozplot kabla UTP powinien wynosić nie więcej niż

A. 20 mm
B. 30 mm
C. 13 mm
D. 10 mm
Odpowiedź 13 mm jest zgodna z normą PN-EN 50174, która reguluje zasady instalacji kabli w sieciach teleinformatycznych. Rozplot kabla UTP (Unshielded Twisted Pair) nie powinien przekraczać 13 mm, aby zapewnić optymalne działanie i minimalizować zakłócenia sygnału. Przekroczenie tego limitu może prowadzić do degradacji jakości sygnału oraz zwiększenia podatności na zakłócenia elektromagnetyczne. W praktyce, przestrzeganie tego standardu jest kluczowe, szczególnie w środowiskach o dużym zagęszczeniu urządzeń sieciowych. Na przykład, w biurach, gdzie wiele kabli przebiega w niewielkich przestrzeniach, ważne jest, aby uniknąć nadmiernego rozplotu, co może skutkować problemami z transmisją danych. Dobrze zainstalowany kabel UTP, z odpowiednim rozplotem, może zminimalizować straty sygnału i zapewnić niezawodność połączeń, co jest kluczowe dla wydajności sieci oraz zadowolenia użytkowników.

Pytanie 13

W specyfikacji technicznej płyty głównej znajduje się zapis Supports up to Athlon XP 3000+ processor. Co to oznacza w kontekście obsługi procesorów przez tę płytę główną?

A. wszystkie o częstotliwości większej niż 3000 MHz
B. zgodnie z mobile Athlon 64
C. nie nowsze niż Athlon XP 3000+
D. wszystkie o częstotliwości mniejszej niż 3000 MHz
Odpowiedź, że płyta główna obsługuje procesory nie nowsze niż Athlon XP 3000+ jest poprawna, ponieważ zapis w dokumentacji technicznej wskazuje na maksymalny poziom wsparcia dla procesorów w tej rodzinie. Oznacza to, że płyta główna została zaprojektowana do pracy z procesorami Athlon XP do modelu 3000+, który jest określony jako górna granica. W praktyce oznacza to, że przy użyciu tej płyty głównej można zainstalować procesory o niższej wydajności, takie jak Athlon XP 2800+ czy 2500+, ale nie ma gwarancji, że procesory wydane po tym modelu (np. Athlon 64) będą działały prawidłowo. W kontekście budowy komputera, znajomość specyfikacji płyty głównej jest kluczowa przy wyborze odpowiednich komponentów, aby uniknąć problemów z kompatybilnością, co jest zgodne z dobrymi praktykami inżynieryjnymi. Warto również zauważyć, że procesory Athlon XP są bardziej energochłonne, co również może mieć wpływ na wybór zasilacza, a tym samym na stabilność systemu.

Pytanie 14

Jak nazywa się współpracujące z monitorami CRT urządzenie wskazujące z końcówką wyposażoną w światłoczuły element, która poprzez dotknięcie ekranu monitora powoduje przesłanie sygnału do komputera, umożliwiając w ten sposób lokalizację kursora?

A. Pióro świetlne.
B. Touchpad.
C. Ekran dotykowy.
D. Trackball.
Pióro świetlne to naprawdę ciekawe i dosyć już historyczne rozwiązanie – jedno z tych, które kiedyś wydawały się wręcz nowatorskie. Tak, pióro świetlne (ang. light pen) to urządzenie, które współpracowało głównie z monitorami CRT i pozwalało na interaktywną obsługę komputera poprzez dotykanie końcówką ekranu. Zasada działania opiera się na fotoczujniku wbudowanym w końcówkę pióra, który rejestruje błysk światła emitowany przez kineskop w określonym punkcie ekranu. Dzięki temu komputer mógł dokładnie zlokalizować, gdzie pojawił się sygnał, i precyzyjnie określić pozycję kursora. Takie rozwiązanie było szeroko wykorzystywane w latach 80. i 90., szczególnie w zastosowaniach profesjonalnych, jak np. projektowanie techniczne CAD, niektóre systemy medyczne czy nawet obsługa prostych gier. Moim zdaniem to świetny przykład, jak inżynierowie próbowali maksymalnie wykorzystać możliwości dostępnych wtedy technologii. W dzisiejszych czasach pióra świetlne zostały praktycznie wyparte przez bardziej zaawansowane technologie ekranów dotykowych i tabletów graficznych, ale ich zasada działania to klasyka inżynierii komputerowej. Warto zauważyć, że ich funkcjonowanie wymagało precyzyjnej synchronizacji z wyświetlaniem obrazu na ekranie, co – szczególnie na szybkich monitorach – nie było takie proste do ogarnięcia. Podsumowując: pióro świetlne było pierwszym naprawdę interaktywnym narzędziem do wskazywania na ekranie CRT. Tego typu wiedza przydaje się, jeśli ktoś interesuje się historią interfejsów użytkownika albo myśli o pracy z nietypowymi, starszymi systemami komputerowymi.

Pytanie 15

Połączenia typu point-to-point, realizowane za pośrednictwem publicznej infrastruktury telekomunikacyjnej, oznacza się skrótem

A. WLAN
B. VLAN
C. PAN
D. VPN
VLAN, WLAN oraz PAN to terminy, które odnoszą się do różnych typów sieci, jednak żaden z nich nie opisuje technologii, która umożliwia bezpieczne połączenia przez publiczną infrastrukturę telekomunikacyjną. VLAN (Virtual Local Area Network) to metoda segmentacji sieci lokalnej, która pozwala na tworzenie wielu logicznych sieci w ramach jednego fizycznego medium. VLAN-y są często używane w dużych organizacjach do zwiększenia wydajności i bezpieczeństwa, umożliwiając separację ruchu sieciowego. WLAN (Wireless Local Area Network) odnosi się do sieci lokalnych opartych na technologii bezprzewodowej, co umożliwia urządzeniom mobilnym łączenie się z internetem bez użycia kabli. Z kolei PAN (Personal Area Network) to sieć o bardzo małym zasięgu, używana do komunikacji między urządzeniami osobistymi, takimi jak telefony czy laptopy, zazwyczaj za pośrednictwem technologii Bluetooth. Skupiając się na tych terminach, można zauważyć, że koncentrują się one na różnych aspektach lokalej komunikacji, zamiast na tworzeniu bezpiecznych połączeń przez publiczną infrastrukturę. Zrozumienie tych różnic jest kluczowe, aby unikać pomyłek w kontekście zastosowań technologii sieciowych oraz ich bezpieczeństwa.

Pytanie 16

Jaka usługa, opracowana przez firmę Microsoft, pozwala na konwersję nazw komputerów na adresy URL?

A. ARP
B. IMAP
C. DHCP
D. WINS
Wybór IMAP jako odpowiedzi na pytanie o usługi tłumaczące nazwy komputerów na adresy IP jest niepoprawny, ponieważ IMAP (Internet Message Access Protocol) to protokół używany do odbierania wiadomości e-mail z serwera pocztowego. Jego funkcjonalność nie obejmuje zarządzania adresami IP ani tłumaczenia nazw komputerów. Z kolei DHCP (Dynamic Host Configuration Protocol) to usługa, która dynamicznie przydziela adresy IP urządzeniom w sieci, ale nie zajmuje się tłumaczeniem nazw na adresy; jest odpowiedzialny jedynie za konfigurację sieci. ARP (Address Resolution Protocol) również nie jest odpowiednią odpowiedzią, ponieważ jego głównym zadaniem jest mapowanie adresów IP na adresy MAC, co dotyczy warstwy łącza danych w modelu OSI. Typowym błędem myślowym jest mylenie różnych protokołów i usług w kontekście ich funkcji. Wiele osób może przypisać funkcję tłumaczenia nazw komputerów do DHCP lub ARP z powodu ich związku z zarządzaniem adresami w sieci, jednak ich role są całkowicie różne. Aby uniknąć takich nieporozumień, ważne jest zrozumienie specyfiki każdej usługi sieciowej oraz ich zastosowań w infrastrukturze IT. Rekomendowane jest również zapoznanie się z dokumentacją i podręcznikami technicznymi, które szczegółowo opisują funkcje i zastosowanie protokołów oraz usług w sieciach komputerowych.

Pytanie 17

Urządzenia wykorzystujące port USB 2.0 są zasilane napięciem, którego wartość znajduje się w przedziale

A. 5,35 V - 5,95 V
B. 4,15 V - 4,75 V
C. 4,75 V - 5,35 V
D. 3,55 V - 4,15 V
Rozważając wartości napięcia zasilania urządzeń USB 2.0, warto zwrócić uwagę na to, że odpowiedzi niezgodne z poprawnym zakresem 4,75 V - 5,35 V mogą wynikać z kilku powszechnych nieporozumień. Napięcie zasilania dla standardu USB 2.0 zostało precyzyjnie zdefiniowane w normach USB, aby zapewnić stabilność i bezpieczeństwo urządzeń. Podawanie wartości niższych, jak 4,15 V - 4,75 V, może prowadzić do twierdzeń, że urządzenia będą funkcjonować w obszarze, który nie spełnia wymogów technicznych, co z kolei może skutkować niestabilnością pracy urządzeń. Przy zasilaniu napięciem poniżej 4,75 V, wiele urządzeń może napotkać na trudności w operacjach wymagających większej mocy, co może prowadzić do ich nieprawidłowego działania. Z kolei wartości powyżej 5,35 V, jak 5,35 V - 5,95 V, mogą prowadzić do ryzyka uszkodzenia podłączonych komponentów z powodu przekroczenia dopuszczalnego napięcia. Należy również pamiętać, że urządzenia USB muszą być projektowane z myślą o pracy w określonym zakresie napięcia, aby zapewnić zgodność z normami. Niewłaściwe napięcia mogą nie tylko wpłynąć na wydajność, ale mogą również prowadzić do uszkodzenia komponentów, co jest istotnym czynnikiem w projektowaniu elektroniki. Dlatego zrozumienie zakresu 4,75 V - 5,35 V jest kluczowe dla zarówno inżynierów projektujących nowe urządzenia, jak i użytkowników, którzy muszą być świadomi potencjalnych zagrożeń związanych z nieodpowiednim zasilaniem.

Pytanie 18

Układ na karcie graficznej, którego zadaniem jest zamiana cyfrowego sygnału generowanego poprzez kartę na sygnał analogowy, który może być wyświetlony poprzez monitor to

A. multiplekser
B. RAMDAC
C. głowica FM
D. RAMBUS
RAMDAC to bardzo istotny układ w kartach graficznych, zwłaszcza tych starszych, gdzie monitory korzystały głównie z sygnału analogowego (np. VGA). RAMDAC, czyli Random Access Memory Digital-to-Analog Converter, odpowiada za zamianę cyfrowych danych generowanych przez procesor graficzny na sygnał analogowy, który obsłuży typowy monitor CRT czy starsze wyświetlacze LCD. Bez tego układu nie byłoby możliwe prawidłowe wyświetlanie obrazu na takich monitorach, bo one nie rozumieją sygnałów cyfrowych bezpośrednio. Moim zdaniem warto wiedzieć, że choć dzisiejsze monitory coraz częściej obsługują sygnał cyfrowy (np. HDMI, DisplayPort), to przez wiele lat istnienie RAMDAC-a było absolutnie kluczowe. W praktyce, gdy podłączasz stary monitor do wyjścia VGA, to właśnie RAMDAC robi całą robotę, żeby obraz wyglądał poprawnie. Standardy branżowe od lat 90. wręcz wymuszały obecność tego układu w niemal każdej karcie graficznej przeznaczonej na rynek konsumencki i biznesowy. To taki trochę 'most' pomiędzy światem cyfrowym a analogowym. Często RAMDAC-y miały własną, szybką pamięć, przez co mogły bardzo sprawnie przetwarzać obraz nawet przy wyższych rozdzielczościach czy częstotliwościach odświeżania. Dziś coraz rzadziej się o nich mówi, ale w kontekście starszych komputerów ten temat jest mega istotny i warto go znać, bo spotyka się je np. naprawiając starsze sprzęty czy modernizując stare stanowiska.

Pytanie 19

Zgodnie z normą Fast Ethernet 100Base-TX, maksymalna długość kabla miedzianego UTP kategorii 5e, który łączy bezpośrednio dwa urządzenia sieciowe, wynosi

A. 100 m
B. 1000 m
C. 150 m
D. 300 m
Maksymalna długość kabla miedzianego UTP kat. 5e, jeśli mówimy o standardzie Fast Ethernet 100Base-TX, to 100 metrów. To bardzo ważna informacja, szczególnie dla tych, którzy projektują sieci komputerowe. Przekroczenie tej długości może spowodować, że sygnał się pogorszy, a to może wpłynąć na działanie całej sieci. Kabel kat. 5e jest często używany w lokalnych sieciach (LAN) i pozwala na przesyłanie danych z prędkością do 100 Mbps. Standard 100Base-TX korzysta z skręconych par, więc dla najlepszego działania długość kabla nie powinna być większa niż 100 metrów. W praktyce warto pamiętać, że musimy brać pod uwagę nie tylko sam kabel, ale także różne elementy, takie jak gniazdka, złącza czy urządzenia aktywne, bo to też wpływa na długość połączenia. Co więcej, planując instalację, dobrze jest unikać zakłóceń elektrycznych, które mogą obniżyć jakość sygnału. To są dobre praktyki w branży IT – warto o tym pamiętać.

Pytanie 20

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
B. wybraniem pliku z obrazem dysku.
C. dodaniem drugiego dysku twardego.
D. konfigurowaniem adresu karty sieciowej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 21

Zastosowanie programu w różnych celach, badanie jego działania oraz wprowadzanie modyfikacji, a także możliwość publicznego udostępniania tych zmian, to charakterystyka licencji typu

A. MOLP
B. GNU GPL
C. ADWARE
D. FREEWARE
MOLP (Managed Online Licensing Programs) nie jest licencją open source; jest to typ licencji, która skupia się na zarządzaniu dostępem do oprogramowania w modelu subskrypcyjnym. Użytkownicy zazwyczaj nie mają prawa do modyfikacji ani rozpowszechniania programu, co sprzeciwia się zasadom otwartości i współpracy. ADWARE to model monetizacji oprogramowania, w którym użytkownik jest bombardowany reklamami, co nie ma nic wspólnego z licencjonowaniem w kontekście modyfikacji czy rozpowszechniania. Freeware natomiast odnosi się do oprogramowania, które jest dostępne bezpłatnie, ale niekoniecznie pozwala na modyfikacje czy dostęp do kodu źródłowego. Często użytkownicy mylą te terminy, co prowadzi do błędnych wniosków o prawach, jakie posiadają wobec oprogramowania. Pamiętaj, że otwarte licencje, takie jak GPL, nie tylko promują swobodę użytkowania, ale także odpowiedzialność za dzielenie się poprawkami i ulepszeniami, co nie jest cechą innych modeli licencyjnych, które ograniczają lub uniemożliwiają te działania. Dlatego ważne jest zrozumienie różnic między tymi licencjami oraz ich wpływu na rozwój oprogramowania i społeczności programistycznej.

Pytanie 22

Podczas skanowania reprodukcji obrazu z magazynu, na skanie pojawiły się regularne wzory, zwane morą. Jaką funkcję skanera należy zastosować, aby pozbyć się mory?

A. Odrastrowywania
B. Korekcji Gamma
C. Skanowania według krzywej tonalnej
D. Rozdzielczości interpolowanej
Odpowiedzi, które podałeś, jak korekcja gamma, rozdzielczość interpolowana czy skanowanie według krzywej tonalnej, niestety nie są dobre do eliminacji efektu mori. Korekcja gamma to sprawa związana z jasnością i kontrastem obrazu, a nie z rozwiązywaniem problemów z nakładającymi się wzorami. To może poprawić widoczność detali, ale nie pomoże w przypadku strukturalnych problemów, jak mora. Rozdzielczość interpolowana to wypełnianie brakujących pikseli, co często prowadzi do rozmycia szczegółów, a w skanowaniu reprodukcji, gdzie detale są najważniejsze, to może wręcz pogorszyć jakość. A to skanowanie według krzywej tonalnej to po prostu manipulowanie tonami, co poprawia kontrast, ale nie ma nic wspólnego z usuwaniem wzorów mori. Fajnie jest znać różne techniki edycyjne, ale trzeba wiedzieć, że nie wszystkie mogą rozwiązać każdy problem z jakością obrazu. To zrozumienie funkcji skanera i ich zastosowań jest kluczowe, żeby osiągnąć dobre wyniki.

Pytanie 23

Którym poleceniem można skonfigurować uprawnienia do zasobów sieciowych w systemie Windows?

A. net share
B. net view
C. net user
D. net accounts
Poprawna odpowiedź to „net share”, bo właśnie to polecenie w wierszu poleceń Windows służy do konfigurowania udziałów sieciowych, a więc realnie do udostępniania zasobów w sieci i zarządzania ich uprawnieniami. W praktyce, gdy chcesz udostępnić folder w sieci z konkretnymi prawami dostępu, robisz to właśnie przez udział sieciowy (share), a nie przez konto użytkownika czy ustawienia haseł. Przykładowo: polecenie `net share DANE=C:\Dane /grant:UŻYTKOWNIK,READ` tworzy udział o nazwie DANE i nadaje użytkownikowi prawo tylko do odczytu. Można też użyć `FULL` zamiast `READ`, żeby dać pełne uprawnienia. Z poziomu administratora jest to bardzo wygodne, bo da się hurtowo zarządzać udziałami na serwerze plików, skryptować konfigurację i szybko diagnozować problemy. Moim zdaniem każdy, kto poważnie myśli o administracji Windows, powinien dobrze ogarniać `net share`, bo w środowiskach domenowych nadal sporo rzeczy robi się skryptami, a nie tylko przez GUI. Dobre praktyki mówią, żeby udostępnianie zasobów planować: tworzyć udziały o czytelnych nazwach, ograniczać uprawnienia do minimum potrzebnego (zasada least privilege), a uprawnienia nadawać raczej grupom niż pojedynczym użytkownikom. Warto też pamiętać o rozróżnieniu: uprawnienia udziału (konfigurowane właśnie m.in. przez `net share`) oraz uprawnienia NTFS na folderze – skuteczne uprawnienia użytkownika są kombinacją tych dwóch. `net share` pozwala zarządzać tylko warstwą udziału sieciowego, ale to już jest kluczowy element konfiguracji dostępu do zasobów w sieci Windows.

Pytanie 24

Wykonanie polecenia fsck w systemie Linux spowoduje

A. zmianę uprawnień dostępu do plików
B. prezentację parametrów plików
C. znalezienie pliku
D. zweryfikowanie integralności systemu plików
Odpowiedzi takie jak wyświetlenie parametrów plików, zmiana praw dostępu do plików czy odszukanie pliku są typowymi nieporozumieniami związanymi z funkcjonalnością polecenia fsck. Wyświetlanie parametrów plików, które można osiągnąć za pomocą poleceń takich jak 'ls -l', dotyczy jedynie prezentacji atrybutów plików, a nie sprawdzania ich integralności. Z kolei zmiana praw dostępu do plików obsługiwana jest przez polecenia takie jak 'chmod' i 'chown', które umożliwiają modyfikację uprawnień, ale nie mają nic wspólnego z analizą stanu systemu plików. Co więcej, odszukiwanie pliku realizowane jest przez takie narzędzia jak 'find' czy 'locate', które służą do lokalizacji plików w systemie, a nie do weryfikacji ich integralności. Te błędne podejścia mogą prowadzić do przekonań, że fsck pełni funkcje, które są zarezerwowane dla innych narzędzi w systemie. Warto zauważyć, że nieprawidłowe rozumienie ról poszczególnych poleceń w systemie Linux może prowadzić do chaosu w administracji systemem, a także do potencjalnych problemów z bezpieczeństwem danych. Zrozumienie właściwego kontekstu użycia narzędzi jest niezbędne do skutecznego zarządzania systemem i ochrony danych.

Pytanie 25

Aby skanera działał prawidłowo, należy

A. zweryfikować temperaturę komponentów komputera
B. smarować łożyska wentylatorów chłodzenia jednostki centralnej
C. mieć w systemie zainstalowany program antywirusowy
D. nie umieszczać kartek ze zszywkami w podajniku urządzenia, gdy jest on automatyczny
Właściwe funkcjonowanie skanera, zwłaszcza w przypadku automatycznych podajników, jest kluczowe dla efektywności procesu skanowania. Wkładanie kartek ze zszywkami do podajnika może prowadzić do zacięć lub uszkodzeń mechanizmu skanującego, co w konsekwencji skutkuje zwiększonym czasem przestoju urządzenia oraz kosztami naprawy. Zszywki mogą również porysować powierzchnię skanera, co obniża jakość skanowanych dokumentów. Aby zminimalizować ryzyko awarii, należy przestrzegać zasad użytkowania urządzenia, które zazwyczaj są opisane w instrukcji obsługi. Zgodnie z najlepszymi praktykami, przed umieszczeniem dokumentów w podajniku, warto upewnić się, że są one wolne od wszelkich elementów, które mogą zakłócić ich przepływ przez urządzenie. Prowadzenie regularnych przeglądów i konserwacji skanera, zgodnie z zaleceniami producenta, również przyczynia się do jego długoterminowej niezawodności oraz efektywności operacyjnej.

Pytanie 26

Złącze o rozmiarze ferruli 1,25 to jakie?

A. SC
B. LC
C. RJ45
D. MT-RJ
Wybór innych typów złączy, takich jak MT-RJ, SC czy RJ45, nie jest zgodny z opisanym standardem ferruli o wielkości 1,25 mm. Złącze MT-RJ, choć stosunkowo małe, wykorzystuje inną konstrukcję, która różni się od LC, a jego ferrula ma szerszą średnicę. MT-RJ jest złączem wielodrożnym, co sprawia, że w praktyce jego zastosowanie jest ograniczone w kontekście gęstości połączeń. Złącze SC, natomiast, ma ferrulę o średnicy 2,5 mm, co czyni je większym i mniej odpowiednim do aplikacji o dużym zagęszczeniu. RJ45 to z kolei złącze stosowane w sieciach miedzianych, a nie w instalacjach światłowodowych, przez co nie można go porównywać pod względem technicznym z złączami optycznymi. W kontekście nowoczesnych instalacji telekomunikacyjnych, wybór odpowiedniego złącza jest kluczowy dla osiągnięcia wysokiej wydajności i niezawodności sieci. Zrozumienie różnic między tymi typami złączy oraz ich odpowiednich zastosowań w praktyce jest fundamentalne dla inżynierów zajmujących się projektowaniem i wdrażaniem rozwiązań telekomunikacyjnych.

Pytanie 27

W których nośnikach pamięci masowej uszkodzenia mechaniczne są najbardziej prawdopodobne?

A. W pamięciach Flash
B. W dyskach SSD
C. W kartach pamięci SD
D. W dyskach HDD
Dobrze zauważyłeś, że to właśnie dyski HDD są najbardziej podatne na uszkodzenia mechaniczne spośród wymienionych nośników. Wynika to z ich wewnętrznej budowy – mają ruchome części: talerze wirujące z dużą prędkością oraz głowice czytające i zapisujące. W praktyce, wystarczy upadek laptopa lub mocniejsze uderzenie, by doszło do tzw. „bad sectorów” albo nawet całkowitego uszkodzenia dysku. Dlatego w serwerowniach czy data center zawsze zaleca się montowanie ich w specjalnych wibracyjnych sanki lub stosowanie macierzy RAID dla bezpieczeństwa danych. Osobiście miałem okazję widzieć, jak po prostu przenoszenie komputera z włączonym HDD powodowało awarie – tego typu historie niestety nie są rzadkie. W przeciwieństwie do SSD czy kart SD, które nie mają żadnych elementów mechanicznych, HDD po prostu się fizycznie zużywają, a także łatwiej je uszkodzić w transporcie. Branżowe standardy jasno mówią: jeżeli sprzęt ma pracować w trudnych warunkach lub jest często przenoszony, to lepiej postawić na SSD lub pamięci półprzewodnikowe. To też jeden z powodów, dla których w nowoczesnych laptopach HDD odchodzą do lamusa. Warto o tym pamiętać przy wyborze sprzętu, zwłaszcza w środowiskach, gdzie bezpieczeństwo danych jest kluczowe.

Pytanie 28

Która z licencji pozwala każdemu użytkownikowi na wykorzystywanie programu bez ograniczeń związanych z prawami autorskimi?

A. Shareware
B. MOLP
C. Public domain
D. Volume
Licencje Shareware, MOLP (Microsoft Open License Program) oraz Volume są różnymi modelami licencjonowania, które w przeciwieństwie do domeny publicznej, nakładają pewne ograniczenia na użytkowników. Shareware to model, w którym użytkownik ma możliwość przetestowania oprogramowania przez określony czas, po którym musi zakupić licencję, aby kontynuować korzystanie. To podejście często prowadzi do frustracji użytkowników, którzy mogą nie być świadomi ograniczeń czasowych oraz funkcjonalnych w używaniu takiego oprogramowania. MOLP i Volume to z kolei modele licencyjne stosowane głównie w środowiskach korporacyjnych, które pozwalają na zakup większej ilości licencji na oprogramowanie, ale również wiążą się z formalnościami oraz ograniczeniami w zakresie użytkowania. Wybierając te modele, użytkownicy mogą napotkać trudności związane z licencjonowaniem oraz zarządzaniem oprogramowaniem, co wymaga dodatkowych zasobów i wiedzy. Często mylące jest również to, że użytkownicy uważają te licencje za dostępne dla każdego, co w rzeczywistości jest dalekie od prawdy. W rzeczywistości, brak pełnej dostępności i swobody w korzystaniu z tych modeli licencyjnych jest kluczowym powodem, dla którego nie mogą one być porównywane z domeną publiczną.

Pytanie 29

Aby zminimalizować główne zagrożenia dotyczące bezpieczeństwa podczas pracy na komputerze podłączonym do sieci Internet, najpierw należy

A. zainstalować program antywirusowy, zaktualizować bazy danych wirusów, uruchomić zaporę sieciową i przeprowadzić aktualizację systemu
B. wyczyścić wnętrze obudowy komputera, nie spożywać posiłków ani napojów w pobliżu komputera oraz nie dzielić się swoim hasłem z innymi użytkownikami
C. zmierzyć temperaturę komponentów, podłączyć komputer do zasilacza UPS oraz unikać wchodzenia na podejrzane strony internetowe
D. ustawić komputer z dala od źródeł ciepła, nie zgniatać kabli zasilających komputera i urządzeń peryferyjnych
Aby skutecznie zabezpieczyć komputer przed zagrożeniami z sieci, kluczowe jest wdrożenie odpowiednich środków ochrony, takich jak programy antywirusowe, firewalle oraz regularne aktualizacje systemu operacyjnego i baz wirusów. Program antywirusowy działa jak tarcza, identyfikując i neutralizując złośliwe oprogramowanie, zanim zdoła ono wyrządzić szkody. Aktualizacja oprogramowania jest istotna, ponieważ dostarcza najnowsze łaty bezpieczeństwa, które eliminują znane luki i zapobiegają wykorzystaniu ich przez cyberprzestępców. Włączenie firewalla tworzy barierę między komputerem a potencjalnymi zagrożeniami z zewnątrz, filtrując niepożądany ruch sieciowy. Przykładem może być ustawienie zapory systemowej Windows, która domyślnie blokuje nieautoryzowane połączenia. Stosowanie tych praktyk nie tylko zwiększa bezpieczeństwo, ale również współczesne standardy dotyczące ochrony danych, takie jak ISO 27001, zalecają regularne audyty i aktualizacje systemów jako kluczowe elementy zarządzania bezpieczeństwem informacji. Dzięki wdrożeniu takich działań użytkownicy mogą znacząco zredukować ryzyko włamań oraz utraty danych, co jest fundamentalnym aspektem odpowiedzialnego korzystania z technologii.

Pytanie 30

Jaki będzie rezultat odejmowania dwóch liczb zapisanych w systemie heksadecymalnym 60Ah - 3BFh?

A. 39Ah
B. 349h
C. 24Bh
D. 2AEh
Wybór odpowiedzi 349h, 2AEh lub 39Ah może wynikać z typowych błędów, które pojawiają się podczas wykonywania operacji arytmetycznych w systemie heksadecymalnym. Jednym z najczęstszych błędów jest niepoprawne przeliczenie liczb heksadecymalnych na system dziesiętny lub omyłkowe przypisanie wartości binarnych. Na przykład, przy obliczaniu 60Ah - 3BFh można błędnie założyć, że odejmowanie heksadecymalnych cyfr przebiega identycznie jak w systemie dziesiętnym, co może prowadzić do pomyłek w zapisie wyników. Gdyby na przykład ktoś skupił się na końcowych cyfrach, mógłby błędnie zinterpretować wynik, traktując heksadecymalne 'h' jako nieistotny dodatek, co prowadzi do nieprawidłowego wyniku. Dodatkowo, niektórzy mogą nie zauważyć, że w systemie heksadecymalnym wartość 'A' odpowiada dziesiętnemu 10, a 'B' odpowiada 11, co może wprowadzać w błąd przy dodawaniu lub odejmowaniu. Przykładem błędnego podejścia jest niepoprawne „przeniesienie” wartości między kolumnami, co często występuje, gdy potrzebne są obliczenia z większymi liczbami heksadecymalnymi. Dlatego kluczowe jest, aby dokładnie przeliczać wartości i stosować się do zasad matematyki heksadecymalnej. W ciągu pracy z różnymi systemami liczbowymi zawsze warto zachować ostrożność i potwierdzić wyniki metodami alternatywnymi, na przykład poprzez konwersję z powrotem na liczby dziesiętne.

Pytanie 31

Po dokonaniu eksportu klucza HKCU powstanie kopia rejestru zawierająca dane dotyczące ustawień

A. sprzętu komputera dla wszystkich użytkowników systemu
B. procedur startujących system operacyjny
C. aktualnie zalogowanego użytkownika
D. wszystkich aktywnie załadowanych profili użytkowników systemu
Wybór odpowiedzi dotyczącej procedur uruchamiających system operacyjny, sprzętowej konfiguracji komputera lub profili użytkowników nie jest właściwy, ponieważ każdy z tych obszarów ma swoje unikalne klucze w rejestrze systemu Windows. Klucz HKLM (HKEY_LOCAL_MACHINE) przechowuje informacje dotyczące sprzętu oraz konfiguracji systemu operacyjnego dla wszystkich użytkowników, a nie tylko jednego. To może prowadzić do nieporozumień, ponieważ zakłada się, że eksportując HKCU, uzyskuje się dostęp do globalnych ustawień systemowych, co jest mylne. Sprzętowe informacje komputera są integralną częścią kluczy HKLM, które obejmują takie dane jak sterowniki, ustawienia BIOS oraz inne parametry sprzętowe wspólne dla wszystkich użytkowników. Kolejny błąd myślowy pojawia się przy pomyśle, że eksportuje się informacje o wszystkich aktywnie ładowanych profilach użytkowników. W rzeczywistości każdy profil użytkownika ma oddzielny klucz HKU (HKEY_USERS), a eksport HKCU dotyczy tylko profilu aktualnie zalogowanego użytkownika. Błędy te mogą prowadzić do poważnych pomyłek w zarządzaniu systemem, zwłaszcza w kontekście kopiowania i przywracania ustawień, co może skutkować utratą danych lub nieprawidłowym działaniem aplikacji. Zrozumienie struktury rejestru jest kluczowe dla efektywnego zarządzania systemem operacyjnym, a nieuwzględnienie tego aspektu może prowadzić do trudności w diagnostyce i rozwiązywaniu problemów.

Pytanie 32

Do stworzenia projektu sieci komputerowej dla obiektu szkolnego najlepiej użyć edytora grafiki wektorowej, którym jest oprogramowanie

A. AutoCad
B. Adobe Photoshop
C. MS Excel
D. MS Publisher
Wybór niewłaściwego narzędzia do projektowania sieci komputerowej często wynika z niepełnego zrozumienia wymogów technicznych oraz specyfiki danego oprogramowania. MS Publisher to program, który głównie służy do edycji publikacji i materiałów drukowanych. Jego funkcje nie są wystarczające do precyzyjnego planowania sieci, ponieważ brakuje mu zaawansowanych opcji rysunkowych i narzędzi CAD, które są kluczowe w projektowaniu inżynieryjnym. Z drugiej strony, Adobe Photoshop to program graficzny, który doskonale nadaje się do edytowania zdjęć i tworzenia grafiki rastrowej, ale nie jest przystosowany do tworzenia rysunków technicznych ani schematów inżynieryjnych, co ogranicza jego zastosowanie w kontekście projektowania sieci. MS Excel, mimo że jest potężnym narzędziem do analizy danych, nie posiada funkcji rysunkowych ani możliwości przestrzennego modelowania, co czyni go nieodpowiednim do wizualizacji i projektowania infrastruktury sieciowej. Powszechnym błędem jest mylenie tych programów, które są dedykowane innym zadaniom, z narzędziami właściwymi do profesjonalnego projektowania, co prowadzi do niewłaściwego podejścia i potencjalnych problemów w realizacji projektu.

Pytanie 33

Jaki akronim oznacza wydajność sieci oraz usługi, które mają na celu między innymi priorytetyzację przesyłanych pakietów?

A. QoS
B. STP
C. PoE
D. ARP
Akronimy ARP, STP oraz PoE odnoszą się do zupełnie innych zagadnień technologicznych, co wyjaśnia, dlaczego nie pasują do definicji QoS. ARP, czyli Address Resolution Protocol, służy do mapowania adresów IP na adresy MAC w sieci lokalnej. Jego głównym celem jest umożliwienie komunikacji między urządzeniami w sieci, a nie zarządzanie jakością przesyłu danych. STP, czyli Spanning Tree Protocol, jest protokołem używanym do zapobiegania pętlom w sieciach Ethernet, co także nie odnosi się do zagadnienia priorytetyzacji ruchu. Z kolei PoE, czyli Power over Ethernet, to technologia umożliwiająca zasilanie urządzeń sieciowych przez kable Ethernet, co także nie ma związku z jakością usług. Takie błędne podejście do rozumienia akronimów prowadzi do pomyłek w kontekście zarządzania sieciami. Często zdarza się, że osoby mylą cele tych technologii, co może prowadzić do nieefektywnego zarządzania infrastrukturą sieciową. Właściwe zrozumienie różnic oraz zastosowania każdego z tych akronimów jest kluczowe dla efektywnego planowania i zarządzania sieciami, a także dla zapewnienia optymalnej wydajności, co wychodzi naprzeciw obowiązującym standardom branżowym.

Pytanie 34

Rozmiar pliku wynosi 2 KiB. Co to oznacza?

A. 16384 bitów
B. 16000 bitów
C. 2000 bitów
D. 2048 bitów
Odpowiedzi, które wskazują na 16000 bitów, 2048 bitów i 2000 bitów, są oparte na błędnych założeniach dotyczących przeliczania jednostek danych. W przypadku pierwszej z tych odpowiedzi, 16000 bitów nie ma podstaw w standardowych jednostkach miary danych. Obliczenia, które prowadzą do tej wartości, mogą wynikać z niepoprawnego przeliczenia bajtów lub nieporozumienia co do definicji KiB. Dla porównania, 2048 bitów wynikałoby z założenia, że 1 KiB to 256 bajtów, co jest błędne, gdyż 1 KiB to 1024 bajty. Zastosowanie tej nieprawidłowej definicji prowadzi do znacznego zaniżenia rzeczywistej wartości. Ostatecznie, 2000 bitów jest wynikiem dalszego błędnego przeliczenia, być może opartego na ogólnych jednostkach, zamiast na standardach, które powinny być stosowane w informatyce. Typowe błędy myślowe, które prowadzą do takich niepoprawnych konkluzji, obejmują ignorowanie faktu, że jednostki binarne (kibibyte, mebibyte) różnią się od jednostek dziesiętnych (kilobyte, megabyte). W praktyce, ważne jest, aby dobrze rozumieć różnice między tymi jednostkami, ponieważ ich pomylenie może prowadzić do krytycznych błędów w obliczeniach dotyczących przechowywania danych czy wydajności systemu.

Pytanie 35

Jakie urządzenie wskazujące działa w reakcji na zmiany pojemności elektrycznej?

A. wskaźnik optyczny
B. touchpad
C. joystick
D. trackpoint
Mysz, dżojstik i trackpoint to urządzenia wskazujące, które różnią się zasadą działania od touchpada. Mysz, na przykład, wykorzystuje technologię optyczną lub laserową do śledzenia ruchu na powierzchni, co polega na rejestrowaniu przemieszczenia się urządzenia w przestrzeni, a nie na zmianie pojemności elektrycznej. Dżojstik z kolei, często stosowany w grach komputerowych i symulatorach, reaguje na ruchy w kilku płaszczyznach, wykorzystując mechaniczne lub elektroniczne czujniki, ale nie działa na zasadzie pojemności elektrycznej. Trackpoint, czyli mały joystick umieszczony na klawiaturze, również nie opiera się na pojemności, lecz na mechanizmach, które rejestrują nacisk i kierunek ruchu. Błędne rozumienie zasad działania tych urządzeń często prowadzi do mylnego postrzegania ich funkcji. W praktyce oznacza to, że użytkownicy mogą nie docenić różnic w precyzji, komforcie użytkowania oraz w funkcjonalności, co jest kluczowe w wielu zastosowaniach, zwłaszcza w kontekście pracy biurowej czy gier komputerowych. Dlatego, aby w pełni wykorzystać możliwości urządzeń wejściowych, ważne jest zrozumienie ich różnorodności oraz specyfiki działania.

Pytanie 36

Jakie narzędzie jest używane do zarządzania alokacjami dyskowymi w systemach Windows 7 i Windows 8?

A. fsutil
B. query
C. perfmon
D. dcpromo
Odpowiedzi, które nie wskazują na narzędzie 'fsutil', nie są odpowiednie w kontekście zarządzania przydziałami dyskowymi w systemach Windows. Narzędzie 'dcpromo' służy do promowania serwera do roli kontrolera domeny, co nie ma związku z zarządzaniem woluminami czy przestrzenią dyskową. W wielu przypadkach administratorzy mogą mylić te dwa narzędzia, ale ich funkcjonalności są całkowicie różne. 'perfmon' to narzędzie do monitorowania wydajności systemu, które pomaga w analizie zasobów, ale nie oferuje funkcji związanych z zarządzaniem przydziałami dyskowymi. Użytkownicy mogą intuicyjnie myśleć, że 'perfmon' pomoże im w zarządzaniu dyskami, jednak w rzeczywistości nie jest to jego przeznaczenie. Z kolei 'query' jest zbyt ogólnym terminem, który w kontekście systemu Windows odnosi się do wielu różnych operacji, takich jak zapytania dotyczące stanu systemu czy zasobów. Dlatego ważne jest, aby mieć jasne zrozumienie funkcji każdego narzędzia i ich zastosowania w administracji systemami. Kluczowe jest unikanie mylenia funkcji narzędzi, co prowadzi do nieefektywnego wykorzystania zasobów i nieoptymalnego zarządzania systemem.

Pytanie 37

Wskaż zewnętrzny protokół rutingu?

A. OSPF
B. RIP
C. IGP
D. BGP
W tym pytaniu łatwo się pomylić, bo wszystkie podane odpowiedzi kojarzą się z routingiem, ale kluczowe jest rozróżnienie między protokołami wewnętrznymi a zewnętrznymi. W sieciach komputerowych mówimy o dwóch głównych klasach: IGP (Interior Gateway Protocol) i EGP (Exterior Gateway Protocol). IGP służą do routingu wewnątrz jednego autonomicznego systemu, czyli w ramach sieci jednej organizacji, firmy, operatora. EGP – do wymiany tras między różnymi autonomicznymi systemami, a więc na „styku” niezależnych sieci, szczególnie w internecie. IGP jako odpowiedź to typowy skrót myślowy, bo IGP to w ogóle grupa protokołów wewnętrznych, a nie konkretny protokół. Co więcej, sama nazwa z definicji oznacza protokół wewnętrzny, więc nie może być zewnętrznym protokołem routingu. Często uczniowie widzą znajomy skrót i zaznaczają go trochę „z rozpędu”, bez zastanowienia się, że pytanie dotyczy właśnie protokołu zewnętrznego. RIP jest jednym z najprostszych protokołów routingu, ale należy do IGP. Działa wewnątrz jednej sieci, używa metryki hop count i jest raczej historyczny – w nowych projektach sieci używa się go rzadko ze względu na ograniczoną skalowalność i wolną konwergencję. W żadnych dobrych praktykach projektowania sieci szkieletowych czy operatorskich nie traktuje się RIP jako protokołu do wymiany tras między autonomicznymi systemami. OSPF również jest typowym protokołem IGP, nowocześniejszym i dużo bardziej zaawansowanym niż RIP. Jest protokołem stanu łącza, świetnie nadaje się do dużych sieci korporacyjnych, kampusowych, a nawet do sieci operatorów – ale wciąż tylko jako protokół wewnętrzny. OSPF jest zoptymalizowany do pracy w jednym autonomicznym systemie, z podziałem na area, z hierarchią, ale nie służy do negocjowania zewnętrznych polityk routingu między różnymi operatorami. Typowy błąd w takim pytaniu polega na tym, że ktoś kojarzy nazwę protokołu z wykładów (RIP, OSPF) i zakłada, że skoro to routing, to może chodzić o „zewnętrzny”, bo przecież łączy różne sieci. Kluczowe jest jednak pojęcie autonomicznego systemu: IGP działa wewnątrz jednego AS, a jedynym standardowym zewnętrznym protokołem routingu w praktycznym użyciu jest BGP. Dlatego pozostałe odpowiedzi, choć związane z routingiem, nie spełniają definicji zewnętrznego protokołu routingu.

Pytanie 38

Który z komponentów komputera można wymienić bez konieczności wyłączania zasilania?

A. urządzenia typu hot-swap
B. pamięci RAM
C. zasilacza
D. płyty głównej
Twoja odpowiedź dotycząca hot-swap jest całkiem trafna. Te urządzenia są faktycznie stworzone tak, żeby można je było wymieniać bez wyłączania całego systemu. To dość przydatna technologia, zwłaszcza w miejscach, gdzie ciągłość działania jest bardzo ważna, jak na przykład serwerownie. Przykłady takich komponentów to dyski w macierzach RAID, zasilacze czy niektóre karty rozszerzeń. Dzięki temu administratorzy mogą szybko reagować w razie awarii albo w razie potrzeby rozbudowy, nie przerywając przy tym działania systemu. Wiele nowoczesnych serwerów, takich jak te od Della czy HP, dość często korzysta z tej technologii i staje się to standardem w projektowaniu systemów. Dobrze jest też pamiętać, żeby każdy komponent hot-swap był wyraźnie oznaczony, a w systemie miały miejsce odpowiednie zabezpieczenia, żeby przypadkiem nie wyciągnąć czegoś ważnego.

Pytanie 39

Licencja na Office 365 PL Personal (1 stanowisko, subskrypcja na 1 rok) ESD jest przypisana do

A. wyłącznie jednego użytkownika, na jednym komputerze, jednym tablecie i jednym telefonie, wyłącznie do celów niekomercyjnych.
B. wyłącznie jednego użytkownika na jednym komputerze i jednym urządzeniu mobilnym do celów komercyjnych i niekomercyjnych.
C. dowolnej liczby użytkowników, wyłącznie na jednym komputerze do celów komercyjnych.
D. dowolnej liczby użytkowników, wyłącznie na jednym komputerze do celów komercyjnych i niekomercyjnych.
W kontekście licencjonowania Office 365 Personal pojawia się sporo niejasności – głównie dlatego, że wiele osób utożsamia tę subskrypcję z innymi modelami, np. wersją Home lub biznesowymi. Najczęstszy błąd polega na przekonaniu, że można używać tej licencji w firmie lub że można przypisać ją do wielu użytkowników na jednym urządzeniu, co zupełnie nie zgadza się z polityką Microsoftu. Office 365 Personal to usługa wyłącznie dla jednej osoby i tylko do użytku niekomercyjnego. Oprogramowanie można zainstalować na jednym komputerze, jednym tablecie i jednym smartfonie – ale użytkownikiem zawsze musi być ten sam właściciel subskrypcji. Warianty sugerujące używanie licencji przez kilka osób czy wykorzystanie jej komercyjnie są zupełnie niezgodne z warunkami licencyjnymi. Microsoft jasno określa, że wersja Personal nie daje prawa do pracy zarobkowej na tym pakiecie, a wszelkie naruszenia mogą prowadzić do zablokowania konta lub utraty dostępu do usług. Typowym błędem jest też traktowanie komputera jako głównego wyznacznika licencji, podczas gdy kluczowe jest powiązanie jej z użytkownikiem – nie z urządzeniem. Takie podejście zabezpiecza przed nadużyciami i pozwala producentowi zapewnić odpowiedni poziom wsparcia technicznego oraz aktualizacji. W branży IT starannie rozróżnia się licencje domowe i komercyjne, a przestrzeganie tych zasad jest podstawą bezpiecznego korzystania z oprogramowania. Z mojego doświadczenia wynika, że stosowanie licencji niezgodnie z przeznaczeniem często kończy się nieprzyjemnościami, szczególnie w środowiskach firmowych, gdzie Microsoft regularnie audytuje wykorzystanie swoich produktów.

Pytanie 40

Protokół, który zajmuje się identyfikowaniem i usuwaniem kolizji w sieciach Ethernet, to

A. CSMA/CD
B. WINS
C. NetBEUI
D. IPX/SPX
Wybór odpowiedzi innych niż CSMA/CD wskazuje na nieporozumienie w zakresie podstawowych protokołów komunikacyjnych w sieciach komputerowych. WINS (Windows Internet Name Service) jest usługą stosowaną do tłumaczenia nazw komputerów w sieci na adresy IP. Nie ma on jednak związku z zarządzaniem dostępem do medium transmisyjnego ani z wykrywaniem kolizji, co czyni go nieodpowiednim w kontekście omawianego pytania. Podobnie IPX/SPX, protokół stworzony przez firmę Novell dla sieci NetWare, również nie zajmuje się problematyką kolizji, lecz dotyczy komunikacji między urządzeniami w sieciach lokalnych, lecz w zupełnie inny sposób. Natomiast NetBEUI (NetBIOS Extended User Interface) jest protokołem transportowym, który nie jest routowalny i służy głównie w małych sieciach lokalnych. Jego architektura również nie obejmuje mechanizmu detekcji kolizji, co czyni go nieodpowiednim w tym kontekście. Wybór tych odpowiedzi może wynikać z błędnego zrozumienia roli protokołów w sieciach komputerowych oraz braku znajomości zasad ich działania. Kluczowe jest, aby rozróżniać funkcjonalności różnych protokołów oraz ich zastosowanie w praktycznych scenariuszach, co pozwoli na bardziej świadome podejmowanie decyzji w kontekście projektowania i zarządzania sieciami.