Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 24 kwietnia 2026 17:14
  • Data zakończenia: 24 kwietnia 2026 17:32

Egzamin zdany!

Wynik: 26/40 punktów (65,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Minimalna ilość pamięci RAM wymagana dla systemu operacyjnego Windows Server 2008 wynosi przynajmniej

A. 512 MB
B. 2 GB
C. 1,5 GB
D. 1 GB
Właściwa odpowiedź to 2 GB, ponieważ Microsoft zaleca, aby system operacyjny Windows Server 2008 miał co najmniej tę ilość pamięci RAM dla podstawowej funkcjonalności. W praktyce, 2 GB RAM to minimalna wielkość, która pozwala na uruchamianie serwera z podstawowymi usługami, takimi jak Active Directory, DNS czy DHCP. Przykładowo, jeśli planujesz hostować na tym serwerze aplikacje lub usługi, które wymagają większej ilości zasobów, warto rozważyć zwiększenie pamięci do 4 GB lub więcej, co będzie miało pozytywny wpływ na wydajność systemu. Standardy branżowe zalecają, aby serwery, w szczególności te działające w środowiskach produkcyjnych, miały odpowiednią ilość pamięci RAM, aby zminimalizować ryzyko przestojów oraz zapewnić efektywne przetwarzanie danych. Pamięć RAM odgrywa kluczową rolę w szybkości działania systemu operacyjnego oraz aplikacji, więc inwestycja w większą ilość RAM jest często uzasadniona w kontekście stabilności i wydajności serwera.

Pytanie 2

Jakie urządzenie w warstwie łącza danych modelu OSI analizuje adresy MAC zawarte w ramkach Ethernet i na tej podstawie decyduje o przesyłaniu sygnału pomiędzy segmentami sieci lub jego blokowaniu?

A. repeater
B. access point
C. bridge
D. hub
Wybór koncentratora, punktu dostępowego lub wzmacniaka w kontekście analizy adresów MAC i podejmowania decyzji o przesyłaniu sygnału do odpowiednich segmentów sieci jest nieprawidłowy z kilku powodów. Koncentrator to urządzenie, które działa na warstwie fizycznej modelu OSI i nie analizuje ramki ani adresów MAC. Jego funkcja ogranicza się do przesyłania sygnału do wszystkich portów, co prowadzi do większej liczby kolizji i obciążenia sieci. Z kolei punkt dostępowy to urządzenie używane do łączenia urządzeń bezprzewodowych z siecią przewodową. Jego głównym zadaniem jest zapewnienie łączności bezprzewodowej, a nie podejmowanie decyzji na podstawie adresów MAC w ramkach Ethernet. Wzmacniak natomiast wzmacnia sygnał, ale nie ma zdolności do analizy danych ani segregacji ruchu. Użycie tych urządzeń wskazuje na brak zrozumienia warstw modelu OSI oraz funkcji poszczególnych elementów sieci. Kluczowe jest zrozumienie, że decyzje o przesyłaniu danych w sieci oparte są na analizie adresów MAC, co wymaga zastosowania mostu, a nie innych wymienionych urządzeń. W praktyce, niepoprawne użycie tych elementów może prowadzić do nieefektywności w sieci oraz problemów z wydajnością.

Pytanie 3

Który poziom macierzy RAID zapisuje dane jednocześnie na wielu dyskach jako jedno urządzenie?

A. RAID 1
B. RAID 3
C. RAID 2
D. RAID 0
RAID 2, RAID 3 oraz RAID 1 to różne poziomy macierzy RAID, które różnią się w podejściu do organizacji danych oraz zabezpieczania ich przed utratą. RAID 2 wykorzystuje technikę bitowego striping, co oznacza, że dane są rozdzielane na poziomie pojedynczych bitów i zapisywane na wielu dyskach z użyciem zewnętrznego kodowania korekcyjnego. Ta metoda jest rzadko stosowana w praktyce, ponieważ wymaga ogromnej liczby dysków i nie zapewnia odpowiednio wysokiej wydajności. RAID 3, z kolei, łączy w sobie elementy striping z technologią parzystości, co polega na tym, że dane są zapisywane na dyskach z jednoczesnym przechowywaniem parzystości na jednym dedykowanym dysku. Choć ta metoda oferuje lepszą ochronę danych niż RAID 0, to jednak jej wydajność w operacjach zapisu jest ograniczona. RAID 1 jest innym podejściem, które skupia się na mirroringu danych - każda informacja jest duplikowana na dwóch dyskach. Choć oferuje doskonałą ochronę przed utratą danych, to w przypadku RAID 1 nie mamy do czynienia z równoległym zapisem, a raczej z tworzeniem pełnej kopii zapasowej. Wybór odpowiedniego poziomu RAID powinien być uzależniony od wymagań dotyczących wydajności, bezpieczeństwa oraz dostępnych zasobów. W praktyce, często spotyka się konfiguracje hybrydowe, które łączą różne poziomy RAID, aby zaspokoić różnorodne potrzeby biznesowe, ale kluczowe jest zrozumienie, że RAID 0 zapewnia wydajność, a nie bezpieczeństwo danych.

Pytanie 4

Czym wyróżniają się procesory CISC?

A. niewielką ilością trybów adresowania
B. wysoką liczbą instrukcji
C. prostą i szybką jednostką kontrolną
D. ograniczoną wymianą danych pomiędzy pamięcią a procesorem
Wybór odpowiedzi, które sugerują, że procesory CISC mają prostą i szybką jednostkę sterującą, jest mylący. W rzeczywistości, procesory CISC są zaprojektowane z myślą o złożoności zestawu instrukcji, co często prowadzi do bardziej skomplikowanej jednostki sterującej. Złożoność ta wynika z konieczności dekodowania wielu różnych instrukcji, co może wprowadzać opóźnienia w wykonaniu. W kontekście architektury CISC, jednostka sterująca jest znacznie bardziej złożona niż w architekturze RISC (Reduced Instruction Set Computing), gdzie skupia się na prostocie i szybkości. Ponadto, stwierdzenie o niewielkiej liczbie trybów adresowania nie odnosi się do rzeczywistości, gdyż procesory CISC często oferują wiele trybów adresowania, co zwiększa ich elastyczność w operacjach na danych. Ograniczona komunikacja pomiędzy pamięcią a procesorem jest również niepoprawnym założeniem, ponieważ w architekturze CISC, ilość danych przesyłanych pomiędzy pamięcią a procesorem może być znacząca, biorąc pod uwagę złożoność instrukcji. Zrozumienie tych różnic jest kluczowe dla prawidłowego rozpoznawania zalet i wad różnych architektur procesorów oraz ich zastosowań w praktyce, co jest istotne w kontekście projektowania systemów komputerowych.

Pytanie 5

Nie jest możliwe wykonywanie okresowych kopii zapasowych dysków serwera na nośnikach wymiennych typu

A. płyty DVD-ROM
B. karty MMC
C. płyty CD-RW
D. karty SD
Karty SD oraz karty MMC są nośnikami, które pozwalają na wielokrotne zapisywanie i usuwanie danych, co czyni je idealnymi do tworzenia kopii zapasowych. Użytkownicy często mogą mylnie sądzić, że każdy typ wymiennego nośnika nadaje się do takich zadań. Płyty CD-RW również oferują możliwość wielokrotnego zapisywania, co może prowadzić do przekonania, że są one odpowiednie do tworzenia kopii zapasowych. Jednakże, płyty CD-RW mają swoje ograniczenia, takie jak mniejsza pojemność w porównaniu do nowoczesnych kart pamięci i są mniej odporne na uszkodzenia. Kiedy dochodzi do wyboru nośnika do kopii zapasowych, kluczowe jest rozważenie nie tylko możliwości zapisu, ale również długości życia nośnika oraz ryzyka uszkodzenia. Płyty DVD-ROM, w przeciwieństwie do wymienionych wcześniej nośników, są nośnikami jednorazowego zapisu, co czyni je nieodpowiednimi do regularnych i aktualnych kopii zapasowych. Posiadając stałe dane na nośniku, użytkownicy mogą błędnie zakładać, że są one aktualne, co prowadzi do desperackiego poszukiwania danych w sytuacjach awaryjnych. Właściwe podejście do archiwizacji danych wymaga zrozumienia, że nośniki muszą umożliwiać efektywne zarządzanie danymi oraz ich aktualizację. Dlatego tak istotne jest, aby wybierać medium, które spełnia standardy branżowe w zakresie przechowywania danych, jak na przykład standard ISO/IEC 27001, który promuje bezpieczeństwo informacji.

Pytanie 6

Jakie z podanych urządzeń stanowi część jednostki centralnej?

A. Monitor LCD
B. Mysz USB
C. Modem PCI
D. Klawiatura PS/2
Modem PCI jest elementem jednostki centralnej, ponieważ jest to komponent, który jest bezpośrednio zintegrowany z płytą główną komputera. Modemy PCI, jak sama nazwa wskazuje, wykorzystują standard PCI (Peripheral Component Interconnect), który umożliwia komunikację pomiędzy urządzeniami peryferyjnymi a jednostką centralną. To połączenie jest kluczowe dla funkcjonowania systemu komputerowego, ponieważ pozwala na szybką wymianę danych. Przykładem zastosowania modemu PCI może być łączenie się z Internetem, co jest niezbędne w dzisiejszym świecie. W praktyce, modem PCI może również wspierać różne standardy komunikacyjne, w tym DSL czy kablowe, co czyni go wszechstronnym rozwiązaniem dostępu do sieci. Ważne jest, aby pamiętać, że poprawne zainstalowanie i skonfigurowanie takiego sprzętu zgodnie z zaleceniami producentów jest kluczowe dla zapewnienia stabilności i wydajności systemu komputerowego.

Pytanie 7

Na schemacie płyty głównej port PCI oznaczony jest numerem

Ilustracja do pytania
A. 2
B. 1
C. 3
D. 4
W przypadku rozpoznawania złącz na płycie głównej kluczowe jest zrozumienie różnic pomiędzy poszczególnymi standardami złączy oraz ich fizycznymi cechami. Złącze PCI, używane tradycyjnie do podłączania kart rozszerzeń, charakteryzuje się specyficzną długością i ilością pinów, które odróżniają je od innych typów złączy takich jak AGP czy PCI Express. Częstym błędem jest mylenie złącza PCI z nowszymi standardami ze względu na podobny wygląd, jednak PCI Express, mimo że częściowo bazuje na koncepcji PCI, posiada różnice w architekturze i funkcjonalności. Ponadto, AGP, które było popularnym złączem dla kart graficznych, ma inną konstrukcję i pozycję na płycie głównej, co może prowadzić do błędnych wniosków, jeśli nie jesteśmy z nimi dobrze zaznajomieni. Myślenie, że każde wolne złącze na płycie może być złączem PCI, wynika z niewystarczającej wiedzy o różnicach w pinach, długości i szerokości złączy. W kontekście serwisowania komputerów ważne jest, by technicy byli świadomi tych różnic, co pozwala uniknąć błędów przy instalacji sprzętu. Dodatkowo, zrozumienie standardów przemysłowych i ich ewolucji może pomóc w lepszym zarządzaniu sprzętem komputerowym, umożliwiając skuteczne diagnozowanie problemów i planowanie modernizacji. Dlatego rozpoznawanie i poprawna identyfikacja złącz na płytach głównych jest kluczowa w pracy z komputerami.

Pytanie 8

Poleceniem systemu Linux służącym do wyświetlenia informacji, zawierających aktualną godzinę, czas działania systemu oraz liczbę zalogowanych użytkowników, jest

A. echo
B. history
C. chmod
D. uptime
Polecenie uptime jest jednym z podstawowych narzędzi do szybkiego uzyskania informacji o stanie systemu Linux bez konieczności przekopywania się przez różne pliki czy logi. Wywołując je w terminalu, otrzymujesz od razu kilka ważnych danych: aktualną godzinę, jak długo system działa nieprzerwanie od ostatniego uruchomienia (czyli tzw. czas uptime), liczbę aktualnie zalogowanych użytkowników oraz średnie obciążenie procesora z ostatnich 1, 5 i 15 minut. To bardzo praktyczne narzędzie, szczególnie podczas administrowania serwerami lub diagnozowania problemów ze stabilnością. Moim zdaniem uptime świetnie sprawdza się też przy monitoringu środowisk produkcyjnych – pozwala szybko zorientować się, czy system nie był przypadkiem restartowany niedawno, co może być ważne np. po aktualizacjach. Przykładowo, gdy ktoś zgłasza, że coś przestało działać, szybki rzut oka na uptime pozwala stwierdzić, czy powodem był restart. Standardy branżowe zalecają korzystanie z prostych, szybkoroszczytowych narzędzi takich właśnie jak uptime podczas podstawowego audytu systemu. Jeśli chcesz zagłębić się bardziej, uptime często jest używany razem z poleceniami takimi jak w, top czy who – razem tworzą bardzo fajny zestaw do pierwszej analizy kondycji systemu. Dość powiedzieć, że nawet automatyczne skrypty monitorujące wykorzystują wyjście uptime do raportowania dostępności i stabilności systemu. Osobiście polecam zapamiętać to polecenie, bo jest naprawdę wygodne i uniwersalne.

Pytanie 9

Który z protokołów funkcjonuje w warstwie aplikacji modelu ISO/OSI, umożliwiając wymianę informacji kontrolnych między urządzeniami sieciowymi?

A. POP3
B. SMTP
C. SNMP
D. DNS
DNS (Domain Name System) to protokół, który odpowiada za tłumaczenie nazw domenowych na adresy IP. Choć pełni ważną rolę w internecie, jego głównym celem jest zapewnienie użytkownikom łatwego dostępu do zasobów sieciowych, a nie wymiana informacji kontrolnych pomiędzy urządzeniami. Dlatego nie może być uznany za protokół zarządzania w sieciach. POP3 (Post Office Protocol version 3) to protokół używany do pobierania wiadomości e-mail z serwera na klienta. Z kolei SMTP (Simple Mail Transfer Protocol) odpowiada za wysyłkę wiadomości e-mail. Oba te protokoły działają w obszarze usług pocztowych i nie są związane z zarządzaniem urządzeniami w sieci. Typowy błąd w rozumieniu tego zagadnienia to mylenie funkcji protokołów aplikacyjnych, co prowadzi do niewłaściwego przypisania ich zastosowań do kontekstu zarządzania siecią. W praktyce, nie mając pełnej wiedzy na temat funkcji SNMP, można zakładać, że inne protokoły oparte na aplikacji mogą pełnić podobne zadania, co jest błędnym założeniem. Właściwe zrozumienie celu i funkcji każdego z protokołów jest kluczowe dla efektywnego zarządzania sieciami i zapewnienia ich prawidłowego działania.

Pytanie 10

Który rekord DNS powinien zostać dodany w strefie wyszukiwania do przodu, aby skojarzyć nazwę domeny DNS z adresem IP?

A. MX lub PTR
B. A lub AAAA
C. SRV lub TXT
D. NS lub CNAME
Odpowiedzi zawierające rekordy NS, CNAME, SRV, TXT, MX oraz PTR, nie są odpowiednie dla mapowania nazw domen na adresy IP. Rekord NS (Name Server) wskazuje na serwery DNS odpowiedzialne za daną strefę, ale nie konwertuje bezpośrednio nazw na adresy IP. Rekord CNAME (Canonical Name) służy do aliasowania jednej nazwy domeny do innej, co może wprowadzać zamieszanie w kontekście bezpośredniego przypisania adresu IP. Rekordy SRV (Service) służą do lokalizowania usług w sieci, a TXT (Text) są używane do przechowywania dodatkowych informacji o domenie, takich jak rekordy SPF dla ochrony przed spoofingiem. Rekord MX (Mail Exchange) z kolei jest używany do wskazywania serwerów pocztowych odpowiedzialnych za odbieranie wiadomości e-mail, a PTR (Pointer) jest stosowany w odwrotnym mapowaniu, gdzie przekształca adres IP na nazwę domeny. Typowe błędy myślowe, które prowadzą do takich niepoprawnych odpowiedzi, obejmują mylenie celów poszczególnych rekordów DNS. Wiedza na temat ich funkcji jest kluczowa dla skutecznej konfiguracji systemów DNS, co wpływa na dostępność i efektywność usług internetowych. Dla prawidłowego funkcjonowania sieci, niezbędne jest rozróżnienie między tymi rekordami a rekordami A i AAAA, które są jedynymi odpowiednimi dla tego konkretnego zastosowania.

Pytanie 11

W technologii Ethernet 100Base-TX do przesyłania danych używane są żyły kabla UTP podłączone do pinów:

A. 1,2,3,4
B. 1,2,3,6
C. 1,2,5,6
D. 4,5,6,7
Odpowiedź 1,2,3,6 jest poprawna, ponieważ w standardzie Ethernet 100Base-TX do transmisji danych wykorzystywane są cztery żyły kabla UTP, które są przypisane do odpowiednich pinów w złączu RJ45. W przypadku 100Base-TX, zdefiniowane są następujące pary żył: para A (żyła 1 i 2) oraz para B (żyła 3 i 6). Użycie pary 1-2 do transmisji oraz pary 3-6 do odbioru umożliwia pełnodupleksową transmisję, co oznacza, że dane mogą być przesyłane i odbierane jednocześnie. Standard ten jest zgodny z normą IEEE 802.3u, która definiuje specyfikacje dla różnych prędkości Ethernet, w tym 100 Mbps. W praktyce, zastosowanie 100Base-TX jest szerokie, obejmując sieci lokalne (LAN) w biurach, szkołach oraz innych instytucjach, gdzie wymagana jest stabilna i szybka komunikacja. Przykładem może być podłączenie komputerów do switchów, gdzie każde urządzenie korzysta z odpowiednich pinów w złączach RJ45, co zapewnia optymalną wydajność sieci.

Pytanie 12

Programem służącym do archiwizacji danych w systemie Linux jest

A. compress
B. tar
C. gzip
D. lzma
Odpowiedź tar jest jak najbardziej trafiona. No bo właśnie tar to klasyczny program w systemach Linux i generalnie Unixowych, który służy do archiwizacji, czyli łączenia wielu plików i katalogów w jeden plik archiwum, zwykle z rozszerzeniem .tar. Co ważne, samo tar nie kompresuje danych – on tylko je „spakowuje” w jedną całość, żeby łatwiej było je przenosić albo kopiować. Często spotyka się kombinacje, gdzie najpierw tworzysz archiwum tar, a potem je kompresujesz narzędziem takim jak gzip czy bzip2, stąd popularne rozszerzenia .tar.gz albo .tar.bz2. W praktyce, gdy masz do zarchiwizowania katalog z projektami albo chcesz zrobić backup konfiguracji, polecenie tar -cvf backup.tar /etc świetnie się sprawdzi. Warto pamiętać, że tar umożliwia archiwizację z zachowaniem struktury katalogów, uprawnień i symlinków – co przy migracji systemów czy backupach jest kluczowe. Moim zdaniem znajomość tar to absolutna podstawa pracy z Linuksem, bo praktycznie każdy administrator czy programista szybciej czy później z niego skorzysta. Nawet w środowiskach produkcyjnych spotkasz automatyczne skrypty wykorzystujące tar do backupów całych systemów. Przy okazji polecam zerknąć do man tar – tam jest naprawdę sporo opcji, które potrafią się przydać, na przykład do przyrostowych backupów.

Pytanie 13

W schemacie logicznym struktury okablowania, zgodnie z polską terminologią zawartą w normie PN-EN 50174, cechą kondygnacyjnego punktu dystrybucyjnego jest to, że

A. obejmuje zasięgiem całe piętro obiektu.
B. obejmuje zasięgiem cały obiekt.
C. łączy okablowanie obiektu i centralny punkt dystrybucji.
D. łączy okablowanie pionowe i międzylokalowe.
Jeśli chodzi o kondygnacyjne punkty dystrybucyjne, niektóre odpowiedzi mogą być mylące. W sumie, właściwością takiego punktu jest to, że jest on ograniczony do piętra budynku, a nie do całego budynku, tak jak sugeruje jedna z opcji. Cały budynek to raczej sprawa centralnych punktów dystrybucyjnych, które łączą różne piętra. Odpowiedzi związane z łączeniem okablowania pionowego i między budynkami są trochę na bocznym torze, bo punkty dystrybucyjne nie zajmują się łączeniem okablowania między budynkami. Moim zdaniem, to może prowadzić do błędnego zrozumienia, że kondygnacyjne punkty dystrybucyjne mają większy zasięg, co jest nieprawda. Mówiąc, że kondygnacyjny punkt dystrybucyjny łączy okablowanie budynku z centralnym punktem dystrybucyjnym, też może wprowadzać w błąd, bo taką rolę pełnią raczej inne elementy infrastruktury, jak serwerownie czy szafy dystrybucyjne. Dlatego ważne jest, żeby dobrze rozumieć, co tak naprawdę robią te punkty dystrybucyjne, bo ma to znaczenie przy projektowaniu i wdrażaniu efektywnych systemów okablowania.

Pytanie 14

Aby wykonać ręczne ustawienie interfejsu sieciowego w systemie LINUX, należy użyć polecenia

A. eth0
B. ipconfig
C. route add
D. ifconfig
Polecenie 'ifconfig' jest standardowym narzędziem w systemach UNIX i Linux, używanym do konfigurowania interfejsów sieciowych. Umożliwia ono zarówno wyświetlanie informacji o interfejsach (takich jak adres IP, maska podsieci, stan interfejsu), jak i ich konfigurację, co czyni je niezbędnym narzędziem w administracji sieci. Przykładowo, aby przypisać adres IP do interfejsu, należy użyć polecenia 'ifconfig eth0 192.168.1.10 netmask 255.255.255.0 up', co aktywuje interfejs oraz przydziela mu określony adres IP. Choć 'ifconfig' jest decyzją popularną, warto zauważyć, że w nowoczesnych dystrybucjach Linuxa zaleca się używanie narzędzia 'ip', które jest bardziej wszechstronne i oferuje dodatkowe funkcje. Dobrym standardem jest regularne sprawdzanie konfiguracji sieciowej za pomocą 'ifconfig' lub 'ip a' oraz monitorowanie aktywności interfejsów, co poprawia bezpieczeństwo i wydajność sieci.

Pytanie 15

Program do monitorowania, który umożliwia przechwytywanie, nagrywanie oraz dekodowanie różnych pakietów sieciowych to

A. konqueror
B. tracker
C. wireshark
D. finder
Odpowiedzi takie jak finder, tracker czy konqueror zawierają błędne założenia dotyczące zastosowania narzędzi do analizy ruchu sieciowego. Finder, jako termin, jest ściśle związany z systemami operacyjnymi, w szczególności z macOS, gdzie odnosi się do aplikacji do zarządzania plikami. Ta odpowiedź sugeruje mylne pojęcie o roli narzędzi analitycznych, które w rzeczywistości są bardziej zaawansowane i złożone. Tracker, podobnie, wskazuje na programy do śledzenia lub monitorowania, które nie są dedykowane do przechwytywania pakietów ani ich analizy. Takie narzędzia mogą być użyteczne w kontekście marketingu czy analizy danych, ale nie w kontekście analizy sieci. Konqueror, będący przeglądarką internetową oraz menedżerem plików w środowisku KDE, również nie ma funkcji przechwytywania ani analizy pakietów, co czyni go niewłaściwym wyborem w tym kontekście. Te odpowiedzi mogą sugerować, że użytkownik myli pojęcia związane z różnymi rodzajami oprogramowania, co może prowadzić do błędnych wniosków o tym, jakie narzędzia są naprawdę potrzebne do analizy sieci. Kluczowym aspektem w wykorzystaniu narzędzi do monitorowania ruchu jest ich zdolność do dekodowania i analizy protokołów, co żadne z wymienionych programów nie oferuje na poziomie, który zapewnia Wireshark.

Pytanie 16

Aby zabezpieczyć system przed atakami z sieci nazywanymi phishingiem, nie powinno się

A. wykorzystywać bankowości internetowej
B. aktualizować oprogramowania do obsługi poczty elektronicznej
C. posługiwać się stronami WWW korzystającymi z protokołu HTTPS
D. stosować przestarzałych przeglądarek internetowych
Korzystanie z bankowości online może wydawać się ryzykowne, zwłaszcza z perspektywy ataków phishingowych, ale przy odpowiednich środkach bezpieczeństwa jest to w sumie ok. Prawda jest taka, że banki bardzo inwestują w technologie, żeby chronić klientów. Ale, i tu jest ten haczyk, trzeba używać aktualnych przeglądarek, które są na bieżąco z protokołami bezpieczeństwa. Jeśli ktoś wybiera stare, nieaktualizowane przeglądarki, to naraża się na różne nieprzyjemności, bo mogą mieć niezałatane luki, które hakerzy chętnie wykorzystują. Serwisy WWW z protokołem HTTPS to też ważny aspekt – szyfrowanie jest super, bo zwiększa prywatność i utrudnia złodziejom przechwytywanie danych. Pamiętaj, że uaktualnianie oprogramowania do poczty jest istotne, ale to nie zastąpi innych działań. Warto wiedzieć, że nawet najlepsze oprogramowanie nie zadziała, jeśli korzystasz z przestarzałych narzędzi, dlatego lepiej stosować się do dobrych praktyk związanych z bezpieczeństwem w internecie.

Pytanie 17

Każdorazowo automatycznie szyfrowany staje się plik, który został zaszyfrowany przez użytkownika za pomocą systemu NTFS 5.0, w momencie

A. kiedy jest wysyłany pocztą e-mail
B. gdy jest zapisywany na dysku
C. gdy jest kopiowany przez sieć
D. gdy inny użytkownik próbuje go odczytać
Odpowiedź, że plik zaszyfrowany przez użytkownika za pomocą systemu NTFS 5.0 jest automatycznie szyfrowany podczas zapisywania go na dysku, jest prawidłowa, ponieważ NTFS (New Technology File System) obsługuje funkcję EFS (Encrypting File System), która automatycznie szyfruje pliki w momencie ich zapisu na dysku. Ta funkcjonalność pozwala na zabezpieczenie danych przed nieautoryzowanym dostępem, a klucze szyfrujące są ściśle związane z kontem użytkownika, co zapewnia, że tylko uprawnione osoby mogą uzyskać dostęp do zaszyfrowanych plików. Przykład praktyczny: jeśli użytkownik zapisuje dokument w formacie Word, który został zaszyfrowany, przy każdym zapisaniu go na dysku, system NTFS 5.0 zapewnia, że plik jest szyfrowany, nawet jeśli użytkownik nie jest świadomy tego procesu. Dobre praktyki w zakresie ochrony danych wskazują na regularne stosowanie szyfrowania, aby zminimalizować ryzyko utraty danych lub ich ujawnienia, co jest szczególnie istotne w kontekście danych wrażliwych.

Pytanie 18

Który z protokołów pełni rolę protokołu połączeniowego?

A. IP
B. TCP
C. UDP
D. ARP
Protokół TCP (Transmission Control Protocol) jest uznawany za protokół połączeniowy, co oznacza, że przed przesłaniem danych nawiązuje trwałe połączenie między nadawcą a odbiorcą. W przeciwieństwie do protokołów bezpołączeniowych, takich jak UDP (User Datagram Protocol), TCP zapewnia niezawodność dostarczania danych dzięki mechanizmom kontroli błędów i retransmisji. Przykładem zastosowania TCP jest protokół HTTP, który jest fundamentem działania stron internetowych. Gdy przeglądarka nawiązuje połączenie z serwerem, TCP ustala parametry połączenia, a następnie gwarantuje, że dane (np. treść strony) są dostarczane w poprawnej kolejności i bez błędów. Dzięki temu użytkownicy mogą mieć pewność, że otrzymują pełne i poprawne informacje. W standardach branżowych TCP jest często używany w aplikacjach, które wymagają wysokiej niezawodności, takich jak transfer plików (FTP) czy poczta elektroniczna (SMTP).

Pytanie 19

Zużyty sprzęt elektryczny lub elektroniczny, na którym znajduje się symbol zobrazowany na ilustracji, powinien być

Ilustracja do pytania
A. przekazany do punktu odbioru zużytej elektroniki
B. przekazany do miejsca skupu złomu
C. wyrzucony do pojemników na odpady domowe
D. wrzucony do pojemników oznaczonych tym symbolem
Symbol przedstawiony na rysunku oznacza, że urządzenia elektryczne i elektroniczne nie mogą być wyrzucone do zwykłych pojemników na odpady komunalne. To oznaczenie jest zgodne z dyrektywą WEEE (Waste Electrical and Electronic Equipment Directive) Unii Europejskiej, która reguluje sposób postępowania z zużytym sprzętem elektronicznym w celu ich bezpiecznej utylizacji i recyklingu. Przekazanie takiego sprzętu do punktu odbioru zużytej elektroniki jest zgodne z wymogami prawnymi i dobrymi praktykami, ponieważ punkty te są przygotowane do odpowiedniego przetwarzania takich odpadów. Zbierają one urządzenia w sposób bezpieczny dla środowiska, zapobiegając uwolnieniu szkodliwych substancji chemicznych, które mogą być obecne w takich urządzeniach, jak rtęć, ołów czy kadm. Recykling zużytego sprzętu elektronicznego pozwala także na odzyskiwanie cennych materiałów, takich jak złoto, srebro czy platyna, które są wykorzystywane w produkcji nowych urządzeń. Działanie to wspiera zrównoważony rozwój i ochronę zasobów naturalnych, co jest kluczowym celem gospodarki o obiegu zamkniętym.

Pytanie 20

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. wybraniem pliku z obrazem dysku.
B. dodaniem drugiego dysku twardego.
C. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
D. konfigurowaniem adresu karty sieciowej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 21

Jak powinno być usytuowanie gniazd komputerowych RJ45 względem powierzchni biurowej zgodnie z normą PN-EN 50174?

A. Gniazdo komputerowe 1 x RJ45 na 20 m2 powierzchni biura
B. Gniazdo komputerowe 2 x RJ45 na 20 m2 powierzchni biura
C. Gniazdo komputerowe 2 x RJ45 na 10 m2 powierzchni biura
D. Gniazdo komputerowe 1 x RJ45 na 10 m2 powierzchni biura
Wybór zbyt małej liczby gniazd komputerowych, jak w odpowiedziach dotyczących 1 x RJ45 na 10 m2 czy 20 m2, jest nieadekwatny w kontekście aktualnych potrzeb biur. Współczesne miejsca pracy wymagają większej liczby punktów dostępowych, aby umożliwić płynne korzystanie z technologii oraz wszechstronność w organizacji stanowisk pracy. Odpowiedzi te nie uwzględniają rosnącego zapotrzebowania na łączność, szczególnie w kontekście wzrastającej liczby urządzeń peryferyjnych. W praktyce, umiejscowienie jednego gniazda na większej powierzchni, jak 20 m2, ogranicza elastyczność użytkowników i może prowadzić do przeciążenia infrastruktury sieciowej. Ponadto, koncepcja, która sugeruje używanie jednego gniazda na 20 m2, nie jest zgodna z najlepszymi praktykami w zakresie projektowania sieci komputerowych, które zalecają większą gęstość gniazd w celu zapewnienia optymalnej wydajności i komfortu pracy. Oparcie się na takich mniejszych liczbach gniazd może prowadzić do nadmiernego uzależnienia od urządzeń sieciowych, takich jak switch'e, co niewłaściwie wpływa na rozplanowanie przestrzeni biurowej oraz użytkowników.

Pytanie 22

Który z portów na zaprezentowanej płycie głównej umożliwia podłączenie zewnętrznego dysku przez interfejs e-SATA?

Ilustracja do pytania
A. 2
B. 3
C. 4
D. 1
Port numer 2 to e-SATA, czyli ten typ złącza, który pozwala na szybkie przesyłanie danych. W praktyce działa to tak, że podłączasz do niego zewnętrzne dyski twarde i masz możliwość przenoszenia dużych ilości info z naprawdę niezłą prędkością, sięgającą nawet 6 Gb/s. To czyni go całkiem konkurencyjnym wobec USB 3.0 i Thunderbolt. Z mojego doświadczenia wynika, że e-SATA jest świetny, gdy potrzebujesz szybko przesłać dane bez zbędnych opóźnień. Fajnie, że nie ma problemów z zakłóceniami elektromagnetycznymi, bo złącze jest dość solidnie zrobione. Jednak trzeba pamiętać, że e-SATA nie zapewnia zasilania przez kabel, dlatego zewnętrzne urządzenia często potrzebują swojego osobnego źródła zasilania. Generalnie, jest to technologia, która sprawdza się w pracy z dużymi zbiorem danych, takimi jak edycja wideo czy duże bazy danych.

Pytanie 23

Gdzie w dokumencie tekstowym Word umieszczony jest nagłówek oraz stopka?

A. Na stronach parzystych dokumentu
B. Nagłówek występuje na początku dokumentu, a stopka na końcu dokumentu
C. Nagłówek znajduje się na górnym marginesie, a stopka na dolnym marginesie
D. Nagłówek jest umieszczony na dolnym marginesie, a stopka na górnym marginesie
Nagłówek i stopka w dokumencie tekstowym Word odgrywają kluczową rolę w organizacji treści oraz w estetyce dokumentów. Nagłówek, umieszczany na górnym marginesie, pozwala na umieszczenie istotnych informacji, takich jak tytuł dokumentu, nazwa autora czy numer strony. Dzięki temu czytelnik ma łatwy dostęp do kontekstu całego dokumentu, co jest szczególnie przydatne w dłuższych publikacjach, takich jak raporty czy prace naukowe. Z kolei stopka, umieszczana na dolnym marginesie, często zawiera dane kontaktowe, numery stron lub jakiekolwiek dodatkowe notatki, które mogą być istotne dla odbiorcy. Ważne jest, aby dobrze zorganizować te elementy zgodnie z zasadami typografii i dostosować je do stylu dokumentu, co zwiększa jego profesjonalny wygląd oraz czytelność. Dobrą praktyką jest również stosowanie odpowiednich formatów i rozmiarów czcionek, a także unikanie nadmiaru informacji, co może prowadzić do chaosu wizualnego.

Pytanie 24

Na płycie głównej z chipsetem Intel 865G

A. można zainstalować kartę graficzną z interfejsem AGP
B. można zainstalować kartę graficzną z interfejsem ISA
C. nie ma możliwości zainstalowania karty graficznej
D. można zainstalować kartę graficzną z interfejsem PCI-Express
Zainstalowanie karty graficznej z PCI-Express na płycie głównej z układem Intel 865G to zły pomysł, bo ten chipset nie obsługuje PCI-Express. Różnica między PCI-Express a AGP tkwi w strukturze złącza i tym, jak przesyłane są dane. PCI-Express, które weszło na rynek na początku lat 2000, ma o wiele lepszą przepustowość i elastyczność w porównaniu do AGP, ale płyta Intel 865G nie ma odpowiednich slotów do PCI-Express. Też nie ma co myśleć o złączu ISA, które było popularne w latach 80. i 90., bo nie nadaje się do nowoczesnych kart graficznych. Wiele osób myli te standardy, nie zdając sobie sprawy, że AGP było stworzone tylko dla kart graficznych w starszych systemach. To, że nie rozumie się różnic między nimi, prowadzi do błędnych przekonań, jak to, że nowsze złącza mogą działać na starszych płytach. Więc, jak myślisz o modernizacji sprzętu, pamiętaj, żeby wszystkie podzespoły były kompatybilne, a w przypadku Intel 865G będziesz musiał wybierać karty graficzne z AGP.

Pytanie 25

W systemie Windows przypadkowo usunięto konto użytkownika, ale katalog domowy pozostał. Czy możliwe jest odzyskanie niezaszyfrowanych danych z katalogu domowego tego użytkownika?

A. tak, ale jedynie przy pomocy programu typu recovery
B. nie, ponieważ systemowe zabezpieczenia uniemożliwiają dostęp do danych
C. tak, za pomocą konta o uprawnieniach administratorskich
D. nie, dane są definitywnie utracone wraz z kontem
Odzyskanie danych z katalogu domowego użytkownika po usunięciu konta jest jak najbardziej możliwe, jeśli mamy do dyspozycji konto z uprawnieniami administratora. W Windows, nawet po usunięciu konta, jego katalog i dane mogą nadal istnieć na dysku, chyba że zostały fizycznie usunięte. Administratorzy mają dostęp do wszystkich plików w systemie, więc mogą przeszukać katalog domowy i kopiować potrzebne dane. Z praktyki wiem, że administrator może bez problemu trafić do folderu, gdzie są przechowywane pliki użytkownika (zwykle C:\Users\NazwaUżytkownika) i zarchiwizować je gdzie indziej lub nawet przywrócić do nowego konta. Warto dodać, że odzyskanie niezaszyfrowanych danych jest znacznie prostsze, co jest zgodne z ogólnymi praktykami zarządzania danymi. Dobry sposób zarządzania kontami i danymi to kluczowy element bezpieczeństwa w każdej organizacji.

Pytanie 26

W systemie Linux do obserwacji działania sieci, urządzeń sieciowych oraz serwerów można zastosować aplikację

A. Nagios
B. Shotwell
C. Dolphin
D. Basero
Nagios to potężne narzędzie do monitorowania, które pozwala administratorom IT na kontrolowanie stanu sieci, urządzeń oraz serwerów. Jego główną funkcją jest zbieranie i analizowanie danych o dostępności oraz wydajności różnorodnych zasobów, co pozwala na wczesne wykrywanie potencjalnych problemów. Przykładem zastosowania Nagiosa może być monitorowanie serwerów www — administratorzy mogą ustawić alerty, które informują ich o awariach serwerów lub spadku wydajności. Dzięki rozbudowanej społeczności i wsparciu dla różnych systemów operacyjnych, Nagios stał się standardem w branży. Zgodnie z najlepszymi praktykami, regularne audyty i aktualizacje konfiguracji monitorowania w Nagiosie mogą znacząco zwiększyć niezawodność infrastruktury IT, co jest kluczowe w dzisiejszym środowisku biznesowym pełnym wyzwań.

Pytanie 27

Która z wymienionych czynności konserwacyjnych związana jest wyłącznie z drukarką laserową?

A. Oczyszczenie traktora
B. Usunięcie zabrudzeń z zespołu czyszczącego głowice
C. Czyszczenie prowadnic karetki
D. Czyszczenie luster i soczewek
Czyszczenie luster i soczewek to naprawdę ważna sprawa, jeśli chodzi o dbanie o drukarki laserowe. Te elementy są kluczowe, bo to one odpowiadają za kierowanie lasera, co wpływa na to, jak dobrze wydruk wygląda. Z czasem mogą się na nich gromadzić różne zanieczyszczenia, co może sprawić, że obraz będzie mniej wyraźny. Dlatego warto regularnie je czyścić, najlepiej stosując się do zaleceń producentów, jak na przykład ISO 9001. Używanie odpowiednich środków czyszczących i narzędzi jest istotne, bo chcemy uniknąć uszkodzenia tych delikatnych powierzchni. Ciekawe jest też to, że niektóre drukarki laserowe mają systemy, które monitorują stan optyki, co znacznie ułatwia dbanie o sprzęt.

Pytanie 28

Aby poprawić wydajność procesora serii Intel za pomocą 'podkręcania' (ang. overclocking), należy użyć procesora oznaczonego

A. literą B
B. literą Y
C. literą U
D. literą K
Odpowiedź literą K wskazuje na procesory Intel, które są fabrycznie odblokowane, co umożliwia ich podkręcanie, czyli overclocking. Procesory te są często wykorzystywane przez entuzjastów komputerowych oraz profesjonalnych graczy, którzy pragną maksymalizować wydajność swoich systemów. W praktyce, podkręcanie polega na zwiększeniu częstotliwości pracy rdzeni procesora ponad nominalne wartości, co skutkuje lepszą wydajnością w wymagających aplikacjach oraz grach. Standardowe narzędzia, takie jak Intel Extreme Tuning Utility (XTU), pozwalają na monitorowanie i dostosowanie parametrów pracy procesora w bezpieczny sposób. Warto również zauważyć, że niektóre procesory, oznaczone literami U lub Y, są zoptymalizowane pod kątem oszczędności energii i mobilności, co czyni je mniej odpowiednimi do podkręcania. Dlatego litera K w oznaczeniach procesorów Intel jest kluczowym wskaźnikiem dla tych, którzy pragną osiągnąć wyższą wydajność poprzez overclocking.

Pytanie 29

Aby uzyskać uprawnienia administratora w systemie Linux, należy w terminalu wpisać polecenie

A. uname -s
B. $HOME
C. su root
D. df
Polecenie 'su root' (switch user) jest kluczowym narzędziem w systemach Unix i Linux do uzyskiwania uprawnień administratora. Umożliwia ono zalogowanie się jako użytkownik 'root', który posiada pełny dostęp do systemu, co jest konieczne do wykonywania operacji administracyjnych, takich jak instalacja oprogramowania, zarządzanie użytkownikami czy konfigurowanie systemu. Kiedy w terminalu wpiszemy 'su root', zostaniemy poproszeni o podanie hasła użytkownika root, co jest standardowym zabezpieczeniem. Przykład zastosowania: jeśli chcemy zainstalować nowy pakiet oprogramowania za pomocą menedżera pakietów, na przykład 'apt-get' w systemach Debian, musimy być zalogowani jako root. Warto również pamiętać o praktykach bezpieczeństwa, takich jak ograniczone korzystanie z konta root, aby zmniejszyć ryzyko przypadkowych zmian w systemie. Korzystając z polecenia 'su', administrator powinien być świadomy potencjalnych konsekwencji wprowadzenia nieodpowiednich komend, co może prowadzić do destabilizacji systemu.

Pytanie 30

Jaki typ grupy jest automatycznie przypisany dla nowo tworzonej grupy w kontrolerze domeny systemu Windows Server?

A. Dystrybucyjny
B. Lokalny w domenie
C. Globalny
D. Uniwersalny
Poprawna odpowiedź to "Globalny", ponieważ w kontrolerze domeny systemu Windows Serwer nowo utworzone grupy domyślnie przyjmują ten właśnie zakres. Grupy globalne są wykorzystywane do organizowania użytkowników i grup w ramach jednej domeny, co ma kluczowe znaczenie dla zarządzania uprawnieniami i dostępem do zasobów. Przykładowo, jeśli mamy grupę globalną o nazwie 'UżytkownicyMarketingu', można ją przypisać do określonych zasobów w domenie, takich jak udziały plików, umożliwiając wszystkim członkom tej grupy dostęp do niezbędnych danych. Ponadto, dobrą praktyką jest utrzymywanie grup globalnych w celu centralizacji zarządzania oraz uproszczenia administracji. Standardowym podejściem zgodnym z najlepszymi praktykami branżowymi jest ograniczanie liczby grup lokalnych i dystrybucyjnych, co zwiększa efektywność zarządzania w dużych środowiskach IT.

Pytanie 31

Odmianą pamięci, która jest tylko do odczytu i można ją usunąć za pomocą promieniowania ultrafioletowego, jest pamięć

A. ROM
B. EEPROM
C. EPROM
D. PROM
Wybór innych opcji, takich jak ROM, PROM czy EEPROM, opiera się na mylnym zrozumieniu różnic między tymi typami pamięci. ROM (Read-Only Memory) jest pamięcią, która jest w pełni zapisana podczas produkcji i nie może być zmieniana ani kasowana, co czyni ją nieodpowiednią dla aplikacji wymagających aktualizacji. PROM (Programmable Read-Only Memory) pozwala na jednokrotne zaprogramowanie danych, co również ogranicza jej użyteczność w kontekście systemów, które wymagają modyfikacji po pierwszym zapisaniu. Z kolei EEPROM (Electrically Erasable Programmable Read-Only Memory) umożliwia kasowanie i programowanie danych elektrycznie, co sprawia, że jest bardziej elastycznym rozwiązaniem niż PROM, ale nie ma możliwości kasowania za pomocą światła ultrafioletowego, co jest kluczową cechą EPROM. Typowe błędy myślowe prowadzące do nieprawidłowych wniosków to utożsamianie wszystkich typów pamięci jako równoważnych oraz brak zrozumienia, w jakich sytuacjach konkretne technologie będą najefektywniejsze. Każdy z wymienionych typów pamięci ma swoje miejsce i zastosowanie, ale ich funkcje i możliwości znacznie się różnią, co należy uwzględnić przy wyborze odpowiedniego rozwiązania.

Pytanie 32

Protokół TCP (Transmission Control Protocol) funkcjonuje w trybie

A. połączeniowym
B. hybrydowym
C. bezpołączeniowym
D. sekwencyjnym
Protokół TCP (Transmission Control Protocol) działa w trybie połączeniowym, co oznacza, że przed rozpoczęciem przesyłania danych następuje etap nawiązywania połączenia. Proces ten realizowany jest przy użyciu mechanizmu trójfazowego (ang. three-way handshake), który zapewnia, że obie strony są gotowe do komunikacji i mogą wymieniać dane. TCP gwarantuje, że dane będą przesyłane w poprawnej kolejności, co jest kluczowe dla aplikacji wymagających wysokiej niezawodności, takich jak transfer plików czy komunikatory internetowe. Przykładem zastosowania TCP są protokoły wyższej warstwy, takie jak HTTP, które są fundamentem działania stron internetowych. W praktyce, protokół TCP zapewnia również mechanizmy kontroli błędów oraz retransmisji danych, co czyni go odpowiednim wyborem w sytuacjach, gdzie niezawodność przesyłu jest kluczowa.

Pytanie 33

Standardowe napięcie zasilające dla modułów pamięci RAM DDR4 wynosi

A. 1,35 V
B. 1,2 V
C. 1,5 V
D. 1,65 V
Wybór napięcia zasilania 1,5 V, 1,65 V lub 1,35 V dla modułów pamięci RAM DDR4 jest błędny, ponieważ napięcia te odpowiadają starym standardom lub innym technologiom pamięci. Napięcie 1,5 V jest charakterystyczne dla pamięci RAM DDR3, która była powszechnie stosowana przed wprowadzeniem DDR4. Przy pracy na wyższym napięciu, DDR3 generuje więcej ciepła, co prowadzi do obniżenia efektywności energetycznej systemu. Z kolei napięcie 1,65 V często jest związane z pamięcią RAM działającą na wyższych częstotliwościach, ale nie jest zgodne z DDR4. Używanie modułów z takimi specyfikacjami zasilania w systemach zaprojektowanych pod kątem DDR4 może prowadzić do uszkodzenia pamięci lub niestabilności systemu. Napięcie 1,35 V, choć jest stosowane w niektórych wariantach DDR4 (np. Low Voltage DDR4), nie jest standardowym napięciem dla ogólnych zastosowań DDR4. W praktyce, wybór niewłaściwego napięcia może prowadzić do problemów z kompatybilnością, co jest powszechnym błędem wśród użytkowników, którzy nie są świadomi różnic między wersjami pamięci. Kluczowe jest, aby przy projektowaniu i budowie systemów komputerowych przestrzegać specyfikacji JEDEC oraz stosować komponenty zgodne z tymi standardami, co zapewnia nie tylko stabilność, ale i wydajność sprzętu.

Pytanie 34

Jak nazywa się bezklasowa metoda podziału przestrzeni adresowej IPv4?

A. VLAN
B. CIDR
C. MASK
D. IMAP
CIDR, czyli Classless Inter-Domain Routing, jest bezklasową metodą podziału przestrzeni adresowej IPv4, która pozwala na bardziej elastyczne zarządzanie adresami IP. Została wprowadzona w celu zastąpienia tradycyjnego systemu klasowego (A, B, C), który był ograniczony i prowadził do nieefektywnego wykorzystania dostępnych adresów. CIDR wprowadza elastyczność dzięki wykorzystaniu notacji, która pozwala na precyzyjne określenie długości prefiksu sieci (np. /24), co pozwala na przydzielanie adresów zgodnie z rzeczywistymi potrzebami sieci. Przykładem zastosowania CIDR jest podział dużej puli adresów IP dla różnych podsieci w organizacji, co pozwala na optymalizację i lepsze zarządzanie zasobami sieciowymi. Dzięki CIDR możliwe jest efektywne agregowanie tras w routingu, co przyczynia się do zmniejszenia rozmiaru tablic routingu w internecie oraz poprawy wydajności. Standardy ustalone przez IETF w dokumentach RFC 4632 oraz RFC 1519 podkreślają znaczenie CIDR w kontekście nowoczesnych rozwiązań sieciowych, co sprawia, że jest to kluczowa koncepcja w zarządzaniu adresami IP.

Pytanie 35

Jaką najwyższą liczbę urządzeń można przypisać w sieci z adresacją IPv4 klasy C?

A. 126
B. 254
C. 2024
D. 65534
Odpowiedź 254 jest poprawna, ponieważ w sieci IPv4 klasy C możliwe jest zaadresowanie 256 adresów IP. Klasa C ma zakres adresów od 192.0.0.0 do 223.255.255.255, co oznacza, że ostatni bajt adresu jest używany do identyfikacji hostów. Z tych 256 adresów, jeden jest zarezerwowany jako adres sieci (w przypadku np. 192.168.1.0) i jeden jako adres rozgłoszeniowy (np. 192.168.1.255). To pozostawia 254 dostępne adresy do użycia dla urządzeń, takich jak komputery, drukarki czy routery. W praktyce, znajomość tej liczby jest istotna przy projektowaniu małych sieci lokalnych, gdzie klasy C są często wykorzystywane, szczególnie w biurach czy domowych sieciach. Dobrą praktyką jest również korzystanie z DHCP, co umożliwia dynamiczne przydzielanie adresów IP, a tym samym efektywne zarządzanie dostępnością adresów. Warto także zwrócić uwagę na możliwość korzystania z NAT, co pozwala na wykorzystanie prywatnych adresów IP w sieciach lokalnych, zapewniając jednocześnie komunikację z internetem.

Pytanie 36

Polecenie to zostało wydane przez Administratora systemu operacyjnego w trakcie ręcznej konfiguracji sieciowego interfejsu. Wynikiem wykonania tego polecenia jest ```netsh interface ip set address name="Glowna" static 151.10.10.2 255.255.0.0 151.10.0.1```

A. aktywacja dynamicznego przypisywania adresów IP
B. ustawienie maski 24-bitowej
C. przypisanie adresu 151.10.0.1 jako domyślnej bramy
D. dezaktywacja interfejsu
Polecenie wydane za pomocą komendy 'netsh interface ip set address name="Glowna" static 151.10.10.2 255.255.0.0 151.10.0.1' ustawia adres IP oraz maskę podsieci dla interfejsu o nazwie 'Glowna'. W tym przypadku adres '151.10.0.1' został określony jako brama domyślna, co jest kluczowe w kontekście routingu. Brama domyślna jest to adres IP routera, przez który urządzenie komunikuje się z innymi sieciami, w tym z internetem. Ustawienie bramy domyślnej jest niezbędne, aby urządzenie mogło wysyłać pakiety do adresów spoza swojej lokalnej podsieci. Dobre praktyki dotyczące konfiguracji sieci zalecają, aby brama domyślna była zawsze odpowiednio skonfigurowana, co zapewnia prawidłowe funkcjonowanie komunikacji w sieci. Przykładem praktycznego zastosowania tej komendy może być sytuacja, gdy administrator sieci konfiguruje nowe urządzenie, które musi uzyskać dostęp do zewnętrznych zasobów. Bez poprawnie ustawionej bramy domyślnej, urządzenie nie będzie mogło komunikować się z innymi sieciami.

Pytanie 37

Największą pojemność spośród nośników optycznych posiada płyta

A. DVD-RAM
B. CD
C. Blu-Ray
D. DVD
Płyta Blu-Ray, w porównaniu do innych nośników optycznych, oferuje największą pojemność, co czyni ją idealnym rozwiązaniem dla przechowywania dużych ilości danych, takich jak filmy w wysokiej rozdzielczości, gry komputerowe czy archiwizacja danych. Standardowa płyta Blu-Ray ma pojemność 25 GB na warstwę, a nowoczesne nośniki dwuwarstwowe mogą pomieścić aż 50 GB. Dzięki zastosowaniu technologii lasera o krótszej długości fali (405 nm), Blu-Ray jest w stanie zapisać więcej informacji na tej samej powierzchni niż tradycyjne nośniki, takie jak CD (700 MB) i DVD (4,7 GB/8,5 GB w wersji dwuwarstwowej). W praktyce, płyty Blu-Ray znalazły zastosowanie w branży filmowej, gdzie umożliwiają wydanie filmów w jakości 4K, a także w sektorze gier, gdzie pozwalają na przechowywanie bardziej rozbudowanych tytułów bez potrzeby kompresji danych. Warto zaznaczyć, że z powodu rosnącego znaczenia digitalizacji danych oraz potrzeby efektywnego zarządzania dużymi zbiorami informacji, nośniki Blu-Ray stały się standardem w wielu profesjonalnych aplikacjach. Oprócz tego, ich kompatybilność z odtwarzaczami multimedialnymi sprawia, że są one wszechstronnym wyborem dla użytkowników domowych.

Pytanie 38

W celu zapewnienia jakości usługi QoS, w przełącznikach warstwy dostępu stosuje się mechanizm

A. nadawania wyższych priorytetów niektórym typom danych
B. zapobiegającego występowaniu pętli w sieci
C. zastosowania kilku portów jako jednego logicznego połączenia jednocześnie
D. określania liczby urządzeń, które mogą łączyć się z danym przełącznikiem
Nadawanie priorytetu określonym rodzajom danych jest kluczowym elementem zapewnienia jakości usług (QoS) w sieciach komputerowych, zwłaszcza w przełącznikach warstwy dostępu. QoS polega na zarządzaniu ruchem sieciowym w sposób, który pozwala na optymalne wykorzystanie dostępnych zasobów oraz minimalizowanie opóźnień i utraty pakietów. W praktyce oznacza to, że ruch krytyczny, na przykład VoIP (Voice over IP) czy transmisje wideo, może być traktowany priorytetowo w stosunku do mniej istotnych danych, takich jak transfer plików czy przeglądanie stron www. Przełączniki warstwy dostępu mogą implementować mechanizmy takie jak oznaczanie pakietów za pomocą protokołów takich jak 802.1Q dla VLAN-ów oraz 802.1p dla klasyfikacji ruchu. Dzięki temu administratorzy mogą konfigurować przełączniki tak, aby odpowiednie typy ruchu były przesyłane z wyższym priorytetem, co zapewnia lepszą jakość usług i zadowolenie użytkowników. Wprowadzenie systemu QoS w sieci jest zgodne z dobrymi praktykami branżowymi, które podkreślają znaczenie planowania zasobów oraz ich efektywnego zarządzania.

Pytanie 39

Zbiór usług sieciowych dla systemów z rodziny Microsoft Windows jest reprezentowany przez skrót

A. HTTPS
B. HTTP
C. FTPS
D. IIS
IIS, czyli Internet Information Services, to serwer WWW stworzony przez Microsoft, który jest integralną częścią systemów operacyjnych rodziny Windows. Umożliwia hosting aplikacji internetowych oraz stron WWW, a także zarządzanie nimi poprzez intuicyjny interfejs graficzny. IIS obsługuje różne protokoły, takie jak HTTP, HTTPS, FTP, a także pozwala na korzystanie z ASP.NET, co czyni go potężnym narzędziem do tworzenia dynamicznych aplikacji webowych. Przykłady zastosowania IIS obejmują serwisowanie stron internetowych dla małych firm, jak i dużych korporacji, które wymagają stabilnych i skalowalnych rozwiązań. Zastosowanie IIS w praktyce obejmuje również konfigurację zabezpieczeń, monitorowanie wydajności oraz integrację z innymi technologiami Microsoft, co czyni go standardowym rozwiązaniem w środowisku Windows. Warto także zaznaczyć, że IIS wspiera standardy branżowe, takie jak HTTP/2, co zwiększa efektywność transferu danych. W kontekście dobrych praktyk, ważne jest regularne aktualizowanie serwera, aby zapewnić bezpieczeństwo oraz wsparcie dla najnowszych protokołów i technologii.

Pytanie 40

Moc zasilacza wynosi 450 W, co oznacza, że

A. 45 GW
B. 4,5 MW
C. 0,045 hW
D. 0,45 kW
Moc zasilacza wynosząca 450 W (watów) jest równoważna 0,45 kW (kilowatów), co można obliczyć dzieląc wartość w watach przez 1000. Kilowaty to jednostka mocy, która często jest używana w kontekście zasilania urządzeń elektrycznych i systemów energetycznych. Przykładowo, sprzęt komputerowy, zasilacze do gier czy urządzenia domowe często podawane są w watach, jednak dla większych instalacji, takich jak panele słoneczne czy systemy grzewcze, moc wyrażana jest w kilowatach. Znajomość przelicznika między tymi jednostkami jest kluczowa przy projektowaniu instalacji elektrycznych, aby odpowiednio dobrać zasilacz do potrzeb urządzenia oraz zapewnić efektywność energetyczną. Standardy branżowe, takie jak IEC 61000, zalecają dokładne określenie mocy zasilającej, aby uniknąć przeciążeń i uszkodzeń sprzętu. Zrozumienie tych pojęć jest niezbędne dla każdego profesjonalisty w dziedzinie elektrotechniki.