Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 27 kwietnia 2026 08:16
  • Data zakończenia: 27 kwietnia 2026 08:39

Egzamin zdany!

Wynik: 27/40 punktów (67,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Rodzaje ataków mających na celu zakłócenie funkcjonowania aplikacji oraz procesów w urządzeniach sieciowych to ataki klasy

A. zero-day
B. DoS
C. spoofing
D. smurf
Ataki typu DoS (Denial of Service) mają na celu zakłócenie normalnego działania usług, aplikacji i procesów w sieciach komputerowych. Celem tych ataków jest uniemożliwienie użytkownikom dostępu do systemu poprzez przeciążenie serwera lub infrastruktury sieciowej. W praktyce, atakujący wysyła ogromne ilości ruchu do docelowego serwera, co prowadzi do jego przeciążenia. Przykładem może być atak SYN flood, który eksploitując proces nawiązywania połączenia TCP, generuje wiele niekompletnych połączeń, co finalnie prowadzi do wyczerpania zasobów serwera. Standardy i najlepsze praktyki w zakresie zabezpieczeń sieciowych zalecają stosowanie mechanizmów ochrony, takich jak firewall, systemy wykrywania i zapobiegania włamaniom (IDS/IPS) oraz usługi DDoS mitigation, które mogą pomóc w minimalizacji skutków takiego ataku. Wiedza na temat ataków DoS jest kluczowa dla specjalistów z zakresu bezpieczeństwa IT, aby opracować skuteczne strategie obronne i zapewnić ciągłość działania usług.

Pytanie 2

Jaki instrument służy do określania długości oraz tłumienności kabli miedzianych?

A. Woltomierz
B. Miernik mocy
C. Reflektometr TDR
D. Omomierz
Reflektometr TDR (Time Domain Reflectometer) jest zaawansowanym przyrządem, który pozwala na precyzyjne pomiary długości oraz tłumienności przewodów miedzianych. Działa na zasadzie wysyłania sygnału elektromagnetycznego wzdłuż przewodu i analizy echa sygnału, które odbija się od różnych punktów wzdłuż linii. Dzięki tej metodzie można nie tylko określić długość przewodu, ale także zdiagnozować problemy, takie jak uszkodzenia czy nieciągłości w instalacji. Reflektometr TDR jest szeroko stosowany w telekomunikacji oraz sieciach komputerowych, gdzie odpowiednie zarządzanie jakością sygnału jest kluczowe dla stabilności i wydajności systemu. Przykładowo, w przypadku kabla Ethernet, TDR może pomóc w identyfikacji miejsc, gdzie może występować spadek jakości sygnału, co jest szczególnie istotne w kontekście utrzymania standardów, takich jak ISO/IEC 11801 dotyczących kabli strukturalnych. Używanie reflektometrów TDR w codziennej praktyce inżynieryjnej nie tylko zwiększa efektywność diagnostyki, ale także przyczynia się do obniżenia kosztów utrzymania infrastruktury sieciowej.

Pytanie 3

Który protokół odpowiada za bezpieczne przesyłanie danych w sieciach komputerowych?

A. FTP
B. HTTPS
C. SMTP
D. HTTP
HTTPS to rozszerzenie protokołu HTTP, które umożliwia bezpieczne przesyłanie danych w sieciach komputerowych. Działa w oparciu o protokół SSL/TLS, co zapewnia szyfrowanie komunikacji między klientem a serwerem. Dzięki temu, nawet jeśli ktoś przechwyci dane przesyłane w sieci, nie będzie w stanie ich odczytać bez klucza deszyfrującego. HTTPS jest powszechnie stosowany na stronach internetowych, które wymagają przesyłania wrażliwych informacji, takich jak dane logowania, numery kart kredytowych czy dane osobiste. Użycie HTTPS jest obecnie standardem w branży, a przeglądarki internetowe często ostrzegają użytkowników przed witrynami, które nie korzystają z tego protokołu. Z mojego doświadczenia wynika, że wdrożenie HTTPS jest jednym z podstawowych kroków zapewnienia bezpieczeństwa w sieci. Same certyfikaty SSL/TLS można uzyskać z różnych źródeł, w tym darmowych, co czyni ten protokół łatwo dostępnym dla każdej organizacji dbającej o bezpieczeństwo swoich użytkowników. Również Google faworyzuje strony korzystające z HTTPS w wynikach wyszukiwania, co dodatkowo motywuje do jego wdrożenia.

Pytanie 4

Jaką liczbę komórek pamięci można bezpośrednio zaadresować w 64-bitowym procesorze z 32-bitową szyną adresową?

A. 2 do potęgi 64
B. 2 do potęgi 32
C. 32 do potęgi 2
D. 64 do potęgi 2
Odpowiedź 2 do potęgi 32 jest prawidłowa, ponieważ odnosi się do ilości adresów pamięci, które można zaadresować przy użyciu 32-bitowej szyny adresowej. Szyna adresowa określa maksymalną ilość pamięci, do której procesor może uzyskać dostęp. W przypadku 32-bitowej szyny adresowej oznacza to, że można zaadresować 2^32 różnych lokalizacji pamięci, co odpowiada 4 GB pamięci. Przykład praktyczny to komputery z systemem operacyjnym 32-bitowym, które mogą wykorzystać maksymalnie 4 GB pamięci RAM. W kontekście standardów technologicznych, takie limity są kluczowe dla projektowania systemów operacyjnych i aplikacji, które muszą być zgodne z architekturą sprzętu. Warto również zauważyć, że w systemach 64-bitowych, mimo że procesor ma większe możliwości, wciąż obowiązują ograniczenia wynikające z wykorzystanej szyny adresowej.

Pytanie 5

W sytuacji, gdy brakuje odpowiedniej ilości pamięci RAM do przeprowadzenia operacji, takiej jak uruchomienie aplikacji, system Windows pozwala na przeniesienie nieużywanych danych z pamięci RAM do pliku

A. pagefile.sys
B. tpm.sys
C. nvraid.sys
D. config.sys
Odpowiedzi 'tpm.sys', 'config.sys' i 'nvraid.sys' nie pasują do tematu przenoszenia danych z pamięci RAM. 'tpm.sys' jest sterownikiem dla modułu TPM, który przede wszystkim dba o bezpieczeństwo i zarządzanie kluczami, nie o pamięć. 'config.sys' to stary plik konfiguracyjny z czasów DOS, a teraz już nie jest potrzebny. No i 'nvraid.sys' to sterownik do RAID, też nie ma nic wspólnego z przenoszeniem danych z RAM-u do dysku. Czasami można pomylić te pliki i ich funkcje, ale ważne jest, żeby zrozumieć, jak to wszystko działa. Wiedza na temat plików systemowych naprawdę pomaga w lepszym zrozumieniu wydajności komputera.

Pytanie 6

Ile podsieci obejmują komputery z adresami: 192.168.5.12/25, 192.168.5.200/25 oraz 192.158.5.250/25?

A. 2
B. 1
C. 4
D. 3
Adres IP 192.168.5.12/25 oznacza, że maska podsieci to 255.255.255.128, co daje 128 adresów w podsieci (od 192.168.5.0 do 192.168.5.127). Adres 192.168.5.200/25 również należy do podsieci z tą samą maską, z tym że jego zakres to 192.168.5.128 do 192.168.5.255. Zatem oba adresy IP (192.168.5.12 i 192.168.5.200) są w różnych podsieciach. Natomiast adres 192.158.5.250/25 ma zupełnie inną pierwszą oktetę i nie należy do podsieci 192.168.5.0/25. W związku z tym, podsumowując, mamy trzy unikalne podsieci: pierwsza z adresem 192.168.5.12, druga z 192.168.5.200 oraz trzecia z 192.158.5.250. Ustalanie podsieci jest kluczowym elementem zarządzania siecią, a stosowanie właściwych masek podsieci pozwala na efektywne wykorzystanie dostępnych adresów IP oraz minimalizowanie konfliktów adresowych.

Pytanie 7

Wprowadzając w wierszu poleceń systemu Windows Server komendę convert, można wykonać

A. zmianę systemu plików
B. defragmentację dysku
C. reparację systemu plików
D. naprawę logicznej struktury dysku
Polecenie 'convert' w systemie Windows Server ma na celu zmianę systemu plików partycji. Umożliwia ono przekształcenie partycji formatowanej w systemie plików FAT32 na NTFS bez utraty danych. Przykładowo, gdy użytkownik ma pewne ograniczenia związane z pojemnością lub bezpieczeństwem danych w systemie FAT32, przekształcenie na NTFS pozwala na korzystanie z większych plików oraz zastosowanie bardziej zaawansowanych funkcji, takich jak szyfrowanie i uprawnienia dostępu. W kontekście administracji serwerami, znajomość polecenia 'convert' oraz jego zastosowania jest kluczowa, zwłaszcza w scenariuszach, gdzie dochodzi do migracji danych czy zmiany wymagań dotyczących przechowywania. Warto zaznaczyć, że przed przystąpieniem do użycia tego polecenia, zaleca się wykonanie kopii zapasowej danych, co jest zgodne z najlepszymi praktykami w zarządzaniu danymi.

Pytanie 8

Jak brzmi nazwa portu umieszczonego na tylnym panelu komputera, który znajduje się na przedstawionym rysunku?

Ilustracja do pytania
A. DVI
B. FIRE WIRE
C. D-SUB
D. HDMI
Wybór niewłaściwego portu może wynikać z nieznajomości wyglądu i funkcji poszczególnych typów złączy. Port D-SUB, znany często jako VGA, jest starszym interfejsem analogowym, który przesyła sygnał wideo do monitorów CRT i niektórych LCD. Charakteryzuje się trzema rzędami pinów i jest zazwyczaj większy niż złącza cyfrowe. W porównaniu z DVI, port VGA nie obsługuje sygnałów cyfrowych, co ogranicza jakość obrazu i maksymalną rozdzielczość, jaką można przesłać. HDMI (High-Definition Multimedia Interface) jest nowoczesnym złączem cyfrowym, które przesyła zarówno sygnał wideo, jak i audio, co czyni go popularnym wyborem w urządzeniach konsumenckich, takich jak telewizory i odtwarzacze multimedialne. Charakterystyczny kształt tego złącza przypomina prostokąt z zaokrąglonymi narożnikami, co odróżnia go od bardziej prostokątnego DVI. Z kolei FireWire, znane również jako IEEE 1394, to port służący głównie do przesyłania danych między urządzeniami takimi jak kamery cyfrowe i nie jest przeznaczony do przesyłania sygnału wideo do monitorów. Prawidłowa identyfikacja portu wymaga zrozumienia jego zastosowania oraz wyglądu fizycznego, co jest krytyczne w kontekście pracy z różnorodnym sprzętem komputerowym i audiowizualnym. Unikanie pomyłek w tym zakresie jest kluczowe dla zapewnienia właściwej funkcjonalności i jakości pracy urządzeń cyfrowych.

Pytanie 9

Jakie oprogramowanie chroni komputer przed niechcianym softwarem pochodzącym z sieci?

A. Program sniffer
B. Program antywirusowy
C. Protokół SSL
D. Protokół HTTPS
Program antywirusowy jest kluczowym narzędziem w zabezpieczaniu komputerów przed niepożądanym oprogramowaniem, takim jak wirusy, trojany czy ransomware. Działa on poprzez skanowanie plików i programów na komputerze oraz monitorowanie aktywności w czasie rzeczywistym, co pozwala na szybką identyfikację i neutralizację zagrożeń. Programy antywirusowe często wykorzystują bazy danych sygnatur wirusów, które są regularnie aktualizowane, aby chronić użytkowników przed nowymi zagrożeniami. Przykładowo, w przypadku zainfekowanego pliku program antywirusowy może zablokować jego uruchomienie, a także usunąć lub kwarantannować zainfekowane pliki. Warto również wspomnieć o dodatkowych funkcjach, takich jak skanowanie w chmurze, które umożliwia szybsze wykrywanie najnowszych zagrożeń, oraz o technologii heurystycznej, która analizuje zachowanie programów, aby znaleźć nieznane wirusy. Stosowanie programów antywirusowych jest zgodne z najlepszymi praktykami bezpieczeństwa IT, które zalecają wielowarstwowe podejście do ochrony danych.

Pytanie 10

W celu zabezpieczenia komputerów w sieci lokalnej przed nieautoryzowanym dostępem oraz atakami typu DoS, konieczne jest zainstalowanie i skonfigurowanie

A. zapory ogniowej
B. filtru antyspamowego
C. blokady okienek pop-up
D. programu antywirusowego
Wybór filtrów antyspamowych, programów antywirusowych czy blokady okienek pop-up jako metod zabezpieczających sieć lokalną przed atakami i nieautoryzowanym dostępem jest błędny z kilku powodów. Filtry antyspamowe służą głównie do eliminowania niechcianych wiadomości e-mail i nie mają wpływu na zabezpieczenia samej sieci. Ich głównym celem jest ochrona przed niebezpiecznymi wiadomościami, a nie obrona przed atakami sieciowymi, które mogą prowadzić do utraty danych lub zakłócenia działania systemów. Programy antywirusowe, choć istotne w zwalczaniu złośliwego oprogramowania, koncentrują się na ochronie pojedynczych urządzeń, a nie na kontroli całego ruchu sieciowego. Nie zapewniają one ochrony przed atakami DoS, które mogą być skierowane na infrastrukturę sieciową. Z kolei blokady okienek pop-up są funkcjonalnościami skierowanymi głównie na użytkowników przeglądarek internetowych i nie mają zastosowania w kontekście zabezpieczeń sieciowych. Te podejścia mogą tworzyć fałszywe poczucie bezpieczeństwa oraz skupić uwagę na nieodpowiednich aspektach ochrony, co prowadzi do zaniedbania kluczowych mechanizmów, takich jak zapory ogniowe, które są zaprojektowane specjalnie do zarządzania i filtrowania ruchu sieciowego. W związku z tym, poleganie na wspomnianych rozwiązaniach jako głównych metodach ochrony sieci lokalnej jest niewłaściwe i może skutkować poważnymi lukami w bezpieczeństwie.

Pytanie 11

Jaka jest podstawowa funkcja protokołu SMTP?

A. Przeglądanie stron WWW
B. Wysyłanie wiadomości e-mail
C. Odbieranie wiadomości e-mail
D. Przesyłanie plików
Protokół SMTP (Simple Mail Transfer Protocol) jest jednym z kluczowych protokołów w świecie komunikacji e-mail. Jego podstawowym zadaniem jest wysyłanie wiadomości e-mail z jednego serwera na drugi. SMTP działa na zasadzie modelu klient-serwer, gdzie klient SMTP wysyła wiadomość do serwera SMTP odbiorcy. Protokół ten operuje na porcie 25, chociaż w niektórych przypadkach może być używany port 587 dla połączeń z autoryzacją. SMTP jest szeroko stosowany, ponieważ zapewnia niezawodność i zgodność między różnymi systemami pocztowymi. Warto zauważyć, że SMTP jest odpowiedzialny tylko za wysyłanie wiadomości, a nie za ich odbieranie. Odbieranie wiadomości jest zadaniem innych protokołów, takich jak POP3 czy IMAP. SMTP jest niezbędny w każdym systemie poczty elektronicznej i jest zgodny z wieloma standardami branżowymi, co czyni go uniwersalnym rozwiązaniem w dziedzinie komunikacji elektronicznej. Przykładowo, gdy wysyłasz e-mail z aplikacji pocztowej, używasz SMTP do przekazania wiadomości na serwer odbiorcy.

Pytanie 12

Który typ drukarki stosuje metodę, w której stały barwnik jest przenoszony z taśmy na papier odporny na wysoką temperaturę?

A. Laserowa
B. Atramentowa
C. Termosublimacyjna
D. Termiczna
Drukarka termosublimacyjna to zaawansowane urządzenie, które wykorzystuje proces polegający na sublimacji barwnika. W tej technice specjalne tusze są podgrzewane, dzięki czemu przechodzą w stan gazowy i przenoszą się na papier, który jest odpowiednio przystosowany do wysokich temperatur. Zastosowanie tej technologii jest szczególnie popularne w produkcji zdjęć oraz materiałów reklamowych, ponieważ pozwala na uzyskanie wysokiej jakości wydruków o intensywnych kolorach oraz gładkich przejściach tonalnych. Drukarki termosublimacyjne są często używane w laboratoriach fotograficznych oraz na wydarzeniach, gdzie wymagana jest szybka produkcja wydruków, takich jak zdjęcia z uroczystości czy różnorodne materiały promocyjne. Warto również zauważyć, że ta technika zapewnia dużą odporność na blaknięcie i działanie czynników zewnętrznych, co czyni ją idealnym rozwiązaniem do tworzenia długoterminowych materiałów. W kontekście standardów branżowych, drukarki termosublimacyjne zgodne są z normami jakościowymi, co gwarantuje ich efektywność i niezawodność w zastosowaniach przemysłowych oraz profesjonalnych.

Pytanie 13

Jaki protokół służy do przesyłania plików bez konieczności tworzenia połączenia?

A. TFTP (Trivial File Transfer Protocol)
B. FTP (File Transfer Protocol)
C. HTTP (Hyper Text Transfer Protocol)
D. DNS (Domain Name System)
Wybór FTP (File Transfer Protocol) jako odpowiedzi na to pytanie jest błędny ze względu na fundamentalne różnice w architekturze obu protokołów. FTP to protokół, który działa na zasadzie nawiązywania połączenia. Przyłącza się do serwera, co wymaga wymiany informacji kontrolnych przed rozpoczęciem przesyłania danych. Oznacza to, że FTP korzysta z dwóch portów: jednego do control, a drugiego do transferu danych, co znacznie zwiększa złożoność w porównaniu do TFTP. Ponadto, FTP wymaga uwierzytelnienia, więc nie nadaje się do zastosowań, w których szybkość jest kluczowa, a autoryzacja nie jest konieczna. DNS (Domain Name System) pełni zupełnie inną funkcję, polegającą na tłumaczeniu nazw domen na adresy IP, co jest niezwiązane z przesyłaniem plików. Z kolei HTTP (Hyper Text Transfer Protocol) jest protokołem stosowanym głównie do przesyłania stron internetowych i również wymaga nawiązania połączenia. Takie nieprecyzyjne rozumienie protokołów sieciowych często prowadzi do błędnych wniosków. Kluczowe jest zrozumienie, że TFTP jest zaprojektowany z myślą o prostocie i szybkości transferu, co czyni go idealnym do zastosowań, które nie wymagają złożonych mechanizmów. Warto zwrócić uwagę na kontekst użycia różnych protokołów, co jest istotne dla ich skutecznego zastosowania w praktyce.

Pytanie 14

Jaki rezultat uzyskamy po wykonaniu odejmowania dwóch liczb heksadecymalnych 60A (h) - 3BF (h)?

A. 24B (h)
B. 349 (h)
C. 2AE (h)
D. 39A (h)
Wynik operacji odejmowania dwóch liczb heksadecymalnych, jak w przypadku 60A (h) - 3BF (h), to 24B (h). Aby to zrozumieć, najpierw przekształćmy obie liczby do postaci dziesiętnej. Liczba 60A (h) w systemie dziesiętnym wynosi 6*16^2 + 0*16^1 + 10*16^0 = 1530. Liczba 3BF (h) to 3*16^2 + 11*16^1 + 15*16^0 = 959. Odejmując te wartości, otrzymujemy 1530 - 959 = 571, co w systemie heksadecymalnym przekłada się na 24B (h). Takie operacje są powszechnie stosowane w programowaniu niskopoziomowym, w celu manipulacji danymi w pamięci, przykładowo w kontekście systemów embedded czy w programowaniu mikrokontrolerów. Znajomość i umiejętność operowania na systemach liczbowych, takich jak heksadecymalny, jest kluczowa dla inżynierów oprogramowania i elektroniki, ponieważ wiele protokołów komunikacyjnych i formatów danych wykorzystuje ten system do reprezentacji wartości liczbowych. W praktyce, przekształcanie pomiędzy różnymi systemami liczbowymi oraz umiejętność wykonywania operacji arytmetycznych jest niezbędna w codziennej pracy inżyniera.

Pytanie 15

Jakie polecenie w systemie operacyjnym Windows służy do wyświetlenia konfiguracji interfejsów sieciowych?

A. ipconfig
B. hold
C. tracert
D. ifconfig
Odpowiedź 'ipconfig' jest prawidłowa, ponieważ jest to polecenie używane w systemach operacyjnych Windows do wyświetlania konfiguracji interfejsów sieciowych. Dzięki temu poleceniu użytkownik może uzyskać szczegółowe informacje na temat aktywnych połączeń sieciowych, takich jak adresy IP, maski podsieci oraz bramy domyślne. Jest to kluczowe narzędzie dla administratorów systemów oraz użytkowników, którzy chcą diagnozować problemy z siecią. Na przykład, używając polecenia 'ipconfig /all', można uzyskać szczegółowy widok wszystkich interfejsów sieciowych, w tym informacji o serwerach DNS i adresach MAC. Takie informacje są niezbędne w procesie rozwiązywania problemów oraz w konfiguracji złożonych sieci. W branży IT, znajomość narzędzi do zarządzania konfiguracją sieci jest uznawana za standardową umiejętność, co czyni 'ipconfig' jednym z podstawowych poleceń dla każdego specjalisty zajmującego się sieciami komputerowymi.

Pytanie 16

Do monitorowania aktywnych połączeń sieciowych w systemie Windows służy polecenie

A. netstat
B. telnet
C. netsh
D. net view
Polecenie netstat to dosyć klasyczne narzędzie w systemie Windows, które pozwala szczegółowo podejrzeć wszystkie aktualne połączenia sieciowe na komputerze. Co ważne, nie tylko wyświetla listę otwartych portów i aktywnych sesji TCP/UDP, ale także pokazuje, do jakich adresów IP oraz portów jesteśmy aktualnie podłączeni. To ogromna pomoc, gdy próbujemy zdiagnozować, co „gada” z naszym komputerem albo sprawdzić, czy nie mamy jakichś podejrzanych połączeń. Moim zdaniem netstat jest jednym z pierwszych narzędzi, po które sięga się podczas troubleshooting’u sieciowego – chociażby gdy chcemy zobaczyć, które procesy nasłuchują na danym porcie (przydatna opcja z przełącznikiem -b lub -o). Warto znać różne przełączniki, bo np. netstat -an daje czytelny wykaz adresów i portów, a netstat -b pokaże, jaki program stoi za połączeniem. Według najlepszych praktyk, regularna analiza wyników netstata pozwala szybciej wykrywać potencjalnie niebezpieczne lub niepożądane połączenia – to podstawowa czynność w bezpieczeństwie systemów. Swoją drogą, nawet doświadczeni administratorzy korzystają z netstata, bo jest szybki, nie wymaga instalacji i daje natychmiastowy podgląd tego, co się dzieje w sieci na danym hoście.

Pytanie 17

Aby osiągnąć optymalną prędkość przesyłu danych, gdy domowy ruter działa w paśmie 5 GHz, do laptopa należy zainstalować kartę sieciową bezprzewodową obsługującą standard

A. 802.11a
B. 802.11n
C. 802.11b
D. 802.11g
Odpowiedź 802.11n jest poprawna, ponieważ ten standard bezprzewodowej komunikacji sieciowej działa zarówno w paśmie 2,4 GHz, jak i 5 GHz, oferując wyższą prędkość przesyłu danych w porównaniu do wcześniejszych standardów. Standard 802.11n może osiągnąć prędkości teoretyczne do 600 Mbps przy zastosowaniu technologii MIMO (Multiple Input Multiple Output), co pozwala na jednoczesne przesyłanie danych przez kilka anten. Dzięki temu, w przypadku korzystania z domowego rutera pracującego w paśmie 5 GHz, użytkownicy mogą cieszyć się lepszą wydajnością i mniejszymi zakłóceniami sygnału, co jest szczególnie ważne w gęsto zaludnionych obszarach. Przykładem praktycznego zastosowania 802.11n jest korzystanie z aplikacji wymagających dużej przepustowości, takich jak strumieniowanie wideo w wysokiej rozdzielczości czy gry online, gdzie stabilne połączenie i szybki transfer danych są kluczowe. Dodatkowo, 802.11n jest wstecznie kompatybilny z wcześniejszymi standardami, co ułatwia integrację z istniejącymi sieciami.

Pytanie 18

Podczas tworzenia sieci kablowej o maksymalnej prędkości przesyłu danych wynoszącej 1 Gb/s, w której maksymalna odległość między punktami sieci nie przekracza 100 m, należy zastosować jako medium transmisyjne

A. fale radiowe o częstotliwości 5 GHz
B. kabel UTP kategorii 5e
C. kabel koncentryczny o średnicy 1/4 cala
D. fale radiowe o częstotliwości 2,4 GHz
Kabel UTP kategorii 5e to naprawdę dobry wybór, jeśli chodzi o sieci przewodowe. Jego maksymalna prędkość to 1 Gb/s na odległości do 100 metrów, co jest całkiem spoko. Ten kabel działa według standardu 1000BASE-T, który jest częścią tych wszystkich norm IEEE 802.3. Co ciekawe, jak użyjesz go w sieci, to zapewni ci stabilność, a przesył danych będzie bardzo wysokiej jakości. W biurach i różnych instytucjach, gdzie potrzebna jest szybka komunikacja, ten kabel sprawdza się świetnie. W praktyce często widzę, że w biurach instalują go zgodnie z normami TIA/EIA-568. Dzięki temu można łatwo zaktualizować sieć do wyższych kategorii kabli, jak kategoria 6, co jest na pewno fajne na przyszłość.

Pytanie 19

Jakie oznaczenie wskazuje adres witryny internetowej oraz przypisany do niej port?

A. 100.168.0.1-AH1
B. 100.168.0.1:AH1
C. 100.168.0.1:8080
D. 100.168.0.1-8080
Odpowiedź 100.168.0.1:8080 jest poprawna, ponieważ zgodnie z konwencją adresacji IP, oznaczenie portu realizowane jest poprzez użycie dwukropka. W tym przypadku, 100.168.0.1 to adres IPv4, który identyfikuje konkretne urządzenie w sieci, a 8080 to numer portu, który wskazuje na określony proces lub usługę działającą na tym urządzeniu. Porty są kluczowymi elementami komunikacji sieciowej, pozwalając na równoległe uruchamianie wielu usług na tym samym adresie IP. Na przykład, port 80 zazwyczaj odpowiada za HTTP, podczas gdy port 443 obsługuje HTTPS, a port 8080 bywa używany do aplikacji webowych lub serwerów proxy. Zrozumienie oznaczenia portów jest niezbędne do efektywnego zarządzania sieciami i jest podstawą wielu protokołów komunikacyjnych, takich jak TCP i UDP, zgodnie z standardem IETF (Internet Engineering Task Force).

Pytanie 20

W systemie Windows, który obsługuje przydziały dyskowe, użytkownik o nazwie Gość

A. może być członkiem jedynie grupy globalnej
B. może być członkiem jedynie grupy o nazwie Goście
C. może być członkiem grup lokalnych oraz grup globalnych
D. nie może być członkiem żadnej grupy
Odpowiedzi sugerujące, że użytkownik Gość może należeć tylko do grupy o nazwie Goście, do grupy globalnej lub nie może należeć do żadnej grupy, opierają się na niepełnym zrozumieniu zasad działania systemów operacyjnych Windows oraz zarządzania użytkownikami. Użytkownik Gość, będący standardowym kontem w systemach Windows, ma ograniczone uprawnienia, ale nie jest to równoznaczne z niemożnością przynależności do grup. Stwierdzenie, że użytkownik może należeć tylko do grupy Goście, nie uwzględnia faktu, że w systemach Windows możliwe jest dodawanie użytkowników do lokalnych grup, co jest istotne dla przydzielania określonych uprawnień w obrębie danego komputera. Z kolei stwierdzenie, że użytkownik może należeć tylko do grupy globalnej, jest mylne, ponieważ grupy globalne są zazwyczaj używane do zarządzania dostępem do zasobów w całej organizacji, co nie wyklucza przynależności do grup lokalnych. Utrata możliwości przynależności do grup lokalnych w przypadku użytkownika Gość ograniczałaby jego funkcjonalność i dostęp do lokalnych zasobów. Ponadto, przekonanie, że użytkownik Gość nie może należeć do żadnej grupy, jest fundamentalnie błędne, ponieważ użytkownicy w systemach Windows zawsze muszą być przypisani do co najmniej jednej grupy, aby mogli uzyskać odpowiednie uprawnienia. Takie nieporozumienia mogą prowadzić do nieefektywnego zarządzania użytkownikami oraz zagrożeń dla bezpieczeństwa, gdyż niewłaściwe przypisanie uprawnień może skutkować nieautoryzowanym dostępem do danych.

Pytanie 21

Jakie polecenie należy wprowadzić w konsoli, aby skorygować błędy na dysku?

A. SUBST
B. DISKCOMP
C. CHKDSK
D. CHDIR
Polecenie CHKDSK (Check Disk) jest narzędziem używanym w systemach operacyjnych Windows do analizy i naprawy błędów na dysku twardym. Jego podstawową funkcją jest sprawdzanie integralności systemu plików oraz struktury dysku, co pozwala na identyfikację i naprawę uszkodzeń, takich jak błędne sektory. Użycie CHKDSK jest zalecane w sytuacjach, gdy występują problemy z dostępem do plików lub gdy system operacyjny zgłasza błędy związane z dyskiem. Przykład zastosowania tego polecenia to uruchomienie go w wierszu polecenia jako administrator z parametrem '/f', co automatycznie naprawia błędy, które zostaną wykryte. Przykład użycia: 'chkdsk C: /f' naprawi błędy na dysku C. Warto również zaznaczyć, że regularne korzystanie z CHKDSK jest dobrą praktyką w utrzymaniu systemu, ponieważ pozwala na proaktywne zarządzanie stanem dysku, co może zapobiec utracie danych oraz wydłużyć żywotność sprzętu.

Pytanie 22

Ile wyniesie całkowity koszt wymiany karty sieciowej w komputerze, jeżeli cena karty to 40 zł, czas pracy serwisanta wyniesie 90 minut, a koszt każdej rozpoczętej roboczogodziny to 60 zł?

A. 160 zł
B. 40 zł
C. 130 zł
D. 200 zł
Koszt wymiany karty sieciowej w komputerze wynosi 160 zł, co wynika z sumy kosztów samej karty oraz kosztów robocizny. Karta sieciowa kosztuje 40 zł, a czas pracy technika serwisowego to 90 minut. Ponieważ każda rozpoczęta roboczogodzina kosztuje 60 zł, 90 minut to 1,5 godziny, co po zaokrągleniu do pełnych roboczogodzin daje 2 godziny. Zatem koszt robocizny wynosi 2 * 60 zł = 120 zł. Łącząc te kwoty, 40 zł (cena karty) + 120 zł (koszt robocizny) daje 160 zł. Ta kalkulacja jest zgodna z dobrymi praktykami w branży IT, które zalecają zawsze uwzględniać zarówno materiały, jak i robociznę przy obliczaniu całkowitych kosztów usług serwisowych. Tego typu obliczenia są niezwykle istotne w kontekście zarządzania budżetem w IT oraz przy podejmowaniu decyzji o inwestycjach w infrastrukturę technologiczną.

Pytanie 23

Oznaczenie CE świadczy o tym, że

A. wyrób został wyprodukowany na terenie Unii Europejskiej
B. wyrób spełnia wymagania dotyczące bezpieczeństwa użytkowania, ochrony zdrowia oraz ochrony środowiska
C. wyrób jest zgodny z normami ISO
D. producent ocenił produkt pod kątem wydajności i ergonomii
Często tam, gdzie wybiera się błędne odpowiedzi, pojawia się zamieszanie związane z tym, co tak naprawdę znaczy oznaczenie CE. Odpowiedzi mówiące, że produkt musi być zgodny z normami ISO albo że musi być wyprodukowany w UE, są w błędzie. CE nie ma nic wspólnego z normami ISO, które są dobrowolne, a nie obowiązkowe. To znaczy, że coś może być zgodne z ISO, ale nie spełniać wymogów CE. A także warto wiedzieć, że produkt może mieć oznaczenie CE nawet jeśli powstał poza Unią Europejską, byleby spełniał unijne wymagania. Wartościowym tematem do zrozumienia jest to, że oznaczenie CE angażuje się przede wszystkim w bezpieczeństwo i zdrowie, a nie w wydajność czy ergonomię, co to się ocenia na podstawie innych norm. Często te błędne myśli wynikają z nieznajomości różnicy między normami bezpieczeństwa a innymi rzeczami jak wydajność czy komfort. Fajnie by było bardziej zgłębić temat tych dyrektyw unijnych oraz związanych z nimi norm, żeby w pełni ogarnąć, co tak naprawdę oznacza oznakowanie CE i dlaczego jest tak ważne dla naszego bezpieczeństwa.

Pytanie 24

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. wybraniem pliku z obrazem dysku.
B. dodaniem drugiego dysku twardego.
C. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
D. konfigurowaniem adresu karty sieciowej.
W konfiguracji maszyny wirtualnej bardzo łatwo pomylić różne opcje, bo wszystko jest w jednym oknie i wygląda na pierwszy rzut oka dość podobnie. Ustawienia pamięci wideo, dodawanie dysków, obrazy ISO, karty sieciowe – to wszystko siedzi zwykle w kilku zakładkach i początkujący użytkownicy mieszają te pojęcia. Ustawienie rozmiaru pamięci wirtualnej karty graficznej dotyczy tylko tego, ile pamięci RAM zostanie przydzielone emulatorowi GPU. Ta opcja znajduje się zazwyczaj w sekcji „Display” lub „Ekran” i pozwala poprawić płynność pracy środowiska graficznego, ale nie ma nic wspólnego z wybieraniem pliku obrazu dysku czy instalacją systemu operacyjnego. To jest po prostu parametr wydajnościowy. Z kolei dodanie drugiego dysku twardego polega na utworzeniu nowego wirtualnego dysku (np. nowy plik VDI, VHDX) lub podpięciu już istniejącego i przypisaniu go do kontrolera dyskowego w maszynie. Ta operacja rozszerza przestrzeń magazynową VM, ale nie wskazuje konkretnego obrazu instalacyjnego – zwykle nowy dysk jest pusty i dopiero system w maszynie musi go sformatować. Kolejne częste nieporozumienie dotyczy sieci: konfigurowanie adresu karty sieciowej w maszynie wirtualnej to zupełnie inna para kaloszy. W ustawieniach hypervisora wybieramy tryb pracy interfejsu (NAT, bridge, host‑only, internal network itd.), a adres IP najczęściej i tak ustawia się już wewnątrz systemu operacyjnego, tak samo jak na zwykłym komputerze. To nie ma żadnego związku z plikami obrazów dysków – sieć służy do komunikacji, a nie do uruchamiania czy montowania nośników. Typowy błąd myślowy polega na tym, że użytkownik widząc „dysk”, „pamięć” albo „kontroler”, zakłada, że każda z tych opcji musi dotyczyć tego samego obszaru konfiguracji. W rzeczywistości standardowe podejście w wirtualizacji jest takie, że wybór pliku obrazu dysku odbywa się w sekcji pamięci masowej: tam dodaje się wirtualny napęd (HDD lub CD/DVD) i dopiero przy nim wskazuje konkretny plik obrazu. Oddzielenie tych funkcji – grafiki, dysków, sieci – jest kluczowe, żeby świadomie konfigurować maszyny i unikać później dziwnych problemów z uruchamianiem systemu czy brakiem instalatora.

Pytanie 25

Trollowanie w Internecie polega na

A. wysyłaniu wiadomości e-mail bez tematu i podpisu.
B. używaniu emotikonów w treści wiadomości.
C. przepełnianiu skrzynki mailowej odbiorcy wiadomościami zawierającymi reklamy.
D. prowokowaniu kłótni na forum internetowym.
Trollowanie w Internecie to celowe prowokowanie kłótni, konfliktów i silnych emocji u innych użytkowników, zwykle dla zabawy trolla albo po to, żeby rozbić dyskusję. Kluczowe jest tu słowo „celowe” – osoba trollująca dobrze wie, co robi, i świadomie podsyca spory, wrzuca kontrowersyjne komentarze, obraża, ośmiesza lub wyśmiewa innych. Na forach internetowych, w komentarzach pod artykułami, na Discordzie, w grach online – wszędzie tam można spotkać trolli, którzy psują atmosferę rozmowy. Moim zdaniem ważne jest zrozumienie, że trolling to nie jest zwykłe wyrażanie odmiennej opinii. Można się nie zgadzać i dyskutować kulturalnie. Troll chce wywołać „dramę”, a nie dojść do porozumienia. W praktyce branżowej i w regulaminach serwisów społecznościowych trollowanie jest traktowane jako zachowanie niepożądane, bliskie cyberprzemocy, szczególnie jeśli jest powtarzalne i wymierzone w konkretne osoby lub grupy. Dobre praktyki mówią jasno: nie karmić trolla („don’t feed the troll”), czyli nie wdawać się w emocjonalne dyskusje, tylko zgłaszać takie zachowanie moderatorom, korzystać z funkcji blokowania i filtrowania treści, a w środowisku zawodowym – stosować polityki komunikacji i netykiety. W firmowych komunikatorach, na platformach e‑learningowych czy w zespołach projektowych trolling może dezorganizować pracę i obniżać bezpieczeństwo psychiczne zespołu, dlatego administratorzy i moderatorzy powinni reagować szybko, zgodnie z wewnętrznymi procedurami bezpieczeństwa i politykami użytkowania systemów. W szkoleniach z cyberbezpieczeństwa coraz częściej podkreśla się, że kultura komunikacji online jest tak samo ważna jak techniczne zabezpieczenia systemów.

Pytanie 26

Ile maksymalnie dysków twardych można bezpośrednio podłączyć do płyty głównej, której fragment specyfikacji jest przedstawiony w ramce?

  • 4 x DIMM, max. 16GB, DDR2 1200 / 1066 / 800 / 667 MHz, non-ECC, un-buffered memory Dual channel memory architecture
  • Five Serial ATA 3.0 Gb/s ports
  • Realtek ALC1200, 8-channel High Definition Audio CODEC - Support Jack-Detection, Multi-streaming, Front Panel Jack-Retasking - Coaxial S/PDIF_OUT ports at back I/O
A. 4
B. 5
C. 8
D. 2
Płyta główna wyposażona jest w pięć portów SATA 3.0 które umożliwiają podłączenie pięciu dysków twardych. Specyfikacja SATA 3.0 oferuje prędkość transferu danych do 6 Gb/s co jest istotne przy pracy z dużymi plikami lub aplikacjami wymagającymi dużej przepustowości danych. W praktyce takie porty są wykorzystywane nie tylko do podłączania dysków HDD czy SSD ale także do napędów optycznych co zwiększa wszechstronność zastosowania płyty. Ważnym aspektem jest również możliwość tworzenia macierzy RAID co pozwala na zwiększenie wydajności lub bezpieczeństwa przechowywania danych. Standard SATA 3.0 jest szeroko stosowany i zgodny z wcześniejszymi generacjami co oznacza że istnieje możliwość podłączania starszych urządzeń przy zachowaniu kompatybilności. Wybór płyty z wystarczającą liczbą portów SATA jest kluczowy w planowaniu rozbudowy komputera szczególnie w środowiskach profesjonalnych gdzie zapotrzebowanie na przestrzeń dyskową dynamicznie się zmienia. Dobre praktyki branżowe obejmują również przemyślane zarządzanie kablami i przestrzenią wewnątrz obudowy co ma znaczenie dla optymalizacji przepływu powietrza i tym samym chłodzenia podzespołów.

Pytanie 27

Zilustrowany na obrazku interfejs to

Ilustracja do pytania
A. S-Video
B. D-Sub
C. HDMI
D. DisplayPort
Odpowiedź HDMI jest prawidłowa ponieważ interfejs HDMI (High-Definition Multimedia Interface) jest najczęściej używanym standardem przesyłania cyfrowego sygnału audio i wideo bez kompresji. HDMI jest znany z obsługi wysokiej rozdzielczości obrazu i wielokanałowego dźwięku. Posiada charakterystyczny kształt wtyczki z 19 pinami co zapewnia jednoczesne przesyłanie obrazu i dźwięku przy użyciu jednego kabla. HDMI jest szeroko stosowany w nowoczesnych telewizorach monitorach komputerowych konsolach do gier oraz dekoderach ponieważ zapewnia wysoką jakość obrazu i dźwięku. Wersje HDMI od 1.4 do 2.1 oferują różne ulepszenia takie jak wsparcie dla 4K 8K oraz technologii 3D. Standard HDMI jest preferowany w branży ze względu na swoją wszechstronność i łatwość użycia w porównaniu do starszych analogowych interfejsów. Dzięki temu HDMI stał się kluczowym elementem w dziedzinie multimediów wprowadzając bardziej zintegrowane cyfrowe rozwiązania audio-wideo zgodne z nowoczesnymi standardami technologicznymi i użytkowymi

Pytanie 28

Wskaź na błędny układ dysku z użyciem tablicy partycji MBR?

A. 1 partycja podstawowa oraz 2 rozszerzone
B. 2 partycje podstawowe i 1 rozszerzona
C. 3 partycje podstawowe oraz 1 rozszerzona
D. 1 partycja podstawowa oraz 1 rozszerzona
Podział dysku zgodnie z tablicą partycji MBR jest ściśle określony przez standardy, które definiują, jak zarządzać przestrzenią dyskową. W przypadku MBR, dozwolone są cztery partycje - mogą to być trzy partycje podstawowe i jedna rozszerzona lub cztery partycje podstawowe. Stwierdzenie, że można mieć jedną partycję podstawową i dwie rozszerzone, wprowadza w błąd i narusza zasady działania MBR. Partycja rozszerzona jest szczególnym rodzajem partycji, która ma na celu obejście ograniczenia liczby partycji podstawowych i może zawierać partycje logiczne. Posiadając jedną partycję podstawową, można utworzyć jedną partycję rozszerzoną, w której można umieścić wiele partycji logicznych. Argumentacja, że można mieć więcej niż jedną partycję rozszerzoną, wypływa z nieporozumienia dotyczącego struktury MBR i jej zasad działania. W praktyce, ze względu na rozwój technologii i wzrost zapotrzebowania na przestrzeń dyskową, obecnie preferowane jest korzystanie z GPT, które obsługuje dyski o pojemności przekraczającej 2 TB i umożliwia tworzenie znacznie większej liczby partycji. Dlatego ważne jest, aby zrozumieć te różnice i ograniczenia w kontekście aktualnych praktyk w zarządzaniu pamięcią masową.

Pytanie 29

Który z systemów operacyjnych przeznaczonych do sieci jest dostępny na zasadach licencji GNU?

A. Linux
B. Windows Server 2012
C. OS X Server
D. Unix
Linux jest systemem operacyjnym, który jest udostępniony na licencji GNU General Public License (GPL), co oznacza, że jego kod źródłowy jest publicznie dostępny i może być modyfikowany oraz rozpowszechniany. Licencja ta umożliwia każdemu użytkownikowi na używanie, modyfikowanie oraz dystrybucję oprogramowania, co sprzyja innowacjom i rozwojowi technologii. Dzięki temu Linux stał się podstawą dla wielu dystrybucji, takich jak Ubuntu, Fedora czy Debian, które są szeroko stosowane w różnych środowiskach, od komputerów osobistych, przez serwery, aż po urządzenia wbudowane. Przykładem zastosowania Linuxa w praktyce jest jego dominacja w środowiskach serwerowych, gdzie zapewnia stabilność, bezpieczeństwo oraz elastyczność. Wiele dużych firm oraz organizacji wybiera Linux ze względu na niski koszt licencji i możliwość dostosowania systemu do swoich specyficznych potrzeb, co czyni go idealnym wyborem w kontekście rozwoju technologii open-source.

Pytanie 30

Jaką maksymalną prędkość transferu danych umożliwia interfejs USB 3.0?

A. 400Mb/s
B. 4GB/s
C. 5Gb/s
D. 120MB/s
Wybór prędkości 120 MB/s jest niepoprawny, ponieważ ta wartość odnosi się do standardu USB 2.0, który osiąga maksymalne prędkości transferu na poziomie 480 Mb/s (około 60 MB/s w praktyce). Również odpowiedź 400 Mb/s, chociaż bliska, nie odzwierciedla rzeczywistej maksymalnej prędkości USB 3.0, która wynosi 5 Gb/s. Odpowiedź sugerująca 4 GB/s jest znacznie przekroczona, ponieważ stanowi to wartość ponad dwukrotnie większą niż aktualny maksimum dla USB 3.0. Zrozumienie różnic między standardami USB jest kluczowe, ponieważ błędne interpretowanie prędkości może prowadzić do wyboru niewłaściwych urządzeń do zastosowań, które wymagają wysokiej przepustowości, takich jak transfer dużych plików wideo czy backup danych. Typowe błędy myślowe obejmują mylenie jednostek miary, takich jak megabity i megabajty, co skutkuje nieprawidłowym oszacowaniem prędkości transferu. Wiedza o standardach USB jest niezbędna dla profesjonalistów, którzy muszą dokonywać świadomych wyborów dotyczących technologii, które będą używane w codziennej pracy.

Pytanie 31

Aby zapobiec uszkodzeniu sprzętu w trakcie modernizacji laptopa polegającej na wymianie modułów pamięci RAM, należy

A. wywietrzyć pomieszczenie oraz założyć okulary z powłoką antyrefleksyjną.
B. przygotować pastę przewodzącą oraz nałożyć ją równomiernie na gniazda pamięci RAM.
C. podłączyć laptop do UPS-a, a następnie rozmontować jego obudowę i przystąpić do instalacji.
D. rozłożyć i uziemić matę antystatyczną oraz założyć na nadgarstek opaskę antystatyczną.
Wybór rozłożenia i uziemienia maty antystatycznej oraz założenia na nadgarstek opaski antystatycznej jest kluczowy w kontekście wymiany modułów pamięci RAM w laptopie. Podczas pracy z podzespołami komputerowymi, szczególnie wrażliwymi na ładunki elektrostatyczne, jak pamięć RAM, istnieje ryzyko ich uszkodzenia wskutek niewłaściwego manipulowania. Uziemiona mata antystatyczna działa jak bariera ochronna, odprowadzając ładunki elektrostatyczne, które mogą gromadzić się na ciele użytkownika. Ponadto, opaska antystatyczna zapewnia ciągłe uziemienie, co minimalizuje ryzyko uszkodzenia komponentów. W praktyce, przed przystąpieniem do jakiejkolwiek operacji, warto upewnić się, że zarówno mata, jak i opaska są prawidłowo uziemione. Dopuszczalne i zalecane jest także regularne sprawdzanie stanu sprzętu antystatycznego. Taka procedura jest częścią ogólnych standardów ESD (Electrostatic Discharge), które są kluczowe w zabezpieczaniu komponentów elektronicznych przed szkodliwym działaniem elektryczności statycznej.

Pytanie 32

Zgodnie z aktualnymi normami BHP, zalecana odległość oczu od ekranu monitora powinna wynosić

A. 20-39 cm
B. 75-110 cm
C. 39-49 cm
D. 40-75 cm
Zgodnie z obowiązującymi przepisami BHP, optymalna odległość oczu od ekranu monitora powinna wynosić od 40 do 75 cm. Ta zasada opiera się na badaniach dotyczących ergonomii oraz zdrowia wzroku. Utrzymywanie tej odległości pomaga zminimalizować zmęczenie oczu oraz pozwala na lepszą ostrość widzenia, co ma kluczowe znaczenie dla osób spędzających długie godziny przed komputerem. Praktyczne zastosowanie tej zasady polega na dostosowaniu miejsca pracy, w tym na właściwej regulacji wysokości i kątów nachylenia monitora, aby zapewnić komfortowe warunki pracy. Warto zainwestować również w odpowiednie oświetlenie, aby zredukować odblaski na ekranie. Dodatkowo, regularne przerwy oraz ćwiczenia dla oczu mogą wspierać zdrowie wzroku i zapobiegać dolegliwościom związanym z długotrwałym korzystaniem z monitorów. Standardy ergonomiczne takie jak ISO 9241-3 podkreślają znaczenie odpowiedniego ustawienia monitora w kontekście zachowania zdrowia użytkowników.

Pytanie 33

Która z ról w systemie Windows Server umożliwia m.in. zdalną, bezpieczną i uproszczoną instalację systemów operacyjnych Windows na komputerach w sieci?

A. Serwer aplikacji
B. Hyper-V
C. Usługa aktywacji zbiorczej
D. Usługa wdrażania systemu Windows
Analizując dostępne opcje, warto zaznaczyć, że Hyper-V to technologia wirtualizacji, która umożliwia tworzenie i zarządzanie maszynami wirtualnymi. Nie jest to jednak rozwiązanie dedykowane do zdalnej instalacji systemów operacyjnych, a raczej do uruchamiania wielu instancji systemu operacyjnego na jednym fizycznym serwerze. Można się pomylić, sądząc, że Hyper-V może pełnić zadania związane z instalacją OS, jednak jego głównym celem jest wirtualizacja zasobów. Serwer aplikacji to natomiast rola służąca do hostowania aplikacji, co nie ma związku z instalacją systemów operacyjnych. Usługa aktywacji zbiorczej, z drugiej strony, odnosi się do zarządzania licencjonowaniem systemów operacyjnych i aplikacji, a nie do ich instalacji. Pojęcie aktywacji zbiorczej błędnie przywodzi na myśl, że można za jej pomocą zainstalować system operacyjny w sposób zautomatyzowany czy zdalny. W rzeczywistości aktywacja dotyczy jedynie legalizacji posiadanych kopii oprogramowania. Typowe błędy myślowe prowadzące do tych niepoprawnych wniosków wynikają często z mylenia ról i funkcji systemów serwerowych oraz niewłaściwego rozumienia procesów związanych z wdrażaniem oprogramowania w infrastrukturach IT. Kluczowe jest rozróżnienie między różnymi rolami serwerowymi i ich zastosowaniami w praktyce.

Pytanie 34

Zarządzanie pasmem (ang. bandwidth control) w switchu to funkcjonalność

A. pozwalająca na przesył danych z jednego portu równocześnie do innego portu
B. umożliwiająca jednoczesne połączenie switchy poprzez kilka łącz
C. umożliwiająca zdalne połączenie z urządzeniem
D. pozwalająca na ograniczenie przepustowości na wybranym porcie
Wiele osób może mylić zarządzanie pasmem z innymi funkcjami przełączników, co prowadzi do niepoprawnych wniosków. Na przykład, odpowiedź sugerująca, że zarządzanie pasmem umożliwia łączenie przełączników równocześnie kilkoma łączami, odnosi się do technologii agregacji łączy, która jest odrębną koncepcją. Agregacja łączy pozwala na zestawienie kilku fizycznych portów w jeden wirtualny port, co zwiększa całkowitą przepustowość i zapewnia redundancję, ale nie wpływa na kontrolę pasma. Inna nieprawidłowa odpowiedź dotycząca zdalnego dostępu do urządzenia myli funkcję zarządzania pasmem z dostępem administracyjnym. Zdalny dostęp jest zapewniany przez protokoły takie jak SSH czy Telnet, które nie mają związku z zarządzaniem pasmem. Ostatnia odpowiedź, mówiąca o przesyłaniu danych z jednego portu do innego, również jest mylna – jest to opis działania samego przełącznika, a nie kontroli pasma. Warto zrozumieć, że zarządzanie pasmem jest specyficznym procesem optymalizacji przepustowości, który powinien być stosowany w kontekście polityk QoS, a nie mylony z innymi, bardziej ogólnymi funkcjami urządzeń sieciowych. Typowym błędem jest nieodróżnianie tych terminów, co prowadzi do nieefektywnego zarządzania siecią i potencjalnych problemów z wydajnością. Zrozumienie roli zarządzania pasmem w architekturze sieci jest kluczowe dla efektywnego projektowania i eksploatacji nowoczesnych systemów informatycznych.

Pytanie 35

W sieciach bezprzewodowych typu Ad-Hoc IBSS (Independent Basic Service Set) wykorzystywana jest topologia fizyczna

A. magistrali
B. pierścienia
C. gwiazdy
D. siatki
Odpowiedź "siatki" jest poprawna, ponieważ w sieciach bezprzewodowych Ad-Hoc IBSS (Independent Basic Service Set) urządzenia łączą się w sposób, który tworzy elastyczną i zdecentralizowaną strukturę. W tej topologii każdy węzeł (urządzenie) może komunikować się z innymi bez potrzeby centralnego punktu dostępowego. Przykładem może być sytuacja, gdy użytkownicy znajdują się w jednym pomieszczeniu i chcą wymieniać dane bezpośrednio między sobą. Dzięki takiej strukturze, sieć może łatwo się rozszerzać, gdyż nowe urządzenia mogą po prostu dołączyć do istniejącej sieci bez skomplikowanej konfiguracji. W standardzie IEEE 802.11, który definiuje zasady funkcjonowania sieci bezprzewodowych, takie podejście pozwala na zwiększenie efektywności i elastyczności komunikacji, co jest kluczowe w środowiskach, gdzie mobilność i szybkość reakcji mają znaczenie. W praktyce, sieci te znajdują zastosowanie w sytuacjach kryzysowych lub podczas wydarzeń na świeżym powietrzu, gdzie szybkość uruchomienia i zdolność do adaptacji są priorytetami.

Pytanie 36

Protokół, który konwertuje nazwy domen na adresy IP, to

A. ARP (Address Resolution Protocol)
B. ICMP (Internet Control Message Protocol)
C. DNS (Domain Name System)
D. DHCP (Dynamic Host Configuration Protocol)
DNS, czyli Domain Name System, jest fundamentalnym protokołem w architekturze internetu, który odpowiedzialny jest za tłumaczenie nazw domenowych, takich jak www.przyklad.pl, na odpowiadające im adresy IP, np. 192.0.2.1. Dzięki temu użytkownicy mogą korzystać z łatwych do zapamiętania nazw, zamiast skomplikowanych numerów IP. W praktyce oznacza to, że gdy wpisujesz adres URL w przeglądarkę, system DNS przesyła zapytanie do serwera DNS, który zwraca właściwy adres IP. Przykładem zastosowania DNS jest rozwiązywanie nazw w usługach webowych, gdzie szybkość i dostępność są kluczowe. Standardy DNS, takie jak RFC 1034 i RFC 1035, regulują zasady działania tego systemu, zapewniając interoperacyjność pomiędzy różnymi systemami oraz bezpieczeństwo komunikacji. Dobre praktyki w konfiguracji DNS obejmują m.in. używanie rekordów CNAME do aliasów, a także implementację DNSSEC dla zwiększenia bezpieczeństwa, co chroni przed atakami typu spoofing.

Pytanie 37

Określ adres sieci, do której przypisany jest host o adresie 172.16.0.123/27?

A. 172.16.0.16
B. 172.16.0.96
C. 172.16.0.224
D. 172.16.0.112
Odpowiedzi takie jak 172.16.0.16, 172.16.0.112 oraz 172.16.0.224 wynikają z niepełnego zrozumienia zasad adresacji IP oraz maski podsieci. Przykładowo, wybierając adres 172.16.0.16, można być w błędzie, sądząc, że jest to adres sieci. W rzeczywistości, adres ten znajduje się w innej podsieci, a jego użycie może prowadzić do konfliktów w komunikacji wewnętrznej. Podobnie, wybierając 172.16.0.112, użytkownik może mylnie zakładać, że jest to adres sieci dla omawianego hosta, podczas gdy w rzeczywistości jest to adres w podsieci, która nie obejmuje 172.16.0.123. Adres 172.16.0.224 również nie jest poprawny, bowiem jest to adres rozgłoszeniowy w innej podsieci, co może prowadzić do nieporozumień i błędów w konfiguracji sieci. Kluczowym błędem w myśleniu jest brak zrozumienia, jak działa maska podsieci i jak dzieli ona adresy IP na podsieci. Ważne jest, aby mieć świadomość, że adresy IP w danej podsieci muszą być zgodne z przyjętymi zasadami segmentacji i muszą być określone przez maskę, co wpływa na możliwość ich użycia w danej sieci. Konsekwencje błędnego przypisania adresów mogą prowadzić do problemów w komunikacji, a także do konieczności przeprowadzania kosztownych poprawek w infrastrukturze sieciowej.

Pytanie 38

Który typ drukarki stosuje metodę przenoszenia stałego pigmentu z taśmy na papier odporny na wysoką temperaturę?

A. Laserowa
B. Termosublimacyjna
C. Termiczna
D. Atramentowa
Drukarka termosublimacyjna to ciekawy sprzęt, który fajnie działa w drukowaniu zdjęć. W zasadzie to przenosi barwnik z taśmy na papier przez proces sublimacji, czyli jakby podgrzewa barwnik, który zamienia się w gaz i osiada na papierze. To daje super jakość obrazu, więc nie ma co się dziwić, że używają tego w fotografii i reklamie. Tam, gdzie ważne są detale i trwałość, ta technologia rządzi! Spójrz na imprezy, jak wesela czy mecze – tam drukują zdjęcia na miejscu, co jest naprawdę ekstra. Barwniki, które używają, dają żywe kolory i gładkie przejścia, co sprawia, że zdjęcia wygląda jak dzieła sztuki. Także, generalnie, jak komuś zależy na jakości w druku zdjęć, to termosublimacja jest najlepszym rozwiązaniem.

Pytanie 39

Aby skonfigurować ruter i wprowadzić parametry połączenia od dostawcy internetowego, którą sekcję oznaczoną numerem należy wybrać?

Ilustracja do pytania
A. 2
B. 3
C. 4
D. 1
Podczas konfigurowania rutera sekcja WAN jest kluczowym miejscem gdzie wprowadza się dane dostarczone przez internetowego dostawcę usług. Wybór sekcji innej niż WAN do tej czynności może wynikać z niezrozumienia funkcji poszczególnych obszarów konfiguracji. Sekcja Wireless dotyczy ustawień sieci bezprzewodowej takich jak SSID oraz hasło dostępowe i nie jest związana z połączeniem z ISP. LAN odnosi się do ustawień sieci lokalnej gdzie definiujemy zakres adresów IP które ruter będzie przydzielał w ramach DHCP. Sekcja Firewall zajmuje się zabezpieczeniami i filtrowaniem ruchu nie jest więc miejscem do wprowadzania ustawień dostarczonych przez ISP. Typowym błędem jest mylenie tych sekcji z powodu ich specyficznych nazw i funkcji. Zrozumienie że WAN to interfejs który łączy naszą sieć lokalną z szerszym Internetem jest kluczem do poprawnej konfiguracji. Brak wiedzy na temat odpowiedniego przyporządkowania funkcji poszczególnym sekcjom może prowadzić do problemów z łącznością oraz bezpieczeństwem sieci.

Pytanie 40

Rodzajem macierzy RAID, która nie jest odporna na awarię dowolnego z dysków wchodzących w jej skład, jest

A. RAID 0
B. RAID 2
C. RAID 6
D. RAID 4
RAID 0 to taka ciekawa konfiguracja, która teoretycznie kusi szybkością, ale niestety totalnie nie zapewnia żadnego poziomu bezpieczeństwa danych. W praktyce polega to na tym, że wszystkie dane są dzielone na bloki i rozrzucane po wszystkich dyskach należących do macierzy. Dzięki temu odczyt i zapis są szybsze, bo operacje wykonują się równolegle, jednak – i tu jest właśnie ten haczyk – awaria chociażby jednego dysku sprawia, że cała macierz staje się bezużyteczna. Nie ma żadnych sum kontrolnych ani parzystości, więc nie ma jak odtworzyć danych. Moim zdaniem RAID 0 to raczej rozwiązanie do zastosowań, gdzie dane nie są ważne lub można je bardzo łatwo odtworzyć – np. montaż wideo na surowych plikach, które i tak mamy backupowane gdzieś indziej, albo czasami w grach na szybkim dysku. W profesjonalnym środowisku IT raczej nikt nie zaleca RAID 0 jako jedynej formy magazynowania czegoś wartościowego. Standardy branżowe typowo mówią wprost: RAID 0 nie zapewnia redundancji, nie jest odporny na żadne awarie i nie powinien być stosowany tam, gdzie bezpieczeństwo danych ma jakiekolwiek znaczenie. Co ciekawe, często początkujący administratorzy sięgają po RAID 0, bo daje lepsze wyniki syntetyczne w benchmarkach, ale w realnym świecie to trochę jak jazda bez pasów – póki nie ma wypadku, jest fajnie, ale potem może być bardzo nieprzyjemnie. Dlatego zawsze warto pamiętać o backupie i rozumieć ograniczenia tej technologii.