Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 25 kwietnia 2026 14:30
  • Data zakończenia: 25 kwietnia 2026 14:45

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Narzędziem systemu Windows, służącym do sprawdzenia wpływu poszczególnych procesów i usług na wydajność procesora oraz tego, w jakim stopniu generują one obciążenie pamięci czy dysku, jest

A. cleanmgr
B. credwiz
C. dcomcnfg
D. resmon
Resmon, czyli Monitor zasobów (resource monitor), to jedno z naprawdę niedocenianych narzędzi w Windowsie. Pozwala bardzo szczegółowo sprawdzić, jakie procesy i usługi najbardziej obciążają procesor, pamięć RAM, a także dysk i kartę sieciową. Osobiście uważam, że dla administratorów czy nawet zaawansowanych użytkowników to podstawa przy analizie wydajności systemu – znacznie bardziej szczegółowa niż sam Menedżer zadań. Przykładowo, gdy komputer nagle zaczyna „mulić”, to w resmonie od razu widać, który proces zjada zasoby albo np. jaka aplikacja mocno obciąża dysk, co często jest trudne do wychwycenia przy użyciu standardowych narzędzi. Co fajne, można też łatwo sprawdzić użycie portów sieciowych czy konkretne pliki, które są aktualnie blokowane przez procesy – to naprawdę spore ułatwienie przy diagnozowaniu problemów. Według dobrych praktyk branżowych, podczas troubleshootingu wydajności zawsze powinno się przeanalizować dane z resmona, bo pozwala nie tylko identyfikować „winowajców”, ale i potwierdzić czy np. bottleneck leży po stronie CPU, RAM czy dysku. Warto też wiedzieć, że resmon jest dostępny praktycznie w każdej edycji Windowsa od wersji 7 wzwyż. Takie narzędzia pokazują, jak skomplikowane może być zarządzanie systemem, ale też jak dużo daje dokładna analiza procesów w codziennej pracy.

Pytanie 2

Według modelu TCP/IP protokoły DNS, FTP i SMTP są przypisane do warstwy

A. dostępu do sieci
B. internetowej
C. aplikacji
D. transportowej
Protokół DNS (Domain Name System), FTP (File Transfer Protocol) oraz SMTP (Simple Mail Transfer Protocol) są klasycznymi przykładami protokołów działających na poziomie warstwy aplikacji w modelu TCP/IP. Warstwa aplikacji jest odpowiedzialna za interakcję z użytkownikami oraz aplikacjami, co oznacza, że to w tej warstwie odbywa się wymiana danych w formacie zrozumiałym dla użytkownika. Protokół DNS jest niezbędny do przekształcania nazw domen na adresy IP, co umożliwia przeglądanie stron internetowych. FTP pozwala na transfer plików pomiędzy komputerami, a SMTP jest używany do wysyłania wiadomości e-mail. Zgodnie z najlepszymi praktykami branżowymi, protokoły te muszą być zgodne z określonymi standardami, co zapewnia interoperacyjność oraz bezpieczeństwo. Na przykład, FTP może być zabezpieczony przez użycie FTPS lub SFTP, co chroni dane podczas transferu. Zrozumienie funkcji i zastosowania tych protokołów jest kluczowe dla każdej osoby zajmującej się sieciami komputerowymi.

Pytanie 3

Proces, który uniemożliwia całkowicie odzyskanie danych z dysku twardego, to

A. zalanie dysku
B. zerowanie dysku
C. niespodziewane usunięcie plików
D. zatarcie łożyska dysku
Zerowanie dysku to proces, który polega na nadpisaniu wszystkich danych znajdujących się na dysku twardym w celu trwałego ich usunięcia. Proces ten jest nieodwracalny, ponieważ oryginalne dane nie mogą być odzyskane. Zastosowanie zerowania dysku jest szczególnie istotne w kontekście ochrony danych, zwłaszcza w przypadku sprzedaży lub utylizacji nośników, na których mogły znajdować się wrażliwe informacje. W standardach bezpieczeństwa, takich jak NIST SP 800-88, rekomenduje się przeprowadzanie tego typu operacji przed pozbyciem się sprzętu. Przykładem zastosowania zerowania dysku jest sytuacja, gdy firma decyduje się na sprzedaż używanych komputerów, na których przechowywano poufne dane klientów. Dzięki zerowaniu dysku można mieć pewność, że dane te nie dostaną się w niepowołane ręce, co minimalizuje ryzyko wycieków informacji. Warto również wspomnieć, że istnieją różne metody zerowania, w tym nadpisywanie wielokrotne, co jeszcze bardziej zwiększa bezpieczeństwo procesu.

Pytanie 4

Który adres IP posiada maskę w postaci pełnej, zgodną z klasą adresu?

A. 169.12.19.6, 255.255.255.0
B. 140.16.5.18, 255.255.255.0
C. 180.12.56.1, 255.255.0.0
D. 118.202.15.6, 255.255.0.0
Adres IP 180.12.56.1 należy do klasy B, co oznacza, że standardowa maska podsieci dla tej klasy to 255.255.0.0. Klasa B obejmuje adresy IP od 128.0.0.0 do 191.255.255.255, gdzie pierwsze dwa oktety są przeznaczone do identyfikacji sieci, a dwa pozostałe do identyfikacji hostów w tej sieci. Użycie maski 255.255.0.0 dla adresu 180.12.56.1 jest zgodne z tą klasyfikacją i umożliwia utworzenie dużej liczby podsieci oraz hostów. W praktyce, taka konfiguracja jest często wykorzystywana w dużych organizacjach oraz dostawcach usług internetowych, gdzie potrzeba obsługiwać wiele urządzeń w ramach jednej sieci, a zarazem umożliwić łatwe zarządzanie i routing informacji. Zastosowanie pełnej maski klasy B pomaga w optymalizacji ruchu sieciowego oraz przydzielaniu zasobów. W związku z tym, znajomość klas adresów oraz powiązanych z nimi masek jest fundamentem efektywnego projektowania i zarządzania sieciami komputerowymi.

Pytanie 5

Na którym standardowym porcie funkcjonuje serwer WWW wykorzystujący domyślny protokół HTTPS w typowym ustawieniu?

A. 20
B. 80
C. 110
D. 443
Serwer WWW działający na protokole HTTPS używa domyślnie portu 443. Protokół HTTPS, będący rozszerzeniem protokołu HTTP, zapewnia szyfrowanie danych przesyłanych pomiędzy klientem a serwerem, co jest kluczowe dla bezpieczeństwa komunikacji w sieci. W praktyce oznacza to, że gdy użytkownik wpisuje adres URL zaczynający się od 'https://', przeglądarka automatycznie nawiązuje połączenie z serwerem na porcie 443. Użycie tego portu jako domyślnego dla HTTPS jest zgodne z normą IANA (Internet Assigned Numbers Authority), która dokumentuje przypisania portów w Internecie. Warto zauważyć, że korzystanie z HTTPS jest obecnie standardem w branży, a witryny internetowe implementujące ten protokół zyskują na zaufaniu użytkowników oraz lepsze pozycje w wynikach wyszukiwania, zgodnie z wytycznymi Google. Warto także pamiętać, że w miarę jak Internet staje się coraz bardziej narażony na ataki, bezpieczeństwo przesyłanych danych staje się priorytetem, co czyni znajomość portu 443 niezwykle istotnym elementem wiedzy o sieciach.

Pytanie 6

Który z portów na zaprezentowanej płycie głównej umożliwia podłączenie zewnętrznego dysku przez interfejs e-SATA?

Ilustracja do pytania
A. 4
B. 1
C. 3
D. 2
Port numer 2 to e-SATA, czyli ten typ złącza, który pozwala na szybkie przesyłanie danych. W praktyce działa to tak, że podłączasz do niego zewnętrzne dyski twarde i masz możliwość przenoszenia dużych ilości info z naprawdę niezłą prędkością, sięgającą nawet 6 Gb/s. To czyni go całkiem konkurencyjnym wobec USB 3.0 i Thunderbolt. Z mojego doświadczenia wynika, że e-SATA jest świetny, gdy potrzebujesz szybko przesłać dane bez zbędnych opóźnień. Fajnie, że nie ma problemów z zakłóceniami elektromagnetycznymi, bo złącze jest dość solidnie zrobione. Jednak trzeba pamiętać, że e-SATA nie zapewnia zasilania przez kabel, dlatego zewnętrzne urządzenia często potrzebują swojego osobnego źródła zasilania. Generalnie, jest to technologia, która sprawdza się w pracy z dużymi zbiorem danych, takimi jak edycja wideo czy duże bazy danych.

Pytanie 7

Jakie elementy łączy okablowanie pionowe w sieci LAN?

A. Gniazdo abonenckie z punktem pośrednim rozdzielczym
B. Główny punkt rozdzielczy z punktami pośrednimi rozdzielczymi
C. Dwa sąsiadujące punkty abonenckie
D. Główny punkt rozdzielczy z gniazdem dla użytkownika
Odpowiedź wskazuje na główny punkt rozdzielczy (MDF - Main Distribution Frame), który jest kluczowym elementem w strukturze okablowania pionowego w sieci LAN. Taki punkt rozdzielczy łączy ze sobą różne segmenty sieci i pozwala na efektywne zarządzanie połączeniami z pośrednimi punktami rozdzielczymi (IDF - Intermediate Distribution Frame). Dzięki temu zapotrzebowanie na pasmo i zasoby sieciowe jest lepiej rozdzielane, co przekłada się na efektywność działania całego systemu. W praktyce oznacza to, że główny punkt rozdzielczy jest miejscem, gdzie zbiegają się wszystkie kable od poszczególnych IDF, co umożliwia zorganizowane i przemyślane zarządzanie okablowaniem. Zgodnie z normą ANSI/TIA-568, okablowanie pionowe powinno być projektowane z myślą o przyszłym rozwoju infrastruktury, co oznacza, że powinno być elastyczne i skalowalne. Dzięki odpowiedniemu planowaniu możemy uniknąć problemów związanych z ograniczoną przepustowością czy trudnościami w utrzymaniu sieci.

Pytanie 8

Aby w systemie Linux wykonać kopię zapasową określonych plików, należy wprowadzić w terminalu polecenie programu

A. set
B. tar
C. gdb
D. cal
Program tar (tape archive) jest szeroko stosowanym narzędziem w systemach Unix i Linux do tworzenia archiwów i kopii zapasowych. Jego główną funkcjonalnością jest możliwość zbierania wielu plików i katalogów w jeden plik archiwum, co ułatwia ich przechowywanie i przenoszenie. Tar umożliwia również kompresję archiwów, co pozwala na oszczędność miejsca na dysku. Przykładem użycia może być polecenie 'tar -czvf backup.tar.gz /ścieżka/do/katalogu', które tworzy skompresowane archiwum gzip z wybranego katalogu. Tar obsługuje wiele opcji, które pozwalają na precyzyjne zarządzanie kopiami zapasowymi, takie jak opcje do wykluczania plików, dodawania nowych plików do istniejącego archiwum czy wypakowywania plików. W branży IT standardem jest regularne tworzenie kopii zapasowych, co jest kluczowe dla ochrony danych przed ich utratą. Wykorzystanie tar w praktyce jest zgodne z najlepszymi praktykami w zakresie zarządzania danymi i ich zabezpieczania.

Pytanie 9

Do konwersji kodu źródłowego na program wykonywalny używany jest

A. emulator
B. debuger
C. interpreter
D. kompilator
Kompilator to narzędzie, które przekształca kod źródłowy, napisany w języku wysokiego poziomu, na kod maszynowy, który jest zrozumiały dla procesora. Proces ten jest kluczowy w programowaniu, ponieważ pozwala na uruchomienie aplikacji na sprzęcie komputerowym. Kompilatory analizują i optymalizują kod, co sprawia, że programy działają szybciej i bardziej efektywnie. Przykłady popularnych kompilatorów to GCC (GNU Compiler Collection) dla języka C/C++ oraz javac dla języka Java. Kompilacja przynosi korzyści takie jak sprawdzanie błędów na etapie kompilacji, co pozwala na wczesne wykrywanie problemów. Standardy takie jak ISO C++ oraz Java Language Specification definiują, jak powinny wyglądać języki oraz jak działa kompilacja, co zapewnia spójność i interoperacyjność w ekosystemie programistycznym. Kompilatory także często tworzą pliki wykonywalne, które są łatwe w dystrybucji i uruchamianiu na różnych systemach operacyjnych, co jest istotne w kontekście rozwijania oprogramowania.

Pytanie 10

Na zdjęciu widać

Ilustracja do pytania
A. przełącznik
B. router
C. punkt dostępowy
D. most
Przełącznik jest kluczowym urządzeniem sieciowym, które działa w warstwie drugiej modelu OSI, czyli w warstwie łącza danych. Jego głównym zadaniem jest przekazywanie ramek danych pomiędzy urządzeniami w tej samej sieci lokalnej. Przełączniki wykorzystują adresy MAC, aby skutecznie przesyłać dane, co pozwala na minimalizację kolizji i efektywniejsze zarządzanie ruchem sieciowym. Typowy przełącznik, jak ten na zdjęciu, posiada wiele portów Ethernet, co umożliwia podłączenie wielu urządzeń, takich jak komputery, drukarki czy serwery, do jednej sieci LAN. Przełączniki mogą być stosowane w różnych środowiskach – od małych sieci domowych po duże korporacyjne centra danych, gdzie zarządzają setkami urządzeń. Ponadto, współczesne przełączniki oferują zaawansowane funkcje, takie jak VLAN-y, które poprawiają bezpieczeństwo i elastyczność sieci, oraz PoE (Power over Ethernet), które umożliwia zasilanie urządzeń sieciowych bez dodatkowych kabli. Zgodnie z dobrymi praktykami branżowymi, stosowanie przełączników w sieciach pozwala na zwiększenie wydajności oraz lepsze zarządzanie ruchem sieciowym, co jest kluczowe w środowiskach wysokoobciążeniowych.

Pytanie 11

W nowoczesnych ekranach dotykowych działanie ekranu jest zapewniane przez mechanizm, który wykrywa zmianę

A. pola elektromagnetycznego
B. pola elektrostatycznego
C. oporu między przezroczystymi diodami wbudowanymi w ekran
D. położenia dłoni dotykającej ekranu z wykorzystaniem kamery
Ekrany dotykowe działające na zasadzie wykrywania pola elektrostatycznego są powszechnie stosowane w nowoczesnych urządzeniach mobilnych. Ta technologia polega na detekcji zmian w polu elektrycznym, które zachodzą, gdy palec użytkownika zbliża się do powierzchni ekranu. W momencie dotyku, zmieniają się wartości napięcia na powierzchni ekranu, co umożliwia precyzyjne określenie lokalizacji dotyku. Przykładem zastosowania tej technologii są smartfony i tablety, które korzystają z ekranów pojemnościowych. Dzięki nim, użytkownicy mogą korzystać z różnych gestów, takich jak przesuwanie, powiększanie czy zmniejszanie obrazu. Technologia ta jest zgodna z międzynarodowymi standardami dotyczącymi interfejsów użytkownika i ergonomii, co wpływa na jej popularność w branży elektroniki. Warto dodać, że pola elektrostatyczne są również wykorzystywane w innych urządzeniach, takich jak panele interaktywne w edukacji czy kioski informacyjne, podnosząc komfort i intuicyjność interakcji użytkownika z technologią.

Pytanie 12

Na ilustracji przedstawiono taśmę (kabel) złącza

Ilustracja do pytania
A. SCSI
B. ATA
C. SAS
D. SATA
Odpowiedź ATA jest prawidłowa ponieważ przedstawiony na rysunku kabel to taśma typu ATA znana również jako PATA lub IDE Jest to standardowy interfejs używany w przeszłości do połączenia dysków twardych i napędów optycznych z płytą główną komputera Taśmy ATA są szerokie i płaskie zazwyczaj 40- lub 80-żyłowe z charakterystycznym złączem 40-pinowym Przez wiele lat ATA dominowało w komputerach stacjonarnych i było powszechnie stosowane w konstrukcjach sprzętowych Interfejs ten pozwalał na transfer danych z prędkością do 133 MB/s co w tamtym czasie było wystarczające dla większości aplikacji Praktyczne zastosowanie ATA obejmowało nie tylko połączenie dysków twardych ale także nagrywarek CD czy DVD Z czasem ATA zostało zastąpione przez SATA które oferuje wyższe prędkości transferu i łatwiejsze w obsłudze złącza Mimo to zrozumienie budowy i działania ATA jest istotne dla osób zajmujących się naprawą starszych komputerów oraz dla edukacyjnego wglądu w ewolucję technologii komputerowych ATA ilustruje jak standardy i technologie rozwijają się w odpowiedzi na rosnące potrzeby wydajnościowe rynku

Pytanie 13

Ile pinów znajduje się w wtyczce SATA?

A. 9
B. 4
C. 5
D. 7
Wtyczka SATA (Serial ATA) jest standardem interfejsu do podłączania dysków twardych, SSD i napędów optycznych do płyty głównej komputera. Liczba pinów we wtyczce SATA wynosi 7. Wtyczka ta obejmuje 15 pinów w gnieździe zasilania, ale sama wtyczka danych ma tylko 7 pinów. Te 7 pinów jest kluczowych dla przesyłania danych oraz zasilania sygnalizującego różne stany urządzenia, takie jak gotowość do pracy czy transfer danych. Warto zauważyć, że standard SATA umożliwia znacznie szybszą wymianę danych w porównaniu do starszych standardów, co jest kluczowe w nowoczesnych systemach komputerowych. Zastosowanie wtyczki SATA jest powszechne, a jej specyfikacja jest zgodna z międzynarodowymi standardami, co zapewnia kompatybilność między różnymi producentami sprzętu. Dzięki zastosowaniu technologii SATA, użytkownicy mogą cieszyć się lepszymi prędkościami transferu danych oraz bardziej elastycznymi opcjami rozbudowy swoich systemów.

Pytanie 14

Jaka wartość dziesiętna została zapisana na jednym bajcie w kodzie znak – moduł: 1 1111111?

A. 256
B. 128
C. –100
D. –127
Odpowiedź –127 jest poprawna, ponieważ w systemie dwójkowym, w którym zapisane są liczby, jeden bajt składa się z 8 bitów. W przypadku użycia formatu znaku ze znakiem (np. w kodzie ASCII lub w zapisie liczb całkowitych), jeden bit jest przeznaczony na znak, co pozwala na reprezentację zarówno liczb dodatnich, jak i ujemnych. W przypadku użycia metody uzupełnienia do dwóch, co jest standardowym podejściem w programowaniu, największa wartość dodatnia, jaką można zapisać w takim formacie, to 01111111, co odpowiada 127, natomiast wartość najmniejsza to 10000000, co odpowiada –128. Dlatego w zakresie od –128 do 127, wartość –127 jest reprezentowana w postaci 10000001. Dlatego ta odpowiedź jest zgodna z praktycznymi zastosowaniami w programowaniu, a zrozumienie tego systemu jest kluczowe przy pracy z danymi w wielu aplikacjach oraz protokołach. Warto również zauważyć, że konwencja ta jest szeroko stosowana w językach niskopoziomowych, takich jak C, w operacjach na bajtach.

Pytanie 15

W jaki sposób skonfigurować zaporę Windows, aby spełniała zasady bezpieczeństwa i umożliwiała użycie polecenia ping do weryfikacji komunikacji z innymi urządzeniami w sieci?

A. Ustawić reguły dla protokołu IP
B. Ustawić reguły dla protokołu TCP
C. Ustawić reguły dla protokołu IGMP
D. Ustawić reguły dla protokołu ICMP
Odpowiedź wskazująca na skonfigurowanie reguł dotyczących protokołu ICMP (Internet Control Message Protocol) jest prawidłowa, ponieważ protokół ten jest odpowiedzialny za przesyłanie komunikatów kontrolnych w sieci, w tym dla polecenia ping. Ping wykorzystuje ICMP Echo Request oraz ICMP Echo Reply, aby sprawdzić, czy inny host jest osiągalny przez sieć. Konfigurowanie reguł zapory Windows wymaga zezwolenia na te typy komunikatów, co pozwoli na efektywne monitorowanie i diagnostykę łączności w sieci lokalnej. Przykładowo, w przypadku problemów z połączeniem, administrator może użyć polecenia ping, aby szybko zidentyfikować, czy dane urządzenie odpowiada, co jest podstawowym krokiem w rozwiązywaniu problemów. W praktyce, umożliwienie ICMP w zaporze sieciowej jest zgodne z najlepszymi praktykami w zakresie zarządzania siecią, ponieważ pozwala na skuteczną diagnostykę, a jednocześnie nie stwarza większego ryzyka dla bezpieczeństwa, o ile inne, bardziej wrażliwe porty i protokoły są odpowiednio zabezpieczone.

Pytanie 16

Cechą oprogramowania służącego do monitorowania zdarzeń metodą Out-Of-Band w urządzeniach sieciowych jest  

A. niższa cena w porównaniu do oprogramowania monitorującego metodą In-Band.   
B. brak możliwości rozwiązania problemów w przypadku awarii sieci monitorowanej.          
C. wykorzystanie do przesyłania komunikatów alternatywnej sieci, działającej niezależnie.
D. wykorzystanie do przesyłania komunikatów tej samej sieci, którą przesyłane są dane.
Prawidłowo wskazana cecha idealnie oddaje sens monitoringu Out-of-Band. W tej metodzie oprogramowanie nadzorujące urządzenia sieciowe korzysta z zupełnie oddzielnej, alternatywnej sieci komunikacyjnej, która działa niezależnie od sieci produkcyjnej, po której chodzą normalne dane użytkowników. Chodzi tu zwykle o osobną sieć zarządzającą: osobne porty konsolowe, porty zarządzające (np. Ethernet management), czasem osobne VLAN-y tylko do managementu albo nawet dedykowany modem LTE. Dzięki temu, nawet jeśli główna sieć ma awarię, jest zapętlona, przeciążona albo źle skonfigurowana, administrator nadal ma dostęp do przełączników, routerów czy firewalli i może je zdalnie diagnozować oraz naprawiać. Z mojego doświadczenia Out-of-Band to jedna z kluczowych dobrych praktyk w większych sieciach firmowych, data center czy u operatorów. Standardowo łączy się to z wykorzystaniem konsolowych serwerów terminali, osobnych switchy zarządzających i odseparowanych adresacji IP, często w połączeniu z VPN-em tylko do managementu. Takie rozwiązanie znacznie podnosi dostępność usług i zgodność z wymaganiami wysokiej niezawodności (HA) oraz zasadami bezpieczeństwa – np. odseparowanie płaszczyzny danych (data plane) od płaszczyzny zarządzania (management plane). W praktyce, jeśli np. ktoś źle skonfiguruje ACL na routerze i odetnie ruch w sieci produkcyjnej, przez Out-of-Band dalej możesz się na ten router zalogować i cofnąć zmiany. Właśnie ta niezależność kanału komunikacji jest najważniejszą, podręcznikową cechą monitoringu i zarządzania Out-of-Band.

Pytanie 17

Która lokalizacja umożliwia utworzenie kopii zapasowej dysku systemowego Windows 11?

A. Dysk zewnętrzny.
B. Partycja systemowa.
C. Katalog C:\Windows\Boot
D. Partycja rozruchowa.
Prawidłowo wskazany został dysk zewnętrzny, bo właśnie taka lokalizacja spełnia podstawową zasadę wykonywania kopii zapasowych systemu: backup powinien być przechowywany fizycznie poza dyskiem systemowym. W Windows 11, gdy robisz obraz systemu (system image) albo kopię ważnych danych, najlepszą praktyką jest zapis na nośniku, który nie jest na stałe częścią tego samego fizycznego dysku, z którego system startuje. Dzięki temu awaria dysku systemowego, uszkodzenie tablicy partycji czy nawet zaszyfrowanie danych przez ransomware nie niszczy jednocześnie kopii zapasowej. W praktyce używa się do tego zewnętrznych dysków USB, dysków SSD na USB-C, czasem dysków sieciowych, ale w tym pytaniu jedyną poprawną odpowiedzią jest właśnie dysk zewnętrzny. Moim zdaniem w środowisku domowym i małych firmach dysk zewnętrzny to najbardziej rozsądny kompromis między ceną a bezpieczeństwem. Windows 11 współpracuje z takimi nośnikami bez problemu: w narzędziu „Kopia zapasowa systemu Windows” (stare Panel sterowania) czy przy tworzeniu obrazu systemu można wskazać zewnętrzny dysk jako docelowy. To samo dotyczy narzędzi firm trzecich, np. Macrium Reflect, Acronis, Veeam Agent – wszystkie rekomendują zewnętrzny lub sieciowy nośnik jako miejsce docelowe. Dobrą praktyką jest też stosowanie zasady 3-2-1: trzy kopie danych, na dwóch różnych typach nośników, z czego jedna poza główną lokalizacją. Dysk zewnętrzny idealnie nadaje się jako ta „druga” platforma. Warto też go odłączać po wykonaniu kopii, żeby ograniczyć ryzyko szyfrowania przez złośliwe oprogramowanie. Właśnie dlatego branżowe standardy backupu odradzają trzymanie jedynej kopii zapasowej na tym samym fizycznym dysku, na którym działa system operacyjny.

Pytanie 18

Jakie jest oznaczenie sieci, w której funkcjonuje host o IP 10.10.10.6 klasy A?

A. 10.10.10.255
B. 10.10.0.0
C. 10.255.255.255
D. 10.0.0.0
Adres 10.0.0.0 jest prawidłowym adresem sieci dla hosta o adresie IP 10.10.10.6, ponieważ ten adres IP należy do klasy A. W klasie A, adresy IP są zdefiniowane w taki sposób, że pierwsze 8 bitów (czyli pierwszy oktet) służy do identyfikacji sieci, a pozostałe 24 bity do identyfikacji hostów w tej sieci. W przypadku adresu 10.10.10.6, pierwszym oktetem jest 10, co oznacza, że sieć rozpoczyna się od 10.0.0.0, a wszystkie adresy w tej sieci zaczynają się od 10.x.x.x. W praktyce, adres 10.0.0.0 jest adresem sieci, a zakres adresów hostów w tej sieci wynosi od 10.0.0.1 do 10.255.255.254. Zgodnie z zasadami klasyfikacji adresów IP, adresy w klasie A mają dużą pojemność, co czyni je idealnymi dla dużych organizacji. Ważne jest, aby pamiętać, że adresy takie jak 10.10.0.0 czy 10.10.10.255 nie są poprawnymi adresami sieci dla danego hosta. Standardy takie jak RFC 1918 definiują zakresy adresów prywatnych, do których należy również adres 10.0.0.0, co czyni go idealnym do użytku wewnętrznego w sieciach korporacyjnych.

Pytanie 19

Aby podłączyć stację roboczą z zainstalowanym systemem Windows do domeny zst.local należy

Ilustracja do pytania
A. jedynie w polu Sufiks podstawowej domeny DNS tego komputera wpisać zst.local
B. ustawić nazwę komputera oraz w polu Grupa robocza wpisać zst.local
C. ustawić nazwę komputera oraz w polu Domena wpisać zst.local
D. jedynie w polu Domena wpisać zst.local
Poprawnie wskazana odpowiedź odzwierciedla realną procedurę dołączania stacji roboczej z systemem Windows do domeny Active Directory. Żeby komputer stał się pełnoprawnym członkiem domeny zst.local, trzeba jednocześnie ustawić nazwę komputera oraz w polu „Domena” wpisać właśnie zst.local. Windows traktuje zmianę nazwy komputera i zmianę członkostwa (grupa robocza / domena) jako powiązane operacje – w praktyce i tak kończy się to restartem, więc administracyjnie najrozsądniej jest zrobić to za jednym razem. Dzięki temu w kontrolerze domeny obiekt komputera ma od razu właściwą nazwę, a wpis w DNS (rekord A i PTR) jest spójny z nazwą hosta. Z mojego doświadczenia, jeśli najpierw dołączysz do domeny, a potem zmienisz nazwę, łatwo wprowadzić bałagan w AD i DNS, szczególnie w większych sieciach. Samo pole „Domena” to nie tylko formalność – podczas dołączania Windows nawiązuje połączenie z kontrolerem domeny, wykorzystuje DNS do odszukania usług katalogowych (rekordy SRV) i wymaga konta z odpowiednimi uprawnieniami (typowo konto domenowe z prawem dołączania stacji do domeny). W tle tworzony jest obiekt komputera w Active Directory, generowane jest hasło konta komputera i konfigurowane są zabezpieczenia (m.in. Kerberos). Dobra praktyka mówi też, żeby nazwę komputera ustalić zgodnie z firmową konwencją nazewniczą, np. prefiks działu, numer stanowiska, typ urządzenia. Ułatwia to późniejszą administrację, monitorowanie i zarządzanie politykami GPO. W środowiskach produkcyjnych takie podejście jest wręcz standardem i większość skryptów wdrożeniowych (np. przy użyciu MDT, SCCM czy Intune) zakłada, że komputer ma właściwie ustawioną nazwę jeszcze przed dołączeniem do domeny.

Pytanie 20

Który rodzaj złącza nie występuje w instalacjach światłowodowych?

A. GG45
B. MTRJ
C. FC
D. SC
GG45 to złącze, które nie jest stosowane w okablowaniu światłowodowym, ponieważ jest ono przeznaczone wyłącznie do transmisji sygnałów ethernetowych w kablach miedzianych. W kontekście okablowania światłowodowego, istotne są złącza takie jak SC, FC czy MTRJ, które są zaprojektowane do łączenia włókien światłowodowych i optymalizacji ich wydajności. Złącze SC (Subscriber Connector) charakteryzuje się prostą konstrukcją i niskimi stratami sygnału, co sprawia, że jest popularne w instalacjach telekomunikacyjnych. Z kolei złącze FC (Ferrule Connector) jest znane z wysokiej precyzji i trwałości, co czyni je odpowiednim do zastosowań w środowiskach wymagających odporności na wibracje. MTRJ (Mechanical Transfer Registered Jack) to złącze, które pozwala na podłączenie dwóch włókien w jednym złączu, co jest praktycznym rozwiązaniem przy ograniczonej przestrzeni. Wybór odpowiednich złącz jest kluczowy dla zapewnienia efektywności i niezawodności infrastruktury światłowodowej, a GG45 nie spełnia tych wymagań, co czyni je nieodpowiednim w tym kontekście.

Pytanie 21

Jakie będą łączne wydatki na wymianę karty graficznej w komputerze, jeżeli nowa karta kosztuje 250 zł, czas wymiany wynosi 80 minut, a każda rozpoczęta robocza godzina to koszt 50 zł?

A. 350 zł
B. 400 zł
C. 250 zł
D. 300 zł
Poprawna odpowiedź wynosi 350 zł, co można obliczyć sumując koszt nowej karty graficznej oraz koszt pracy serwisanta. Karta graficzna kosztuje 250 zł, a czas wymiany wynosi 80 minut, co odpowiada 1 godzinie i 20 minutom. W przypadku serwisów komputerowych, godziny pracy zazwyczaj zaokrąglane są do pełnych godzin, więc w tym przypadku 1 godzina i 20 minut oznacza, że serwisant rozlicza 2 godziny. Koszt robocizny wynosi 50 zł za godzinę, co daje nam 100 zł za 2 godziny. Dodając koszt karty graficznej (250 zł) do kosztu robocizny (100 zł), otrzymujemy całkowity koszt 350 zł. Takie podejście jest zgodne z powszechnie stosowanymi praktykami w branży IT, gdzie koszty napraw i wymiany sprzętu są zawsze rozliczane z uwzględnieniem zarówno części zamiennych, jak i robocizny. Zrozumienie tych zasad jest kluczowe dla efektywnego zarządzania kosztami w kontekście serwisowania komputerów.

Pytanie 22

Osoba korzystająca z komputera udostępnia w sieci Internet pliki, które posiada. Prawa autorskie będą złamane, gdy udostępni

A. zdjęcia własnoręcznie wykonane obiektów wojskowych
B. obraz płyty systemu operacyjnego Windows 7 Home
C. otrzymany dokument urzędowy
D. swoje filmowe materiały z demonstracji ulicznych
Obraz płyty systemu operacyjnego Windows 7 Home jest objęty prawem autorskim, co w praktyce oznacza, że wrzucenie go do sieci bez zgody właściciela to zwyczajne łamanie prawa. Oprogramowanie, w tym systemy, musi być odpowiednio licencjonowane, czyli powinno mieć określone zasady użytkowania i dystrybucji. W przypadku Microsoftu, jeśli ktoś by udostępnił taki obraz, naruszyłby warunki umowy licencyjnej (EULA), która zazwyczaj zabrania dalszego dzielenia się tym. W świecie, gdzie wszystko jest tak łatwo kopiowane i przesyłane, przestrzeganie praw autorskich w kwestii oprogramowania jest naprawdę ważne. Powinniśmy pamiętać, że nielegalne udostępnienie oprogramowania może prowadzić do różnych problemów prawnych, jak kary finansowe czy nawet odpowiedzialność karna. Rozumienie tych zasad jest kluczowe, nie tylko dla ludzi indywidualnych, ale również dla firm, które mogą stracić sporo pieniędzy przez naruszenie praw autorskich.

Pytanie 23

Jak ustawić w systemie Windows Server 2008 parametry protokołu TCP/IP karty sieciowej, aby komputer mógł jednocześnie funkcjonować w dwóch sieciach lokalnych o różnych adresach IP?

A. Wpisać dwa adresy serwerów DNS
B. Wpisać dwa adresy bramy, korzystając z zakładki "Zaawansowane"
C. Zaznaczyć opcję "Uzyskaj adres IP automatycznie"
D. Wpisać dwa adresy IP, korzystając z zakładki "Zaawansowane"
Skonfigurowanie dwóch adresów IP na karcie sieciowej w Windows Server 2008, korzystając z zakładki 'Zaawansowane', to ważna sprawa, jeśli chcesz, żeby komputer mógł jednocześnie działać w dwóch różnych sieciach lokalnych. Żeby to zrobić, najpierw musisz wejść w właściwości karty sieciowej, potem wybrać protokół TCP/IP. W zakładce 'Zaawansowane' można dodać nowe adresy IP. Każdy z nich musi być w zgodzie z odpowiednią maską podsieci i bramą, bo dzięki temu ruch sieciowy będzie kierowany poprawnie. Przykład? No, wyobraź sobie serwer, który musi komunikować się i z wewnętrzną siecią, i z zewnętrzną, na przykład w sytuacji DMZ. To jest na pewno zgodne z najlepszymi praktykami w branży, które mówią o tym, jak ważne jest, żeby sieci były odpowiednio segmentowane dla większego bezpieczeństwa i wydajności. Co więcej, taka konfiguracja daje Ci sporo elastyczności w zarządzaniu adresacją IP i łatwo można przełączać się między sieciami, gdy zajdzie taka potrzeba.

Pytanie 24

Jakie jest główne zadanie systemu DNS w sieci komputerowej?

A. Zarządzanie dostępem do plików w sieci
B. Tłumaczenie nazw domenowych na adresy IP
C. Szyfrowanie danych w sieci komputerowej
D. Tworzenie kopii zapasowych danych w sieci
System DNS, czyli Domain Name System, jest fundamentalnym elementem funkcjonowania Internetu i sieci komputerowych. Jego głównym zadaniem jest tłumaczenie czytelnych dla ludzi nazw domenowych, takich jak www.example.com, na adresy IP, które są wykorzystywane przez urządzenia w sieci do komunikacji. Bez DNS, użytkownicy musieliby zapamiętywać skomplikowane adresy IP, co znacznie utrudniłoby korzystanie z Internetu. DNS działa na zasadzie rozproszonej bazy danych, która jest hierarchicznie zorganizowana, co pozwala na szybkie i efektywne odnajdywanie informacji. W praktyce, kiedy wpisujesz adres strony w przeglądarce, serwer DNS przetwarza to żądanie, znajdując odpowiedni adres IP, co umożliwia nawiązanie połączenia. DNS jest kluczowy dla funkcjonowania usług internetowych, takich jak WWW, e-mail czy FTP, ponieważ wszystkie opierają się na adresacji IP. Standardy związane z DNS, takie jak protokoły UDP i TCP na portach 53, są dobrze zdefiniowane i przyjęte na całym świecie, co zapewnia interoperacyjność i stabilność tego systemu.

Pytanie 25

Interfejs HDMI w komputerze umożliwia przesyłanie sygnału

A. cyfrowego audio
B. analogowego audio i video
C. cyfrowego video
D. cyfrowego video i audio
Odpowiedź 'cyfrowego video i audio' jest poprawna, ponieważ interfejs HDMI (High-Definition Multimedia Interface) został zaprojektowany w celu przesyłania zarówno cyfrowego wideo, jak i dźwięku w wysokiej jakości. HDMI wspiera wiele formatów audio, w tym LPCM, Dolby TrueHD oraz DTS-HD Master Audio, a także przesyła sygnał wideo w rozdzielczościach do 4K i 8K. Przykładem zastosowania HDMI jest podłączenie komputera do telewizora lub projektora, co umożliwia wyświetlanie filmów, gier czy prezentacji w wysokiej jakości. HDMI stał się standardem w przemyśle audio-wideo, a jego wszechstronność i jakość sprawiają, że jest szeroko stosowany zarówno w domowych systemach rozrywkowych, jak i w profesjonalnych aplikacjach, takich jak prezentacje multimedialne czy produkcja wideo. Stosowanie HDMI zapewnia nie tylko wysoką jakość sygnału, ale również wygodę w postaci możliwości przesyłania jednego kabla dla dźwięku i obrazu oraz wsparcia dla technologii takich jak CEC (Consumer Electronics Control), która umożliwia sterowanie wieloma urządzeniami z jednego pilota.

Pytanie 26

Jakie przyporządkowanie: urządzenie - funkcja, którą pełni, jest błędne?

A. Przełącznik - segmentacja sieci na VLAN-y
B. Ruter - łączenie komputerów w tej samej sieci
C. Access Point - bezprzewodowe połączenie komputerów z siecią lokalną
D. Modem - łączenie sieci lokalnej z Internetem
Wybór odpowiedzi dotyczącej rutera jako urządzenia do połączenia komputerów w tej samej sieci jest poprawny, ponieważ ruter w rzeczywistości pełni znacznie bardziej skomplikowaną rolę. Ruter jest urządzeniem sieciowym, które łączy różne sieci, na przykład sieć lokalną z Internetem, a jego głównym zadaniem jest kierowanie ruchem danych pomiędzy tymi sieciami. Routery nie łączą jedynie komputerów w obrębie jednej sieci, ale także zarządzają ruchem danych, umożliwiając jednocześnie komunikację z innymi sieciami. Na przykład, w sieci domowej, ruter łączy urządzenia takie jak komputery, smartfony czy telewizory smart, a także zapewnia dostęp do Internetu poprzez modem. Zastosowanie rutera w architekturze sieci jest zgodne z najlepszymi praktykami, w tym standardem TCP/IP, który definiuje, jak dane są przesyłane i odbierane w sieciach komputerowych. W praktyce, ruter umożliwia również implementację zaawansowanych funkcji, takich jak NAT (Network Address Translation) czy QoS (Quality of Service), które są kluczowe dla efektywności i bezpieczeństwa sieci.

Pytanie 27

Jak określa się w systemie Windows profil użytkownika, który jest tworzony przy pierwszym logowaniu do komputera i zapisywany na lokalnym dysku twardym, a wszelkie jego modyfikacje dotyczą tylko tego konkretnego komputera?

A. Czasowy
B. Przenośny
C. Lokalny
D. Obowiązkowy
Odpowiedź "Lokalny" jest poprawna, ponieważ w systemie Windows profil lokalny użytkownika jest tworzony podczas pierwszego logowania do komputera. Profil ten przechowuje wszystkie ustawienia, pliki i konfiguracje specyficzne dla danego użytkownika, a jego zmiany są ograniczone do komputera, na którym został utworzony. Oznacza to, że jeśli użytkownik zaloguje się na innym komputerze, nie będą miały zastosowania żadne z jego lokalnych ustawień. Przykładem zastosowania profilu lokalnego jest sytuacja, w której użytkownik instaluje oprogramowanie lub ustawia preferencje systemowe – wszystkie te zmiany są przechowywane w folderze profilu lokalnego na dysku twardym. To podejście jest zgodne z dobrymi praktykami zabezpieczeń, ponieważ ogranicza dostęp do danych użytkownika na poziomie lokalnym, co może być istotne w środowiskach wieloużytkownikowych. Dodatkowo, lokalne profile użytkowników są często wykorzystywane w organizacjach, gdzie każdy pracownik ma swoje indywidualne ustawienia, co pozwala na większą elastyczność w zarządzaniu stacjami roboczymi.

Pytanie 28

Chusteczki nasączone substancją o właściwościach antystatycznych służą do czyszczenia

A. wyświetlaczy monitorów LCD
B. rolek prowadzących papier w drukarkach atramentowych
C. wyświetlaczy monitorów CRT
D. wałków olejowych w drukarkach laserowych
Ekrany monitorów CRT, zwane także monitorami kineskopowymi, są szczególnie wrażliwe na zjawiska elektrostatyczne, co czyni je odpowiednimi do czyszczenia za pomocą chusteczek nasączonych płynem antystatycznym. Te płyny skutecznie eliminują ładunki elektrostatyczne, które mogą przyciągać kurz i zanieczyszczenia, co wpływa na jakość obrazu. Używając chusteczek antystatycznych, można nie tylko oczyścić ekran z zanieczyszczeń, ale także zredukować ryzyko osadzania się kurzu w przyszłości. W praktyce, chusteczki te są często stosowane w biurach, serwisach komputerowych oraz w domowych warunkach, gdzie użytkownicy monitorów CRT mogą odczuwać potrzebę utrzymania czystości swoich urządzeń. Warto również zauważyć, że zgodnie z zaleceniami producentów sprzętu, stosowanie specjalistycznych środków czyszczących jest kluczowe, aby nie uszkodzić powłoki ekranu i zachować jego właściwości optyczne przez dłużej.

Pytanie 29

W modelu RGB, kolor w systemie szesnastkowym przedstawia się w ten sposób: ABCDEF. Wartość natężenia koloru niebieskiego w tym zapisie odpowiada liczbie dziesiętnej

A. 205
B. 171
C. 239
D. 186
Odpowiedź 239 jest poprawna, ponieważ natężenie koloru niebieskiego w modelu RGB jest reprezentowane przez ostatnie dwa znaki zapisu szesnastkowego. W przypadku koloru ABCDEF, oznacza to, że wartości składowe są: A (czerwony) = 10, B (zielony) = 11, a F (niebieski) = 15. Szesnastkowe F to 15 w systemie dziesiętnym. Jednak w kontekście całego koloru, aby uzyskać wartość intensywności koloru niebieskiego, musimy zrozumieć, że 'EF' w zapisie hex oznacza 239 w systemie dziesiętnym, co możemy obliczyć jako 14 * 16^1 + 15 * 16^0 = 224 + 15 = 239. Zrozumienie konwersji z systemu szesnastkowego na dziesiętny jest kluczowe w pracy z kolorami w grafice komputerowej, programowaniu oraz projektowaniu stron internetowych. W praktyce, znajomość modelu RGB oraz umiejętność przeliczania wartości pozwala na precyzyjne dobieranie kolorów w różnych aplikacjach, co jest niezbędne dla uzyskania odpowiednich efektów wizualnych. Tego rodzaju umiejętności są istotne w branżach związanych z grafiką, web designem oraz tworzeniem aplikacji multimedialnych.

Pytanie 30

W jakiej topologii sieci fizycznej każdy komputer jest połączony z dokładnie dwoma sąsiadującymi komputerami, bez użycia dodatkowych urządzeń aktywnych?

A. Pierścienia
B. Magistrali
C. Siatki
D. Gwiazdy
Topologia pierścienia to struktura, w której każdy komputer (lub węzeł) jest połączony z dokładnie dwoma sąsiednimi komputerami, tworząc zamknięty krąg. W tej konfiguracji dane przesyłane są w jednym kierunku, co minimalizuje ryzyko kolizji. Przykładem zastosowania topologii pierścienia są starzejące się sieci token ring, gdzie token (znacznik) krąży w sieci, umożliwiając dostęp do medium transmisyjnego tylko jednemu urządzeniu na raz. Dzięki tej metodzie zapewniono porządek w przesyłaniu danych, co było kluczowe w środowiskach o dużym ruchu. Standardy IEEE 802.5 regulują techniczne aspekty takich sieci, wskazując na korzyści z używania topologii pierścienia w złożonych systemach wymagających synchronizacji. W praktyce, mimo że topologia pierścienia nie jest tak popularna jak inne, może być korzystna w określonych zastosowaniach, gdzie ważne są niski koszt i prostota instalacji.

Pytanie 31

Błąd typu STOP Error (Blue Screen) w systemie Windows, który wiąże się z odniesieniem się systemu do niepoprawnych danych w pamięci RAM, to

A. UNEXPECTED_KERNEL_MODE_TRAP
B. UNMOUNTABLE_BOOT_VOLUME
C. PAGE_FAULT_IN_NONPAGE_AREA
D. NTFS_FILE_SYSTEM
PAGE_FAULT_IN_NONPAGE_AREA to typ błędu systemu Windows, który występuje, gdy system operacyjny próbuje uzyskać dostęp do danych, które nie znajdują się w pamięci fizycznej, a powinny być w obszarze pamięci, w którym nie ma danych. Tego typu błąd często jest wynikiem uszkodzonej pamięci RAM, błędów w sterownikach lub problemów z oprogramowaniem, które próbują uzyskać dostęp do nieistniejących lub niewłaściwych lokalizacji w pamięci. Przykładem sytuacji, w której może wystąpić ten błąd, jest np. zainstalowanie nowego modułu pamięci RAM, który jest niekompatybilny z systemem lub zainstalowanym oprogramowaniem. Kluczową praktyką, aby zminimalizować ryzyko wystąpienia tego błędu, jest regularne aktualizowanie sterowników oraz przeprowadzanie testów pamięci, takich jak MemTest86, aby zidentyfikować fizyczne problemy z pamięcią. Dodatkowo, warto zaznaczyć, że stosowanie systemów monitorowania pamięci oraz technik zarządzania pamięcią, takich jak paginacja i alokacja dynamiczna, są standardami w zarządzaniu zasobami systemowymi i mogą pomóc w uniknięciu takich problemów.

Pytanie 32

W systemie Windows XP, aby zmienić typ systemu plików z FAT32 na NTFS, należy użyć programu

A. replace.exe
B. attrib.exe
C. convert.exe
D. subst.exe
Odpowiedź 'convert.exe' jest prawidłowa, ponieważ jest to narzędzie wbudowane w system Windows, które umożliwia konwersję systemu plików z FAT32 na NTFS bez utraty danych. Program 'convert.exe' działa w wierszu poleceń i jest stosunkowo prosty w użyciu, co czyni go odpowiednim rozwiązaniem dla administratorów systemu oraz użytkowników domowych. Aby użyć tego narzędzia, wystarczy otworzyć wiersz poleceń z uprawnieniami administratora i wpisać polecenie 'convert D: /FS:NTFS', gdzie 'D:' to litera napędu, który chcemy skonwertować. Przed wykonaniem konwersji zaleca się wykonanie kopii zapasowej danych, aby zminimalizować ryzyko ich utraty. Konwersja z FAT32 do NTFS przynosi wiele korzyści, takich jak zwiększona wydajność, obsługa większych plików oraz lepsze zarządzanie uprawnieniami i bezpieczeństwem. Warto zaznaczyć, że NTFS jest bardziej stabilnym i elastycznym systemem plików, co czyni go bardziej odpowiednim do zastosowań w środowiskach, gdzie wymagana jest większa niezawodność i możliwość przydzielania różnych poziomów dostępu do plików.

Pytanie 33

Jakiej kategorii skrętka pozwala na przesył danych w zakresie częstotliwości nieprzekraczającym 100 MHz przy szybkości do 1 Gb/s?

A. Kategorii 6a
B. Kategorii 6
C. Kategorii 3
D. Kategorii 5e
Odpowiedź Kategorii 5e jest prawidłowa, ponieważ ta kategoria skrętki pozwala na przesyłanie danych w paśmie częstotliwości do 100 MHz przy maksymalnej prędkości transmisji do 1 Gb/s. Kategoria 5e, będąca rozszerzoną wersją Kategorii 5, została wprowadzona, aby zredukować problemy związane z przesłuchami (crosstalk) oraz poprawić efektywność transmisji. Jest powszechnie stosowana w sieciach Ethernet, w tym w instalacjach lokalnych (LAN) oraz w zastosowaniach biurowych. Przykładem zastosowania Kategorii 5e może być podłączenie komputerów do switchy w biurach na potrzeby szybkiej wymiany danych czy dostępu do internetu. W praktyce, instalacje wykonane z tej kategorii mogą obsługiwać wiele nowoczesnych aplikacji, w tym wideo w jakości HD oraz komunikację głosową przez IP, co czyni ją rozwiązaniem przyszłościowym. Standardy TIA/EIA-568-B.2-1 definiują wymagania dotyczące jakości i parametrów tej kategorii, co zapewnia wysoką jakość przesyłanych sygnałów.

Pytanie 34

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 32 GB.
B. 1 modułu 16 GB.
C. 2 modułów, każdy po 16 GB.
D. 2 modułów, każdy po 8 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 35

Wbudowane narzędzie dostępne w systemach Windows w edycji Enterprise lub Ultimate jest przeznaczone do

Ilustracja do pytania
A. tworzenia kopii dysku
B. konsolidacji danych na dyskach
C. kompresji dysku
D. kryptograficznej ochrony danych na dyskach
W systemach Windows w wersji Enterprise oraz Ultimate funkcja BitLocker służy do kryptograficznej ochrony danych na dyskach twardych. BitLocker to narzędzie, które umożliwia szyfrowanie całych woluminów dysku, zapewniając, że tylko uprawnieni użytkownicy mogą uzyskać dostęp do danych. Zastosowanie technologii szyfrowania AES (Advanced Encryption Standard) czyni dane praktycznie niedostępnymi dla osób nieupoważnionych nawet w przypadku fizycznej kradzieży dysku. Praktyczne zastosowanie BitLockera jest powszechne w środowiskach korporacyjnych, gdzie ochrona danych jest kluczowa. Implementacja tego narzędzia jest zgodna z najlepszymi praktykami branżowymi, które rekomendują szyfrowanie danych wrażliwych. BitLocker obsługuje także funkcje TPM (Trusted Platform Module), co dodatkowo wzmacnia bezpieczeństwo przez weryfikację integralności systemu przy uruchamianiu. Dzięki BitLockerowi możliwe jest zabezpieczenie zarówno stałych dysków wewnętrznych, jak i przenośnych nośników danych poprzez funkcję BitLocker To Go. Jest to narzędzie nie tylko efektywne, ale i łatwe w zarządzaniu, co czyni je odpowiednim wyborem dla organizacji ceniących bezpieczeństwo danych.

Pytanie 36

Jakie typy połączeń z Internetem mogą być współdzielone w sieci lokalnej?

A. Wszystkie połączenia oprócz analogowych modemów
B. Wszystkie rodzaje połączeń
C. Tylko tzw. szybkie połączenia, czyli te powyżej 64 kb/s
D. Połączenie o prędkości przesyłu co najmniej 56 kb/s
Wszystkie rodzaje połączeń z Internetem mogą być udostępniane w sieci lokalnej, co oznacza, że niezależnie od rodzaju technologii dostępu do Internetu, można ją współdzielić z innymi użytkownikami w ramach lokalnej sieci. Przykładem mogą być połączenia DSL, kablowe, światłowodowe, a także mobilne połączenia LTE czy 5G. W praktyce, routery sieciowe są w stanie obsługiwać różne typy połączeń i umożliwiają ich udostępnianie. To podejście jest zgodne z normami branżowymi, które wskazują na elastyczność w projektowaniu rozwiązań sieciowych. Warto również zauważyć, że niezależnie od szybkości transmisji, kluczowym czynnikiem jest stabilność i jakość połączenia, co ma wpływ na doświadczenia użytkowników. Dzięki odpowiedniej konfiguracji routera, możliwe jest nie tylko udostępnianie połączenia, ale także zarządzanie priorytetami ruchu sieciowego, co jest szczególnie ważne w biurach i domach, gdzie wiele urządzeń korzysta z Internetu jednocześnie.

Pytanie 37

Urządzenie, które zamienia otrzymane ramki na sygnały przesyłane w sieci komputerowej, to

A. karta sieciowa
B. punkt dostępu
C. konwerter mediów
D. regenerator
Karta sieciowa jest kluczowym elementem w architekturze sieci komputerowych, odpowiedzialnym za konwersję danych z postaci cyfrowej na sygnały, które mogą być przesyłane przez medium transmisyjne, takie jak kable czy fale radiowe. Jej głównym zadaniem jest obsługa protokołów komunikacyjnych, takich jak Ethernet czy Wi-Fi, co pozwala na efektywne łączenie komputerów i innych urządzeń w sieci. Przykładowo, w przypadku korzystania z technologii Ethernet, karta sieciowa przekształca dane z pamięci komputera na ramki Ethernetowe, które są następnie transmitowane do innych urządzeń w sieci. Dodatkowo, karty sieciowe często zawierają funkcje takie jak kontrola błędów oraz zarządzanie przepustowością, co przyczynia się do stabilności i wydajności przesyłania danych. Warto zauważyć, że w kontekście standardów branżowych, karty sieciowe muszą być zgodne z normami IEEE, co zapewnia ich interoperacyjność w zróżnicowanych środowiskach sieciowych.

Pytanie 38

W dokumentacji płyty głównej zapisano „Wsparcie dla S/PDIF Out”. Co to oznacza w kontekście tego modelu płyty głównej?

A. cyfrowe złącze sygnału video
B. cyfrowe złącze sygnału audio
C. analogowe złącze sygnału wyjścia video
D. analogowe złącze sygnału wejścia video
Odpowiedź wskazująca na "cyfrowe złącze sygnału audio" jest poprawna, ponieważ S/PDIF (Sony/Philips Digital Interface) to standard cyfrowego przesyłania sygnału audio, który pozwala na przesyłanie dźwięku w formie nieskompresowanej lub skompresowanej. Złącze S/PDIF może mieć formę optyczną lub elektryczną, co umożliwia podłączenie różnych urządzeń audio, takich jak dekodery, amplitunery, czy zestawy głośników. Zastosowanie S/PDIF w systemach audio jest szerokie – na przykład, wiele komputerów i płyt głównych ma wyjścia S/PDIF, co pozwala na wydobycie wysokiej jakości dźwięku do zewnętrznych systemów audio. W praktyce, korzystanie z S/PDIF zapewnia lepszą jakość dźwięku w porównaniu do analogowych rozwiązań, ponieważ eliminuje potencjalne zakłócenia związane z sygnałami analogowymi i umożliwia przesyłanie sygnału stereo lub wielokanałowego bezstratnie, zgodnie z najnowszymi standardami audio.

Pytanie 39

W jakiej topologii sieci komputerowej każdy węzeł ma bezpośrednie połączenie z każdym innym węzłem?

A. Pełnej siatki
B. Podwójnego pierścienia
C. Rozszerzonej gwiazdy
D. Częściowej siatki
Topologia pełnej siatki to fajna sprawa, bo każdy węzeł w sieci ma połączenie z każdym innym. Dzięki temu mamy maksymalną niezawodność i komunikacja działa bez zarzutu. Jeżeli jedno połączenie padnie, to ruch da się przekierować na inne ścieżki. To jest szczególnie ważne w miejscach, gdzie liczy się dostępność, jak w centrach danych czy dużych firmach. Jasne, że w praktyce wprowadzenie takiej topologii może być kosztowne, bo liczba połączeń rośnie drastycznie. Ale w krytycznych sytuacjach, jak w sieciach finansowych, lepiej postawić na pełną siatkę, bo to zwiększa bezpieczeństwo danych i szybkość reakcji na zagrożenia. Co ciekawe, wiele organizacji zaleca użycie tej topologii, gdy potrzeba maksymalnej wydajności i minimalnych opóźnień.

Pytanie 40

Jaki standard szyfrowania powinien być wybrany przy konfiguracji karty sieciowej, aby zabezpieczyć transmisję w sieci bezprzewodowej?

A. EAP
B. PPP
C. MAC
D. WPA
WPA (Wi-Fi Protected Access) to standard szyfrowania, który został opracowany w celu poprawy bezpieczeństwa sieci bezprzewodowych. Jest on następcą wcześniejszych protokołów, takich jak WEP, które okazały się nieefektywne w ochronie przed nieautoryzowanym dostępem. WPA wykorzystuje silniejsze algorytmy szyfrowania, w tym TKIP (Temporal Key Integrity Protocol), co znacząco zwiększa poziom bezpieczeństwa. W praktyce, zastosowanie WPA w konfiguracji karty sieciowej pozwala na szyfrowanie danych przesyłanych w sieci bezprzewodowej, co zminimalizuje ryzyko podsłuchiwania i ataków typu „man-in-the-middle”. Oprócz WPA, istnieje również WPA2 i WPA3, które oferują jeszcze większe bezpieczeństwo dzięki zastosowaniu AES (Advanced Encryption Standard) oraz bardziej zaawansowanym mechanizmom uwierzytelniania. Wybierając WPA, Administratorzy powinni również pamiętać o stosowaniu silnych haseł oraz regularnych aktualizacjach oprogramowania, aby zapewnić maksymalne bezpieczeństwo systemu.