Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 5 kwietnia 2026 21:39
  • Data zakończenia: 5 kwietnia 2026 21:50

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Osoba planuje unowocześnić swój komputer poprzez zwiększenie pamięci RAM. Zainstalowana płyta główna ma specyfikacje przedstawione w tabeli. Wybierając dodatkowe moduły pamięci, powinien pamiętać, aby

Parametry płyty głównej
ModelH97 Pro4
Typ gniazda procesoraSocket LGA 1150
Obsługiwane procesoryIntel Core i7, Intel Core i5, Intel Core i3, Intel Pentium, Intel Celeron
ChipsetIntel H97
Pamięć4 x DDR3- 1600 / 1333/ 1066 MHz, max 32 GB, ECC, niebuforowana
Porty kart rozszerzeń1 x PCI Express 3.0 x16, 3 x PCI Express x1, 2 x PCI
A. były to trzy moduły DDR2, bez systemu kodowania korekcyjnego (ang. Error Correction Code)
B. w obrębie jednego banku były ze sobą zgodne tak, aby osiągnąć najwyższą wydajność
C. dokupione moduły miały łączną pojemność przekraczającą 32 GB
D. były to cztery moduły DDR4, o wyższej częstotliwości niż obecnie zainstalowana pamięć RAM
Wybór zgodnych modułów pamięci RAM w obrębie jednego banku jest kluczowy dla osiągnięcia optymalnej wydajności systemu komputerowego. W przypadku płyty głównej H97 Pro4 z przedstawionymi parametrami, ilość banków pamięci pozwala na zainstalowanie czterech modułów DDR3 o maksymalnej pojemności 32 GB i częstotliwości do 1600 MHz. Kluczowe jest, aby moduły pamięci były kompatybilne między sobą, co oznacza, że powinny mieć tę samą prędkość, pojemność i najlepiej pochodzić od tego samego producenta, co minimalizuje ryzyko problemów z kompatybilnością i maksymalizuje wydajność. Stosowanie zgodnych modułów pozwala na pełne wykorzystanie trybu dual-channel, który znacznie przyspiesza transfer danych pomiędzy pamięcią a procesorem. Praktyczne zastosowanie tej wiedzy w codziennym użytkowaniu komputera przejawia się w skróconych czasach ładowania aplikacji i lepszej wielozadaniowości systemu. Dobre praktyki branżowe wskazują także na regularne aktualizowanie biosu płyty głównej w celu uzyskania najnowszych rozwiązań kompatybilności pamięci.

Pytanie 2

W systemie operacyjnym Linux, aby sprawdzić ilość dostępnego miejsca na dyskach, można użyć polecenia

A. fstab
B. du
C. df
D. mkfs
Polecenie 'df' w systemie operacyjnym Linux służy do raportowania ilości dostępnego miejsca na zamontowanych systemach plików. Przy jego użyciu można uzyskać informacje o całkowitej pojemności dysków, zajętym miejscu oraz wolnym miejscu, co jest niezwykle przydatne podczas zarządzania przestrzenią dyskową. Przykładowo, wpisując polecenie 'df -h', uzyskujemy czytelny wynik, w którym rozmiary są przedstawiane w formatach łatwych do zrozumienia (np. GB, MB). Jest to kluczowe dla administratorów systemów, którzy muszą monitorować użycie przestrzeni dyskowej, aby zapobiegać problemom z brakiem miejsca, co mogłoby wpłynąć na wydajność systemu. W praktyce, regularne sprawdzanie wolnego miejsca za pomocą 'df' może pomóc w planowaniu aktualizacji systemu, konserwacji lub rozbudowy infrastruktury IT. Przy użyciu opcji 'df -i' można również uzyskać informacje o wykorzystaniu inode'ów, co jest istotne w przypadku systemów plików z dużą liczbą małych plików. Zgodność z tymi praktykami jest kluczowa dla efektywnego zarządzania zasobami w środowisku Linux.

Pytanie 3

Co umożliwia zachowanie jednolitego rozkładu temperatury pomiędzy procesorem a radiatorem?

A. Klej
B. Pasta grafitowa
C. Silikonowy spray
D. Mieszanka termiczna
Mieszanka termiczna, znana również jako pasta termoprzewodząca, odgrywa kluczową rolę w poprawnym działaniu systemu chłodzenia w komputerach i innych urządzeniach elektronicznych. Jej głównym celem jest wypełnienie mikroskopijnych szczelin pomiędzy powierzchnią procesora a radiatorem, co pozwala na efektywne przewodnictwo ciepła. Dobrze dobrana mieszanka termiczna ma wysoką przewodność cieplną, co zapewnia, że ciepło generowane przez procesor jest skutecznie przekazywane do radiatora, a tym samym zapobiega przegrzewaniu się podzespołów. W praktyce, zastosowanie wysokiej jakości pasty termoprzewodzącej jest standardem w branży komputerowej. Warto pamiętać, że nie wszystkie mieszanki są sobie równe, dlatego ważne jest, aby wybierać produkty spełniające normy branżowe, takie jak testy przewodności cieplnej. Użycie pasty termoprzewodzącej znacząco wpływa na wydajność systemu chłodzenia oraz przedłuża żywotność komponentów elektronicznych, co jest niezbędne w kontekście współczesnych wymagań obliczeniowych.

Pytanie 4

Jaką standardową wartość maksymalnej odległości można zastosować pomiędzy urządzeniami sieciowymi, które są ze sobą połączone przewodem UTP kat.5e?

A. 100 m
B. 1000 m
C. 10 m
D. 500 m
Standardowa maksymalna odległość dla przewodów UTP kategorii 5e wynosi 100 metrów. Ta wartość jest określona w standardzie ANSI/TIA-568, który reguluje wymagania dotyczące instalacji okablowania strukturalnego w budynkach. Utrzymanie tej odległości jest kluczowe dla zachowania odpowiedniej jakości sygnału oraz minimalizacji strat sygnałowych, co z kolei wpływa na wydajność sieci. W praktyce, przy projektowaniu sieci lokalnych, instalatorzy muszą zwrócić szczególną uwagę na długości kabli, aby zapewnić optymalną wydajność. Na przykład, w biurach, gdzie wiele urządzeń jest podłączonych do sieci, stosowanie kabli UTP kat. 5e w maksymalnej zalecanej długości pozwala na stabilne i szybkie połączenia internetowe oraz efektywne przesyłanie danych. Warto również zauważyć, że przy używaniu przełączników, rozgałęźników lub innych urządzeń sieciowych, maksymalna długość 100 metrów odnosi się do całkowitej długości segmentu kablowego, co oznacza, że połączenia między urządzeniami powinny być starannie planowane.

Pytanie 5

W systemie Linux użycie polecenia passwd Ala spowoduje

A. ustawienie hasła użytkownika Ala.
B. wyświetlenie członków grupy Ala.
C. utworzenia konta użytkownika Ala.
D. wyświetlenie ścieżki do katalogu Ala.
Polecenie passwd w systemach Linux i Unix służy przede wszystkim do zmiany hasła użytkownika. Jeśli podasz za nim nazwę użytkownika, na przykład passwd Ala, to system pozwala ustawić nowe hasło właśnie dla tego konkretnego konta. Często używa się tego polecenia podczas administracji serwerami, żeby wymusić zmianę hasła przez użytkownika lub gdy administrator sam musi zresetować komuś dostęp. Z mojego doświadczenia, passwd jest jednym z najprostszych i zarazem najpotężniejszych narzędzi do zarządzania bezpieczeństwem w systemach linuksowych. Dobre praktyki branżowe wręcz nakazują regularną zmianę haseł, a komenda passwd to podstawowy sposób na realizację tej zasady. Co ciekawe, jeśli wykonasz passwd bez żadnych argumentów, to domyślnie zmieniasz swoje własne hasło. Administrator (root) może natomiast podać dowolną nazwę użytkownika i ustawić mu nowe hasło – taka elastyczność jest bardzo ceniona, szczególnie w większych środowiskach. Warto pamiętać, że polecenie passwd nie tworzy użytkownika i nie pokazuje żadnych informacji o grupach czy katalogach – jego jedyną rolą jest zarządzanie hasłami. Bardzo często można je spotkać w dokumentacji systemowej i tutorialach dotyczących bezpieczeństwa. Moim zdaniem, jeśli ktoś chce na poważnie zajmować się administracją Linuxem, to znajomość działania passwd to totalna podstawa, szczególnie z punktu widzenia bezpieczeństwa danych i zgodności ze standardami ISO/IEC 27001 czy praktykami CIS Benchmarks.

Pytanie 6

Wykonanie polecenia net use Z:192.168.20.2data /delete spowoduje?

A. podłączenie katalogu data do dysku Z:
B. rozłączenie zasobów komputera 192.168.20.2 od dysku Z:
C. podłączenie zasobów komputera 192.168.20.2 do dysku Z:
D. rozłączenie katalogu data z dyskiem Z:
Odpowiedź \"odłączenie katalogu data od dysku Z:\" jest poprawna, ponieważ polecenie 'net use' służy do zarządzania połączeniami z zasobami sieciowymi w systemie Windows. W tym przypadku, przy użyciu składni 'net use Z: \\192.168.20.2\data /delete', komenda ta konkretne odłącza przypisany wcześniej zasób sieciowy, którym w tym przypadku jest katalog 'data' z hosta o adresie IP 192.168.20.2. Użytkownicy często korzystają z komendy 'net use' w celu zarządzania przydzielonymi napędami w sieci lokalnej, co pozwala na wygodny dostęp do plików i zasobów. Warto znać tę komendę, aby efektywnie zarządzać połączeniami w środowiskach wielofunkcyjnych, a także w sytuacjach, gdy dostęp do zasobów sieciowych jest ograniczony. Używanie odpowiednich poleceń do odłączania zasobów jest istotne dla zapewnienia bezpieczeństwa i kontroli nad dostępem do danych."

Pytanie 7

Zaproponowany fragment ustawień zapory sieciowej umożliwia przesył danych przy użyciu protokołów ```iptables -A INPUT --protocol tcp --dport 443 -j ACCEPT iptables -A INPUT --protocol tcp --dport 143 -j ACCEPT iptables -A OUTPUT --protocol tcp --dport 443 -j ACCEPT iptables -A OUTPUT --protocol tcp --dport 143 -j ACCEPT```

A. HTTP, SMPT
B. FTP, SSH
C. HTTPS, IMAP
D. POP3, TFTP
Fragment konfiguracji zapory sieciowej wskazuje na zezwolenie na ruch dotyczący protokołów HTTPS oraz IMAP. W szczególności reguły iptables określają porty TCP 443 oraz 143. Port 443 jest standardowym portem używanym przez protokół HTTPS, który zapewnia bezpieczną komunikację w sieci, chroniąc dane przesyłane między klientem a serwerem za pomocą szyfrowania SSL/TLS. W kontekście praktycznym, jest on szeroko stosowany w serwisach internetowych wymagających zabezpieczenia danych, takich jak bankowość online czy e-commerce. Z kolei port 143 jest używany przez protokół IMAP, który umożliwia dostęp do wiadomości e-mail na serwerze, pozwalając na zarządzanie nimi w czasie rzeczywistym. IMAP jest preferowany w środowiskach, gdzie użytkownicy potrzebują dostępu do swoich wiadomości z różnych urządzeń, co przyczynia się do zwiększenia efektywności pracy. Znajomość tych protokołów oraz ich właściwe konfigurowanie w zaporze sieciowej jest kluczowe dla zapewnienia bezpieczeństwa oraz właściwego działania aplikacji webowych.

Pytanie 8

Aby odzyskać dane z dysku, który został sformatowany, warto użyć programu typu

A. IRC
B. recovery
C. sniffer
D. p2p
Odpowiedź "recovery" jest poprawna, ponieważ programy typu recovery (odzyskiwania danych) są specjalnie zaprojektowane do przywracania utraconych lub usuniętych plików z dysków twardych, które zostały sformatowane lub usunięte. Proces formatowania dysku nie usuwa fizycznie danych, lecz jedynie oznacza obszary dysku jako dostępne do zapisu. Programy do odzyskiwania danych potrafią skanować dysk w poszukiwaniu pozostałości plików oraz ich struktur, co umożliwia ich przywrócenie. Przykładem popularnych narzędzi są Recuva, EaseUS Data Recovery Wizard oraz TestDisk, które są stosowane w praktyce zarówno przez specjalistów IT, jak i użytkowników indywidualnych. W branży informatycznej standardem jest również wykonywanie regularnych kopii zapasowych, co może znacząco ułatwić proces odzyskiwania danych. W sytuacji, gdy dane zostały utracone, zaleca się nie zapisywać nowych informacji na danym dysku, aby zwiększyć szanse na odzyskanie danych.

Pytanie 9

Aby zabezpieczyć system przed atakami z sieci nazywanymi phishingiem, nie powinno się

A. posługiwać się stronami WWW korzystającymi z protokołu HTTPS
B. aktualizować oprogramowania do obsługi poczty elektronicznej
C. stosować przestarzałych przeglądarek internetowych
D. wykorzystywać bankowości internetowej
Starsze przeglądarki to tak naprawdę zły wybór, jeśli chodzi o chronienie się przed atakami phishingowymi. Wiesz, te starsze wersje nie mają wszystkich nowinek, które są potrzebne do wykrywania niebezpiecznych stron. Na przykład przeglądarki, takie jak Chrome, Firefox czy Edge, regularnie dostają aktualizacje, które pomagają walczyć z nowymi zagrożeniami, w tym phishingiem. Nowoczesne przeglądarki ostrzegają nas o podejrzanych witrynach, a czasem nawet same blokują te niebezpieczne treści. Wiadomo, że jeśli korzystasz z bankowości elektronicznej, musisz mieć pewność, że robisz to w bezpiecznym środowisku. Dlatego tak ważne jest, żeby mieć zaktualizowaną przeglądarkę. Regularne aktualizowanie oprogramowania, w tym przeglądarek, to kluczowy krok, żeby ograniczyć ryzyko. No i nie zapominaj o serwisach HTTPS – to daje dodatkową pewność, że twoje dane są szyfrowane i bezpieczne.

Pytanie 10

Co nie wpływa na utratę z pamięci masowej HDD?

A. Fizyczne uszkodzenie dysku.
B. Sformatowanie partycji dysku.
C. Utworzona macierz dyskowa RAID 5.
D. Zniszczenie talerzy dysku.
Wybranie odpowiedzi dotyczącej utworzenia macierzy dyskowej RAID 5 jako czynnika, który nie wpływa na utratę danych z pamięci masowej HDD, jest w pełni uzasadnione technicznie. RAID 5 to rodzaj macierzy zapasowej, która właśnie ma na celu zwiększenie bezpieczeństwa i dostępności danych, a nie ich utratę. W praktyce, kiedy tworzymy macierz RAID 5, dane są rozpraszane między kilkoma dyskami wraz z sumami kontrolnymi (parity), co pozwala na odtworzenie informacji nawet w przypadku awarii jednego z dysków fizycznych. Co ciekawe, w środowiskach serwerowych czy w centrach danych stosowanie RAID 5 jest standardem od lat – moim zdaniem to taki must-have w przypadku krytycznych danych, szczególnie gdy nie chcemy tracić informacji przez zwykłą awarię sprzętu. Oczywiście samo założenie RAID 5 nie powoduje usunięcia ani utraty danych z pojedynczego HDD, a wręcz przeciwnie – daje dodatkowy poziom ochrony. Warto pamiętać, że RAID 5 nie jest rozwiązaniem idealnym, bo nie chroni przed wszystkim (np. przypadkowym usunięciem plików czy atakami ransomware), ale do kwestii fizycznych i logicznych awarii to bardzo dobra praktyka. Z własnego doświadczenia wiem, że wiele firm wręcz wymaga stosowania macierzy RAID do ważnych danych. Podsumowując, RAID 5 to ochrona, a nie czynnik powodujący utratę danych. I tyle, taka prosta prawda z praktyki informatyków.

Pytanie 11

Koprocesor (Floating Point Unit) w systemie komputerowym jest odpowiedzialny za realizację

A. operacji zmiennoprzecinkowych
B. operacji na liczbach naturalnych
C. operacji na liczbach całkowitych
D. podprogramów
Koprocesor, znany również jako jednostka zmiennoprzecinkowa (Floating Point Unit, FPU), jest specjalizowanym procesorem, który obsługuje operacje arytmetyczne na liczbach zmiennoprzecinkowych. Liczby te są istotne w obliczeniach inżynieryjnych, naukowych i finansowych, gdzie wymagana jest wysoka precyzja i zakres wartości. Użycie FPU pozwala na szybkie przetwarzanie takich operacji, co jest kluczowe w programowaniu złożonych algorytmów, takich jak symulacje fizyczne, obliczenia numeryczne czy renderowanie grafiki 3D. Na przykład, w grafice komputerowej, obliczenia dotyczące ruchu obiektów, oświetlenia i cieni są często wykonywane przy użyciu operacji zmiennoprzecinkowych, które wymagają dużej mocy obliczeniowej. W standardach programowania, takich jak IEEE 754, zdefiniowane są zasady reprezentacji liczb zmiennoprzecinkowych, co zapewnia spójność i dokładność obliczeń w różnych systemach komputerowych. Dzięki zastosowaniu FPU, programiści mogą tworzyć bardziej wydajne aplikacje, które są w stanie obsługiwać skomplikowane obliczenia w krótszym czasie.

Pytanie 12

Komenda dsadd pozwala na

A. modyfikację właściwości obiektów w katalogu
B. usuwanie użytkowników, grup, komputerów, kontaktów oraz jednostek organizacyjnych z usługi Active Directory
C. dodawanie użytkowników, grup, komputerów, kontaktów i jednostek organizacyjnych do usługi Active Directory
D. przenoszenie obiektów w ramach jednej domeny
Polecenie dsadd jest kluczowym narzędziem w kontekście zarządzania usługą Active Directory, które umożliwia dodawanie różnych typów obiektów, takich jak użytkownicy, grupy, komputery, kontakty i jednostki organizacyjne. W praktyce, administratorzy IT często używają dsadd do szybkiego i efektywnego wprowadzania nowych użytkowników do systemu, co jest niezbędne w środowiskach korporacyjnych, gdzie zarządzanie tożsamościami jest fundamentalne dla bezpieczeństwa i organizacji. Przykładowo, przy dodawaniu nowego pracownika do systemu, administrator może skorzystać z polecenia dsadd w skrypcie, co pozwala na automatyzację procesu i zminimalizowanie błędów ludzkich. Warto również zaznaczyć, że stosowanie dsadd zgodnie z najlepszymi praktykami, takimi jak tworzenie odpowiednich grup zabezpieczeń czy przypisywanie ról, wspiera politykę bezpieczeństwa organizacji. Dzięki temu możliwość centralnego zarządzania użytkownikami i zasobami w Active Directory staje się bardziej zorganizowana i bezpieczna, co jest zgodne z normami branżowymi w zakresie zarządzania infrastrukturą IT.

Pytanie 13

Na płycie głównej wyposażonej w gniazdo przedstawione na zdjęciu można zainstalować procesor

Ilustracja do pytania
A. Intel Xeon E3-1240V5, 3.9GHz, s-1151
B. AMD Sempron 2800+, 1600 MHz, s-754
C. AMD FX-6300, s-AM3+, 3.5GHz, 14MB
D. Intel i9-7940X, s-2066 3.10GHz 19.25MB
Gniazdo widoczne na zdjęciu to socket AM3+, który został zaprojektowany przez firmę AMD do obsługi ich procesorów z serii FX oraz części modeli Phenom II, Athlon II, czy Sempron (w zależności od wersji płyty głównej i wsparcia BIOS). AMD FX-6300 jest jednym z najbardziej popularnych procesorów na ten socket – to sześciordzeniowa jednostka z architekturą Vishera, która daje całkiem dobrą wydajność jak na starsze konstrukcje. Co ważne, montując procesor do gniazda AM3+ trzeba zwrócić szczególną uwagę na zgodność nie tylko samego socketu, ale także obsługi przez BIOS i chipsetu płyty. Z mojego doświadczenia wynika, że dużo osób bagatelizuje kwestię wersji BIOS-u, a to może być kluczowe przy upgrade'ach. AM3+ jest typowym gniazdem typu PGA, gdzie piny znajdują się na procesorze, a nie w samym socketcie – to trochę inna filozofia niż np. u Intela w LGA. Praktyka pokazuje, że socket AM3+ był długo obecny w komputerach do zastosowań domowych i tanich stacji roboczych, bo zapewniał dosyć korzystny stosunek ceny do wydajności. Warto też pamiętać, że ten typ gniazda nie jest kompatybilny z nowszymi procesorami AMD na AM4 czy starszymi na AM2 – mimo fizycznych podobieństw różnice w układzie pinów są kluczowe. Taka wiedza przydaje się nie tylko w serwisie, ale i przy samodzielnym składaniu PC.

Pytanie 14

Czym jest OTDR?

A. urządzenie światłowodowe dla przełącznika.
B. reflektometr.
C. spawarka.
D. tester kabli miedzianych.
OTDR, czyli Optical Time Domain Reflectometer, to zaawansowane urządzenie służące do pomiaru i diagnostyki włókien optycznych. Jego główną funkcją jest wykrywanie i lokalizowanie strat sygnału oraz niedoskonałości w instalacjach światłowodowych. OTDR działa na zasadzie wysyłania impulsów światła przez włókno optyczne i analizowania powracającego sygnału, co pozwala na określenie odległości do miejsca wystąpienia problemu. Przykładowe zastosowanie OTDR obejmuje inspekcję i konserwację sieci telekomunikacyjnych oraz monitorowanie jakości połączeń światłowodowych. W branży telekomunikacyjnej, zgodnie z normami ITU-T G.650, OTDR jest niezbędnym narzędziem do zapewnienia optymalnej wydajności sieci. Dzięki precyzyjnym pomiarom użytkownik może szybko identyfikować problematyczne odcinki, co znacząco przyspiesza proces naprawy oraz minimalizuje przestoje w sieci. Warto również zwrócić uwagę, że wiele nowoczesnych OTDR oferuje funkcje automatycznej analizy danych, co ułatwia diagnozowanie oraz dokumentowanie wyników pomiarów.

Pytanie 15

Jakie zagrożenie nie jest eliminowane przez program firewall?

A. Szpiegowanie oraz kradzież poufnych informacji użytkownika
B. Ataki powodujące zwiększony ruch w sieci
C. Wirusy rozprzestrzeniające się za pomocą poczty e-mail
D. Dostęp do systemu przez hakerów
Wybór odpowiedzi dotyczącej wirusów rozprzestrzeniających się pocztą e-mail jako sytuacji, na którą firewall nie ma wpływu, jest zasłużony. Firewalle są narzędziami zabezpieczającymi sieci i urządzenia przed nieautoryzowanym dostępem oraz kontrolującymi przepływ danych w sieci, ale nie są projektowane do analizy i eliminacji złośliwego oprogramowania, które może być dostarczane przez e-maile. Wirusy, trojany i inne formy złośliwego oprogramowania często wykorzystują e-maile jako wektory ataku, co sprawia, że kluczowym zabezpieczeniem jest oprogramowanie antywirusowe oraz odpowiednia edukacja użytkowników. Przykłady skutecznych praktyk obejmują wdrażanie programów antywirusowych w celu skanowania załączników oraz korzystanie z filtrów spamowych. Z punktu widzenia standardów branżowych, takie działania są zgodne z zasadami bezpieczeństwa IT, które rekomendują wielowarstwowe podejście do ochrony danych.

Pytanie 16

Aby przekształcić serwer w kontroler domeny w systemach Windows Server, konieczne jest użycie komendy

A. dcpromo
B. regsvr32
C. dcgpofix
D. winnt32
Polecenie 'dcpromo' jest standardowym narzędziem używanym w systemach Windows Server do promocji serwera do roli kontrolera domeny. Umożliwia ono utworzenie nowej domeny lub dołączenie do istniejącej, co jest kluczowe dla zarządzania użytkownikami i zasobami w sieci. W praktyce, uruchamiając 'dcpromo', administratorzy mogą skonfigurować wiele istotnych parametrów, takich jak ustawienia replikacji, wybór typu kontrolera domeny (np. podstawowy lub dodatkowy) oraz integrację z Active Directory. W branży IT, zgodnie z najlepszymi praktykami, promocja serwera do roli kontrolera domeny powinna być przeprowadzana w planowany sposób, z uwzględnieniem odpowiednich kopii zapasowych i audytu, aby zminimalizować ryzyko utraty danych oraz zapewnić bezpieczeństwo infrastruktury. Dcpromo przeprowadza również weryfikację, czy sprzęt i oprogramowanie spełniają minimalne wymagania do pracy z Active Directory, co jest istotnym krokiem w procesie wdrożeniowym.

Pytanie 17

Standard sieci bezprzewodowej WiFi 802.11 a/n operuje w zakresie

A. 2,4 GHz
B. 250 MHz
C. 5 GHz
D. 1200 MHz
Odpowiedź "5 GHz" jest prawidłowa, ponieważ standardy WiFi 802.11a i 802.11n operują w pasmach 5 GHz oraz 2,4 GHz, jednak kluczowym zastosowaniem 802.11n jest możliwość pracy w paśmie 5 GHz, co umożliwia osiąganie wyższych prędkości transmisji danych oraz mniejsze zakłócenia, co jest istotne w zatłoczonych obszarach. Pasmo 5 GHz oferuje większą przepustowość, co przyczynia się do lepszej jakości połączenia, zwłaszcza w zastosowaniach wymagających szybkiego przesyłania danych, jak streaming wideo w wysokiej rozdzielczości czy gry online. Warto również zwrócić uwagę, że 802.11n wspiera MIMO (Multiple Input Multiple Output), co further zwiększa wydajność sieci, pozwalając na jednoczesne przesyłanie wielu strumieni danych. Użycie pasma 5 GHz jest zgodne z najlepszymi praktykami branżowymi, które zalecają wybór tego zakresu w celu minimalizacji zakłóceń oraz zwiększenia wydajności sieci bezprzewodowej w środowiskach o dużym natężeniu ruchu.

Pytanie 18

Wtyczka zaprezentowana na fotografie stanowi element obwodu elektrycznego zasilającego

Ilustracja do pytania
A. procesor ATX12V
B. dyski wewnętrzne SATA
C. stację dyskietek
D. napędy CD-ROM
Wtyczka przedstawiona na zdjęciu jest zasilaczem typu ATX12V, który jest kluczowym elementem w nowoczesnych komputerach stacjonarnych. Ten typ złącza został wprowadzony, aby zapewnić dodatkowe zasilanie dla procesorów, które z czasem wymagały większej mocy. ATX12V to standard opracowany przez producentów płyt głównych i zasilaczy komputerowych, aby zapewnić stabilne i niezawodne zasilanie dla komponentów o wysokiej wydajności. Złącze ATX12V zwykle posiada cztery piny, które dostarczają napięcia 12V bezpośrednio do procesora, co jest niezbędne dla jego wydajności i stabilności. W praktyce oznacza to, że systemy oparte na tym standardzie mogą obsługiwać bardziej zaawansowane procesory, które wymagają większej ilości energii elektrycznej do prawidłowego działania. Ponadto, stosowanie tego złącza jest zgodne z dobrymi praktykami projektowymi w zakresie poprawy efektywności energetycznej i zarządzania termicznego w urządzeniach komputerowych, co ma kluczowe znaczenie w kontekście zarówno domowych, jak i profesjonalnych zastosowań komputerów stacjonarnych.

Pytanie 19

Jakie urządzenie pozwala na połączenie lokalnej sieci komputerowej z Internetem?

A. switch
B. hub
C. router
D. driver
Router jest urządzeniem, które pełni kluczową rolę w łączeniu lokalnej sieci komputerowej z Internetem. Jego podstawową funkcją jest kierowanie ruchu sieciowego pomiędzy różnymi sieciami, co oznacza, że potrafi wysyłać pakiety danych do odpowiednich adresów IP w Internecie. W praktyce, routery są wykorzystywane w domach i biurach do zapewnienia dostępu do Internetu dla wielu urządzeń jednocześnie, wykonując zadania takie jak NAT (Network Address Translation), które pozwala na ukrycie lokalnych adresów IP i zapewnienie większego bezpieczeństwa. Przykładowo, w domowej sieci router może łączyć smartfony, laptopy oraz urządzenia IoT, umożliwiając im wspólne korzystanie z jednego łącza internetowego. Z punktu widzenia dobrych praktyk, ważne jest, aby routery były odpowiednio konfigurowane, zabezpieczane silnymi hasłami i aktualizowane, aby zminimalizować ryzyko ataków z sieci zewnętrznych. Warto również zwrócić uwagę na różne typy routerów, jak routery przewodowe i bezprzewodowe, które dostosowują się do różnych potrzeb użytkowników.

Pytanie 20

Jakie miejsce nie powinno być wykorzystywane do przechowywania kopii zapasowych danych z dysku twardego komputera?

A. Zewnętrzny dysk
B. Płyta CD/DVD
C. Inna partycja tego samego dysku
D. Nośnik USB
Wybór opcji 'Inna partycja dysku tego komputera' jako miejsca przechowywania kopii bezpieczeństwa danych jest niewłaściwy, ponieważ w przypadku awarii głównego dysku twardego, cała zawartość, w tym dane na innych partycjach, może zostać utracona. Standardowe praktyki związane z tworzeniem kopii zapasowych opierają się na zasadzie, że kopie powinny być przechowywane w lokalizacjach fizycznie oddzielonych od oryginalnych danych. Przykładowo, stosowanie pamięci USB, płyt CD/DVD czy zewnętrznych dysków twardych to sprawdzone metody, które zapewniają ochronę przed utratą danych. Zewnętrzny dysk twardy, jako nośnik, zapewnia nie tylko mobilność, ale także możliwość korzystania z różnych standardów przechowywania danych, takich jak RAID, co zwiększa bezpieczeństwo kopii. W praktyce, zaleca się wdrożenie strategii 3-2-1, która zakłada posiadanie trzech kopii danych, na dwóch różnych nośnikach, z jedną kopią przechowywaną w chmurze lub w innej lokalizacji fizycznej. Dzięki temu, nawet w przypadku całkowitego usunięcia danych z głównego dysku, istnieje możliwość ich łatwego odzyskania.

Pytanie 21

Jakie polecenie w systemie Linux umożliwia wyświetlenie zawartości katalogu?

A. ls
B. pwd
C. cd
D. rpm
Polecenie 'ls' w systemie Linux jest podstawowym narzędziem służącym do wyświetlania zawartości katalogu. Jego nazwa pochodzi od angielskiego słowa 'list', co dokładnie odzwierciedla funkcję, jaką pełni. Używając tego polecenia, użytkownik może szybko zobaczyć pliki i podkatalogi znajdujące się w bieżącym katalogu. Przykładowe zastosowania obejmują użycie 'ls -l', co daje szczegółowy widok na pliki, w tym ich uprawnienia, właścicieli i rozmiary. Użycie 'ls -a' pozwala na zobaczenie również plików ukrytych, które zaczynają się od kropki. Często korzysta się również z opcji sortowania, na przykład 'ls -t', które sortuje pliki według daty modyfikacji. Stosowanie tego polecenia jest zgodne z dobrymi praktykami systemu Unix/Linux, gdzie dostęp do informacji o systemie jest kluczowy dla efektywnego zarządzania danymi i administracji serwerami. Warto dodać, że 'ls' jest niezwykle efektywne, ponieważ działa nie tylko na lokalnych systemach plików, ale również na zdalnych systemach plików zamontowanych w systemie, co czyni je uniwersalnym narzędziem dla administratorów i programistów.

Pytanie 22

Aby wymusić na użytkownikach lokalnych systemów z rodziny Windows Server regularną zmianę haseł oraz stosowanie haseł o odpowiedniej długości, które spełniają kryteria złożoności, należy ustawić

A. konta użytkowników w Ustawieniach
B. zasady blokady konta w zasadach grupowych
C. parametry konta użytkownika w narzędziu zarządzania komputerem
D. zasady haseł w lokalnych zasadach zabezpieczeń
Odpowiedź "zasady haseł w zasadach zabezpieczeń lokalnych" jest poprawna, ponieważ to w tym miejscu można skonfigurować wymogi dotyczące złożoności haseł oraz okresowej zmiany haseł dla kont użytkowników w systemach Windows Server. Umożliwia to administratorom kontrolowanie polityki haseł, co jest kluczowym elementem zabezpieczeń w środowiskach IT. Przykładowo, można ustalić minimalną długość hasła, wymusić użycie znaków specjalnych, cyfr oraz wielkich liter, co znacząco zwiększa odporność na ataki brute-force. W dobrych praktykach bezpieczeństwa IT, takich jak standardy NIST, podkreśla się znaczenie silnych haseł oraz regularnej ich zmiany. Dzięki odpowiednim ustawieniom w zasadach zabezpieczeń lokalnych można również wprowadzić blokady konta po kilku nieudanych próbach logowania, co dodatkowo zwiększa bezpieczeństwo. To podejście jest zgodne z politykami bezpieczeństwa wielu organizacji, które mają na celu minimalizację ryzyka naruszeń danych.

Pytanie 23

Liczby 1001 i 100 w wierszu pliku /etc/passwd reprezentują

A. identyfikator użytkownika i grupy w systemie
B. liczbę dni od ostatniej zmiany hasła i liczbę dni do wygaśnięcia hasła
C. numer koloru tekstu oraz numer koloru tła w terminalu
D. liczbę pomyślnych oraz niepomyślnych prób logowania
Liczby 1001 i 100 w wierszu pliku /etc/passwd rzeczywiście oznaczają identyfikator użytkownika (UID) oraz identyfikator grupy (GID) w systemie operacyjnym Linux. UID to unikalny numer przypisany do każdego użytkownika, który pozwala systemowi na identyfikację użytkownika i zarządzanie jego uprawnieniami. GID natomiast jest identyfikatorem grupy, do której należy użytkownik. Przykładowo, jeśli użytkownik Jan Kowalski ma UID równy 1001, oznacza to, że jest to jeden z pierwszych użytkowników utworzonych w systemie, ponieważ systemowy UID dla pierwszego użytkownika to zazwyczaj 1000. Ponadto, GID określa grupę, której prawa dostępu są dziedziczone przez użytkownika. Stosowanie unikalnych identyfikatorów jest dobrą praktyką w zarządzaniu systemami operacyjnymi, gdyż zapewnia to bezpieczeństwo oraz właściwe przypisanie uprawnień, co jest kluczowe w środowiskach wieloużytkownikowych. Warto również zauważyć, że plik /etc/passwd jest standardowym plikiem konfiguracyjnym w systemach Unix/Linux, który zawiera informacje o użytkownikach systemowych.

Pytanie 24

Tryb pracy portu równoległego, bazujący na magistrali ISA, umożliwiający transfer danych do 2,4 MB/s, dedykowany dla skanerów i urządzeń wielofunkcyjnych, to

A. ECP
B. Nibble Mode
C. Bi-directional
D. SPP
Tryb ECP (Extended Capabilities Port) faktycznie powstał w odpowiedzi na rosnące wymagania sprzętu peryferyjnego, głównie skanerów i drukarek wielofunkcyjnych, pod koniec lat 90. ECP umożliwia dwukierunkowy transfer danych z prędkością sięgającą nawet 2,4 MB/s, co stanowiło wtedy ogromny skok jakościowy w porównaniu do starszych rozwiązań, takich jak SPP (Standard Parallel Port). W praktyce, ten tryb wspiera zaawansowane mechanizmy buforowania i kompresji danych – moim zdaniem to właśnie przez to urządzenia wielofunkcyjne były w stanie komunikować się płynnie z komputerami, nawet gdy przesyłano obrazy czy skanowane dokumenty. ECP wykorzystuje kanał DMA, co pozwala odciążyć procesor główny. Z mojego doświadczenia, wybór ECP podczas instalowania drukarki czy skanera na starszych komputerach często rozwiązywał problemy z „przerywanymi” transferami. Warto pamiętać, że tryb ECP jest zgodny z magistralą ISA, co ułatwiało jego wdrożenie w starszych płytach głównych i kartach rozszerzeń. W branży przyjęło się, że jeżeli zależy nam na niezawodnej i szybkiej komunikacji z drukarkami i skanerami, to ECP to najlepszy wybór. Dobrą praktyką jest też sprawdzanie ustawień BIOS – tam można wymusić tryb ECP, żeby wycisnąć maksimum z portu równoległego. Ostatecznie, ECP to nie tylko wyższa prędkość, ale i stabilność transmisji, która dziś wydaje się oczywista, ale dawniej miała spore znaczenie.

Pytanie 25

Aby przetestować w systemie Windows poprawność działania nowo zainstalowanej drukarki, należy

A. uruchomić program gpupdate /force w Wierszu poleceń.
B. sprawdzić stan urządzenia w Menadżerze urządzeń.
C. uruchomić program diagnostyczny dxdiag.
D. wydrukować stronę testową za pomocą zakładki <i>Ogólne</i> w oknie <i>Właściwości drukarki</i>.
Najlepszym i zdecydowanie najpewniejszym sposobem na przetestowanie czy drukarka została prawidłowo zainstalowana w systemie Windows, jest wydrukowanie strony testowej z poziomu zakładki Ogólne w oknie Właściwości drukarki. To w zasadzie taki branżowy standard – praktycznie każdy serwisant czy administrator IT robi to na początku. Strona testowa pozwala szybko sprawdzić, czy system operacyjny może skutecznie komunikować się z drukarką, a także czy drukarka właściwie przetwarza polecenia drukowania. Co ważne, taki test wyklucza szereg potencjalnych problemów: od nieprawidłowych sterowników, przez błędne połączenia sprzętowe, aż po drobne ustawienia w systemie. Z mojego doświadczenia wynika, że wydruk strony testowej to także szybki sposób na sprawdzenie jakości wydruku, np. czy nie ma przerywanych linii, plam czy innych usterek sprzętowych. W środowiskach korporacyjnych i szkołach zawsze przed oddaniem drukarki do użytku użytkownikom warto wykonać ten krok. Też ważne jest to, że strona testowa drukarki zawiera informacje diagnostyczne, takie jak stan dysz, kolory, czy poprawność komunikacji. Sam Menadżer urządzeń czy narzędzia systemowe nie dadzą takich informacji praktycznych z perspektywy użytkownika końcowego. Dlatego, kiedy ktoś pyta jak szybko sprawdzić czy drukarka działa – polecam właśnie ten sposób i nie spotkałem się jeszcze, żeby zawiódł.

Pytanie 26

Uzyskanie przechowywania kopii często odwiedzanych witryn oraz zwiększenia bezpieczeństwa przez odfiltrowanie konkretnych treści w sieci Internet można osiągnąć dzięki

A. automatycznemu zablokowaniu plików cookies
B. konfiguracji serwera pośredniczącego proxy
C. użytkowaniu systemu z uprawnieniami administratora
D. zainstalowaniu oprogramowania antywirusowego oraz aktualnej bazy wirusów
Konfiguracja serwera pośredniczącego proxy pozwala na efektywne przechowywanie kopii często odwiedzanych stron oraz zwiększenie bezpieczeństwa użytkowników. Proxy działa jako pośrednik pomiędzy użytkownikiem a serwerem docelowym, co umożliwia buforowanie danych. Dzięki temu, gdy użytkownik odwiedza tę samą stronę ponownie, serwer proxy może dostarczyć mu zawartość z lokalnej pamięci, co znacząco przyspiesza ładowanie strony. Dodatkowo, proxy może filtrować treści, blokując dostęp do niebezpiecznych stron lub zawartości, co zwiększa zabezpieczenia sieciowe. W praktyce, wiele organizacji wykorzystuje serwery proxy do kontroli dostępu do internetu, monitorowania aktywności użytkowników oraz ochrony przed zagrożeniami sieciowymi. Zgodnie z dobrymi praktykami branżowymi, konfiguracja serwerów proxy powinna być wykonana przez specjalistów IT, którzy zapewnią optymalizację oraz odpowiednie zabezpieczenia, co przyczynia się do zwiększenia wydajności oraz bezpieczeństwa infrastruktury sieciowej.

Pytanie 27

Które z poniższych zdań charakteryzuje protokół SSH (Secure Shell)?

A. Sesje SSH prowadzą do przesyłania danych w formie zwykłego tekstu, bez szyfrowania
B. Sesje SSH nie umożliwiają weryfikacji autentyczności punktów końcowych
C. Bezpieczny protokół terminalu sieciowego oferujący usługi szyfrowania połączenia
D. Protokół do pracy zdalnej na odległym komputerze nie zapewnia szyfrowania transmisji
Protokół SSH (Secure Shell) jest bezpiecznym protokołem terminalu sieciowego, który umożliwia zdalne logowanie się i zarządzanie systemami w sposób zaszyfrowany. W przeciwieństwie do wielu innych protokołów, które przesyłają dane w formie niezaszyfrowanej, SSH zapewnia integralność danych oraz poufność poprzez zastosowanie silnego szyfrowania. Przykładowo, SSH wykorzystuje algorytmy szyfrujące takie jak AES (Advanced Encryption Standard) do ochrony przesyłanych informacji, co czyni go kluczowym narzędziem w administracji systemami. Organizacje korzystają z SSH do zdalnego zarządzania serwerami, co minimalizuje ryzyko przechwycenia danych przez osoby trzecie. Dodatkowo, SSH obsługuje uwierzytelnianie kluczem publicznym, co zwiększa bezpieczeństwo połączenia eliminując ryzyko ataków typu „man-in-the-middle”. Dobrą praktyką jest również korzystanie z SSH w konfiguracji, która wymusza użycie kluczy zamiast haseł, co znacząco zwiększa poziom bezpieczeństwa. Doświadczeni administratorzy systemów powinni być zaznajomieni z konfiguracją SSH, aby maksymalnie wykorzystać jego możliwości i zabezpieczyć swoje środowisko.

Pytanie 28

Które z urządzeń nie powinno być serwisowane podczas korzystania z urządzeń antystatycznych?

A. Pamięć.
B. Dysk twardy.
C. Modem.
D. Zasilacz.
Odpowiedź wskazująca na zasilacz jako urządzenie, które nie powinno być naprawiane podczas używania urządzeń antystatycznych, jest prawidłowa. Zasilacz komputerowy ma bezpośredni kontakt z siecią elektryczną, co stwarza ryzyko porażenia prądem, a także uszkodzenia podzespołów. W przypadku pracy z zasilaczem, ważne jest, aby zawsze odłączyć go od źródła zasilania przed przystąpieniem do jakiejkolwiek naprawy. Zastosowanie urządzeń antystatycznych, takich jak opaski czy maty antystatyczne, ma na celu zabezpieczenie komponentów przed wyładowaniami elektrostatycznymi, które mogą być szkodliwe dla wrażliwych podzespołów, takich jak pamięci RAM czy procesory. Jednak zasilacz, z uwagi na jego konstrukcję i funkcję, wymaga innego podejścia, które nie powinno zachodzić w czasie, gdy zasilanie jest aktywne. Ponadto, według standardów bezpieczeństwa, takich jak IEC 60950, kluczowe jest unikanie manipulacji przy urządzeniach wymagających zasilania, co podkreśla znaczenie odpowiednich procedur podczas pracy z zasilaczami.

Pytanie 29

Jakie napięcie jest obniżane z 230 V w zasilaczu komputerowym w standardzie ATX dla różnych podzespołów komputera?

A. 20 V
B. 130 V
C. 12 V
D. 4 V
Zasilacz komputerowy w standardzie ATX jest zaprojektowany do przekształcania napięcia sieciowego 230 V AC na niższe napięcia DC, które są niezbędne do zasilania różnych komponentów systemu komputerowego. W tym kontekście, 12 V to jedno z kluczowych napięć, które zasilacz dostarcza do podzespołów takich jak napędy dyskowe, karty graficzne czy płyty główne. Zasilacze ATX dostarczają także inne napięcia, takie jak 3,3 V i 5 V, ale 12 V jest najczęściej używane do zasilania urządzeń wymagających większej mocy. Praktycznym zastosowaniem tego napięcia jest jego wykorzystanie w systemach zasilania komputerów stacjonarnych, serwerów oraz stacji roboczych, gdzie stabilność i wydajność zasilania są kluczowe dla poprawnego działania systemu. Zgodnie z normą ATX, napięcia powinny być utrzymywane w 5% tolerancji, co zapewnia ich odpowiednią stabilność operacyjną. Znalezienie odpowiednich wartości napięć w zasilaczu jest zatem fundamentalne dla zapewnienia niezawodności i efektywności działania całego systemu komputerowego."

Pytanie 30

Oznaczenie CE wskazuje, że

A. wyrób spełnia normy bezpieczeństwa użytkowania, ochrony zdrowia oraz ochrony środowiska
B. produkt jest zgodny z normami ISO
C. producent ocenił towar pod kątem wydajności i ergonomii
D. towar został wytworzony w obrębie Unii Europejskiej
Oznakowanie CE jest znakiem, który informuje, że wyrób spełnia wymagania unijne dotyczące bezpieczeństwa, zdrowia oraz ochrony środowiska. W ramach regulacji Unii Europejskiej, każdy produkt, który nosi ten znak, przeszedł odpowiednie procedury oceny zgodności, co zazwyczaj obejmuje testy i analizy wykonane przez producenta lub uprawnione jednostki notyfikowane. Przykładem mogą być urządzenia elektryczne, które muszą spełniać normy bezpieczeństwa określone w dyrektywie LVD (Low Voltage Directive) oraz EMC (Electromagnetic Compatibility Directive). Zastosowanie oznakowania CE nie tylko zapewnia konsumentom bezpieczeństwo użytkowania, ale również daje producentom przewagę konkurencyjną na rynku europejskim. Warto zauważyć, że oznakowanie CE jest wymagane dla szerokiej gamy produktów, w tym zabawek, urządzeń medycznych czy sprzętu ochrony osobistej, co czyni je kluczowym elementem regulacyjnym wpływającym na handel wewnętrzny w Unii Europejskiej.

Pytanie 31

Podczas wyłączania systemu operacyjnego na monitorze pojawił się błąd, znany jako bluescreen 0x000000F3 Bug Check 0xF3 DISORDERLY_SHUTDOWN - nieudane zamykanie systemu, spowodowane niewystarczającą ilością pamięci. Co ten błąd może oznaczać?

A. uruchamianie zbyt wielu programów podczas startu komputera
B. uszkodzenie systemowej partycji
C. niewystarczający rozmiar pamięci wirtualnej
D. przegrzanie CPU
Błąd 0x000000F3, związany z disorderly shutdown, wskazuje na problemy podczas zamykania systemu operacyjnego, które są często związane z niewystarczającą pamięcią wirtualną. Pamięć wirtualna, która jest przestrzenią dyskową wykorzystywaną przez system operacyjny jako rozszerzenie pamięci RAM, odgrywa kluczową rolę w zarządzaniu zasobami systemowymi. Kiedy pamięć wirtualna jest zbyt mała, system operacyjny nie jest w stanie pomyślnie zrealizować wszystkich operacji zamykania, co prowadzi do pojawienia się błędów. Przykładowo, jeśli użytkownik uruchamia wiele aplikacji jednocześnie, może to zająć dużą ilość pamięci RAM i spowodować, że system nie ma wystarczającej ilości pamięci wirtualnej do prawidłowego zamykania. Z tego powodu, aby uniknąć podobnych problemów, rekomenduje się, aby użytkownicy regularnie monitorowali rozmiar pamięci wirtualnej oraz dostosowywali go w ustawieniach systemowych, zgodnie z zaleceniami producenta. Praktyczne podejście do zarządzania pamięcią wirtualną obejmuje również korzystanie z narzędzi do analizy wydajności systemu, takich jak Menedżer zadań w Windows, aby kontrolować obciążenie pamięci i w razie potrzeby zwiększać jej rozmiar.

Pytanie 32

Zidentyfikowanie głównego rekordu rozruchowego, który uruchamia system z aktywnej partycji, jest możliwe dzięki

A. BootstrapLoader
B. GUID Partition Table
C. POST
D. CDDL
Bootstrap Loader to specjalny program, który jest odpowiedzialny za wczytywanie systemu operacyjnego z aktywnej partycji. Po zakończeniu procesu POST (Power-On Self Test), system BIOS lub UEFI przystępuje do uruchomienia bootloadera. Bootloader znajduje się zazwyczaj w pierwszym sektorze aktywnej partycji i jego zadaniem jest załadowanie rdzenia systemu operacyjnego do pamięci. W praktyce, jest to kluczowy element procesu uruchamiania komputera, który pozwala na zainicjowanie i wczytanie systemu operacyjnego, co jest podstawą do dalszej pracy użytkownika. W przypadku systemów operacyjnych Linux, popularnym bootloaderem jest GRUB (Grand Unified Bootloader), a w Windows jest to Windows Boot Manager. Zastosowanie bootloadera jest zgodne z dobrymi praktykami w branży IT, które zalecają wyraźne oddzielenie procesu rozruchu od samego systemu operacyjnego, co ułatwia diagnozowanie problemów związanych z uruchamianiem oraz modyfikację konfiguracji. Ponadto, bootloader może obsługiwać różne systemy plików i pozwala na wybór pomiędzy różnymi systemami operacyjnymi, co jest istotne w środowiskach z dual-boot.

Pytanie 33

Jaki protokół posługuje się portami 20 oraz 21?

A. DHCP
B. Telnet
C. FTP
D. WWW
Protokół FTP (File Transfer Protocol) to standardowy protokół używany do przesyłania plików między komputerami w sieci. Wykorzystuje on porty 20 i 21 do komunikacji. Port 21 służy do ustanawiania połączenia oraz zarządzania sesją FTP, natomiast port 20 jest używany do przesyłania danych. Dzięki temu podziałowi, możliwe jest zarządzanie połączeniem i transferem w sposób zorganizowany. FTP jest powszechnie stosowany w różnych aplikacjach, takich jak przesyłanie plików na serwer internetowy, synchronizacja danych czy tworzenie kopii zapasowych. W kontekście standardów, FTP jest zgodny z dokumentami RFC 959, które definiują jego działanie i zasady. W praktyce, wiele firm i organizacji korzysta z FTP do zarządzania swoimi zasobami, ponieważ umożliwia on łatwe i efektywne przesyłanie dużych plików, co jest istotne w środowiskach biurowych oraz w projektach wymagających dużych transferów danych.

Pytanie 34

W systemie Windows, gdzie należy ustalić wymagania dotyczące złożoności hasła?

A. w autostarcie
B. w BIOS-ie
C. w panelu sterowania
D. w zasadach zabezpieczeń lokalnych
Wymagania dotyczące złożoności haseł w Windows ustalasz w zasadach zabezpieczeń lokalnych, które znajdziesz w narzędziu 'Zasady zabezpieczeń lokalnych' (z ang. secpol.msc). To narzędzie umożliwia administratorom definiowanie różnych zasad dotyczących bezpieczeństwa, w tym haseł. Przykładowo, możesz ustawić, że hasła muszą zawierać duże litery, cyfry i znaki specjalne. To naprawdę dobra praktyka, bo zwiększa bezpieczeństwo danych użytkowników. W kontekście regulacji jak RODO czy HIPAA ważne jest, żeby te zasady były dobrze skonfigurowane, aby chronić dane osobowe. Dobrze przemyślane zasady zabezpieczeń lokalnych mogą znacznie zmniejszyć ryzyko naruszenia bezpieczeństwa w organizacji, co w efekcie podnosi ogólny poziom zabezpieczeń systemu operacyjnego.

Pytanie 35

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 8 GB.
B. 2 modułów, każdy po 16 GB.
C. 1 modułu 16 GB.
D. 1 modułu 32 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 36

Jakie narzędzie w systemie Windows umożliwia kontrolę prób logowania do systemu?

A. instalacji
B. programów
C. zabezpieczeń
D. systemu
Dziennik zabezpieczeń w systemie Windows to kluczowe narzędzie odpowiedzialne za monitorowanie i rejestrowanie prób logowania oraz innych istotnych zdarzeń związanych z bezpieczeństwem. Odpowiedź "zabezpieczeń" (#3) jest prawidłowa, ponieważ dziennik ten zbiera informacje o wszystkich próbach logowania, zarówno udanych, jak i nieudanych, co jest niezbędne dla administratorów systemów w celu analizy potencjalnych incydentów bezpieczeństwa. Użycie dziennika zabezpieczeń pozwala na śledzenie aktywności użytkowników oraz identyfikację nieautoryzowanych prób dostępu. Przykładowo, administrator może wykorzystać informacje z dziennika zabezpieczeń do audytu działań użytkowników oraz do przeprowadzania analiz ryzyka, co jest zgodne z najlepszymi praktykami w zakresie zarządzania bezpieczeństwem informacji (np. ISO 27001). Dziennik ten jest również użyteczny w kontekście spełniania wymogów regulacyjnych, takich jak RODO, gdzie monitorowanie dostępu do danych osobowych jest kluczowym elementem zgodności. Regularna analiza dziennika zabezpieczeń jest istotna dla utrzymania wysokiego poziomu bezpieczeństwa w organizacji.

Pytanie 37

Na schemacie blokowym funkcjonalny blok RAMDAC ilustruje

Ilustracja do pytania
A. przetwornik analogowo-cyfrowy z pamięcią RAM
B. pamięć ROM karty graficznej
C. przetwornik cyfrowo-analogowy z pamięcią RAM
D. pamięć RAM karty graficznej
RAMDAC jest kluczowym komponentem w kartach graficznych, który przekształca dane wideo z postaci cyfrowej na analogową. Jego główną funkcją jest obsługa konwersji sygnałów potrzebnych do wyświetlania obrazu na monitorach CRT. RAMDAC zawiera pamięć RAM, która przechowuje paletę kolorów i przetwornik cyfrowo-analogowy do generowania sygnałów wideo. Przykładem praktycznego zastosowania RAMDAC jest możliwość precyzyjnego odwzorowania kolorów dzięki zastosowaniu tablic look-up, co pozwala na dostosowanie wyjściowego sygnału do różnych standardów wyświetlania. Współczesne technologie, takie jak HDMI czy DisplayPort, zminimalizowały rolę RAMDAC, jednak jego koncepcje pozostają istotne w zrozumieniu podstaw grafiki komputerowej. Zrozumienie działania RAMDAC jest fundamentem dla inżynierów zajmujących się projektowaniem układów graficznych, a wykorzystanie standardów, jak VESA, gwarantuje kompatybilność z szeroką gamą urządzeń wyświetlających. Wiedza o RAMDAC umożliwia projektowanie systemów z zachowaniem pełnej kontroli nad jakością sygnału wideo, co jest kluczowe w zastosowaniach profesjonalnych, gdzie jakość obrazu ma zasadnicze znaczenie.

Pytanie 38

Podczas przetwarzania pakietów danych w sieci, wartość pola TTL (ang. Time To Live) jest modyfikowana za każdym razem, gdy pakiet przechodzi przez ruter. Jaką wartość tego pola należy ustawić, aby ruter skasował pakiet?

A. 127
B. 0
C. 64
D. 255
Wartość pola TTL (Time To Live) w pakietach IP wskazuje, jak długo dany pakiet może przebywać w sieci zanim zostanie uznany za wygasły i usunięty. Gdy wartość TTL wynosi 0, oznacza to, że pakiet nie może być już przesyłany i zostanie skasowany przez ruter. TTL jest zmniejszane o 1 na każdym urządzeniu, przez które pakiet przechodzi. Jeśli pakiet dotrze do rutera z wartością TTL równą 1, po zmniejszeniu do 0 ruter usunie go, ponieważ oznacza to, że pakiet przekroczył dozwolony czas życia w sieci. Zrozumienie TTL jest kluczowe w kontekście zarządzania ruchem sieciowym oraz w diagnozowaniu problemów z siecią, ponieważ pozwala na efektywne zarządzanie długością życia pakietów i unikanie sytuacji, w której pakiety krążą w sieci bez końca, co może prowadzić do przeciążenia. W praktyce, administracja sieciowa często wykorzystuje mechanizmy związane z TTL do monitorowania i optymalizacji ruchu, co jest zgodne z najlepszymi praktykami w branży sieciowej.

Pytanie 39

Jakie polecenie pozwala na uzyskanie informacji o bieżących połączeniach TCP oraz o portach źródłowych i docelowych?

A. ipconfig
B. lookup
C. netstat
D. ping
Odpowiedź 'netstat' jest prawidłowa, ponieważ jest to polecenie używane w systemach operacyjnych, które umożliwia monitorowanie połączeń sieciowych, w tym aktywnych połączeń TCP oraz informacji o portach źródłowych i docelowych. Narzędzie to jest niezwykle przydatne dla administratorów sieci, ponieważ pozwala na identyfikację bieżących połączeń, co może być kluczowe w diagnostyce problemów z siecią lub zabezpieczeń. Na przykład, uruchamiając 'netstat -ano', można uzyskać szczegółowe informacje o wszystkich aktywnych połączeniach, w tym identyfikatory procesów (PID), co ułatwia zarządzanie i monitorowanie aplikacji korzystających z internetu. Rekomendowane jest także korzystanie z opcji 'netstat -tuln', która pokazuje nasłuchujące porty TCP oraz UDP, co jest kluczowe w kontekście zarządzania ruchem sieciowym oraz zabezpieczeń. Zastosowanie tego narzędzia jest zgodne z najlepszymi praktykami w zakresie analizy i zarządzania siecią, co czyni je niezbędnym elementem w arsenale każdego specjalisty IT.

Pytanie 40

Aby zapewnić użytkownikom Active Directory możliwość logowania oraz dostęp do zasobów tej usługi w sytuacji awarii kontrolera domeny, co należy zrobić?

A. zainstalować drugi kontroler domeny
B. przenieść wszystkich użytkowników do grupy administratorzy
C. udostępnić wszystkim użytkownikom kontakt do Help Desk
D. skopiować wszystkie zasoby sieci na każdy komputer w domenie
Zainstalowanie drugiego kontrolera domeny jest kluczową praktyką w zapewnieniu ciągłości działania systemu Active Directory. Kontrolery domeny pełnią rolę centralnych punktów autoryzacji i zarządzania użytkownikami oraz zasobami w sieci. W przypadku awarii jednego z kontrolerów, drugi może przejąć jego funkcje, co minimalizuje ryzyko przestoju i zapewnia nieprzerwaną dostępność usług dla użytkowników. Implementacja co najmniej dwóch kontrolerów domeny jest zgodna z najlepszymi praktykami w obszarze zarządzania infrastrukturą IT oraz zapewnia dodatkowe zabezpieczenia przed utratą danych. Przykładem może być sytuacja, w której jeden kontroler ulega uszkodzeniu z powodu awarii sprzętowej lub problemów z oprogramowaniem. Drugi kontroler przejmuje automatycznie jego funkcje, co pozwala użytkownikom na dalsze logowanie się i dostęp do zasobów bez zakłóceń. Warto również zainwestować w replikację między kontrolerami, co pozwala na aktualizację informacji o użytkownikach i grupach w czasie rzeczywistym, zwiększając odporność infrastruktury na awarie.