Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 3 maja 2026 08:19
  • Data zakończenia: 3 maja 2026 08:40

Egzamin zdany!

Wynik: 27/40 punktów (67,5%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Jakie jest nominalne wyjście mocy (ciągłe) zasilacza o parametrach przedstawionych w tabeli?

Napięcie wyjściowe+5 V+3.3 V+12 V1+12 V2-12 V+5 VSB
Prąd wyjściowy18,0 A22,0 A18,0 A17,0 A0,3 A2,5 A
Moc wyjściowa120 W336 W3,6 W12,5 W
A. 576,0 W
B. 336,0 W
C. 456,0 W
D. 472,1 W
Odpowiedź 472,1 W jest trafna, bo moc wyjściowa zasilacza to nic innego jak suma mocy dla wszystkich napięć, gdzie są już przypisane odpowiednie prądy. Dla każdego napięcia moc P można policzyć ze wzoru P = U * I, gdzie U to napięcie, a I to prąd. Jeśli spojrzeć na obliczenia, to mamy: dla +5 V moc wynosi 5 V * 18 A = 90 W, dla +3.3 V moc to 3.3 V * 22 A = 72.6 W, następnie dla +12 V1 moc daje 12 V * 18 A = 216 W, dla +12 V2 to 12 V * 17 A = 204 W, zaś dla -12 V mamy -12 V * 0.3 A = -3.6 W. Ostatnia moc to dla +5 VSB, czyli 5 V * 2.5 A = 12.5 W. Jak to wszystko zsumujesz, wychodzi 90 W + 72.6 W + 216 W + 204 W - 3.6 W + 12.5 W = 572.5 W. Ale uwaga, bo zasilacz ma dwa napięcia +12 V, więc ich łączna moc to 216 W + 204 W = 420 W. Dlatego moc wyjściowa zasilacza to 90 W + 72.6 W + 420 W - 3.6 W + 12.5 W = 472,1 W. To podejście do obliczeń jest zgodne z tym, co jest uznawane za dobre praktyki w projektowaniu zasilaczy, gdzie trzeba brać pod uwagę zarówno dodatnie, jak i ujemne napięcia.

Pytanie 2

Zidentyfikuj interfejsy znajdujące się na panelu tylnym płyty głównej:

Ilustracja do pytania
A. 2xUSB 3.0; 2xUSB 2.0, 1.1; 2xDP, 1xDVI
B. 2xPS2; 1xRJ45; 6xUSB 2.0, 1.1
C. 2xUSB 3.0; 4xUSB 2.0, 1.1; 1xD-SUB
D. 2xHDMI, 1xD-SUB, 1xRJ11, 6xUSB 2.0
Wybrana odpowiedź jest prawidłowa ponieważ panel tylny przedstawionej płyty głównej rzeczywiście zawiera 2 porty USB 3.0 4 porty USB 2.0 lub 1.1 oraz złącze D-SUB. Porty USB są jednymi z najważniejszych elementów nowoczesnej płyty głównej ponieważ pozwalają na podłączanie szerokiego zakresu urządzeń peryferyjnych od klawiatur i myszek po dyski zewnętrzne i drukarki. USB 3.0 oferuje szybsze prędkości transferu danych sięgające nawet 5 Gb/s co jest szczególnie korzystne dla urządzeń wymagających szybkiego przesyłania danych jak na przykład dyski SSD. Złącze D-SUB znane również jako VGA jest analogowym złączem używanym głównie do podłączania monitorów starszego typu. Pomimo że technologia ta jest już mniej popularna nowoczesne płyty główne nadal oferują takie złącza dla kompatybilności ze starszymi monitorami. Praktycznym zastosowaniem takiego zestawu portów jest możliwość równoczesnego korzystania z innowacyjnych rozwiązań takich jak szybkie nośniki pamięci USB 3.0 oraz starsze urządzenia korzystające z USB 2.0 co czyni płytę wszechstronną i elastyczną w użyciu. Dobór takich interfejsów w płycie głównej jest zgodny z aktualnymi standardami branżowymi zapewniając użytkownikowi szerokie możliwości podłączania urządzeń.

Pytanie 3

Aby przywrócić dane, które zostały usunięte dzięki kombinacji klawiszy Shift+Delete, trzeba

A. odzyskać je z systemowego kosza
B. zastosować kombinację klawiszy Shift+Insert
C. odzyskać je z folderu plików tymczasowych
D. skorzystać z oprogramowania do odzyskiwania danych
Dobra robota z odpowiedzią! Skorzystanie z oprogramowania do odzyskiwania danych to rzeczywiście najlepszy krok w takiej sytuacji. Gdy pliki usuniemy przez Shift+Delete, to znika nam możliwość przywrócenia ich z kosza, bo one tam po prostu nie trafiają. Oprogramowanie do odzyskiwania działają jak detektywy – szukają fragmentów plików na dysku i czasem udaje im się coś znaleźć, zanim dane zostaną nadpisane przez nowe. Wiesz, że są takie programy jak Recuva czy EaseUS Data Recovery? Są popularne w branży i naprawdę mogą pomóc. Pamiętaj, żeby przed ich użyciem nie zapisywać nowych plików na dysku, bo to zwiększa szanse na odzyskanie. I jeszcze jedna rzecz – takie oprogramowanie to ostateczność, dobrze jest regularnie robić kopie zapasowe, żeby uniknąć problemów w przyszłości.

Pytanie 4

Bęben światłoczuły stanowi kluczowy element w funkcjonowaniu drukarki

A. atramentowej
B. sublimacyjnej
C. igłowej
D. laserowej
Bęben światłoczuły to naprawdę ważny element w drukarkach laserowych. Bez niego nie byłoby mowy o przenoszeniu obrazu na papier. Generalnie działa to tak, że bęben jest naładowany, a potem laser naświetla odpowiednie miejsca. Te naświetlone obszary tracą ładunek, przez co przyciągają toner, który potem ląduje na papierze. To wszystko ma ogromne znaczenie w biurach, gdzie liczy się jakość druku i koszt. W profesjonalnych drukarkach trwałość bębna przekłada się na to, jak dobrze drukarka działa. Warto też pamiętać, że są standardy, jak ISO/IEC 24712, które mówią o tym, jak ważna jest jakość obrazu i materiałów. To pokazuje, jak kluczowy jest bęben światłoczuły.

Pytanie 5

Po zainstalowaniu systemu z domyślnymi parametrami, Windows XP nie obsługuje tego systemu plików.

A. NTFS
B. EXT
C. FAT32
D. FAT16
Odpowiedź EXT jest poprawna, ponieważ system Windows XP nie jest w stanie obsługiwać systemu plików EXT, który jest typowym systemem plików dla systemów operacyjnych opartych na jądrze Linux. Windows XP obsługuje systemy plików takie jak NTFS, FAT16 oraz FAT32, które są standardami w ekosystemie Windows. Przykładem zastosowania EXT może być sytuacja, gdy administrator serwera korzysta z dystrybucji Linuksa, która wymaga wykorzystania tego systemu plików do optymalizacji wydajności lub zarządzania dużymi woluminami danych. Warto również zrozumieć, że EXT ma wiele wersji, takich jak EXT2, EXT3 i EXT4, z których każda wprowadza dodatkowe funkcje, takie jak journaling czy większa odporność na uszkodzenia. Znajomość ograniczeń i możliwości różnych systemów plików pozwala na podejmowanie świadomych decyzji dotyczących wyboru odpowiedniej technologii dla danego środowiska operacyjnego.

Pytanie 6

W metodzie archiwizacji danych nazwanej Dziadek – Ojciec – Syn na poziomie Dziadek przeprowadza się kopię danych na koniec

A. roku
B. tygodnia
C. miesiąca
D. dnia
Wybór opcji związanych z innymi okresami, takimi jak dzień, rok czy tydzień, nie jest zgodny z prawidłowym podejściem do strategii archiwizacji Dziadek – Ojciec – Syn. Archiwizacja danych na poziomie Dziadek, polegająca na wykonywaniu kopii zapasowych, jest zaprojektowana tak, aby zapewnić długoterminowe przechowywanie i dostępność danych. Wykonywanie kopii zapasowych codziennie (na poziomie dnia) może prowadzić do nadmiernego zużycia zasobów i zajmowania cennej przestrzeni dyskowej, ponieważ codzienne zmiany w danych mogą być nieznaczne i nie zawsze uzasadniają tworzenie nowych kopii. Z kolei wybór archiwizacji na poziomie roku może być zbyt rzadki, co zwiększa ryzyko utraty danych w przypadku awarii, gdy pomiędzy kopiami zapasowymi upływa znaczny czas. Natomiast archiwizacja co tydzień może nie zapewniać odpowiedniego poziomu ochrony, szczególnie w kontekście dynamicznych zmian danych, które mogą wystąpić w krótkim czasie. W związku z tym strategia archiwizacji co miesiąc jest bardziej adekwatna, gdyż łączy regularność z efektywnością, co jest kluczowe dla zachowania integralności i dostępności danych w dłuższej perspektywie. Dobrą praktyką jest także przeprowadzanie analizy ryzyk i określenie optymalnej częstotliwości archiwizacji w zależności od specyfiki organizacji i rodzaju przetwarzanych danych.

Pytanie 7

Złącze zasilacza ATX12V jest przeznaczone do zasilania

A. karty graficznej PCI-e 3.0
B. procesora
C. urządzeń SATA
D. stacji dyskietek
Złącze zasilacza ATX12V, znane również jako złącze 4-pinowe lub 8-pinowe (w zależności od wersji), jest dedykowane do zasilania procesora w komputerach stacjonarnych. Jego głównym zadaniem jest dostarczenie stabilnego i wysokiego napięcia, które jest niezbędne do prawidłowego działania jednostki centralnej. W zależności od modelu płyty głównej, złącze to może mieć różne konfiguracje, ale zawsze zawiera przewody z napięciem +12V, które są kluczowe dla zasilania procesora. Współczesne procesory wymagają coraz więcej energii, co czyni to złącze kluczowym elementem w budowie wydajnych systemów komputerowych. Przykładem może być sytuacja, gdy użytkownik montuje nową płytę główną z procesorem obsługującym wiele rdzeni, gdzie odpowiednie zasilanie jest niezbędne dla stabilności systemu, zwłaszcza podczas intensywnych obliczeń czy gier. Zgodnie z normami ATX, złącze to powinno być solidnie podłączone, aby zminimalizować ryzyko problemów z zasilaniem, takich jak spadki napięcia czy niestabilność systemu.

Pytanie 8

Na rysunku widać ustawienia protokołu TCP/IP serwera oraz komputera roboczego. Na serwerze działa rola serwera DNS. Wykonanie polecenia ping www.cke.edu.pl na serwerze zwraca wynik pozytywny, natomiast na stacji roboczej wynik jest negatywny. Co należy zmienić, aby usługa DNS na stacji pracowała poprawnie?

Ilustracja do pytania
A. bramy na stacji roboczej na 192.168.1.10
B. serwera DNS na stacji roboczej na 192.168.1.11
C. bramy na serwerze na 192.168.1.11
D. serwera DNS na stacji roboczej na 192.168.1.10
Odpowiedź numer 4 jest prawidłowa, ponieważ wskazuje na konieczność ustawienia właściwego adresu serwera DNS na stacji roboczej. W konfiguracjach sieciowych serwera DNS, serwer na ogół działa jako pośrednik, tłumacząc adresy domenowe na adresy IP. W przedstawionym scenariuszu, na serwerze DNS działa lokalnie przypisane IP 127.0.0.1, co sugeruje, że serwer sam obsługuje swoje własne zapytania DNS. Dla stacji roboczej, aby mogła korzystać z funkcji DNS serwera, powinna wskazywać na adres IP, pod którym serwer jest dostępny wewnętrznie, czyli 192.168.1.10. Błędna konfiguracja powoduje, że stacja robocza nie może prawidłowo rozwiązywać zapytań DNS, co skutkuje negatywnym wynikiem ping. Prawidłowe ustawienie adresu DNS na stacji roboczej jako 192.168.1.10 zapewni jej prawidłowy dostęp do usługi DNS. W praktyce oznacza to, że stacje robocze w sieci lokalnej powinny być skonfigurowane tak, aby jako serwer DNS mają wskazany adres serwera sieciowego, co jest zgodne z najlepszymi praktykami sieciowymi.

Pytanie 9

Którego protokołu działanie zostało zobrazowane na załączonym rysunku?

Ilustracja do pytania
A. Domain Name System(DNS)
B. Dynamic Host Configuration Protocol (DHCP)
C. Telnet
D. Security Shell (SSH)
Domain Name System (DNS) jest protokołem używanym do tłumaczenia nazw domenowych na adresy IP, co umożliwia użytkownikom łatwiejsze poruszanie się po Internecie bez potrzeby zapamiętywania skomplikowanych adresów liczbowych. DNS działa w oparciu o hierarchiczny system serwerów i nie uczestniczy w procesie przypisywania adresów IP, ale w mapowaniu nazw na już przypisane adresy. Często mylnie utożsamiany z DHCP ze względu na rolę w zarządzaniu zasobami sieciowymi, lecz jego funkcje są całkowicie różne. Secure Shell (SSH) to protokół sieciowy zapewniający bezpieczne zdalne logowanie i komunikację w niezabezpieczonych sieciach. Jest używany głównie do zarządzania serwerami przez bezpieczne kanały komunikacyjne. W przeciwieństwie do DHCP, SSH koncentruje się na ochronie danych i autoryzacji użytkowników, a nie na konfiguracji sieci. Telnet to starszy protokół komunikacyjny używany do zdalnego połączenia z urządzeniami w sieci, jednak nie zapewnia zabezpieczeń, takich jak szyfrowanie danych, co czyni go podatnym na podsłuch i ataki. Zarówno SSH, jak i Telnet, koncentrują się na komunikacji między urządzeniami, podczas gdy DHCP ma na celu automatyzację przydzielania zasobów sieciowych. Mylenie tych protokołów wynika często z niezrozumienia ich specyfiki i odmiennych zastosowań w sieciach komputerowych. Ważne jest, aby zrozumieć, że każdy z tych protokołów ma swoje unikalne, niekrzyżujące się funkcje i zastosowania, co pozwala na ich właściwy dobór w zależności od potrzeb sieciowych organizacji. Błędne przypisanie funkcji jednemu z nich może prowadzić do nieefektywności i problemów bezpieczeństwa w zarządzaniu infrastrukturą sieciową. W przypadku zarządzania siecią kluczowe jest dokładne określenie roli, jaką każdy protokół odgrywa w jej funkcjonowaniu i odpowiednie ich wdrożenie zgodnie z najlepszymi praktykami branżowymi.

Pytanie 10

Jakie polecenie w systemie Windows pozwala na wyświetlenie tabeli routingu hosta?

A. netstat -r
B. ipconfig /renew
C. ipconfig /release
D. netstat -n
Polecenie 'netstat -r' jest kluczowym narzędziem w systemie Windows, które umożliwia wyświetlenie tabeli routingu hosta. Tabela routingu zawiera informacje dotyczące tras, jakie pakiety danych muszą pokonać, aby dotrzeć do określonych adresów IP. Znajomość tej tabeli jest istotna dla administratorów sieci, ponieważ pozwala na analizę i diagnozowanie problemów z komunikacją między urządzeniami w sieci. 'netstat -r' pokazuje nie tylko aktywne trasy, ale również ich metryki, co może pomóc w optymalizacji trasowania w złożonych sieciach. W praktyce, narzędzie to jest często używane do monitorowania stanu sieci oraz do identyfikacji potencjalnych wąskich gardeł w trasowaniu. Rekomenduje się regularne korzystanie z tego polecenia w celu uzyskania informacji o bieżącej konfiguracji routingu oraz w sytuacjach awaryjnych, gdzie konieczne jest szybkie zdiagnozowanie problemów komunikacyjnych w infrastrukturze IT.

Pytanie 11

Jeśli sieć 172.16.6.0/26 zostanie podzielona na dwie równe podsieci, to ile adresowalnych hostów będzie w każdej z nich?

A. 28 hostów
B. 30 hostów
C. 32 hosty
D. 29 hostów
Odpowiedź 30 hostów jest prawidłowa, ponieważ sieć 172.16.6.0/26 posiada 64 adresy IP (od 172.16.6.0 do 172.16.6.63), gdzie pierwszy adres jest adresem sieci, a ostatni jest adresem rozgłoszeniowym (broadcast). Oznacza to, że 62 adresy mogą być użyte do adresowania hostów. Podzielając tę sieć na dwie równe podsieci, otrzymujemy dwie podsieci o prefiksie /27, co daje 32 adresy IP w każdej z nich. Z tych 32 adresów, jeden jest adresem sieci, a drugi adresem rozgłoszeniowym, co pozwala nam na skuteczne zaadresowanie 30 hostów. Tego typu podziały są powszechnie stosowane w inżynierii sieciowej, aby efektywnie zarządzać adresowaniem IP i minimalizować marnotrawstwo dostępnych adresów. Dobrą praktyką jest planowanie podsieci z odpowiednim marginesem, aby uniknąć problemów w przyszłości związanych z rozbudową sieci.

Pytanie 12

Standard IEEE 802.11b dotyczy typu sieci

A. telefonicznych
B. światłowodowych
C. bezprzewodowych
D. przewodowych
Wybór niepoprawnych odpowiedzi, takich jak sieci telefoniczne, przewodowe czy światłowodowe, wynika z nieporozumienia dotyczącego kluczowych różnic między typami sieci. Sieci telefoniczne są tradycyjnie związane z przesyłaniem głosu za pomocą technologii analogowej lub cyfrowej, co nie ma nic wspólnego z bezprzewodową transmisją danych. Z kolei sieci przewodowe opierają się na fizycznych połączeniach kablowych, takich jak Ethernet, który zapewnia stabilne, ale ograniczone w mobilności połączenia. W kontekście standardu IEEE 802.11b, podejście to jest błędne, ponieważ ten standard bazuje na technologii radiowej, co oznacza, że użytkownicy mogą łączyć się z siecią bez przewodów. Podobnie sieci światłowodowe, które wykorzystują światłowody do przesyłania danych na dużych odległościach, również nie mają zastosowania w kontekście bezprzewodowych standardów, takich jak IEEE 802.11b. Często mylenie tych koncepcji wynika z braku zrozumienia fundamentalnych różnic w architekturze sieci. Rozróżnienie pomiędzy różnymi typami sieci jest kluczowe dla projektowania i wdrażania nowoczesnych rozwiązań komunikacyjnych. Niewłaściwe postrzeganie normy IEEE 802.11b może prowadzić do błędnych decyzji w zakresie wyboru odpowiedniej technologii do zastosowań w różnych środowiskach, co w dłuższym czasie może wpływać na efektywność i wydajność organizacji.

Pytanie 13

Który protokół przesyła datagramy bez gwarancji ich dostarczenia?

A. HTTP
B. TCP
C. ICMP
D. UDP
UDP (User Datagram Protocol) to protokół komunikacyjny, który charakteryzuje się brakiem gwarancji dostarczenia przesyłanych datagramów. Oznacza to, że nie zapewnia on mechanizmów kontroli błędów ani retransmisji, co prowadzi do sytuacji, w których datagramy mogą zostać zgubione, zduplikowane lub dotrzeć w niewłaściwej kolejności. Taki model jest szczególnie przydatny w aplikacjach, gdzie szybkość przesyłania danych jest kluczowa, a małe opóźnienia są akceptowalne. Przykładem zastosowania UDP jest transmisja strumieniowa audio i wideo, gdzie utrata kilku pakietów nie wpływa znacząco na jakość odbioru. Inne zastosowania to gry online i protokoły takie jak DNS (Domain Name System), które wymagają szybkiego przesyłania niewielkich ilości danych. Warto pamiętać, że dzięki swojej prostocie i wydajności, UDP jest często wybierany w sytuacjach, gdzie priorytetem jest czas, a nie niezawodność dostarczenia.

Pytanie 14

Który z poniższych adresów należy do klasy B?

A. 10.0.0.1
B. 192.168.0.1
C. 191.168.0.1
D. 224.0.0.1
Adres 191.168.0.1 należy do klasy B, która obejmuje zakres adresów od 128.0.0.0 do 191.255.255.255. Klasa B jest przeznaczona do średniej wielkości sieci, które mogą potrzebować od 256 do 65,534 adresów IP. Przykładowo, organizacje średniej wielkości, takie jak uniwersytety czy duże firmy, często korzystają z adresacji klasy B do zarządzania swoimi zasobami sieciowymi. Adresy klasy B można łatwo podzielić na podsieci przy użyciu maski podsieci, co pozwala na efektywne zarządzanie ruchem i zasobami w sieci. Standardy takie jak CIDR (Classless Inter-Domain Routing) umożliwiają bardziej elastyczne podejście do alokacji adresów IP, co zwiększa wydajność wykorzystania dostępnych adresów. Warto również pamiętać, że adresy klasy B są rozpoznawane przez ich pierwsze bity - w tym przypadku 10 bity, co potwierdza, że 191.168.0.1 to adres klasy B, a jego zastosowanie w nowoczesnych sieciach IT jest zgodne z aktualnymi praktykami branżowymi.

Pytanie 15

Na ilustracji przedstawiono przekrój kabla

Ilustracja do pytania
A. U/UTP
B. koncentrycznego
C. optycznego
D. S/UTP
Kabel koncentryczny charakteryzuje się specyficzną budową, która obejmuje centralny przewodnik wewnętrzny, otoczony izolacją dielektryczną, a następnie przewodnikiem zewnętrznym, który najczęściej jest wykonany z plecionki miedzianej lub folii aluminiowej. Całość zamknięta jest w zewnętrznej osłonie ochronnej. Ta konstrukcja pozwala na efektywne przesyłanie sygnałów o wysokiej częstotliwości z minimalnym tłumieniem i zakłóceniami zewnętrznymi. Kabel koncentryczny jest szeroko stosowany w systemach telewizji kablowej, instalacjach antenowych oraz w sieciach komputerowych do przesyłania sygnałów radiowych i telewizyjnych. Dzięki swojej budowie kabel ten jest odporny na wpływ zakłóceń elektromagnetycznych, co czyni go idealnym rozwiązaniem w sytuacjach, gdzie konieczne jest utrzymanie wysokiej jakości sygnału na długich dystansach. Dodatkowo kable koncentryczne są zgodne ze standardami takimi jak RG-6 i RG-59, co zapewnia ich szerokie zastosowanie w różnych dziedzinach technologii komunikacyjnej.

Pytanie 16

W celu ochrony lokalnej sieci komputerowej przed atakami typu Smurf pochodzącymi z Internetu, należy zainstalować oraz właściwie skonfigurować

A. zaporę ogniową
B. bezpieczną przeglądarkę stron WWW
C. skaner antywirusowy
D. oprogramowanie antyspamowe
Zainstalowanie i odpowiednia konfiguracja zapory ogniowej są kluczowe w zabezpieczaniu lokalnej sieci komputerowej przed atakami typu Smurf, które są formą ataku DDoS. Atak Smurf wykorzystuje protokół ICMP (Internet Control Message Protocol) do wysyłania dużych ilości ruchu do ofiary, co prowadzi do przeciążenia jej zasobów. Zapora ogniowa może skutecznie blokować takie ruchy, poprzez filtrowanie pakietów ICMP i kontrolowanie, które połączenia są dozwolone. Dobrym przykładem jest skonfigurowanie zapory w taki sposób, aby odrzucała wszystkie nieautoryzowane zapytania ICMP lub ograniczała odpowiedzi na zapytania ICMP do minimum. Warto również stosować zapory aplikacyjne, które mogą analizować ruch na poziomie aplikacji, co zwiększa bezpieczeństwo. Dobrą praktyką jest również regularne aktualizowanie reguł zapory oraz monitorowanie logów w celu identyfikacji potencjalnych zagrożeń. Stosowanie zapory ogniowej wpisuje się w standardy branżowe, takie jak NIST Cybersecurity Framework, które zalecają ochronę zasobów poprzez kontrolowanie dostępu do sieci.

Pytanie 17

Po wykonaniu podanego polecenia w systemie Windows:

net accounts /MINPWLEN:11
liczba 11 zostanie przydzielona dla:
A. minimalnej liczby znaków w hasłach użytkowników.
B. maksymalnej liczby dni pomiędzy zmianami haseł użytkowników.
C. minimalnej liczby minut, przez które użytkownik może być zalogowany.
D. maksymalnej liczby dni ważności konta.
Wartość 11 ustawiona przez komendę 'net accounts /MINPWLEN:11' odnosi się do minimalnej liczby znaków, które muszą być zawarte w hasłach użytkowników systemu Windows. Praktyka ustalania minimalnej długości haseł jest kluczowym elementem polityki bezpieczeństwa, mającym na celu ochronę kont użytkowników przed atakami typu brute force, w których hakerzy próbują odgadnąć hasła przez generowanie różnych kombinacji. Zgodnie z najlepszymi praktykami w zakresie bezpieczeństwa, zaleca się, aby hasła miały co najmniej 12 znaków, co dodatkowo zwiększa ich odporność na przełamanie. Ustawienie minimalnej długości hasła na 11 znaków jest krokiem w kierunku zapewnienia użytkownikom większego poziomu bezpieczeństwa. Warto pamiętać, że im dłuższe i bardziej złożone hasło, tym trudniej je złamać, dlatego organizacje powinny regularnie aktualizować polityki haseł oraz edukować użytkowników na temat znaczenia silnych haseł oraz stosowania menedżerów haseł.

Pytanie 18

Administrator sieci LAN dostrzegł przełączenie w tryb awaryjny urządzenia UPS. To oznacza, że wystąpiła awaria systemu

A. urządzeń aktywnych
B. chłodzenia i wentylacji
C. okablowania
D. zasilania
Wybór odpowiedzi dotyczącej okablowania czy chłodzenia jako przyczyny przejścia UPS w tryb awaryjny jest nietrafiony i chyba wynika z pomyłki co do tego, jak działają systemy zasilania. Okablowanie, chociaż ważne dla infrastruktury, nie powoduje bezpośrednio przejścia w tryb awaryjny. Jasne, że problemy z kablami mogą wpływać na dane, ale nie mają za dużo wspólnego z zasilaniem, które jest kluczowe dla UPS-a. Urządzenia aktywne, jak routery czy przełączniki, współpracują z UPS-em, ale nie są odpowiedzialne za przerwy w zasilaniu. Chłodzenie i wentylacja są też ważne, by sprzęt nie przegrzewał się, ale nie wpływają na to, co dzieje się z zasilaniem. Często ludzie mylą problemy techniczne z sygnałami, które w rzeczywistości wynikają z problemów z energią. Ważne, żeby administratorzy wiedzieli, że jak UPS przechodzi w tryb awaryjny, to najpierw powinni sprawdzić jakość zasilania i przyczyny awarii, żeby uniknąć długich przerw w działaniu.

Pytanie 19

Jakie właściwości topologii fizycznej sieci zostały przedstawione w poniższej ramce?

  • Jedna transmisja w danym momencie
  • Wszystkie urządzenia podłączone do sieci nasłuchują podczas transmisji i odbierają jedynie pakiety zaadresowane do nich
  • Trudno zlokalizować uszkodzenie kabla – sieć może przestać działać po uszkodzeniu kabla głównego w dowolnym punkcie
A. Magistrali
B. Rozgłaszania
C. Siatki
D. Gwiazdowej
Odpowiedź 'Magistrali' jest prawidłowa, ponieważ w tej topologii fizycznej wszystkie urządzenia są podłączone do jednego przewodu, co oznacza, że podczas transmisji danych tylko jedna transmisja może odbywać się w danym momencie. W tej konfiguracji każde urządzenie nasłuchuje transmisji na kablu, ale odbiera tylko te dane, które są zaadresowane do niego. Kluczowym aspektem topologii magistrali jest także to, że w przypadku uszkodzenia głównego kabla sieć przestaje działać, co może stanowić znaczący problem w kontekście niezawodności. W praktyce, topologia magistrali była powszechnie używana w mniejszych sieciach lokalnych, zwłaszcza w warunkach, gdzie koszty instalacji miały kluczowe znaczenie. Ponadto, standardy takie jak Ethernet w wersji 10BASE2 lub 10BASE5 wykorzystywały topologię magistrali w swoich implementacjach, co potwierdza jej znaczenie w historii technologii sieciowych.

Pytanie 20

Aby wydobyć informacje znajdujące się w archiwum o nazwie dane.tar, osoba korzystająca z systemu Linux powinna zastosować komendę

A. gunzip –r dane.tar
B. tar –cvf dane.tar
C. tar –xvf dane.tar
D. gzip –r dane.tar
Wybór innych opcji może wydawać się zrozumiały, jednak każda z nich zawiera istotne błędy w kontekście operacji na archiwach. Polecenie 'gzip –r dane.tar' nie jest właściwe, ponieważ 'gzip' jest narzędziem do kompresji plików, a nie do rozpakowywania archiwów tar. Dodatkowo, flaga '-r' nie odnosi się do kompresji archiwum tar, a raczej do rekurencyjnego przetwarzania katalogów, co w przypadku archiwum tar nie ma zastosowania. Z kolei 'tar –cvf dane.tar' jest komendą do tworzenia archiwum, gdzie '-c' oznacza 'create' (utworzenie), co również nie jest zgodne z wymogiem wydobywania plików. Niepoprawne jest zatem stosowanie polecenia do archiwizowania, gdy celem jest ich wydobycie. Ostatecznie, 'gunzip –r dane.tar' również nie ma sensu, ponieważ 'gunzip' to narzędzie do dekompresji plików skompresowanych za pomocą 'gzip'. W tym kontekście, użycie '-r' w komendzie 'gunzip' jest nieodpowiednie, gdyż nie można dekompresować archiwum tar, które nie zostało wcześniej skompresowane za pomocą gzip. Warto pamiętać, że operacje na archiwach wymagają precyzyjnego zrozumienia stosowanej terminologii oraz funkcji poszczególnych poleceń, co jest kluczowe w administrowaniu systemami Linux.

Pytanie 21

Jaką normę wykorzystuje się przy okablowaniu strukturalnym w komputerowych sieciach?

A. PN-EN ISO 9001:2009
B. TIA/EIA-568-B
C. ISO/IEC 8859-2
D. PN-EN 12464-1:2004
Wybór normy PN-EN 12464-1:2004 jako podstawy do okablowania strukturalnego w sieciach komputerowych jest nieadekwatny, ponieważ ta norma dotyczy oświetlenia wnętrz i nie ma żadnego zastosowania w kontekście instalacji sieciowych. Wiele osób może mylnie sądzić, że normy związane z oświetleniem mogą mieć zastosowanie w kontekście okablowania, co prowadzi do błędnych wniosków. Również odwołanie się do normy ISO/IEC 8859-2, która dotyczy kodowania znaków, jest błędne, ponieważ nie ma ona nic wspólnego z aspektami fizycznego okablowania czy strukturą sieci. To może wynikać z niewłaściwego zrozumienia, że wszystkie normy ISO/IEC są powiązane z sieciami komputerowymi, co jest nieprawdziwą generalizacją. W kontekście standardów jakości, PN-EN ISO 9001:2009 odnosi się do systemów zarządzania jakością, a nie do specyfikacji technicznych dla infrastruktury sieciowej. Użytkownicy mogą często mylić różne normy, co skutkuje nieprawidłowym doborem standardów do projektów technologicznych. Aby skutecznie projektować i instalować sieci komputerowe, niezbędne jest zrozumienie specyfiki norm, takich jak TIA/EIA-568-B, które są dostosowane do wymogów telekomunikacyjnych, a nie normy, które dotyczą innych dziedzin, takich jak oświetlenie czy zarządzanie jakością.

Pytanie 22

Jakie urządzenie diagnostyczne zostało zaprezentowane na ilustracji oraz opisane w specyfikacji zawartej w tabeli?

Ilustracja do pytania
A. Analizator sieci bezprzewodowych
B. Multimetr cyfrowy
C. Diodowy tester okablowania
D. Reflektometr optyczny
Analizator sieci bezprzewodowych to zaawansowane urządzenie diagnostyczne używane do zarządzania i monitorowania sieci WLAN. Urządzenie to pozwala na przeprowadzanie testów zgodności ze standardami 802.11 a/b/g/n, co jest niezbędne dla zapewnienia efektywnego i bezpiecznego działania sieci bezprzewodowych. Analizatory tego typu umożliwiają diagnozowanie problemów z połączeniami, ocenę bezpieczeństwa sieciowego, a także optymalizację wydajności. Praktyczne zastosowanie obejmuje zarządzanie sieciami w dużych przedsiębiorstwach, centrach danych, a także w środowiskach produkcyjnych, gdzie stabilność i bezpieczeństwo połączeń są kluczowe. Urządzenia te często zawierają funkcje raportowania, co ułatwia analizę i podejmowanie decyzji dotyczących rozwiązywania problemów. Wiedza na temat użycia analizatorów jest istotna dla specjalistów IT, ponieważ pozwala na skuteczne zarządzanie zasobami sieciowymi oraz minimalizację ryzyka związanego z nieautoryzowanym dostępem czy zakłóceniami. Właściwe stosowanie analizatorów jest zgodne z najlepszymi praktykami w branży technologii informacyjnej i jest niezbędne dla utrzymania wysokiej jakości usług sieciowych.

Pytanie 23

Komenda msconfig uruchamia w systemie Windows:

A. panel sterowania
B. narzędzie konfiguracji systemu
C. menedżera plików
D. menedżera zadań
Nieprawidłowe odpowiedzi sugerują nieporozumienia dotyczące funkcji i zastosowań różnych narzędzi w systemie Windows. Menedżer plików to aplikacja służąca do przeglądania, organizowania oraz zarządzania plikami na dysku, a nie do konfigurowania systemu. Użytkownicy mogą mylić ją z innymi narzędziami, co często prowadzi do błędnych wniosków. Panel sterowania natomiast to centralne miejsce zarządzania ustawieniami systemu, lecz nie posiada funkcjonalności dotyczącej uruchamiania systemu i zarządzania procesami startowymi. Również menedżer zadań nie jest narzędziem do konfiguracji systemu, lecz do monitorowania aktywnych procesów oraz ich wydajności, umożliwiając zamykanie aplikacji, które nie odpowiadają. Typowym błędem myślowym jest zakładanie, że każde narzędzie w systemie Windows ma podobną funkcjonalność, co prowadzi do zamieszania. Kluczowe jest, aby użytkownicy zrozumieli, że każde z tych narzędzi ma swoje specyficzne zadania, a korzystanie z nich w odpowiednich kontekstach jest niezbędne dla prawidłowego zarządzania systemem. Zrozumienie różnic między tymi narzędziami pozwala na bardziej efektywne wykorzystanie zasobów systemowych oraz na szybsze rozwiązywanie problemów.

Pytanie 24

Schemat blokowy ilustruje

Ilustracja do pytania
A. dysk twardy
B. napęd DVD-ROM
C. napęd dyskietek
D. streamer
Widać, że dobrze rozumiesz, o co chodzi z dyskiem twardym! Schemat blokowy pokazuje, jak to urządzenie jest zbudowane. Dysk twardy to taki spory nośnik, który trzyma nasze dane na obracających się talerzach pokrytych materiałem magnetycznym. Te talerze kręcą się naprawdę szybko, czasem nawet 7200 obrotów na minutę, co sprawia, że dostęp do informacji jest błyskawiczny. Głowice, które zapisują i odczytują dane, unoszą się nad talerzami dzięki specjalnej poduszce powietrznej. Mechanizm, który to wszystko kieruje, pomaga głowicom znaleźć odpowiednie ścieżki do zapisu i odczytu danych. Co ciekawe, dyski twarde są świetne do komputerów osobistych i serwerów, ponieważ mają dużą pojemność i są stosunkowo tanie w przeliczeniu na gigabajty. Dzięki protokołom jak SATA czy SAS, wszystko działa sprawnie i zgodnie z tym, co się powinno w branży IT.

Pytanie 25

Jakie są przyczyny wyświetlenia na ekranie komputera komunikatu o wykryciu konfliktu adresów IP?

A. Usługa DHCP w sieci lokalnej jest nieaktywna
B. Adres IP komputera znajduje się poza zakresem adresów w sieci lokalnej
C. W konfiguracji protokołu TCP/IP ustawiony jest nieprawidłowy adres bramy domyślnej
D. Inne urządzenie w sieci posiada ten sam adres IP co komputer
Prawidłowa odpowiedź wskazuje, że konflikt adresów IP wynika z nadania temu samemu adresowi IP więcej niż jednemu urządzeniu w sieci lokalnej. Każde urządzenie w sieci musi mieć unikalny adres IP, aby mogło komunikować się z innymi. W sytuacji, gdy dwa urządzenia mają ten sam adres, sieć nie jest w stanie poprawnie zidentyfikować, do którego z nich wysłać dane, co prowadzi do konfliktu. Aby rozwiązać ten problem, można zastosować dynamiczne przydzielanie adresów IP przez serwer DHCP, który automatycznie nadzoruje unikalność adresów w sieci. Dobrą praktyką jest również regularne monitorowanie i aktualizacja konfiguracji sieci, aby zapobiegać błądzeniu w przydzielaniu adresów. W przypadku sprzętu działającego w sieci lokalnej, użytkownicy powinni upewnić się, że przydzielone adresy IP nie kolidują z adresami przypisanymi przez DHCP, a także mogą używać narzędzi do skanowania sieci, aby zweryfikować przydzielone adresy IP.

Pytanie 26

W standardzie Ethernet 100Base-TX do przesyłania danych używane są żyły kabla UTP przypisane do pinów

A. 4,5,6,7
B. 1,2,5,6
C. 1,2,3,6
D. 1,2,3,4
Wybór odpowiedzi, która nie obejmuje pinów 1, 2, 3 i 6, jest błędny z kilku powodów. Po pierwsze, w kablu UTP wykorzystywanym w standardzie 100Base-TX, tylko te konkretne piny są przypisane do przesyłania i odbierania danych. Piny 4 i 5, które pojawiają się w niektórych odpowiedziach, są przeznaczone do innych zastosowań, takich jak pomocnicze zasilanie w standardzie PoE (Power over Ethernet) lub nie są używane w 100Base-TX, co prowadzi do nieporozumień. W kontekście sieci Ethernet, ważne jest posiadanie dokładnej wiedzy na temat tego, jak są skonstruowane różne standardy i jakie mają zastosowania. Wybór niewłaściwych pinów może skutkować nieprawidłową komunikacją i obniżoną wydajnością sieci. Ponadto, stosowanie błędnych żył może prowadzić do zakłóceń sygnału, co w praktyce przekłada się na problemy z transmisją danych, takie jak opóźnienia, utrata pakietów czy całkowita utrata połączenia. Wiedza na temat standardów Ethernet, takich jak 100Base-TX, jest kluczowa dla każdego profesjonalisty zajmującego się ustawianiem lub zarządzaniem sieciami komputerowymi. Prawidłowe podłączenia żył w kablu Ethernet wpływają nie tylko na jego funkcjonalność, ale również na stabilność i jakość całego systemu sieciowego.

Pytanie 27

W komputerowych stacjach roboczych zainstalowane są karty sieciowe Ethernet 10/100/1000 z interfejsem RJ45. Jakie medium transmisyjne powinno być zastosowane do budowy sieci komputerowej, aby osiągnąć maksymalną przepustowość?

A. Kabel UTP kategorii 5
B. Kabel UTP kategorii 5e
C. Światłowód wielomodowy
D. Światłowód jednomodowy
Wybór kabla UTP kategorii 5, choć może wydawać się logiczny, jest niewłaściwy w kontekście wymaganej przepustowości. Kabel ten, zgodny z normą TIA/EIA-568, obsługuje maksymalną prędkość do 100 Mbps, co jest niewystarczające dla nowoczesnych aplikacji wymagających transferów rzędu 1 Gbit/s. Ponadto, kable UTP kategorii 5 nie są w stanie w pełni wykorzystać możliwości kart sieciowych 10/100/1000, co prowadzi do znacznych ograniczeń w wydajności sieci. Z kolei zastosowanie światłowodu wielomodowego lub jednomodowego, mimo że teoretycznie wydaje się być lepszym rozwiązaniem, niesie ze sobą wyzwania związane z kosztami instalacji oraz skomplikowaną konfiguracją. Światłowody oferują niezwykle wysokie prędkości i zasięg, ale ich użycie w standardowych biurach, gdzie obsługuje się urządzenia z kartami Ethernet 10/100/1000, może być przesadą. Zatem, wybór światłowodu bez wyraźnie uzasadnionych potrzeb infrastrukturalnych często prowadzi do nieefektywności i zwiększonych kosztów. Zrozumienie technologii kablowych i ich ograniczeń jest kluczowe w projektowaniu efektywnych sieci lokalnych.

Pytanie 28

Jakie polecenie umożliwia uzyskanie danych dotyczących bieżących połączeń TCP oraz informacji o portach źródłowych i docelowych?

A. netstat
B. ipconfig
C. ping
D. lookup
Polecenie 'netstat' jest kluczowym narzędziem w diagnostyce sieci komputerowych, pozwalającym administratorom na uzyskanie szczegółowych informacji o aktualnych połączeniach TCP, a także o źródłowych i docelowych portach. Umożliwia ono monitorowanie aktywnych połączeń sieciowych, co jest niezbędne do analizy wydajności sieci i identyfikacji potencjalnych zagrożeń. Przykładowo, polecenie 'netstat -an' wyświetla wszystkie aktywne połączenia TCP oraz UDP, pokazując ich status, co pozwala na szybką diagnozę problemów związanych z łącznością. Zgodnie z najlepszymi praktykami, administratorzy systemów powinni regularnie korzystać z 'netstat' w celu audytu i monitorowania bezpieczeństwa sieci. Dodatkowo, narzędzie to dostarcza informacji, które mogą być użyteczne w kontekście analizy ruchu sieciowego oraz w identyfikacji nieautoryzowanych połączeń, co jest kluczowe w utrzymaniu bezpieczeństwa infrastruktury IT.

Pytanie 29

Do czego służy oprogramowanie Microsoft Hyper-V?

A. wirtualizacji komputerów fizycznych
B. lokalizacji zasobów w sieci
C. identyfikacji komputerów w sieci
D. zdalnego łączenia z innymi hostami
Oprogramowanie Microsoft Hyper-V służy przede wszystkim do wirtualizacji fizycznych komputerów, co oznacza, że umożliwia uruchamianie wielu wirtualnych maszyn na jednym fizycznym serwerze. Dzięki Hyper-V można tworzyć, zarządzać i izolować różne środowiska wirtualne, co znacznie zwiększa efektywność wykorzystania zasobów sprzętowych. Przykładem zastosowania Hyper-V może być firma, która potrzebuje testować różne aplikacje na różnych systemach operacyjnych. Dzięki wirtualizacji, można zainstalować wiele systemów operacyjnych na jednej maszynie fizycznej, co zmniejsza koszty zakupu sprzętu oraz uproszcza zarządzanie infrastrukturą IT. Ponadto, Hyper-V wspiera standardy takie jak Virtual Machine Monitoring (VMM) oraz oferuje funkcje, takie jak żywe migracje maszyn wirtualnych, co pozwala na przenoszenie maszyn bez przerywania ich pracy. To oprogramowanie jest zgodne z najlepszymi praktykami branżowymi, takimi jak wykorzystanie wirtualizacji do zwiększenia elastyczności i dostępności zasobów IT.

Pytanie 30

Jakie oznaczenie powinien mieć komputer, aby mógł zostać sprzedany na terenie Polski, zgodnie z Dyrektywami Rady Europy?

Ilustracja do pytania
A. D
B. A
C. C
D. B
Oznaczenie CE jest wymagane dla produktów, które mają być wprowadzone na rynek Unii Europejskiej w tym Polski. Zgodnie z dyrektywami Rady Europy oznaczenie CE potwierdza że produkt spełnia wszystkie odpowiednie wymagania związane z bezpieczeństwem zdrowiem i ochroną środowiska określone w dyrektywach UE. Jest to istotne dla producentów ponieważ umożliwia swobodny przepływ towarów na rynku wewnętrznym UE. Praktycznie oznacza to że produkt taki jak komputer został zaprojektowany i wyprodukowany zgodnie z wymaganiami dyrektyw unijnych i przeszedł odpowiednie testy zgodności. Oznaczenie to jest niezbędne dla wielu kategorii produktów w tym urządzeń elektrycznych i elektronicznych maszyn sprzętu medycznego i wielu innych kategorii. Praktycznym aspektem jest fakt że konsumenci mają większą pewność co do jakości i bezpieczeństwa produktu. Wprowadzenie oznaczenia CE wymaga od producenta opracowania dokumentacji technicznej i przeprowadzenia oceny zgodności co jest kluczowym elementem procesu wprowadzania produktu na rynek.

Pytanie 31

Jaki protokół służy komputerom do informowania rutera o przynależności do konkretnej grupy multicastowej?

A. OSPF
B. IGMP
C. RIP
D. UDP
IGMP, czyli Internet Group Management Protocol, jest protokołem używanym przez hosty do raportowania swoich członkostw w grupach rozgłoszeniowych do routerów multicastowych. Jego rola jest kluczowa w efektywnym zarządzaniu ruchem multicastowym w sieciach IP. Przykładowo, w przypadku transmisji wideo na żywo do dużej liczby użytkowników, IGMP umożliwia hostom informowanie routerów, które grupy multicastowe są interesujące dla nich, co pozwala na optymalizację wykorzystania pasma. W praktyce, IGMP jest często stosowany w środowiskach IPTV oraz w aplikacjach wymagających efektywnego przesyłania danych do wielu odbiorców jednocześnie. IGMP działa na poziomie warstwy sieciowej modelu OSI, co oznacza, że stanowi integralną część infrastruktury sieciowej. Poprawna obsługa IGMP w routerach jest zgodna z normami IETF, co zapewnia interoperacyjność między różnymi producentami sprzętu sieciowego.

Pytanie 32

Jaką maksymalną liczbę hostów można przypisać w lokalnej sieci, dysponując jedną klasą C adresów IPv4?

A. 255
B. 512
C. 510
D. 254
Maksymalna liczba hostów, które można zaadresować w sieci lokalnej przy użyciu jednego bloku klas C adresów IPv4, wynosi 254. Adresy klasy C mają maskę podsieci 255.255.255.0, co daje możliwość zaadresowania 256 adresów IP. Jednakże, dwa z nich są zarezerwowane: jeden dla adresu sieci (w tym przypadku 192.168.1.0) oraz jeden dla adresu rozgłoszeniowego (w tym przypadku 192.168.1.255). W związku z tym, z 256 adresów, możemy użyć 254 do przydzielenia hostom. W praktyce, w lokalnych sieciach komputerowych, takie podejście jest powszechnie stosowane, zwłaszcza w małych sieciach domowych lub biurowych, gdzie nie jest potrzebna większa liczba urządzeń. Znajomość tych zasad jest istotna w projektowaniu oraz zarządzaniu sieciami, zapewniając skuteczność i wydajność przydzielania zasobów IP w danej infrastrukturze.

Pytanie 33

Na którym schemacie znajduje się panel krosowniczy?

Ilustracja do pytania
A. Opcja C
B. Opcja A
C. Opcja B
D. Opcja D
Panel krosowniczy, znany również jako patch panel, to kluczowy element infrastruktury sieciowej stosowany w centrach danych i serwerowniach. Na rysunku B przedstawiona jest urządzenie, które umożliwia organizację kabli sieciowych przez połączenie wielu przewodów w jednym miejscu. Panel ten zawiera rzędy gniazd, do których podłącza się kable, co umożliwia łatwe zarządzanie i rekonfigurację połączeń sieciowych. W praktyce panele krosownicze ułatwiają utrzymanie porządku w okablowaniu oraz szybkie identyfikowanie i rozwiązywanie problemów z połączeniami. Standardy branżowe, takie jak TIA/EIA-568, definiują specyfikacje dla tych urządzeń, zapewniając kompatybilność i efektywność pracy. Panele te są niezwykle ważne w utrzymaniu elastyczności infrastruktury sieciowej i minimalizacji czasu przestoju dzięki możliwości szybkiej rekonfiguracji połączeń. Dobre praktyki obejmują oznaczanie kabli i użycie odpowiednich narzędzi do zaciskania kabli, co zwiększa niezawodność systemu.

Pytanie 34

Administrator pragnie udostępnić w sieci folder C:instrukcje trzem użytkownikom z grupy Serwisanci. Jakie rozwiązanie powinien wybrać?

A. Udostępnić grupie Wszyscy dysk C: i ograniczyć liczbę równoczesnych połączeń do 3
B. Udostępnić grupie Wszyscy folder C:instrukcje i ograniczyć liczbę równoczesnych połączeń do 3
C. Udostępnić grupie Serwisanci folder C:instrukcje i nie ograniczać liczby równoczesnych połączeń
D. Udostępnić grupie Serwisanci dysk C: i nie ograniczać liczby równoczesnych połączeń
Niepoprawne odpowiedzi, takie jak udostępnienie grupie Wszyscy dysk C: oraz ograniczenie liczby równoczesnych połączeń, mogą prowadzić do poważnych zagrożeń związanych z bezpieczeństwem oraz zarządzaniem danymi. Udostępnienie całego dysku C: użytkownikom małej grupy może stworzyć ryzyko przypadkowego lub celowego dostępu do nieautoryzowanych danych, co jest sprzeczne z zasadami ochrony danych osobowych i dobrych praktyk w zakresie bezpieczeństwa. W praktyce, taka decyzja narusza zasadę najmniejszych uprawnień, gdzie użytkownicy powinni mieć dostęp tylko do tych zasobów, które są im niezbędne do wykonywania swoich zadań. Ograniczenie liczby równoczesnych połączeń, o ile może wydawać się sensowne w niektórych kontekstach, w sytuacji, gdy nie jest to konieczne, wprowadza niepotrzebne zamieszanie i może ograniczać współpracę zespołu. Również udostępnienie folderu C:instrukcje grupie Wszyscy bez odpowiednich ograniczeń uprawnień może prowadzić do incydentów bezpieczeństwa, takich jak nieautoryzowana modyfikacja lub usunięcie danych. Warto pamiętać, że w zarządzaniu dostępem kluczowe jest nie tylko to, kto ma dostęp, ale także to, do jakich zasobów mają oni ten dostęp – dlatego właściwe przypisanie ról i odpowiednich uprawnień jest kluczowe dla bezpieczeństwa i integralności systemu.

Pytanie 35

Jak brzmi nazwa klucza rejestru w systemie Windows, w którym zapisane są relacje między typami plików a aplikacjami, które je obsługują?

A. HKEY_CLASSES_ROOT
B. HKEY_CURRENT_PROGS
C. HKEY_USERS
D. HKEY_LOCAL_RELATIONS
HKEY_USERS to klucz rejestru, który przechowuje informacje dotyczące wszystkich użytkowników systemu Windows, ale nie jest on bezpośrednio związany z powiązaniami typów plików. Odpowiedź sugerująca ten klucz może wynikać z nieporozumienia dotyczącego funkcji rejestru. Klucz HKEY_CURRENT_PROGS nie istnieje w standardowej architekturze rejestru systemu Windows, co czyni tę odpowiedź błędną. Niekiedy użytkownicy mogą mylić HKEY_CURRENT_USER z HKEY_CLASSES_ROOT, ale ten pierwszy dotyczy ustawień i preferencji bieżącego użytkownika, a nie powiązań typów plików. Z kolei HKEY_LOCAL_RELATIONS również nie jest uznawanym kluczem w systemie Windows, co może prowadzić do zamieszania. Takie myślenie może wynikać z braku zrozumienia struktury rejestru Windows, gdzie każdy klucz ma swoją określoną rolę. Klucz HKEY_CLASSES_ROOT stanowi centralny punkt dla powiązań typów plików, co jest kluczowe dla działania aplikacji i interakcji systemu z użytkownikiem. Ignorowanie tego faktu może prowadzić do problemów z otwieraniem plików oraz ich obsługą przez oprogramowanie. Właściwe zrozumienie struktury rejestru jest niezbędne dla administratorów systemów oraz dla osób zajmujących się konfiguracją systemu operacyjnego.

Pytanie 36

Martwy piksel, który jest defektem w monitorach LCD, to punkt, który ciągle ma ten sam kolor

A. fioletowym
B. czarnym
C. żółtym
D. szarym
Martwy piksel to problem, który występuje w monitorach LCD, polegający na tym, że pojedynczy piksel pozostaje w stanie 'martwym', czyli niezmiennie wyświetla kolor czarny. Z definicji martwy piksel to piksel, który nie reaguje na sygnały z karty graficznej, co skutkuje jego stałym brakiem emisji światła. W praktyce martwy piksel jest widoczny jako mały czarny punkt na ekranie, co może być bardzo irytujące, zwłaszcza w przypadku monitorów o wysokiej rozdzielczości. W branży stosuje się różne metody diagnostyki i naprawy takich usterek, w tym testy wizualne i narzędzia do identyfikacji problematycznych pikseli. Warto zaznaczyć, że martwe piksele mogą różnić się od tzw. 'zapalonych' pikseli, które cały czas świecą w jednym, konkretnym kolorze. W standardach jakości monitorów LCD, takich jak ISO 9241-302, określono, że akceptowalne są pewne limity wad pikseli, co jest istotne dla producentów przy ocenie jakości ich produktów. Dlatego rozumienie problematyki martwych pikseli jest kluczowe zarówno dla użytkowników, jak i producentów sprzętu elektronicznego.

Pytanie 37

Jakiego rodzaju adresację stosuje protokół IPv6?

A. 128-bitową
B. 256-bitową
C. 64-bitową
D. 32-bitową
Adresacja 32-bitowa jest charakterystyczna dla protokołu IPv4, który był stosowany od początków Internetu. Jednak z powodu ograniczonej liczby dostępnych adresów IP, IPv4 nie jest w stanie sprostać rosnącej liczbie podłączonych do sieci urządzeń. Właśnie dlatego powstał IPv6. Z kolei 64-bitowa adresacja nie jest standardem stosowanym w żadnym popularnym protokole IP. Można ją spotkać w innych kontekstach, np. w adresacji MAC dla niektórych urządzeń, ale nie dotyczy to bezpośrednio IPv6. Adresacja 256-bitowa także nie jest stosowana w protokołach internetowych. Mogłaby teoretycznie zapewnić jeszcze większą przestrzeń adresową niż IPv6, ale obecnie nie ma potrzeby tworzenia tak dużej przestrzeni adresowej, a dodatkowe komplikacje techniczne i koszty wdrożenia byłyby nieuzasadnione. Te błędne odpowiedzi mogą wynikać z niewystarczającej wiedzy na temat protokołów sieciowych lub mylących informacji pojawiających się w różnych źródłach. W rzeczywistości, zrozumienie i prawidłowe zastosowanie 128-bitowej adresacji w IPv6 jest kluczowe dla nowoczesnych sieci komputerowych i administracji nimi.

Pytanie 38

Płyta główna wyposażona w gniazdo G2 będzie współpracowała z procesorem

A. Intel Core i7
B. AMD Opteron
C. Intel Pentium 4 EE
D. AMD Trinity
Gniazdo G2, znane też jako Socket rPGA988B, jest stosowane głównie w mobilnych procesorach Intela, szczególnie tych z rodziny Core i3, i5 oraz i7 drugiej generacji, czyli tzw. Sandy Bridge i trochę też Ivy Bridge. To gniazdo pojawiało się głównie w laptopach i stacjach roboczych mobilnych, więc jak ktoś składał laptopa na części lub wymieniał CPU w notebooku, to kwestia kompatybilności z G2 była kluczowa. Moim zdaniem warto pamiętać, że chociaż Intel czasami mieszał w oznaczeniach, to G2 nigdy nie był stosowany ani przy procesorach AMD, ani przy starszych desktopowych Pentiumach. Zresztą, jak popatrzymy na dokumentację Intela czy serwisy jak CPU-World, to wyraźnie widać, że G2 łączy się głównie z mobilnymi i7 oraz ich odpowiednikami. Praktycznym przykładem jest laptop Dell Precision M4600 – tam właśnie siedzi i7 na gnieździe G2. Z mojego doświadczenia, jeśli ktoś chce ulepszać laptopa biznesowego z 2011 czy 2012 roku, często właśnie szuka i7 pod G2, żeby zyskać więcej mocy do pracy z aplikacjami CAD czy Photoshopem. Warto dodać, że dobór właściwego gniazda to podstawa przy planowaniu modernizacji sprzętu – błędny wybór skutkuje brakiem kompatybilności i niepotrzebnym wydatkiem. To także dobry przykład, czemu dobrze znać podstawowe standardy i oznaczenia w świecie hardware’u.

Pytanie 39

Jak nazywa się protokół warstwy transportowej modelu TCP/IP, który nie gwarantuje dostarczenia danych?

A. SPX
B. FTP
C. DNS
D. UDP
Poprawna odpowiedź w tym pytaniu to UDP, a nie SPX. W modelu TCP/IP tylko dwa główne protokoły działają w warstwie transportowej: TCP (Transmission Control Protocol) oraz UDP (User Datagram Protocol). Z tej dwójki właśnie UDP jest protokołem, który nie gwarantuje dostarczenia danych, nie zapewnia też kontroli kolejności ani ponownych transmisji. Mówi się, że UDP jest protokołem bezpołączeniowym i „best effort” – wysyła datagramy i nie sprawdza, czy dotarły. To jest świadomy wybór projektowy, opisany w dokumentach RFC (np. RFC 768). Dzięki temu UDP ma bardzo mały narzut, jest szybki i idealny tam, gdzie ważniejsza jest szybkość niż pełna niezawodność. W praktyce UDP stosuje się np. w transmisji strumieni audio/wideo (VoIP, streaming), w grach sieciowych czasu rzeczywistego, w DNS (zapytania zwykle lecą po UDP), w protokołach jak DHCP czy TFTP. Jeżeli jeden pakiet z pozycją gracza w grze online zginie, to zaraz przyjdzie następny – nie ma sensu go retransmitować. Z mojego doświadczenia w sieciach warto zapamiętać prostą zasadę: kiedy aplikacja sama ogarnia logikę błędów i może tolerować utratę części danych, często wybiera UDP. Gdy natomiast liczy się stuprocentowa poprawność i kolejność (np. HTTP, SMTP, FTP – choć same nie są „transportowe”), pod spodem zawsze pracuje TCP. Dlatego, patrząc na warstwę transportową w ujęciu TCP/IP, jedyną prawidłową odpowiedzią na to pytanie jest UDP jako protokół niegwarantujący dostarczenia danych.

Pytanie 40

Co jest efektem polecenia ipconfig /release?

A. Odnowienie wszystkich dzierżaw adresu IP uzyskanych z serwera DHCP.
B. Zwolnienie wszystkich dzierżaw adresu IP uzyskanych z serwera DHCP.
C. Wyświetlenie pełnej informacji o konfiguracji karty sieciowej komputera.
D. Odświeżenie dzierżawy DHCP i ponowne zarejestrowanie nazwy.
Polecenie ipconfig w systemie Windows ma kilka różnych przełączników, które łatwo ze sobą pomylić, szczególnie kiedy dopiero zaczyna się przygodę z administracją sieciami. W tym pytaniu kluczowe jest zrozumienie różnicy między odświeżeniem, odnowieniem i zwolnieniem dzierżawy DHCP oraz zwykłym wyświetleniem konfiguracji. Częsty błąd polega na myleniu ipconfig /release z opcją, która „odświeża” lub „odnawia” dzierżawę. Za odnowienie odpowiada polecenie ipconfig /renew – to ono wysyła do serwera DHCP prośbę o przydzielenie (lub przedłużenie) adresu IP. Natomiast /release robi dokładnie odwrotną rzecz: klient rezygnuje z aktualnego adresu IP z DHCP, co skutkuje jego zwolnieniem. Dlatego odpowiedzi sugerujące odnowienie lub odświeżenie dzierżawy nie trafiają w sedno działania tego przełącznika. Pojawia się też czasem przekonanie, że każde polecenie ipconfig „coś wyświetla”, więc musi chodzić o pokazanie pełnej konfiguracji karty sieciowej. To akurat robi samo ipconfig (bez przełączników) lub ipconfig /all, które pokazuje szczegółowe informacje: adresy IP, maskę, bramę, serwery DNS, MAC, status DHCP itp. /release również może coś wypisać w konsoli, ale jego główna funkcja jest konfiguracyjna, a nie informacyjna. Inny typowy skrót myślowy to utożsamianie słowa „odświeżenie” z dowolną operacją na DHCP. W praktyce w środowiskach zgodnych z dobrymi praktykami sieciowymi używa się precyzyjnych terminów: „release” (zwolnienie dzierżawy) i „renew” (odnowienie dzierżawy). Jeśli administrator chce, żeby klient otrzymał nowy adres lub zaktualizował konfigurację po zmianach na serwerze, uruchamia /renew, czasem poprzedzone /release. W diagnostyce i serwisie sprzętu sieciowego ważne jest dokładne rozróżnianie tych operacji, bo inaczej trudno zrozumieć, dlaczego host nagle traci adres IP albo dlaczego nie pobiera nowych ustawień. Dlatego przy takich pytaniach warto zawsze odnieść się do logiki protokołu DHCP i tego, co faktycznie robi klient w danym stanie.