Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 9 maja 2026 12:58
  • Data zakończenia: 9 maja 2026 13:12

Egzamin zdany!

Wynik: 28/40 punktów (70,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Norma opisująca standard transmisji Gigabit Ethernet to

A. IEEE 802.3x
B. IEEE 802.3ab
C. IEEE 802.3u
D. IEEE 802.3i
Odpowiedzi IEEE 802.3i, IEEE 802.3u oraz IEEE 802.3x nie są odpowiednie w kontekście pytania o standard Gigabit Ethernet. Standard IEEE 802.3i definiuje 10BASE-T, co oznacza Ethernet o prędkości 10 Mbit/s, działający na skrętkach miedzianych, ale zdecydowanie nie spełnia wymagań dotyczących Gigabit Ethernet. Z kolei IEEE 802.3u dotyczy standardu Fast Ethernet, który operuje z prędkością 100 Mbit/s. Oznacza to, że obydwa te standardy są znacznie wolniejsze od Gigabit Ethernet i nie mogą być stosowane w aplikacjach wymagających szybszej transmisji danych. Z kolei standard IEEE 802.3x odnosi się do funkcji kontroli przepływu w Ethernet, co jest istotne do zarządzania przeciążeniem w sieciach, ale nie definiuje prędkości transmisji, jak w przypadku Gigabit Ethernet. Zrozumienie tych standardów jest istotne dla projektowania i zarządzania sieciami, jednak mylenie ich z IEEE 802.3ab prowadzi do błędnych wniosków o możliwościach i zastosowaniach. Kluczowe jest, aby zawsze odnosić się do specyfikacji danego standardu, aby prawidłowo określić jego zastosowanie i wydajność w kontekście infrastruktury sieciowej.

Pytanie 2

Jakie medium transmisyjne charakteryzuje się najmniejszym ryzykiem zakłóceń elektromagnetycznych sygnału przesyłanego?

A. Kabel FTP z czterema parami
B. Gruby kabel koncentryczny
C. Kabel światłowodowy
D. Cienki kabel koncentryczny
Kabel światłowodowy zapewnia najmniejsze narażenie na zakłócenia elektromagnetyczne, ponieważ przesyła sygnał w postaci impulsów świetlnych zamiast sygnałów elektrycznych. Dzięki temu nie jest podatny na zakłócenia pochodzące z innych urządzeń elektronicznych czy źródeł elektromagnetycznych. Przykładem zastosowania kabli światłowodowych są nowoczesne sieci telekomunikacyjne oraz infrastruktura internetowa, gdzie wymagana jest wysoka prędkość transmisji danych oraz niezawodność. Standardy takie jak ITU-T G.652 definiują parametry kabli światłowodowych, zapewniając ich kompatybilność i wydajność. W praktyce stosowanie kabli światłowodowych w miejscach o dużym natężeniu zakłóceń, jak centra danych czy obszary miejskie, znacząco poprawia jakość i stabilność połączeń. Dodatkowo, światłowody są lżejsze i cieńsze od tradycyjnych kabli miedzianych, co ułatwia ich instalację i obniża koszty transportu oraz montażu.

Pytanie 3

Aby ustalić fizyczny adres karty sieciowej, w terminalu systemu Microsoft Windows należy wpisać komendę

A. show mac
B. ifconfig -a
C. ipconfig /all
D. get mac
Polecenie 'ipconfig /all' jest kluczowe w systemie Windows do uzyskiwania szczegółowych informacji dotyczących konfiguracji sieci, w tym adresów IP, masek podsieci, bram domyślnych oraz adresów fizycznych (MAC) kart sieciowych. Adres MAC jest unikalnym identyfikatorem przypisanym do interfejsu sieciowego, który służy do komunikacji w lokalnej sieci. Użycie 'ipconfig /all' pozwala na szybkie i efektywne sprawdzenie wszystkich tych informacji w jednym miejscu, co jest niezwykle przydatne w diagnozowaniu problemów sieciowych. W praktyce, jeśli na przykład komputer nie łączy się z siecią, administrator może użyć tego polecenia, aby upewnić się, że karta sieciowa ma przypisany adres MAC oraz inne niezbędne informacje. To podejście jest zgodne z najlepszymi praktykami w zarządzaniu siecią, które zalecają dokładne monitorowanie ustawień interfejsów sieciowych w celu zapewnienia ich prawidłowego działania oraz bezpieczeństwa.

Pytanie 4

Jaką częstotliwość odświeżania należy ustawić, aby obraz na monitorze był odświeżany 85 razy na sekundę?

A. 850 Hz
B. 0,085 kHz
C. 85 kHz
D. 8,5 Hz
Częstotliwość odświeżania monitora określa, ile razy na sekundę obraz na ekranie jest aktualizowany. W przypadku potrzebnego odświeżania na poziomie 85 razy na sekundę, co odpowiada 85 Hz, właściwa jednostka to kilohercy (kHz), w której 1 kHz to 1000 Hz. Dlatego 85 Hz przelicza się na 0,085 kHz. Takie ustawienie jest istotne w kontekście zapewnienia płynności obrazu, co jest szczególnie ważne w zastosowaniach multimedialnych i graficznych, takich jak gry komputerowe czy edycja wideo. Standardy branżowe, takie jak VESA (Video Electronics Standards Association), rekomendują, aby częstotliwość odświeżania odpowiadała wymaganiom wizualnym użytkowników oraz możliwościom sprzętu. Prawidłowe ustawienie częstotliwości odświeżania pozwala na uniknięcie efektu migotania ekranu, co ma kluczowe znaczenie dla komfortu oglądania i zdrowia wzroku użytkowników. W praktyce, w przypadku wyższych częstotliwości odświeżania, monitor jest w stanie wyświetlić więcej klatek na sekundę, co przekłada się na lepsze wrażenia wizualne.

Pytanie 5

Jak nazywa się seria procesorów produkowanych przez firmę Intel, charakteryzująca się małymi wymiarami oraz niskim zużyciem energii, zaprojektowana z myślą o urządzeniach mobilnych?

A. Atom
B. Radeon
C. Athlon
D. Alpha
Rodzina procesorów Intel Atom została zaprojektowana z myślą o zastosowaniach mobilnych, co czyni je idealnym rozwiązaniem dla urządzeń takich jak netbooki, tablety czy inteligentne urządzenia IoT. Procesory te charakteryzują się niewielkimi rozmiarami oraz niskim poborem energii, co sprawia, że są szczególnie przydatne w sytuacjach, gdzie długotrwała praca na baterii jest kluczowa. W praktyce, procesory Atom są wykorzystywane w urządzeniach takich jak ultrabooki, co pozwala na efektywne zarządzanie energią oraz zapewnia wystarczającą moc obliczeniową do codziennych zadań, takich jak przeglądanie internetu czy edytowanie dokumentów. Dzięki zastosowaniu architektury x86, procesory Atom są w stanie obsługiwać szereg aplikacji i systemów operacyjnych, co czyni je wszechstronnym wyborem dla producentów sprzętu. Warto również zauważyć, że procesory Atom są zgodne z najnowszymi standardami bezpieczeństwa i wydajności, co wspiera ich zastosowanie w nowoczesnych rozwiązaniach technologicznych.

Pytanie 6

Symbol błyskawicy pokazany na rysunku jest używany do oznaczania złącza

Ilustracja do pytania
A. DisplayPort
B. Thunderbolt
C. Micro USB
D. HDMI
Symbol błyskawicy przy porcie w tym przypadku jest jednoznacznie kojarzony z technologią Thunderbolt. Takie oznaczenie to już właściwie standard na urządzeniach Apple, choć zdarza się też w laptopach innych producentów. Thunderbolt to uniwersalny interfejs pozwalający na przesyłanie danych, obrazu i ładowanie urządzeń – wszystko przez jedno, małe złącze. Najświeższe wersje Thunderbolta, na przykład Thunderbolt 3 i 4, wykorzystują fizycznie złącze USB-C, ale sam standard znacznie wykracza poza zwykłe USB. Moim zdaniem właśnie ta wszechstronność jest największym atutem – jednym przewodem możesz podłączyć monitor 4K, superszybki dysk zewnętrzny, sieć i jeszcze ładować laptopa. W praktyce, w profesjonalnych zastosowaniach, Thunderbolt daje ogromne możliwości rozbudowy stanowiska pracy. Połączenie dużej przepustowości (nawet 40 Gb/s) i szerokiego wsparcia urządzeń sprawia, że to rozwiązanie lubią zarówno graficy, jak i osoby pracujące z dużymi bazami danych. Ciekawostka: dzięki temu symbolowi błyskawicy łatwo odróżnić port Thunderbolt od zwykłego USB-C, mimo że wyglądają identycznie. Niektóre laptopy mają oba te porty obok siebie i łatwo się pomylić, więc warto zwracać uwagę na oznaczenia. Myślę, że znajomość tych symboli bardzo ułatwia życie – zwłaszcza w biurze lub na uczelni, gdzie często korzystamy z różnych sprzętów i musimy wiedzieć, gdzie podłączyć odpowiednie akcesoria.

Pytanie 7

Aby uzyskać na ekranie monitora odświeżanie obrazu 85 razy w ciągu sekundy, trzeba częstotliwość jego odświeżania ustawić na

A. 0,085 kHz
B. 850 Hz
C. 8,5 Hz
D. 85 kHz
Prawidłowo – żeby monitor odświeżał obraz 85 razy na sekundę, częstotliwość odświeżania powinna wynosić 85 Hz, a to dokładnie 0,085 kHz (bo 1 kHz to 1000 Hz). To są podstawy elektroniki i technologii wyświetlaczy, które przydają się podczas konfiguracji sprzętu komputerowego, zwłaszcza jeżeli ktoś pracuje w grafice, gra na komputerze albo po prostu chce mieć płynny obraz bez migotania. W praktyce, im wyższa częstotliwość odświeżania monitora, tym bardziej komfortowa praca dla oczu, szczególnie przy dynamicznych scenach w grach lub filmach. Często spotyka się monitory 60 Hz, 75 Hz, ale 85 Hz to już dość przyjemny standard w niektórych środowiskach pracy. Branżowe normy – np. standard VESA – też jasno określają, że częstotliwość odświeżania podaje się właśnie w Hz albo w kHz, gdy wartości są wysokie, żeby uniknąć długich liczb. Z mojego doświadczenia czasem ludzie zamieniają jednostki i stąd pojawiają się nieporozumienia. Tak czy inaczej, dla 85 odświeżeń na sekundę, 0,085 kHz jest poprawną i najczytelniejszą odpowiedzią. Warto to zapamiętać, bo przeliczanie Hz na kHz i odwrotnie to dosłownie codzienność w każdej pracy związanej z elektroniką czy IT. Zresztą, nawet nie mając specjalistycznego sprzętu, przy zakupie monitora dobrze rozumieć te wartości i umieć je przeliczać. Najlepiej po prostu pamiętać, że kHz to 1000 Hz – i już się nie pomylisz.

Pytanie 8

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. wybraniem pliku z obrazem dysku.
B. konfigurowaniem adresu karty sieciowej.
C. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
D. dodaniem drugiego dysku twardego.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 9

Która z anten charakteryzuje się najwyższym zyskiem energetycznym oraz pozwala na nawiązywanie połączeń na dużą odległość?

A. Izotropowa
B. Mikropaskowa
C. Paraboliczna
D. Dipolowa
Mikropaskowe, izotropowe i dipolowe anteny różnią się znacznie od anten parabolicznych pod względem konstrukcji oraz zastosowania. Anteny mikropaskowe, choć wszechstronne i szeroko stosowane w systemach komunikacji bezprzewodowej, mają ograniczoną charakterystykę zysku. Ich zysk energetyczny jest zazwyczaj niewielki, co czyni je mniej efektywnymi w kontekście połączeń na dużych odległościach. Izotropowe anteny są teoretycznymi modelami, które nie istnieją w rzeczywistości; są używane jedynie do celów porównawczych w telekomunikacji. W praktyce, żaden system komunikacyjny nie może wykorzystać anteny izotropowej, ponieważ nie są one w stanie skoncentrować energii w konkretnym kierunku. Dipolowe anteny, chociaż oferują lepszy zysk niż mikropaskowe, również nie dorównują efektywności anten parabolicznych w zakresie długozasięgowych połączeń. Typowym błędem myślowym jest założenie, że każda antena o prostszej konstrukcji zapewni wystarczający zysk energetyczny. W kontekście wymagań telekomunikacyjnych, właściwe dobranie typu anteny jest kluczowe dla zapewnienia jakości połączeń, a ignorowanie specyfiki i zastosowania anten parabolicznych może prowadzić do poważnych problemów w projektowaniu sieci, takich jak utrata sygnału czy niska prędkość transmisji danych.

Pytanie 10

Podaj nazwę funkcji przełącznika, która pozwala na przypisanie wyższego priorytetu dla transmisji VoIP?

A. QoS
B. SNMP
C. STP
D. VNC
QoS, czyli Quality of Service, to technika zarządzania ruchem w sieciach komputerowych, która pozwala na nadawanie priorytetu różnym typom danych. W kontekście transmisji VoIP, QoS jest kluczowym elementem, ponieważ zapewnia, że dane głosowe mają pierwszeństwo przed innymi rodzajami ruchu, takimi jak np. przesyłanie plików czy strumieniowanie wideo. Dzięki zastosowaniu QoS można zredukować opóźnienia, jitter oraz utratę pakietów, co jest niezwykle istotne dla jakości rozmów głosowych. Przykładowo, w sieciach VoIP, administracja siecią może skonfigurować routery i przełączniki, aby nadać wyższy priorytet pakietom RTP (Real-time Transport Protocol), które są używane do przesyłania danych audio i wideo. Ustanowienie odpowiednich polityk QoS zgodnych z normami takim jak IETF RFC 2475, które definiują architekturę dla usługi jakości, jest uznawane za najlepsze praktyki w branży telekomunikacyjnej. Zastosowanie QoS w sieciach umożliwia nie tylko poprawę jakości usług, ale również efektywniejsze wykorzystanie dostępnych zasobów sieciowych.

Pytanie 11

NAT64 (Network Address Translation 64) to proces, który przekształca adresy

A. prywatne na adresy publiczne
B. MAC na adresy IPv4
C. IPv4 na adresy MAC
D. IPv4 na adresy IPv6
Zrozumienie procesu NAT64 wymaga znajomości podstawowych zasad działania adresacji w sieciach komputerowych. Odpowiedzi, które wskazują na mapowanie adresów IPv4 na adresy MAC, prywatne na publiczne czy MAC na IPv4, wskazują na istotne nieporozumienia w zakresie funkcji i zastosowania NAT. NAT64 nie jest związany z adresacją MAC, która dotyczy warstwy drugiej modelu OSI, podczas gdy NAT64 operuje na warstwie trzeciej, koncentrując się na adresach IP. Próba mapowania adresów prywatnych na publiczne odnosi się bardziej do tradycyjnego NAT, który służy do ukrywania układów adresów prywatnych w Internecie. W przypadku NAT64 dochodzi do translacji między różnymi wersjami protokołów IP, co nie ma na celu zmiany miejsca przechowywania adresu w warstwie sieciowej, lecz umożliwienie komunikacji między sieciami używającymi różnych standardów. Ponadto, mapa z adresów MAC na IPv4 jest zupełnie nieadekwatna, ponieważ MAC to adres sprzętowy, natomiast IPv4 jest adresem sieciowym. Zrozumienie tych różnic oraz prawidłowe postrzeganie sposobu, w jaki NAT64 funkcjonuje, jest kluczowe dla dalszego rozwoju i zastosowania technologii sieciowych, szczególnie w kontekście rosnącego znaczenia IPv6.

Pytanie 12

W firmie konieczne jest regularne wykonywanie kopii zapasowych znacznych ilości danych, które znajdują się na serwerze, osiągających kilka set GB. Jakie urządzenie będzie najbardziej odpowiednie do realizacji tego zadania?

A. Macierz RAID1
B. Nagrywarkę CD
C. Streamer
D. Nagrywarkę DVD
Wykorzystanie macierzy RAID1, nagrywarki DVD czy nagrywarki CD do tworzenia kopii zapasowych dużych zbiorów danych jest często mylnym podejściem w kontekście zarządzania danymi. Macierz RAID1, mimo że oferuje wysoką dostępność danych poprzez lustrzane kopiowanie, nie jest niezawodnym rozwiązaniem do tworzenia kopii zapasowych. W przypadku awarii całego systemu, danych można nie odzyskać, ponieważ RAID1 nie zapewnia ochrony przed utratą danych spowodowaną błędami użytkownika czy złośliwym oprogramowaniem. Z kolei nagrywarki DVD i CD mają ograniczoną pojemność, co czyni je niepraktycznymi dla archiwizacji kilkuset gigabajtów danych, a długoterminowe przechowywanie informacji na tych nośnikach wiąże się z ryzykiem uszkodzeń oraz degradacji materiałów. Często pojawia się błędne przekonanie, że te nośniki są wystarczające, co jest niezgodne z najlepszymi praktykami w dziedzinie zarządzania danymi. Warto również pamiętać, że różnorodne rodzaje danych oraz potrzeba szybkiego dostępu do nich wymagają stosowania bardziej zaawansowanych rozwiązań, które są w stanie efektywnie i bezpiecznie zarządzać dużymi zbiorami. Dlatego kluczowe jest przyjęcie strategii, która uwzględnia zarówno potrzeby operacyjne, jak i długoterminową archiwizację danych.

Pytanie 13

Dostosowanie ustawień parametrów TCP/IP urządzenia na podstawie adresu MAC karty sieciowej jest funkcją protokołu

A. FTP
B. DNS
C. HTTP
D. DHCP
Odpowiedź DHCP (Dynamic Host Configuration Protocol) jest prawidłowa, ponieważ ten protokół odpowiada za dynamiczne przydzielanie adresów IP oraz konfigurowanie innych parametrów sieciowych hostów w sieciach IP. Kiedy urządzenie, takie jak komputer czy smartfon, łączy się z siecią, wysyła zapytanie DHCP, które jest odbierane przez serwer DHCP. Serwer ten następnie przypisuje adres IP na podstawie unikalnego adresu MAC karty sieciowej. Przykładowo, w biurze z setkami urządzeń, DHCP automatyzuje proces konfiguracji, co znacznie ułatwia zarządzanie siecią i minimalizuje ryzyko konfliktów adresów IP. Zgodnie ze standardami branżowymi, DHCP może także dostarczać informacje o bramach, serwerach DNS i innych parametrach, co czyni go kluczowym protokołem w nowoczesnych sieciach. Jego stosowanie jest zgodne z najlepszymi praktykami, ponieważ pozwala na elastyczne i efektywne zarządzanie adresacją IP w dynamicznie zmieniających się środowiskach.

Pytanie 14

W której warstwie modelu ISO/OSI odbywa się segmentacja danych, komunikacja w trybie połączeniowym z użyciem protokołu TCP oraz komunikacja w trybie bezpołączeniowym z zastosowaniem UDP?

A. Łącza danych
B. Transportowej
C. Fizycznej
D. Sieciowej
Warstwa transportowa modelu ISO/OSI odpowiada za segmentowanie danych oraz zapewnienie komunikacji między aplikacjami działającymi na różnych urządzeniach w sieci. W ramach tej warstwy mamy do czynienia z protokołami TCP (Transmission Control Protocol) oraz UDP (User Datagram Protocol). TCP to protokół, który zapewnia połączenie, co oznacza, że dostarcza gwarancję dostarczenia danych oraz ich kolejności. Jest to przydatne w aplikacjach, gdzie integralność danych jest kluczowa, na przykład w przesyłaniu plików czy komunikacji z bazami danych. Przykładem wykorzystania TCP może być protokół HTTP, który używany jest do przesyłania stron internetowych. Z kolei UDP działa w trybie bezpołączeniowym, co skutkuje mniejszym opóźnieniem, ale nie gwarantuje dostarczenia pakietów ani ich kolejności. To sprawia, że jest idealny do aplikacji wymagających szybkości, jak transmisje wideo na żywo czy gry online. Wiedza o tym, jak działają te protokoły w kontekście modelu OSI, jest kluczowa dla każdego specjalisty zajmującego się sieciami, ponieważ pozwala na dobór odpowiednich rozwiązań w zależności od potrzeb aplikacji.

Pytanie 15

Industry Standard Architecture to norma magistrali, według której szerokość szyny danych wynosi

A. 64 bitów
B. 32 bitów
C. 128 bitów
D. 16 bitów
Wybór 128 bitów może sugerować, że masz pojęcie o nowoczesnych standardach komputerowych, ale pomijasz ważny kontekst historyczny związany z ISA. 128-bitowe magistrale to bardziej nowoczesne podejście, wykorzystywane w architekturach SIMD, które głównie są w GPU i niektórych procesorach ogólnego przeznaczenia. W ISA, która powstała w latach 80-tych, zbyt szeroka szyna danych nie była ani wykonalna technicznie, ani potrzebna, biorąc pod uwagę dostępne technologie. Z kolei 64 bity odnoszą się do nowszych standardów jak x86-64, ale w przypadku ISA to nie ma sensu. Często ludzie myślą, że szersza szyna to od razu lepsza wydajność, ale to nie do końca prawda. Warto pamiętać, że sama szerokość szyny to tylko jedna z wielu rzeczy, które wpływają na wydajność systemu. W kontekście ISA, która miała 16-bitową szerokość, kluczowe jest zrozumienie jej ograniczeń i możliwości. Dlatego przy analizie architektur komputerowych warto patrzeć zarówno na historyczne, jak i techniczne aspekty, żeby lepiej zrozumieć, jak technologia komputerowa się rozwijała.

Pytanie 16

Co wskazuje oznaczenie danego procesora?

Ilustracja do pytania
A. jego niewielkich rozmiarach obudowy
B. wersji mobilnej procesora
C. braku blokady mnożnika (unlocked)
D. niskim poborze energii przez procesor
Procesor z literką 'K' to świetna sprawa, bo oznacza, że nie ma blokady mnożnika. To znaczy, że można go podkręcać, co jest super dla tych, którzy chcą uzyskać z niego więcej mocy. Fajnie jest mieć możliwość zwiększenia częstotliwości taktowania, bo w grach czy przy obrabianiu wideo to naprawdę się przydaje. Takie procesory są trochę droższe, ale można je dostosować do swoich potrzeb, co jest dużą zaletą. Oczywiście, żeby podkręcanie działało, trzeba mieć też odpowiednie chłodzenie i płytę główną. Procesor i7-6700K to przykład takiego modelu, który daje pełną kontrolę nad wydajnością. Ważne, żeby przy podkręcaniu monitorować temperatury, bo to standard w branży IT. To wszystko sprawia, że taki procesor naprawdę może zdziałać cuda, jeśli się go dobrze ustawi.

Pytanie 17

Moduł funkcjonalny, który nie znajduje się w kartach dźwiękowych, to skrót

A. DAC
B. GPU
C. ROM
D. DSP
Tak, wybrałeś GPU, co jest jak najbardziej w porządku! Karty dźwiękowe nie mają w sobie modułów do przetwarzania grafiki, bo GPU to specjalny chip do obliczeń związanych z grafiką. No i wiadomo, że jego głównym zadaniem jest renderowanie obrazów i praca z 3D. A karty dźwiękowe? One mają inne zadania, jak DAC, który zamienia sygnały cyfrowe na analogowe, oraz DSP, który ogarnia różne efekty dźwiękowe. To właśnie dzięki nim możemy cieszyć się jakością dźwięku w muzyce, filmach czy grach. Warto zrozumieć, jak te wszystkie elementy działają, bo to bardzo ważne dla ludzi zajmujących się dźwiękiem i multimediami.

Pytanie 18

Która z przedstawionych na rysunkach topologii jest topologią siatkową?

Ilustracja do pytania
A. A
B. C
C. D
D. B
Topologia siatki charakteryzuje się tym że każdy węzeł sieci jest połączony bezpośrednio z każdym innym węzłem co zapewnia wysoką odporność na awarie Jeśli jedno połączenie zawiedzie dane mogą być przesyłane inną drogą co czyni tę topologię bardziej niezawodną niż inne rozwiązania W praktyce topologia siatki znajduje zastosowanie w systemach wymagających wysokiej dostępności i redundancji takich jak sieci wojskowe czy systemy komunikacji krytycznej W topologii pełnej siatki każdy komputer jest połączony z każdym innym co zapewnia maksymalną elastyczność i wydajność Jednak koszty wdrożenia i zarządzania taką siecią są wysokie ze względu na liczbę wymaganych połączeń Z tego powodu częściej spotykana jest topologia częściowej siatki gdzie nie wszystkie węzły są bezpośrednio połączone ale sieć nadal zachowuje dużą odporność na awarie Topologia siatki jest zgodna z dobrymi praktykami projektowania sieci w kontekście niezawodności i bezpieczeństwa Przykłady jej zastosowania można znaleźć również w zaawansowanych sieciach komputerowych gdzie niezawodność i bezpieczeństwo są kluczowe

Pytanie 19

Usługa odpowiedzialna za konwersję nazw domen na adresy sieciowe to

A. DHCP
B. DNS
C. SNMP
D. SMTP
Odpowiedź, że DNS (System Nazw Domenowych) jest poprawna. To dzięki tej usłudze możemy zamieniać nazwy domen na adresy IP, co jest kluczowe do komunikacji w Internecie. DNS działa jak rozproszony system baz danych, który gromadzi informacje o nazwach domen i odpowiada na pytania, jakie adresy IP są im przypisane. Przykładowo, kiedy wpisujesz w przeglądarkę adres, taki jak www.example.com, komputer wysyła pytanie do serwera DNS i ten odsyła odpowiedni adres IP, co pozwala na połączenie z serwerem. W zarządzaniu DNS warto pamiętać o dobrych praktykach, jak używanie rekordów CNAME do aliasowania nazw czy rekordów MX do obsługi poczty. O bezpieczeństwo także powinno się zadbać, używając DNSSEC, które chroni przed atakami. Warto też wiedzieć, że rozwój Internetu i wprowadzenie IPv6 wymusiło pewne zmiany w DNS, co pozwoliło lepiej radzić sobie z coraz większą liczbą urządzeń w sieci.

Pytanie 20

W systemie Linux do bieżącego śledzenia działających procesów wykorzystuje się polecenie:

A. ps
B. sed
C. sysinfo
D. proc
Wybór polecenia 'proc' jako narzędzia do monitorowania procesów w systemie Linux jest nieprawidłowy, ponieważ 'proc' odnosi się do systemu plików, a nie polecenia. System plików '/proc' jest virtualnym systemem plików, który dostarcza informacji o bieżących procesach i stanie jądra, ale nie jest bezpośrednim narzędziem do monitorowania procesów. Użytkownicy mogą uzyskać wiele przydatnych informacji, przeglądając zawartość katalogu '/proc', jednak wymaga to znajomości ostrożnych komend do odczytu danych z tego systemu. Z kolei 'sysinfo' to nieistniejąca komenda w standardowym zestawie poleceń Linux; chociaż istnieją narzędzia, które dostarczają informacje o systemie, nie mają one bezpośredniego odpowiednika. Na koniec, 'sed' to edytor strumieniowy, który służy do przetwarzania i manipulacji tekstem, a nie do monitorowania procesów. Pomieszanie tych narzędzi pokazuje typowy błąd myślowy, polegający na myleniu funkcji różnych poleceń. Kluczem do skutecznego zarządzania systemem jest umiejętność rozróżnienia narzędzi i ich właściwego zastosowania. Właściwe polecenia, takie jak 'ps', stanowią podstawę efektywnej administracji systemami Linux, a ich zrozumienie jest kluczowe dla każdej osoby zajmującej się zarządzaniem systemami.

Pytanie 21

Wskaż złącze żeńskie o liczbie pinów 24 lub 29, które jest w stanie przesyłać skompresowany cyfrowy sygnał do monitora?

A. HDMI
B. VGA
C. DVI
D. RCA
VGA (Video Graphics Array) to standard analogowy, który przesyła sygnał wideo za pomocą analogowych sygnałów RGB. Z racji swojego analogowego charakteru, VGA nie jest w stanie przesyłać skompresowanego sygnału cyfrowego, co czyni go nieodpowiednim wyborem w kontekście zadania. W praktyce, urządzenia korzystające z VGA mogą doświadczać problemów związanych z jakością obrazu, takich jak zniekształcenia czy szumy, szczególnie przy długich kablach. HDMI (High-Definition Multimedia Interface) to nowoczesny standard, który przesyła zarówno obraz, jak i dźwięk w formacie cyfrowym. Choć HDMI jest wszechstronny i popularny, jego złącza mają 19 pinów, co nie odpowiada wymaganym 24 lub 29 pinom. RCA (Radio Corporation of America) jest kolejnym przykładem złącza, które pierwotnie zostało zaprojektowane do przesyłania sygnału analogowego, a jego zastosowanie w kontekście cyfrowego przesyłania wideo jest ograniczone i nieefektywne. W związku z tym, wybór tych złączy jako alternatywy dla DVI mógłby prowadzić do nieodpowiedniego przesyłania sygnału, co jest kluczowe w kontekście współczesnych technologii wideo. Zrozumienie różnic między tymi standardami oraz ich zastosowaniem jest niezbędne w praktyce, aby móc skutecznie dobierać odpowiednie rozwiązania w zależności od potrzeb użytkownika.

Pytanie 22

Osoba korzystająca z komputera udostępnia w sieci Internet pliki, które posiada. Prawa autorskie będą złamane, gdy udostępni

A. swoje filmowe materiały z demonstracji ulicznych
B. obraz płyty systemu operacyjnego Windows 7 Home
C. otrzymany dokument urzędowy
D. zdjęcia własnoręcznie wykonane obiektów wojskowych
Obraz płyty systemu operacyjnego Windows 7 Home jest objęty prawem autorskim, co w praktyce oznacza, że wrzucenie go do sieci bez zgody właściciela to zwyczajne łamanie prawa. Oprogramowanie, w tym systemy, musi być odpowiednio licencjonowane, czyli powinno mieć określone zasady użytkowania i dystrybucji. W przypadku Microsoftu, jeśli ktoś by udostępnił taki obraz, naruszyłby warunki umowy licencyjnej (EULA), która zazwyczaj zabrania dalszego dzielenia się tym. W świecie, gdzie wszystko jest tak łatwo kopiowane i przesyłane, przestrzeganie praw autorskich w kwestii oprogramowania jest naprawdę ważne. Powinniśmy pamiętać, że nielegalne udostępnienie oprogramowania może prowadzić do różnych problemów prawnych, jak kary finansowe czy nawet odpowiedzialność karna. Rozumienie tych zasad jest kluczowe, nie tylko dla ludzi indywidualnych, ale również dla firm, które mogą stracić sporo pieniędzy przez naruszenie praw autorskich.

Pytanie 23

Gdy użytkownik zauważy, że ważne pliki zniknęły z dysku twardego, powinien

A. przeprowadzić test S.M.A.R.T. na tym dysku
B. zabezpieczyć dysk przed zapisaniem nowych danych
C. zainstalować oprogramowanie diagnostyczne
D. wykonać defragmentację tego dysku
Uchronienie dysku przed zapisem nowych danych jest kluczowym krokiem po zauważeniu utraty ważnych plików. Gdy dane są usuwane lub znikają, istnieje ryzyko, że nowe informacje zapisane na dysku mogą nadpisać obszary pamięci, które zawierały wcześniej utracone pliki. W momencie, gdy użytkownik zidentyfikuje problem, pierwszym działaniem powinno być natychmiastowe wyłączenie wszelkich operacji zapisu na dysku. W praktyce oznacza to, że najlepiej jest odłączyć dysk od źródła zasilania lub przynajmniej unikać instalowania nowych programów, pobierania plików lub wykonywania aktualizacji. Dobrą praktyką jest również uruchomienie systemu z innego nośnika, aby zminimalizować ryzyko nadpisania danych. W wielu przypadkach odzyskiwanie danych może być udane, jeśli użytkownik zareaguje szybko i nie zainicjuje nowych zapisów. Aplikacje do odzyskiwania danych są w stanie przywrócić usunięte pliki, ale ich skuteczność często zależy od tego, jak szybko podjęto odpowiednie kroki chroniące dysk.

Pytanie 24

Jakie polecenie w systemie Linux przyzna możliwość zapisu dla wszystkich obiektów w /usr/share dla wszystkich użytkowników, nie modyfikując innych uprawnień?

A. chmod a-w /usr/share
B. chmod ugo+rw /usr/share
C. chmod -R o+r /usr/share
D. chmod -R a+w /usr/share
Polecenie 'chmod -R a+w /usr/share' jest stosowane do nadania uprawnień do pisania dla wszystkich użytkowników ( właścicieli, grup oraz innych) do katalogu /usr/share oraz wszystkich jego podkatalogów i plików. Flaga '-R' oznacza rekurencyjne zastosowanie tej operacji, co oznacza, że wszystkie podkatalogi i pliki wewnątrz /usr/share również otrzymają to samo uprawnienie. Przykładowo, jeśli istnieją pliki lub katalogi w /usr/share, które są używane do przechowywania plików konfiguracyjnych lub zasobów aplikacji, to nadanie im tych uprawnień umożliwia wszystkim użytkownikom systemu ich modyfikację. Warto jednak zachować ostrożność przy nadawaniu szerokich uprawnień, aby uniknąć potencjalnych luk w zabezpieczeniach oraz niezamierzonych zmian w plikach systemowych. W kontekście najlepszych praktyk, zaleca się stosowanie takich uprawnień tylko w sytuacjach, gdy jest to bezwzględnie konieczne, a dostęp do katalogu powinien być ograniczony do tych użytkowników, którzy naprawdę tego potrzebują.

Pytanie 25

Aby zmierzyć tłumienie światłowodowego łącza w dwóch zakresach długości fal 1310 nm i 1550 nm, należy zastosować

A. testera UTP
B. rejestratora cyfrowego
C. reflektometr TDR
D. miernika mocy optycznej
Reflektometr TDR (Time Domain Reflectometer) jest urządzeniem używanym do diagnostyki linii transmisyjnych, w tym kabli miedzianych, jednak nie jest odpowiedni do pomiarów w systemach światłowodowych. Działa na zasadzie wysyłania impulsu elektrycznego i analizy odbitych sygnałów, co pozwala na lokalizację usterek, ale nie jest w stanie zmierzyć tłumienia sygnału optycznego. W przypadku światłowodów, bardziej adekwatnym narzędziem byłby reflektometr OTDR (Optical Time Domain Reflectometer), który jest w stanie analizować sygnał optyczny. Rejestrator cyfrowy służy do zapisu danych, ale nie przeprowadza pomiarów mocy sygnału optycznego, przez co nie spełnia wymagań dotyczących testowania tłumienia. Tester UTP jest urządzeniem przeznaczonym do weryfikacji kabli miedzianych i nie ma zastosowania w pomiarach światłowodowych. Użytkownicy często popełniają błąd, myśląc, że narzędzia zaprojektowane do mediów miedzianych mogą być zastosowane w systemach światłowodowych, co kończy się nieprawidłowymi wynikami. Kluczowe jest zrozumienie specyfiki technologii światłowodowej oraz wybór odpowiednich narzędzi zgodnych z normami i dobrymi praktykami branżowymi, aby zapewnić prawidłowe pomiary i diagnostykę.

Pytanie 26

W systemie Linux narzędzie do śledzenia zużycia CPU, pamięci, procesów oraz obciążenia systemu z poziomu terminala to

A. pwd
B. top
C. passwd
D. dxdiag
Odpowiedź 'top' jest poprawna, ponieważ jest to narzędzie dostępne w systemie Linux, które umożliwia monitorowanie użycia procesora, pamięci, procesów oraz obciążenia systemu w czasie rzeczywistym. Użytkownik może za jego pomocą uzyskać szczegółowe informacje o wszystkich działających procesach, ich zużyciu zasobów oraz priorytetach. Przykładowo, jeśli zajmujesz się administracją serwerów, użycie polecenia 'top' pozwala szybko zidentyfikować, które procesy obciążają system, co może być kluczowe w celu optymalizacji jego wydajności. Narzędzie 'top' jest standardowym komponentem większości dystrybucji Linuxa i jest zgodne z najlepszymi praktykami zarządzania zasobami w systemach operacyjnych. Można je również skonfigurować do wyświetlania danych w różnych formatach oraz sortować je według różnych kryteriów, co czyni je niezwykle wszechstronnym narzędziem w pracy sysadmina.

Pytanie 27

Jaką maksymalną prędkość transferu danych umożliwia interfejs USB 3.0?

A. 4GB/s
B. 400Mb/s
C. 120MB/s
D. 5Gb/s
Interfejs USB 3.0, znany również jako SuperSpeed USB, rzeczywiście umożliwia transfer danych z prędkością do 5 Gb/s, co odpowiada około 625 MB/s. Ta znaczna prędkość przesyłania danych sprawia, że USB 3.0 jest idealnym rozwiązaniem do podłączania urządzeń wymagających dużych transferów danych, takich jak zewnętrzne dyski twarde, kamery wideo oraz urządzenia do przechwytywania i edytowania multimediów. Standard ten wprowadza także lepszą efektywność energetyczną, co jest istotne w kontekście mobilnych urządzeń. Dzięki wstecznej kompatybilności z wcześniejszymi wersjami USB, użytkownicy mogą korzystać z USB 3.0 bez obaw o problemy z kompatybilnością, co jest kluczowe w praktycznych zastosowaniach. USB 3.0 wspiera również jednoczesny transfer danych i zasilania, co zwiększa jego funkcjonalność.

Pytanie 28

Do przechowywania fragmentów dużych plików programów i danych, które nie mieszczą się w pamięci, wykorzystuje się

A. menadżer zadań
B. plik stronicowania
C. schowek systemowy
D. edytor rejestru
Plik stronicowania jest kluczowym elementem zarządzania pamięcią w systemach operacyjnych, który umożliwia przechowywanie części plików programów i danych, które nie mieszczą się w pamięci RAM. Jest to technika, która pozwala na efektywne wykorzystanie dostępnej pamięci, ponieważ zamiast załadować cały program do pamięci, system operacyjny może załadować tylko niezbędne fragmenty, a resztę przechowywać na dysku twardym. Dzięki temu, aplikacje mogą działać płynnie nawet przy ograniczonej pamięci RAM. Przykładowo, w systemie Windows plik stronicowania nazywany jest plikiem stronicowania (pagefile.sys) i znajduje się na partycji systemowej. Użytkownik może dostosować jego rozmiar w ustawieniach systemu, co jest dobrą praktyką w przypadku uruchomienia wymagających aplikacji. Warto również dodać, że plik stronicowania jest stosowany w kontekście technologii wirtualizacji, gdzie również odgrywa rolę w zarządzaniu zasobami. Standardy dotyczące zarządzania pamięcią, takie jak te określone przez ISO/IEC, podkreślają znaczenie efektywnego wykorzystania pamięci fizycznej i wirtualnej.

Pytanie 29

Zgodnie z normą PN-EN 50174, maksymalna długość kabla poziomego kategorii 6 pomiędzy punktem abonenckim a punktem dystrybucji w panelu krosowym wynosi

A. 100 m
B. 150 m
C. 90 m
D. 110 m
Odpowiedzi 100 m, 110 m oraz 150 m są niepoprawne z kilku kluczowych powodów. Wybór długości 100 m może wydawać się logiczny, ponieważ często jest to długość używana w aplikacjach sieciowych, jednak nie uwzględnia ona specyficznych wymagań dla kabli kategorii 6, które do przesyłania danych wymagają ściśle określonego limitu długości dla optymalnej wydajności. Przesymulowanie długości kabla w warunkach rzeczywistych pokazuje, że przekroczenie 90 m skutkuje wzrostem opóźnień i spadkiem wydajności, co jest nie do zaakceptowania w środowiskach o wysokich wymaganiach dotyczących przepustowości. Wybór długości 110 m oraz 150 m jeszcze bardziej narusza zasady określone w normie. Tego rodzaju długości mogą być stosowane w specyficznych aplikacjach, ale nie w kontekście standardowej instalacji kabelowej dla systemów LAN. Dodatkowo, w praktyce inżynieryjnej błędne podejście do długości kabli poziomych może prowadzić do poważnych problemów z niezawodnością sieci, w tym zwiększonej liczby błędów przesyłania danych oraz problemami z obsługą klienta. Zrozumienie i przestrzeganie norm takich jak PN-EN 50174 jest kluczowe dla projektantów i instalatorów systemów telekomunikacyjnych, aby zapewnić ich wydajność oraz zgodność z najlepszymi praktykami branżowymi.

Pytanie 30

Co umożliwia zachowanie jednolitego rozkładu temperatury pomiędzy procesorem a radiatorem?

A. Pasta grafitowa
B. Silikonowy spray
C. Mieszanka termiczna
D. Klej
Mieszanka termiczna, znana również jako pasta termoprzewodząca, odgrywa kluczową rolę w poprawnym działaniu systemu chłodzenia w komputerach i innych urządzeniach elektronicznych. Jej głównym celem jest wypełnienie mikroskopijnych szczelin pomiędzy powierzchnią procesora a radiatorem, co pozwala na efektywne przewodnictwo ciepła. Dobrze dobrana mieszanka termiczna ma wysoką przewodność cieplną, co zapewnia, że ciepło generowane przez procesor jest skutecznie przekazywane do radiatora, a tym samym zapobiega przegrzewaniu się podzespołów. W praktyce, zastosowanie wysokiej jakości pasty termoprzewodzącej jest standardem w branży komputerowej. Warto pamiętać, że nie wszystkie mieszanki są sobie równe, dlatego ważne jest, aby wybierać produkty spełniające normy branżowe, takie jak testy przewodności cieplnej. Użycie pasty termoprzewodzącej znacząco wpływa na wydajność systemu chłodzenia oraz przedłuża żywotność komponentów elektronicznych, co jest niezbędne w kontekście współczesnych wymagań obliczeniowych.

Pytanie 31

Funkcja systemu operacyjnego, która umożliwia jednoczesne uruchamianie wielu aplikacji w trybie podziału czasu, z tym że realizacja tego podziału odbywa się przez same aplikacje, nosi nazwę

A. wielozadaniowości kooperatywnej
B. wielodostępowości
C. wieloprogramowości
D. wielozadaniowości z wywłaszczeniem
Wielozadaniowość z wywłaszczeniem, choć brzmi podobnie, różni się fundamentalnie od kooperatywnej. W tym modelu system operacyjny samodzielnie przejmuje kontrolę nad procesorem, gdy jedna z aplikacji nie jest w stanie oddać czasu CPU, co skutkuje lepszym zarządzaniem zasobami. Wywłaszczenie pozwala na bardziej efektywne korzystanie z wielozadaniowości, eliminując ryzyko zamrożenia systemu przez nieodpowiadające programy. Przykładowo, w systemie Windows, jeżeli aplikacja nie reaguje, system operacyjny może przydzielić czas procesora innym aktywnym programom, co zapewnia płynność działania. Wielodostępność to koncepcja, która odnosi się do umożliwienia wielu użytkownikom korzystania z systemu jednocześnie, co nie jest bezpośrednio związane z zarządzaniem czasem procesora przez aplikacje. Również wieloprogramowość to termin, który odnosi się do możliwości uruchamiania wielu programów w systemie, ale nie definiuje konkretnego sposobu, w jaki te programy dzielą czas procesora. Typowym błędem jest mylenie tych terminów z koncepcją wielozadaniowości, co prowadzi do nieporozumień w kontekście projektowania i implementacji systemów operacyjnych. Aby zrozumieć różnice, kluczowe jest spojrzenie na sposób, w jaki aplikacje i system operacyjny współpracują w zakresie zarządzania czasem procesora i zasobami systemowymi.

Pytanie 32

Jeżeli użytkownik zaznaczy opcję wskazaną za pomocą strzałki, będzie miał możliwość instalacji aktualizacji

Ilustracja do pytania
A. prowadzące do uaktualnienia Windows 8.1 do wersji Windows 10
B. eliminujące krytyczną usterkę, niezwiązaną z bezpieczeństwem
C. dotyczące krytycznych luk w zabezpieczeniach
D. związane ze sterownikami lub nowym oprogramowaniem od Microsoftu
Opcjonalne aktualizacje wskazane strzałką w Windows Update mogą obejmować sterowniki oraz nowe oprogramowanie firmy Microsoft. Takie aktualizacje są często mniej krytyczne z punktu widzenia bezpieczeństwa systemu, ale mogą znacząco poprawić funkcjonalność i wydajność komputera. Przykładowo instalacja nowych sterowników może zwiększyć kompatybilność sprzętową, a także rozwiązać problemy z działaniem urządzeń peryferyjnych. Ponadto, opcjonalne aktualizacje mogą zawierać nowe wersje oprogramowania Microsoft, takie jak aplikacje biurowe czy narzędzia systemowe, które wprowadzają dodatkowe funkcje, poprawki błędów lub usprawnienia w interfejsie użytkownika. W praktyce, regularne korzystanie z tych aktualizacji jest zgodne z dobrymi praktykami zarządzania systemem IT, ponieważ pomaga utrzymać system w pełnej funkcjonalności i zgodności z najnowszymi standardami technologicznymi. Warto pamiętać, że opcjonalne aktualizacje, mimo iż nie są krytyczne, mogą znacząco wpłynąć na doświadczenie użytkownika oraz stabilność działania aplikacji, co ma szczególne znaczenie w środowisku komercyjnym, gdzie każdy element infrastruktury IT powinien funkcjonować optymalnie.

Pytanie 33

Pamięć RAM ukazana na grafice jest instalowana w płycie głównej z gniazdem

Ilustracja do pytania
A. DDR
B. DDR2
C. DDR3
D. DDR4
Pamięć RAM typu DDR2 jest stosowana w starszych komputerach osobistych i serwerach które wymagają tego konkretnego standardu. DDR2 oznacza Double Data Rate 2 i jest następcą pamięci DDR. Charakteryzuje się ona wyższą prędkością transferu danych oraz niższym napięciem zasilania w porównaniu do poprzedniej generacji co pozwala na bardziej efektywną pracę i mniejsze zużycie energii. DDR2 wykorzystuje technologię podwójnego transferu czyli przesyła dane zarówno na zboczu opadającym jak i narastającym sygnału zegara co podwaja efektywną przepustowość pamięci. Typowe zastosowania DDR2 to komputery stacjonarne laptopy i serwery które nie wymagają najnowszych technologii pamięciowych. Instalacja pamięci DDR2 na płycie głównej wymaga odpowiedniego gniazda które jest zaprojektowane specjalnie do tego typu modułów z typowym kluczem pozwalającym na prawidłowe zamontowanie tylko w jednym kierunku co eliminuje ryzyko nieprawidłowej instalacji. Przy wyborze pamięci DDR2 ważne jest także dopasowanie częstotliwości pracy i pojemności do specyfikacji płyty głównej aby zapewnić optymalną wydajność systemu. W ten sposób DDR2 pozostaje ważnym elementem w starszych systemach wymagających konkretnego wsparcia technologicznego.

Pytanie 34

Aby wymusić na użytkownikach lokalnych systemów z rodziny Windows Server regularną zmianę haseł oraz stosowanie haseł o odpowiedniej długości, które spełniają kryteria złożoności, należy ustawić

A. konta użytkowników w Ustawieniach
B. parametry konta użytkownika w narzędziu zarządzania komputerem
C. zasady blokady konta w zasadach grupowych
D. zasady haseł w lokalnych zasadach zabezpieczeń
Odpowiedź "zasady haseł w zasadach zabezpieczeń lokalnych" jest poprawna, ponieważ to w tym miejscu można skonfigurować wymogi dotyczące złożoności haseł oraz okresowej zmiany haseł dla kont użytkowników w systemach Windows Server. Umożliwia to administratorom kontrolowanie polityki haseł, co jest kluczowym elementem zabezpieczeń w środowiskach IT. Przykładowo, można ustalić minimalną długość hasła, wymusić użycie znaków specjalnych, cyfr oraz wielkich liter, co znacząco zwiększa odporność na ataki brute-force. W dobrych praktykach bezpieczeństwa IT, takich jak standardy NIST, podkreśla się znaczenie silnych haseł oraz regularnej ich zmiany. Dzięki odpowiednim ustawieniom w zasadach zabezpieczeń lokalnych można również wprowadzić blokady konta po kilku nieudanych próbach logowania, co dodatkowo zwiększa bezpieczeństwo. To podejście jest zgodne z politykami bezpieczeństwa wielu organizacji, które mają na celu minimalizację ryzyka naruszeń danych.

Pytanie 35

Który symbol przedstawia przełącznik?

Ilustracja do pytania
A. Rys. C
B. Rys. A
C. Rys. D
D. Rys. B
Symbol przedstawiony na Rys. D oznacza przełącznik w kontekście sieci komputerowej. Przełącznik to urządzenie sieciowe, które działa na poziomie warstwy 2 modelu OSI. Jego głównym zadaniem jest łączenie segmentów sieci i kierowanie pakietów danych do odpowiednich urządzeń końcowych na podstawie adresów MAC. Dzięki temu przełączniki zwiększają efektywność i wydajność sieci, kierując ruch tylko do portów, do których jest to potrzebne, a nie do wszystkich jak ma to miejsce w przypadku koncentratorów. Jest to istotne w kontekście skalowalności i bezpieczeństwa, gdyż zmniejsza niepotrzebny ruch i kolizje. Przełączniki są często wykorzystywane w dużych organizacjach do budowy lokalnych sieci komputerowych (LAN). Zgodnie z najlepszymi praktykami branżowymi, przełączniki są kluczowymi elementami w architekturze sieciowej, które wspierają zarządzanie pasmem i zapewniają nieprzerwaną komunikację. Dodatkowo mogą wspierać funkcje takie jak VLAN, co umożliwia logiczne podzielenie sieci na mniejsze segmenty dla lepszego zarządzania.

Pytanie 36

Wskaż model licencjonowania serwera zarządzającego (Management Serwer), oferowanego firmom przez Microsoft, którego schemat przedstawiono na ilustracji.

Ilustracja do pytania
A. CAL
B. BOX
C. ML
D. MOLP
W tym zadaniu łatwo się pomylić, bo wszystkie podane skróty dotyczą licencjonowania Microsoftu, ale każdy opisuje zupełnie inny model. Na ilustracji pokazano serwer zarządzający, do którego przypięte są trzy typy licencji: Client User ML, Server ML(s) oraz OSE Client ML. To jednoznacznie wskazuje na koncepcję Management License, czyli właśnie model ML, w którym licencjonuje się jednostki zarządzane przez serwer, a nie sam serwer jako produkt „pudełkowy” czy dostęp użytkowników w stylu CAL. Częsty błąd polega na automatycznym kojarzeniu każdego schematu z użytkownikami i serwerem z licencją CAL (Client Access License). CAL to licencja dostępową – uprawnia użytkownika lub urządzenie do korzystania z usług serwera (np. Windows Server, Exchange Server). Na rysunku jednak nie chodzi o dostęp do usług, tylko o zarządzanie infrastrukturą – monitorowanie, inwentaryzację, wdrażanie aktualizacji. To jest inny model prawny i techniczny, stąd użycie ML zamiast CAL. BOX to z kolei potoczne określenie licencji pudełkowej (FPP – Full Packaged Product). Taka licencja dotyczy sposobu dystrybucji oprogramowania (pudełko, nośnik, klucz), a nie mechanizmu licencjonowania serwera zarządzającego. W kontekście System Center czy innych narzędzi do zarządzania infrastrukturą, licencje BOX praktycznie nie występują w poważnych wdrożeniach firmowych, bo tam standardem są umowy wolumenowe. Stąd pojawia się jeszcze MOLP – Microsoft Open License Program, czyli program licencjonowania grupowego/volumenowego. To jest rodzaj programu zakupu licencji dla firm, szkół, urzędów, a nie sam model naliczania uprawnień dla serwera zarządzającego. Możesz mieć ML kupione w ramach MOLP, ale MOLP nie jest nazwą modelu licencjonowania serwera, tylko nazwą programu handlowego. Typowy błąd myślowy polega na mieszaniu pojęć: forma zakupu (BOX, MOLP) z technicznym modelem licencjonowania (ML, CAL, per core itd.). Warto to sobie jasno poukładać, bo w administracji systemami i przy projektach wdrożeniowych poprawne rozróżnianie tych pojęć jest tak samo ważne, jak znajomość samych systemów operacyjnych czy sieci. Dobre praktyki mówią, żeby zawsze czytać dokumentację Product Terms i opis modeli licencjonowania, a nie opierać się tylko na skrótach i skojarzeniach.

Pytanie 37

Jaką funkcję pełni mechanizm umożliwiający przechowywanie fragmentów dużych plików programów i danych, które nie mogą być w pełni załadowane do pamięci?

A. menadżer zadań
B. plik stronicowania
C. edytor rejestru
D. schowek systemu
Plik stronicowania to mechanizm zarządzania pamięcią, który umożliwia systemowi operacyjnemu przechowywanie części danych i programów na dysku twardym, gdy nie mieszczą się one w pamięci RAM. Działa na zasadzie podziału pamięci na małe jednostki zwane stronami, które mogą być przenoszone między pamięcią operacyjną a plikiem stronicowania. Dzięki temu, programy mogą korzystać z większej ilości pamięci, niż fizycznie dostępna w RAM. Przykładem zastosowania pliku stronicowania jest otwieranie wielu aplikacji jednocześnie na komputerze – system operacyjny może dynamicznie ładować i zwalniać strony z pamięci, co zwiększa wydajność i elastyczność. Standardy zarządzania pamięcią sugerują, że plik stronicowania powinien być umiejscowiony na szybkim nośniku, aby zminimalizować czasy dostępu. W praktyce, dobrze skonfigurowany plik stronicowania pozwala na lepsze wykorzystanie zasobów systemowych, co jest szczególnie istotne w przypadku aplikacji wymagających dużej ilości pamięci, takich jak oprogramowanie do obróbki wideo czy gry komputerowe.

Pytanie 38

Usługa umożliwiająca przechowywanie danych na zewnętrznym serwerze, do którego dostęp możliwy jest przez Internet to

A. Cloud
B. PSTN
C. żadna z powyższych
D. VPN
Cloud, czyli chmura obliczeniowa, to usługa przechowywania danych oraz zasobów na zewnętrznych serwerach, które są dostępne przez Internet. Dzięki temu użytkownicy nie muszą inwestować w drogi sprzęt ani konfigurować lokalnych serwerów, co znacznie obniża koszty infrastruktury IT. W praktyce, usługi chmurowe oferują elastyczność oraz skalowalność, co oznacza, że użytkownicy mogą szybko dostosowywać swoje zasoby do zmieniających się potrzeb. Przykłady popularnych rozwiązań chmurowych to Amazon Web Services (AWS), Microsoft Azure czy Google Cloud Platform, które stosują standardy takie jak ISO/IEC 27001 dla zarządzania bezpieczeństwem informacji. Chmura obliczeniowa wspiera także zdalną współpracę, umożliwiając zespołom pracę zdalną oraz dostęp do zasobów z dowolnego miejsca na świecie. Warto także zwrócić uwagę na modele chmurowe, takie jak IaaS (Infrastructure as a Service), PaaS (Platform as a Service) i SaaS (Software as a Service), które oferują różne poziomy zarządzania i kontroli nad zasobami.

Pytanie 39

Jakie znaczenie ma termin "wykonanie kopii zapasowej systemu"?

A. Aktualizacja systemu
B. Restart systemu
C. Wykonanie kopii zapasowej systemu
D. Zamknięcie systemu
Robienie kopii zapasowej systemu, czyli backupu, to ważny krok, który pomaga zabezpieczyć nasze dane i ustawienia. W praktyce, regularne backupy są kluczowe, bo pozwalają szybko przywrócić system do stanu sprzed jakiejś awarii, błędów czy ataków wirusów. W branży mówi się o tym w kontekście standardów, takich jak ISO 27001, które zalecają regularne tworzenie kopii zapasowych jako część zarządzania ryzykiem. Możemy mieć różne rodzaje backupów, na przykład lokalne na dyskach zewnętrznych lub w chmurze, co daje dodatkowe zabezpieczenie. Pamiętaj, że dobry backup powinien być częścią szerszego planu awaryjnego, który obejmuje też to, jak przywracać dane, gdy zajdzie taka potrzeba.

Pytanie 40

Wskaź na błędny układ dysku z użyciem tablicy partycji MBR?

A. 2 partycje podstawowe i 1 rozszerzona
B. 3 partycje podstawowe oraz 1 rozszerzona
C. 1 partycja podstawowa oraz 1 rozszerzona
D. 1 partycja podstawowa oraz 2 rozszerzone
Podział dysku zgodnie z tablicą partycji MBR jest ściśle określony przez standardy, które definiują, jak zarządzać przestrzenią dyskową. W przypadku MBR, dozwolone są cztery partycje - mogą to być trzy partycje podstawowe i jedna rozszerzona lub cztery partycje podstawowe. Stwierdzenie, że można mieć jedną partycję podstawową i dwie rozszerzone, wprowadza w błąd i narusza zasady działania MBR. Partycja rozszerzona jest szczególnym rodzajem partycji, która ma na celu obejście ograniczenia liczby partycji podstawowych i może zawierać partycje logiczne. Posiadając jedną partycję podstawową, można utworzyć jedną partycję rozszerzoną, w której można umieścić wiele partycji logicznych. Argumentacja, że można mieć więcej niż jedną partycję rozszerzoną, wypływa z nieporozumienia dotyczącego struktury MBR i jej zasad działania. W praktyce, ze względu na rozwój technologii i wzrost zapotrzebowania na przestrzeń dyskową, obecnie preferowane jest korzystanie z GPT, które obsługuje dyski o pojemności przekraczającej 2 TB i umożliwia tworzenie znacznie większej liczby partycji. Dlatego ważne jest, aby zrozumieć te różnice i ograniczenia w kontekście aktualnych praktyk w zarządzaniu pamięcią masową.