Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 14 maja 2026 10:18
  • Data zakończenia: 14 maja 2026 10:32

Egzamin zdany!

Wynik: 32/40 punktów (80,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Wirusy polimorficzne mają jedną charakterystyczną cechę, którą jest

A. atak na rekord startowy dysku
B. zdolność do modyfikowania swojego kodu
C. atak na tablicę FAT
D. zarażanie wszystkich komputerów w sieci lokalnej
Wielu użytkowników myli wirusy polimorficzne z innymi typami złośliwego oprogramowania, co prowadzi do błędnych założeń. Przykładowo, atak na tablicę FAT czy rekord startowy dysku to techniki kojarzone głównie z wirusami, które mają na celu uszkodzenie systemu plików lub utratę danych, ale nie są cechą wirusów polimorficznych. Takie złośliwe oprogramowanie może wpływać na integralność systemu plików, ale nie ma to związku z ich zdolnością do zmiany kodu. Ponadto, zarażanie wszystkich komputerów w sieci lokalnej to mylne założenie, ponieważ wirusy polimorficzne nie są z definicji rozprzestrzeniane w ten sposób – ich mechanizm infekcji polega na modyfikacji kodu, a nie na atakowaniu wszystkich urządzeń w sieci. To prowadzi do zrozumienia, że wirusy te są bardziej subtelne i skupiają się na uniknięciu wykrycia, a nie na bezpośrednim uszkodzeniu systemu. Typowe błędy myślowe w tej kwestii wynikają z niepełnego zrozumienia działania złośliwego oprogramowania oraz ich typologii. Właściwe zrozumienie mechanizmów działania wirusów polimorficznych jest kluczowe dla budowania skutecznych strategii obronnych w dziedzinie cyberbezpieczeństwa.

Pytanie 2

Użytkownik napotyka trudności przy uruchamianiu systemu Windows. W celu rozwiązania tego problemu, skorzystał z narzędzia System Image Recovery, które

A. naprawia pliki rozruchowe, wykorzystując płytę Recovery
B. przywraca system używając punktów przywracania
C. przywraca system na podstawie kopii zapasowej
D. odzyskuje ustawienia systemowe, korzystając z kopii rejestru systemowego backup.reg
Odpowiedź 'przywraca system na podstawie kopii zapasowej' jest poprawna, ponieważ narzędzie System Image Recovery w systemie Windows zostało zaprojektowane do przywracania systemu operacyjnego z utworzonej wcześniej kopii zapasowej, która zawiera pełny obraz systemu. Taki obraz systemu to kompleksowa kopia wszystkich plików systemowych, aplikacji oraz ustawień, co pozwala na szybkie i efektywne przywrócenie systemu do stanu z momentu wykonania kopii. Przykładowo, w przypadku awarii systemu spowodowanej wirusem lub błędami w oprogramowaniu, użytkownik może przywrócić system do stanu roboczego sprzed awarii, co oszczędza czas i wysiłek związany z reinstalacją systemu. Warto zaznaczyć, że regularne tworzenie kopii zapasowych jest zgodne z najlepszymi praktykami w zarządzaniu danymi i bezpieczeństwem systemów komputerowych, co znacząco minimalizuje ryzyko utraty danych. Dobrą praktyką jest także przechowywanie kopii zapasowych w bezpiecznym miejscu, na przykład na zewnętrznym dysku twardym lub w chmurze.

Pytanie 3

Na zaprezentowanym schemacie logicznym sieci przedstawiono

Ilustracja do pytania
A. 2 kampusowe punkty dystrybucji
B. 4 kondygnacyjne punkty sieciowe
C. 7 budynkowych punktów dystrybucji
D. 9 gniazd telekomunikacyjnych
Choć na pierwszy rzut oka schemat może sugerować inne interpretacje szczególnie ze względu na różnorodność punktów dystrybucyjnych i dostępowych to zrozumienie ich funkcji jest kluczowe do prawidłowego rozpoznania. Budynkowe punkty dystrybucyjne choć istotne w większych strukturach sieciowych jako miejsca koncentracji i rozdziału połączeń nie odpowiadają liczbie przedstawionej na schemacie. Kampusowe punkty dystrybucyjne również nie są adekwatne w tej sytuacji gdyż schemat dotyczy bardziej szczegółowych lokalizacji wewnętrznych budynków. Kondygnacyjne punkty dostępowe w praktyce pełnią rolę pośredników w dystrybucji sygnału pomiędzy głównymi węzłami a użytkownikami jednak ich liczba także nie odpowiada liczbie na schemacie. Typowym błędem jest zakładanie że każda widoczna na schemacie sekcja oznacza to samo co może prowadzić do błędnych konkluzji. Ważne jest by rozróżniać różne elementy sieciowe i ich role godząc szczegółową analizę struktury z funkcjonalnymi wymaganiami co pomaga w optymalizacji i rozbudowie sieci telekomunikacyjnych.

Pytanie 4

Aby zmienić port drukarki zainstalowanej w systemie Windows, która funkcja powinna zostać użyta?

A. Preferencje drukowania
B. Ostatnia znana dobra konfiguracja
C. Właściwości drukarki
D. Menedżer zadań
Jak widzisz, odpowiedź "Właściwości drukarki" to strzał w dziesiątkę! W tym miejscu można zmieniać ustawienia drukarki, łącznie z portem, który służy do komunikacji. W systemie Windows zmiana portu jest dość prosta. Trzeba po prostu otworzyć Panel sterowania, iść do "Urządzenia i drukarki", kliknąć prawym przyciskiem myszy na drukarkę i wybrać "Właściwości drukarki". Potem w zakładce "Porty" zobaczysz wszystkie dostępne porty i możesz zmienić ten, na którym masz drukarkę. Na przykład, jeśli drukarka działa teraz na USB, a chcesz, żeby działała na sieci, to zrobisz to bez problemu. W biurach to dosyć istotne, bo jak jest dużo urządzeń w sieci, to dobrze skonfigurowane porty pomagają w utrzymaniu sprawnej komunikacji, no i ogólnej wydajności. Warto też zapisywać, jakie zmiany się robi, żeby potem łatwiej było rozwiązywać problemy, które mogą się pojawić.

Pytanie 5

Aby podczas prac montażowych zabezpieczyć szczególnie wrażliwe podzespoły elektroniczne komputera przed wyładowaniem elektrostatycznym, należy stosować

A. opaskę antystatyczną.
B. matę izolacji termicznej.
C. buty ochronne.
D. rękawice ochronne.
Poprawnie – w ochronie wrażliwej elektroniki przed wyładowaniami elektrostatycznymi (ESD) kluczowa jest właśnie opaska antystatyczna. Jej zadanie jest bardzo konkretne: wyrównać potencjał elektryczny między ciałem człowieka a masą urządzenia, tak aby ładunek nie rozładował się nagle przez delikatne podzespoły komputera. W praktyce wygląda to tak, że opaska jest założona na nadgarstek, a przewód z niej podłączony jest do uziemienia (np. specjalnego punktu ESD na stanowisku serwisowym albo do obudowy komputera połączonej z przewodem ochronnym PE). Dzięki temu ładunki gromadzące się na ciele są bezpiecznie i stopniowo odprowadzane. Moim zdaniem to jest absolutna podstawa pracy serwisanta sprzętu komputerowego – dokładnie tak uczą dobre procedury serwisowe producentów płyt głównych, kart graficznych czy modułów RAM. W wielu instrukcjach serwisowych i w normach z serii IEC/EN 61340 dotyczących kontroli ESD wyraźnie zaleca się stosowanie systemu nadgarstek–uziemienie jako główny środek ochrony. Bez tego nawet zwykłe przejście po dywanie może naładować ciało człowieka do kilku kilkunastu kilowoltów, czego w ogóle nie czuć, a co potrafi uszkodzić tranzystory MOSFET czy układy scalone w pamięciach. W praktyce, przy montażu komputera, wymianie RAM-u, procesora, dysku SSD czy karty graficznej, dobrą praktyką jest połączenie opaski antystatycznej z uziemioną obudową i praca dodatkowo na macie antystatycznej (nie mylić z termiczną). W profesjonalnych serwisach stosuje się całe stanowiska ESD: opaska, mata, uziemione narzędzia, czasem nawet odzież ESD. Ale takim absolutnym minimum, które naprawdę robi różnicę, jest właśnie opaska antystatyczna. To mały i tani element, a potrafi oszczędzić mnóstwo kłopotów z „niewyjaśnionymi” uszkodzeniami elektroniki.

Pytanie 6

Aby uniknąć utraty danych w systemie do ewidencji uczniów, po zakończeniu codziennej pracy należy wykonać

A. bezpieczne zamknięcie systemu operacyjnego
B. aktualizację programu
C. kopię zapasową danych programu
D. aktualizację systemu operacyjnego
Dokonanie kopii zapasowej danych programu to kluczowy krok w zapewnieniu ochrony danych, który powinien być realizowany regularnie, a szczególnie po zakończeniu pracy każdego dnia. Kopia zapasowa to zapisana forma danych, która pozwala na ich przywrócenie w przypadku utraty lub uszkodzenia oryginalnych plików. W kontekście programów do ewidencji uczniów, takich jak systemy zarządzania danymi uczniów, wykonanie kopii zapasowej pozwala na zabezpieczenie istotnych informacji, takich jak dane osobowe uczniów, wyniki ocen, frekwencja oraz inne ważne statystyki. Przykładem dobrych praktyk w tej dziedzinie jest wdrożenie strategii 3-2-1, która zakłada posiadanie trzech kopii danych, na dwóch różnych nośnikach (np. dysk twardy i chmura) oraz jednej kopii przechowywanej w innej lokalizacji. Regularne tworzenie kopii zapasowych powinno być częścią polityki zarządzania danymi w każdej instytucji edukacyjnej.

Pytanie 7

Zgodnie z normą PN-EN 50174, okablowanie poziome w systemie okablowania strukturalnego to segment okablowania pomiędzy

A. punktem rozdzielczym a gniazdem użytkownika
B. gniazdkiem użytkownika a terminalem końcowym
C. serwerem a szkieletem sieci
D. punktami rozdzielczymi w głównych pionach budynku
Zgodnie z normą PN-EN 50174, okablowanie poziome w systemie okablowania strukturalnego odnosi się do połączeń pomiędzy punktem rozdzielczym a gniazdem użytkownika. Jest to kluczowa część infrastruktury sieciowej, ponieważ to właśnie przez tę część okablowania sygnał trafia do końcowych urządzeń użytkowników, takich jak komputery, telefony czy inne urządzenia sieciowe. W praktyce oznacza to, że projektując system okablowania, inżynierowie muszą dokładnie zaplanować trasę kabli oraz ich rodzaj, aby zapewnić optymalne parametry transmisji danych, minimalizując jednocześnie zakłócenia. Okablowanie poziome powinno spełniać określone normy dotyczące długości kabli, ich jakości oraz ochrony przed zakłóceniami elektromagnetycznymi. Warto również pamiętać o standardach instalacji, takich jak ISO/IEC 11801, które korespondują z PN-EN 50174, co pozwala na uzyskanie wysokiej jakości i niezawodności systemów sieciowych.

Pytanie 8

W procedurze Power-On Self-Test w pierwszej kolejności wykonywane jest sprawdzanie

A. urządzeń peryferyjnych.
B. podzespołów niezbędnych do działania komputera.
C. sterowników urządzeń peryferyjnych.
D. pamięci wirtualnej.
Poprawna odpowiedź odnosi się do istoty działania procedury POST (Power-On Self-Test). Po włączeniu komputera firmware BIOS lub UEFI uruchamia bardzo podstawowy kod zapisany w pamięci nieulotnej płyty głównej. Ten kod jako pierwszy krok sprawdza absolutnie kluczowe podzespoły niezbędne do dalszego startu systemu. Chodzi głównie o procesor, kontroler pamięci RAM, samą pamięć operacyjną, podstawowe układy chipsetu, kontrolery magistral oraz układ odpowiedzialny za wyświetlenie komunikatu startowego (zwykle podstawowy kontroler grafiki). Dopiero gdy te elementy „przejdą” test, możliwe jest dalsze ładowanie BIOS/UEFI, inicjalizacja urządzeń oraz start systemu operacyjnego. Moim zdaniem warto patrzeć na POST jak na procedurę bezpieczeństwa: najpierw sprawdzane jest to, bez czego komputer w ogóle nie ma prawa działać. Jeśli płyta główna wykryje poważną usterkę RAM, procesora czy kluczowego kontrolera, zatrzyma proces startu i zasygnalizuje błąd sekwencją sygnałów dźwiękowych (beep codes) lub kodem diagnostycznym na wyświetlaczu płyty. To jest standardowe zachowanie zgodne z praktykami producentów płyt głównych i firmware. W praktyce serwisowej rozumienie działania POST bardzo pomaga. Jeżeli komputer włącza się, ale nie wyświetla obrazu, a głośniczek systemowy wydaje charakterystyczne „piknięcia”, technik od razu może skojarzyć: to BIOS sygnalizuje problem z jednym z krytycznych podzespołów. Dzięki temu można systematycznie sprawdzać pamięć RAM, procesor, kartę graficzną czy zasilacz, zamiast błądzić po omacku. W nowoczesnych płytach UEFI często mamy też kody POST wyświetlane na małym wyświetlaczu LED – one również opisują etap testu kluczowych komponentów. To wszystko pokazuje, że priorytetem POST jest zawsze sprawdzenie podzespołów niezbędnych do działania komputera, a dopiero później reszty sprzętu i oprogramowania.

Pytanie 9

Jak można przywrócić domyślne ustawienia płyty głównej, gdy nie ma możliwości uruchomienia BIOS Setup?

A. przełożyć zworkę na płycie głównej
B. ponownie uruchomić system
C. zaktualizować BIOS Setup
D. doładować baterię na płycie głównej
Przełożenie zworki na płycie głównej to sprytny sposób, żeby przywrócić ustawienia fabryczne BIOS-u, zwłaszcza gdy nie możemy wejść do menu. Zworki to takie maleńkie złącza, które umożliwiają zmianę ustawień sprzętu, no i właśnie resetowanie BIOS-u. Żeby to zrobić, najpierw musisz znaleźć zworkę CMOS, zazwyczaj jest blisko baterii na płycie głównej. Cała procedura polega na przestawieniu zworki z pozycji normalnej na reset, a potem wrócisz do normalnej pozycji po kilku sekundach. Dzięki temu skasujesz wszelkie zmiany, które mogły być wcześniej wprowadzone, co jest przydatne, jak masz problemy z uruchomieniem komputera. Rekomenduję też zajrzeć do dokumentacji płyty głównej, żeby dobrze zlokalizować zworkę i wiedzieć, co do czego, bo to naprawdę może uprościć diagnostykę i naprawę.

Pytanie 10

Na przedstawionym panelu tylnym płyty głównej znajdują się między innymi następujące interfejsy:

Ilustracja do pytania
A. 2 x HDMI, 1 x D-SUB, 1 x RJ-11, 6 x USB 2.0
B. 2 x USB 3.0; 4 x USB 2.0, 1.1; 1 x D-SUB
C. 2 x USB 3.0; 2 x USB 2.0, 1.1; 2 x DP, 1 x DVI
D. 2 x PS2; 1 x RJ45; 6 x USB 2.0, 1.1
Odpowiedź 2 jest prawidłowa, ponieważ przedstawiony panel tylny płyty głównej zawiera 2 porty USB 3.0, 4 porty USB 2.0 lub 1.1 oraz 1 port D-SUB. Porty USB 3.0, oznaczone zazwyczaj niebieskim środkiem, oferują wyższą przepustowość danych, co jest istotne przy podłączaniu zewnętrznych dysków twardych czy innych urządzeń wymagających szybkiego transferu danych. Porty USB 2.0, mimo niższej szybkości, są wciąż szeroko stosowane do podłączania klawiatur, myszy, czy drukarek. Port D-SUB, znany również jako VGA, jest analogowym złączem używanym do łączenia monitorów i projektorów, co jest przydatne w środowiskach biurowych i edukacyjnych, gdzie starsze monitory mogą być wciąż w użyciu. Dzięki tym interfejsom płyta główna zapewnia szeroką kompatybilność z różnorodnymi urządzeniami peryferyjnymi, co jest zgodne z dobrymi praktykami zapewniającymi elastyczność i wygodę użytkowania sprzętu komputerowego. Warto pamiętać, że wybór portów wpływa na możliwości rozbudowy i dostosowania komputera do specyficznych potrzeb użytkownika, co jest kluczowe w wielu zastosowaniach zawodowych.

Pytanie 11

Przedstawiony symbol znajdujący się na obudowie komputera stacjonarnego oznacza ostrzeżenie przed

Ilustracja do pytania
A. możliwym urazem mechanicznym.
B. promieniowaniem niejonizującym.
C. porażeniem prądem elektrycznym.
D. możliwym zagrożeniem radiacyjnym.
To ostrzeżenie przed porażeniem prądem elektrycznym jest jednym z najważniejszych symboli bezpieczeństwa, z jakimi spotykamy się w świecie techniki. Ten żółty trójkąt z czarną błyskawicą według normy PN-EN ISO 7010 jest międzynarodowo rozpoznawanym znakiem ostrzegawczym. Umieszcza się go na obudowach komputerów, zasilaczach, rozdzielniach i wszędzie tam, gdzie nawet przypadkowy kontakt z elementami pod napięciem może spowodować poważne obrażenia, a nawet zagrożenie życia. Moim zdaniem, w codziennej pracy z komputerami czy innymi urządzeniami, trochę za rzadko zwracamy uwagę na te znaki. A przecież to nie tylko teoria z lekcji BHP – napięcie 230 V, które jest standardem w naszych gniazdkach, jest już śmiertelnie niebezpieczne. W praktyce, otwierając obudowę komputera lub serwera, zanim sięgniesz do środka, powinieneś zawsze odłączyć urządzenie od zasilania i odczekać chwilę, bo niektóre elementy mogą magazynować ładunek (chociażby kondensatory w zasilaczu). Takie symbole nie są tam bez powodu – one przypominają, że bezpieczeństwo to nie formalność, tylko rzecz absolutnie podstawowa. Osobiście uważam, że nawet najprostsze czynności, jak czyszczenie wnętrza komputera, warto wykonywać świadomie, mając na uwadze te ostrzeżenia. Podejście zgodne z normami i zdrowym rozsądkiem naprawdę procentuje – lepiej stracić minutę niż zdrowie.

Pytanie 12

W normie PN-EN 50174 nie znajdują się wytyczne dotyczące

A. uziemień instalacji urządzeń przetwarzania danych
B. zapewnienia jakości systemów okablowania
C. realizacji instalacji na zewnątrz budynków
D. realizacji instalacji wewnętrznych w budynkach
Norma PN-EN 50174 określa zasady projektowania, instalowania oraz eksploatacji systemów okablowania telekomunikacyjnego w budynkach. Wskazuje wytyczne dotyczące zarówno instalacji wewnętrznych, jak i zewnętrznych, a także zapewnienia jakości tych instalacji. Jednakże, norma ta nie zajmuje się szczegółowo zagadnieniem uziemień instalacji urządzeń przetwarzania danych. Uziemienie jest kluczowym aspektem dla bezpieczeństwa i stabilności działania systemów elektronicznych, jednak szczegółowe wytyczne w tym zakresie znajdują się w innych normach, takich jak PN-EN 62305 dotycząca ochrony odgromowej. Przykład zastosowania dotyczy instalacji serwerowni, gdzie odpowiednie uziemienie ma na celu nie tylko ochronę przed przepięciami, ale również poprawę jakości sygnału oraz minimalizację zakłóceń elektromagnetycznych. Zrozumienie, jak uziemienie wpływa na działanie systemu, jest istotne dla zapewnienia niezawodności usług telekomunikacyjnych.

Pytanie 13

W metodzie dostępu do medium CSMA/CD (Carrier Sense Multiple Access with Collision Detection) stacja, która planuje rozpocząć transmisję, nasłuchuje, czy w sieci występuje aktywność, a następnie

A. czeka na token umożliwiający rozpoczęcie nadawania
B. po zauważeniu ruchu w sieci czeka, aż medium stanie się dostępne
C. wysyła prośbę o zezwolenie na transmisję
D. oczekuje na ustalenie priorytetu transmisji przez koncentrator
W odpowiedzi na pytanie, poprawną opcją jest "po wykryciu ruchu w sieci czeka aż nośnik będzie wolny". Metoda CSMA/CD (Carrier Sense Multiple Access with Collision Detection) operuje na zasadzie nasłuchiwania medium transmisyjnego przed rozpoczęciem nadawania. Gdy stacja chce wysłać dane, najpierw sprawdza, czy medium jest wolne, co oznacza, że nie zachodzi żaden ruch. Jeżeli medium jest zajęte, stacja nie rozpoczyna transmisji, lecz czeka, aż stanie się wolne. To podejście ma na celu minimalizację kolizji, które są kosztowne w kontekście wydajności sieci. Przykładami zastosowania tej metody mogą być starsze sieci Ethernet, które korzystały z kabli koncentrycznych, gdzie kolizje były powszechne. Dobre praktyki w projektowaniu sieci zalecają stosowanie CSMA/CD w środowiskach, gdzie równocześnie może nadawać wiele urządzeń, co jest kluczowe dla zapewnienia efektywności transmisji danych oraz ich integralności. Znajomość tej metodologii jest istotna, ponieważ pozwala na lepsze zrozumienie, jak funkcjonują różne typy sieci i jakie mechanizmy są wdrażane, aby zapewnić ich stabilność i wydajność.

Pytanie 14

Jaki adres IP należy do urządzenia funkcjonującego w sieci 10.0.0.0/17?

A. 10.0.127.128
B. 10.0.128.254
C. 10.0.128.127
D. 10.0.254.128
Inne odpowiedzi nie są poprawne ze względu na błędną interpretację maski podsieci. Adres 10.0.128.127 znajduje się poza zakresem 10.0.0.0/17, ponieważ jego pierwsze 17 bitów (10.0.128) wskazuje na inną podsieć. W rzeczywistości, 10.0.128.0 to początek nowej podsieci, co sprawia, że ten adres nie może być przypisany w sieci 10.0.0.0/17. Z kolei adres 10.0.128.254 również leży w tej samej, nieprawidłowej podsieci co 10.0.128.127, więc również jest niewłaściwy. Natomiast 10.0.254.128 to adres, który znajduje się znacznie powyżej zakresu 10.0.0.0/17. Często popełnianym błędem jest mylenie zakresów adresowych przy użyciu maski CIDR. Kluczowe jest, aby zrozumieć, że maska /17 oznacza, że pierwsze 17 bitów definiuje część sieci, a kolejne 15 bitów służy do adresacji urządzeń. Skutkuje to tym, że adresy IP muszą być w zakresie od 10.0.0.0 do 10.0.127.255, co wyklucza wszystkie inne wymienione adresy. Dlatego ważne jest, aby dokładnie sprawdzić, do jakiej podsieci należy dany adres IP, aby uniknąć błędów w konfiguracji sieci oraz zapewnić prawidłowe działanie urządzeń w danym zakresie.

Pytanie 15

W systemie dziesiętnym liczba 110011(2) przedstawia się jako

A. 52
B. 51
C. 50
D. 53
Odpowiedź 51 jest poprawna, ponieważ liczba 110011 zapisana w systemie binarnym (dwu-symbolowym) można przeliczyć na system dziesiętny (dziesięcio-symbolowy) przez zsumowanie wartości poszczególnych bitów, które mają wartość 1. W systemie binarnym każdy bit reprezentuje potęgę liczby 2. Rozpoczynając od prawej strony, mamy: 1*2^5 + 1*2^4 + 0*2^3 + 0*2^2 + 1*2^1 + 1*2^0, co daje: 32 + 16 + 0 + 0 + 2 + 1 = 51. Przykładem praktycznego zastosowania tej wiedzy jest programowanie, gdzie często spotykamy się z konwersją między systemami liczbowymi, szczególnie przy wykorzystaniu binarnych reprezentacji danych w pamięci komputerowej. Zrozumienie, jak konwertować różne systemy liczbowej, jest kluczowe dla efektywnego programowania oraz pracy z algorytmami, co stanowi standard w informatyce.

Pytanie 16

Ile adresów urządzeń w sieci jest dostępnych dzięki zastosowaniu klasy adresowej C w systemach opartych na protokołach TCP/IP?

A. 254
B. 200
C. 256
D. 100
Klasa adresowa C w sieciach opartych na protokole TCP/IP jest jedną z klas adresowych, której głównym celem jest umożliwienie przypisania adresów dla stosunkowo niewielkich sieci. Adresy w klasie C mają format 24-bitowy dla części sieciowej i 8-bitowy dla części hosta, co oznacza, że adresy te zaczynają się od 192.0.0.0 do 223.255.255.255. W teorii, przy użyciu 8-bitowego segmentu dla hostów, teoretycznie moglibyśmy uzyskać 256 adresów. Jednak dwa z tych adresów są zarezerwowane: jeden dla adresu sieci (np. 192.168.1.0) i jeden dla adresu rozgłoszeniowego (np. 192.168.1.255). Dlatego rzeczywista liczba dostępnych adresów urządzeń w klasie C wynosi 254, co jest wystarczające dla małych sieci, takich jak biura czy oddziały firm. Umożliwia to przypisanie unikalnych adresów do urządzeń, zapewniając jednocześnie możliwość efektywnego zarządzania i organizacji sieci w zgodzie z najlepszymi praktykami administracyjnymi.

Pytanie 17

Transmisja w standardzie 100Base-T korzysta z kabli skrętkowych, które mają

A. 1 parę
B. 2 pary
C. 4 pary
D. 3 pary
Co do liczby par przewodów w kablu dla standardu 100Base-T, to rzeczywiście warto to zrozumieć. Osoby, które wskazały 3 pary, mylą się, bo na prawdę do 100 Mbps wystarczą 2 pary. Jeżeli ktoś zaznaczył 1 parę, to jest błędne myślenie, że jedna para da radę przesyłać dane w obu kierunkach. W 100Base-T trzeba używać dwóch par, bo to umożliwia płynne działanie w obie strony. A 4 pary są zbędne w tym przypadku. W nowszych standardach jak 1000Base-T rzeczywiście używają 4 pary, ale tu to niepotrzebne. Generalnie, nie każda wyższa liczba oznacza lepszą wydajność. Dlatego ważne jest, żeby znać te standardy Ethernet i co one oznaczają, bo to pomaga w podejmowaniu lepszych decyzji na temat konfiguracji sieci.

Pytanie 18

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. konfigurowaniem adresu karty sieciowej.
B. wybraniem pliku z obrazem dysku.
C. dodaniem drugiego dysku twardego.
D. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 19

Program iftop działający w systemie Linux ma na celu

A. ustawianie parametrów interfejsu graficznego
B. monitorowanie aktywności połączeń sieciowych
C. prezentowanie bieżącej prędkości zapisu w pamięci operacyjnej
D. kończenie procesu, który zużywa najwięcej zasobów procesora
Program iftop jest narzędziem służącym do monitorowania połączeń sieciowych w systemie Linux. Jego główną funkcjonalnością jest wyświetlanie danych dotyczących aktywności sieciowej w czasie rzeczywistym. Użytkownik może zobaczyć, które adresy IP są najbardziej aktywne, jak również ilość przesyłanych danych w określonym czasie. Dzięki temu administratorzy sieci mogą szybko identyfikować potencjalne problemy, takie jak nadmierne obciążenie sieci, działania złośliwe lub błędy konfiguracyjne. Dodatkowo, iftop umożliwia filtrowanie wyników według interfejsów sieciowych oraz protokołów, co zwiększa jego użyteczność w bardziej złożonych środowiskach. W praktyce, narzędzie to jest często wykorzystywane w połączeniu z innymi narzędziami do monitorowania sieci, takimi jak Wireshark, aby uzyskać pełniejszy obraz stanu infrastruktury sieciowej. Jeżeli chcesz dowiedzieć się więcej o monitoringach sieciowych, warto zaznajomić się z protokołem SNMP oraz narzędziami do jego implementacji.

Pytanie 20

Jakim sposobem zapisuje się dane na nośnikach BD-R?

A. przy użyciu światła UV
B. dzięki głowicy magnetycznej
C. z wykorzystaniem lasera czerwonego
D. poprzez zastosowanie lasera niebieskiego
Odpowiedź 'lasera niebieskiego' jest prawidłowa, ponieważ zapis na dyskach BD-R (Blu-ray Disc Recordable) wykorzystuje laser o długości fali około 405 nm, co plasuje go w zakresie niebieskiego światła. Ta technologia jest kluczowa dla osiągnięcia wysokiej gęstości zapisu, co pozwala na pomieszczenie znacznie większej ilości danych w porównaniu do tradycyjnych nośników optycznych takich jak DVD czy CD. W praktyce, dzięki zastosowaniu lasera niebieskiego, możliwe jest zredukowanie wielkości piksela, co przyczynia się do zwiększenia pojemności dysków Blu-ray. Standard BD-R pozwala na zapis do 25 GB na jedną warstwę i 50 GB na dwie warstwy, co czyni go idealnym rozwiązaniem dla przechowywania wysokiej jakości filmów w rozdzielczości HD. Dobre praktyki w branży filmowej czy muzycznej często wymagają używania dysków Blu-ray dla archiwizacji oraz dystrybucji multimediów, ze względu na ich niezawodność i jakość. W związku z tym, znajomość technologii zapisu na dyskach BD-R oraz jej przewag nad innymi nośnikami jest istotna dla profesjonalistów w obszarze mediów cyfrowych.

Pytanie 21

Wyświetlony stan ekranu terminala został uzyskany podczas testu realizowanego w środowisku Windows. Techniczny pracownik zdobył w ten sposób informacje o:

C:\>tracert wp.pl

Trasa śledzenia do wp.pl [212.77.100.101]
przewyższa maksymalną liczbę przeskoków 30

 1     2 ms     3 ms     2 ms  192.168.0.1
 2     *        8 ms    10 ms  10.135.96.1
 3     *        *        *     Upłynął limit czasu żądania.
 4     9 ms     7 ms    10 ms  upc-task-gw.task.gda.pl [153.19.0.5]
 5    16 ms     9 ms     9 ms  ci-wp-rtr.wp.pl [153.19.102.1]
 6    91 ms     *       10 ms  zeu.ptr02.adm.wp-sa.pl [212.77.105.29]
 7    11 ms    10 ms    11 ms  www.wp.pl [212.77.100.101]

Śledzenie zakończone.

C:\>
A. możliwościach diagnozowania struktury systemu DNS
B. ścieżce do docelowej lokalizacji
C. poprawności ustawień protokołu TCP/IP
D. sprawności łącza przy użyciu protokołu IPX/SPX
Polecenie tracert nie jest odpowiednie do weryfikacji poprawności konfiguracji protokołu TCP/IP. Aby sprawdzić konfigurację TCP/IP, używa się polecenia ipconfig, które wyświetla konfigurację IP danego komputera, takie jak adres IP, maska podsieci czy brama domyślna. Tracert nie testuje połączeń IPX/SPX, ponieważ ten protokół jest już przestarzały i nie jest używany w nowoczesnych systemach operacyjnych. Tracert koncentruje się na śledzeniu tras pakietów IP. Także, tracert nie jest narzędziem do diagnozowania infrastruktury DNS. Do diagnozowania DNS używa się narzędzi takich jak nslookup lub dig, które pozwalają na sprawdzenie konfiguracji i odpowiedzi serwerów DNS. Typowym błędem jest mylenie funkcjonalności różnych narzędzi sieciowych. Tracert jest skoncentrowany na analizie trasy pakietów IP, co pozwala na identyfikację miejsc, gdzie mogą występować opóźnienia w sieci. Dla administratorów sieci zrozumienie funkcji każdego z narzędzi jest kluczowe do ich odpowiedniego stosowania i uniknięcia błędów w diagnozowaniu problemów sieciowych. Dlatego właściwe rozróżnienie funkcji każdego narzędzia jest kluczowe dla efektywnego zarządzania siecią i rozwiązywania jej problemów.

Pytanie 22

Aby uzyskać listę procesów aktualnie działających w systemie Linux, należy użyć polecenia

A. ps
B. show
C. who
D. dir
Polecenie 'ps' w systemie Linux jest kluczowym narzędziem do monitorowania i zarządzania procesami działającymi w systemie. Jego pełna forma to 'process status', a jego zadaniem jest wyświetlenie informacji o aktualnie uruchomionych procesach, takich jak ich identyfikatory PID, wykorzystanie pamięci, stan oraz czas CPU. Dzięki możliwościom filtrowania i formatowania wyników, 'ps' jest niezwykle elastyczne, co czyni je niezastąpionym narzędziem w codziennej administracji systemami. Na przykład, użycie polecenia 'ps aux' pozwala uzyskać pełen widok na wszystkie procesy, w tym te uruchomione przez innych użytkowników. W praktyce, administratorzy często łączą 'ps' z innymi poleceniami, takimi jak 'grep', aby szybko zidentyfikować konkretne procesy, co jest zgodne z dobrymi praktykami zarządzania systemami. Zrozumienie i umiejętność korzystania z 'ps' jest fundamentem dla każdego, kto zajmuje się administracją systemów Linux, a jego znajomość jest kluczowym elementem w rozwiązywaniu problemów związanych z wydajnością czy zarządzaniem zasobami.

Pytanie 23

Jaki adres IPv6 jest poprawny?

A. 1234:9ABC::123:DEF4
B. 1234:9ABC::123::DEF4
C. 1234-9ABC-123-DEF4
D. 1234.9ABC.123.DEF4
Odpowiedź '1234:9ABC::123:DEF4' jest prawidłowym adresem IPv6, ponieważ spełnia wszystkie wymagania formalne tego standardu. Adres IPv6 składa się z ośmiu grup, z których każda zawiera cztery znaki szesnastkowe, oddzielone dwukropkami. W przypadku użycia podwójnego dwukropka (::), co oznacza zredukowaną sekwencję zer, może on występować tylko raz w adresie, co zostało poprawnie zastosowane w tej odpowiedzi. W tym przypadku podwójny dwukropek zastępuje jedną grupę zer, co jest zgodne z definicją adresacji IPv6. Przykładowe zastosowanie poprawnego adresu IPv6 może obejmować konfigurację sieci lokalnej, gdzie każdy element infrastruktury, taki jak routery czy serwery, będzie miał unikalny adres IPv6. Stosowanie takiej adresacji jest kluczowe w kontekście wyczerpywania się adresów IPv4 oraz rosnących potrzeb na większą przestrzeń adresową w Internecie.

Pytanie 24

Usługi na serwerze są konfigurowane za pomocą

A. Active Directory
B. ról i funkcji
C. interfejsu zarządzania
D. serwera domeny
Konfiguracja usług na serwerze przez role i funkcje jest kluczowym elementem zarządzania infrastrukturą IT. Role i funkcje to zestawy zadań i odpowiedzialności, które są przypisane do serwera, co pozwala na efektywne dostosowanie jego działania do konkretnych potrzeb organizacji. Na przykład, w systemie Windows Server możliwe jest przypisanie roli serwera plików, co umożliwia centralne zarządzanie danymi przechowywanymi w sieci. W praktyce oznacza to, że administratorzy mogą łatwo konfigurować dostęp do zasobów, zarządzać uprawnieniami użytkowników i monitorować wykorzystanie przestrzeni dyskowej. Ponadto, dobre praktyki w zakresie zarządzania serwerami wymagają regularnej aktualizacji i przeglądu przypisanych ról, aby zapewnić bezpieczeństwo i wydajność systemu. Standardy branżowe, takie jak ITIL, podkreślają znaczenie odpowiedniego przypisania ról w zakresie zarządzania usługami IT, co wpływa na jakość dostarczanych usług oraz satysfakcję użytkowników końcowych.

Pytanie 25

Aby odzyskać dane z dysku, który został sformatowany, warto użyć programu typu

A. recovery
B. IRC
C. sniffer
D. p2p
Odpowiedź "recovery" jest poprawna, ponieważ programy typu recovery (odzyskiwania danych) są specjalnie zaprojektowane do przywracania utraconych lub usuniętych plików z dysków twardych, które zostały sformatowane lub usunięte. Proces formatowania dysku nie usuwa fizycznie danych, lecz jedynie oznacza obszary dysku jako dostępne do zapisu. Programy do odzyskiwania danych potrafią skanować dysk w poszukiwaniu pozostałości plików oraz ich struktur, co umożliwia ich przywrócenie. Przykładem popularnych narzędzi są Recuva, EaseUS Data Recovery Wizard oraz TestDisk, które są stosowane w praktyce zarówno przez specjalistów IT, jak i użytkowników indywidualnych. W branży informatycznej standardem jest również wykonywanie regularnych kopii zapasowych, co może znacząco ułatwić proces odzyskiwania danych. W sytuacji, gdy dane zostały utracone, zaleca się nie zapisywać nowych informacji na danym dysku, aby zwiększyć szanse na odzyskanie danych.

Pytanie 26

Jakie urządzenie stosuje technikę polegającą na wykrywaniu zmian w pojemności elektrycznej podczas manipulacji kursorem na monitorze?

A. touchpad
B. joystik
C. mysz
D. trackpoint
Touchpad to urządzenie wejściowe, które wykorzystuje metodę detekcji zmian pojemności elektrycznej, aby zareagować na ruch palca użytkownika. W dotykowych panelach, takich jak touchpad, pod powierzchnią znajdują się czujniki, które monitorują zmiany w polu elektrycznym, gdy palec zbliża się do powierzchni. Działa to na zasadzie pomiaru pojemności elektrycznej, co pozwala na precyzyjne określenie pozycji dotyku. Takie rozwiązanie znajduje zastosowanie w laptopach, tabletach oraz niektórych smartfonach. Z perspektywy ergonomii i interakcji użytkownika, touchpady oferują łatwość nawigacji i możliwość wykonywania gestów, co poprawia komfort pracy. Przykładowo, przesunięcie palcem w górę może zastąpić przewijanie strony, a wykonanie podwójnego stuknięcia może działać jak kliknięcie. W kontekście standardów branżowych, touchpady muszą spełniać określone normy jakości w zakresie detekcji dotyku oraz responsywności, co wpływa na ich popularność w nowoczesnych urządzeniach komputerowych.

Pytanie 27

Aby zatrzymać wykonywanie programu zapisanego w pliku wsadowym Windows do momentu naciśnięcia dowolnego klawisza, należy zastosować komendę

A. stop
B. echo on
C. echo off
D. pause
Komenda 'pause' w plikach wsadowych systemu Windows służy do wstrzymywania działania programu do momentu naciśnięcia dowolnego klawisza przez użytkownika. Kiedy zostanie wydana ta komenda, na ekranie pojawi się komunikat 'Press any key to continue...', co wskazuje użytkownikowi, aby interweniował. Jest to szczególnie przydatne w sytuacjach, gdy program wykonuje długotrwałe operacje, a użytkownik chce upewnić się, że wszystkie informacje na ekranie zostały zrozumiane, zanim przejdzie do następnego kroku. W praktyce, 'pause' można używać na końcu skryptów, aby dać użytkownikowi czas na zapoznanie się z wynikami operacji. Zastosowanie tej komendy sprzyja lepszemu zarządzaniu interakcją z użytkownikiem i zwiększa użyteczność skryptów, co jest zgodne z dobrymi praktykami w programowaniu wsadowym. Warto także zauważyć, że stosowanie 'pause' w skryptach automatyzacyjnych pozwala na lepsze debugowanie i śledzenie działania kodu, co jest kluczowe w procesie tworzenia efektywnych rozwiązań. Dodatkowo, istnieją inne komendy, które mogą wspierać interakcję z użytkownikiem, takie jak 'input', jednak 'pause' pozostaje najprostszym i najczęściej stosowanym rozwiązaniem.

Pytanie 28

Które z poniższych twierdzeń nie odnosi się do pamięci cache L1?

A. Posiada dłuższy czas dostępu niż pamięć RAM
B. Jest pamięcią typu SRAM
C. Jej szybkość pracy odpowiada częstotliwości procesora
D. Znajduje się wewnątrz procesora
Pojęcie pamięci cache L1 często jest mylone z pamięcią RAM przez osoby, które nie rozumieją różnic w architekturze komputerowej. W rzeczywistości, pamięć cache L1 jest znacznie szybsza niż pamięć RAM, co wynika z jej lokalizacji i technologii, z jakiej jest zbudowana. Pamięć L1 jest zintegrowana w obrębie rdzenia procesora, co minimalizuje opóźnienia w dostępie do danych. Użytkownicy mogą błędnie sądzić, że pamięć L1, będąc częścią hierarchii pamięci, jest równie wolna jak pamięć RAM, co prowadzi do niewłaściwych wniosków. Ponadto, pamięć L1 działa na zasadzie SRAM, która jest znacznie szybsza i bardziej efektywna energetycznie w porównaniu do DRAM stosowanego w pamięci RAM. Ta różnica w technologii ma kluczowe znaczenie, ponieważ SRAM jest w stanie przechowywać dane przez dłuższy czas bez potrzeby odświeżania, co jest wymagane dla DRAM. W rezultacie, pomiar czasu dostępu do pamięci L1 jest znacznie korzystniejszy, co z kolei ma bezpośredni wpływ na wydajność aplikacji i całego systemu komputerowego. Właściwe zrozumienie tych różnic jest kluczowe dla każdej osoby pracującej w dziedzinie informatyki, inżynierii komputerowej lub technologii, która chce efektywnie projektować i optymalizować systemy komputerowe.

Pytanie 29

Jakie urządzenie wskazujące działa na podstawie zmian pojemności elektrycznej?

A. joystick
B. wskaźnik
C. trackpoint
D. touchpad
Touchpad to taki fajny wynalazek, który działa na zasadzie wykrywania zmian w pojemności elektrycznej. Kiedy dotykasz jego powierzchni, to w zasadzie dzięki temu pomiarowi można precyzyjnie określić, gdzie go dotykasz. To świetne rozwiązanie, zwłaszcza w laptopach i tabletach, gdzie miejsca na tradycyjne urządzenia wskazujące jest mało. Możesz zobaczyć touchpady w różnych sprzętach, gdzie służą np. do sterowania grafiką czy po prostu do przeglądania systemu. W branży komputerowej touchpady stały się standardem, bo są wygodne i proste w użyciu. Co więcej, nowoczesne touchpady często obsługują gesty, co zwiększa ich funkcjonalność. Z mojego doświadczenia, warto znać te różnice, bo pomaga to w lepszym korzystaniu z urządzeń.

Pytanie 30

Podstawowym zadaniem mechanizmu Plug and Play jest

A. automatyczne uruchamianie ostatnio zagranej gry
B. rozpoznanie nowo podłączonego urządzenia oraz automatyczne przydzielenie mu zasobów
C. automatyczne usuwanie sterowników, które nie były używane przez dłuższy czas
D. automatyczne tworzenie kopii zapasowych danych na świeżo podłączonym nośniku pamięci
Odpowiedź numer 3 jest poprawna, ponieważ mechanizm Plug and Play (PnP) ma na celu automatyczne wykrywanie nowo podłączonego sprzętu i przypisywanie mu odpowiednich zasobów systemowych, takich jak numery przerwań (IRQ), adresy pamięci oraz dostęp do portów. Dzięki temu użytkownik nie musi ręcznie konfigurować urządzeń, co znacznie upraszcza proces instalacji i konfiguracji sprzętu. Przykłady zastosowania PnP obejmują podłączanie myszek, klawiatur, drukarek czy dysków zewnętrznych. Standardy Plug and Play są powszechnie stosowane w nowoczesnych systemach operacyjnych, takich jak Windows czy Linux, co zapewnia ich szeroką kompatybilność z różnorodnym sprzętem. Warto również zauważyć, że mechanizm ten jest zgodny z architekturą USB, która również wspiera automatyczne wykrywanie i konfigurację urządzeń. PnP znacząco podnosi użyteczność komputerów osobistych oraz innych urządzeń elektronicznych, pozwalając na łatwe dodawanie i usuwanie sprzętu bez potrzeby restartowania systemu czy ingerencji w ustawienia BIOS-u.

Pytanie 31

Urządzeniem w zestawie komputerowym, które obsługuje zarówno dane wejściowe, jak i wyjściowe, jest

A. głośnik.
B. modem.
C. urządzenie do skanowania.
D. rysownik.
Modem jest urządzeniem, które pełni kluczową rolę w komunikacji komputerowej, przetwarzając zarówno dane wejściowe, jak i wyjściowe. Jego podstawową funkcją jest modulacja i demodulacja sygnałów, co umożliwia przesyłanie danych przez różnorodne media, takie jak linie telefoniczne, kable koncentryczne czy łącza światłowodowe. Przykładem zastosowania modemu może być połączenie z Internetem, gdzie modem przekształca sygnały cyfrowe z komputera na sygnały analogowe, które mogą być przesyłane przez infrastrukturę telekomunikacyjną. W praktyce, modem jest integralną częścią zestawu komputerowego, umożliwiającą komunikację z siecią, co jest zgodne z aktualnymi standardami, takimi jak DSL czy kablowe połączenia szerokopasmowe. W kontekście dobrych praktyk branżowych, dobór odpowiedniego modemu jest istotny dla zapewnienia optymalnej prędkości i stabilności połączenia, co w konsekwencji wpływa na wydajność i efektywność pracy zdalnej.

Pytanie 32

Na zdjęciu widnieje

Ilustracja do pytania
A. modem ISDN
B. modem wewnętrzny
C. kartę sieciową 4 portową
D. płytę przełącznika 4 portowego
Karta sieciowa 4 portowa to urządzenie pozwalające na podłączenie kilku urządzeń sieciowych do komputera lub serwera. Każdy z portów może obsługiwać połączenie sieciowe, co umożliwia zwiększenie przepustowości danych lub redundancję połączeń. Karty sieciowe są często stosowane w centrach danych i serwerowniach, gdzie wymagane są stabilne i szybkie połączenia sieciowe. W praktyce biznesowej karty te mogą być używane do dzielenia ruchu sieciowego pomiędzy różne sieci VLAN, co jest zgodne z dobrymi praktykami zarządzania siecią. Standardy takie jak IEEE 802.3 definiują specyfikacje techniczne dla kart sieciowych, co zapewnia ich kompatybilność z różnymi urządzeniami sieciowymi. Współczesne karty sieciowe często obsługują funkcje takie jak offloading TCP/IP, co odciąża procesor komputera i zwiększa wydajność systemu. Dzięki technologii PoE (Power over Ethernet) niektóre karty mogą również zasilać urządzenia zewnętrzne, co przyczynia się do redukcji okablowania w infrastrukturze sieciowej.

Pytanie 33

Jaką wartość ma liczba 5638 zapisana w systemie szesnastkowym?

A. 713
B. 371
C. 173
D. 317
Liczba 5638 w systemie dziesiętnym jest skonwertowana na system szesnastkowy, co daje 173. Aby to zrozumieć, warto zapoznać się z zasadą konwersji między tymi systemami. W systemie dziesiętnym mamy podstawę 10, a w systemie szesnastkowym podstawę 16. Proces konwersji polega na podzieleniu liczby przez 16 i zapisaniu reszt z kolejnych dzielenia. Po pierwszym dzieleniu 5638 przez 16 otrzymujemy 352 z resztą 6. Następnie dzielimy 352 przez 16, co daje 22 z resztą 0. Dalsze dzielenie 22 przez 16 daje 1 z resztą 6, a ostatnie dzielenie 1 przez 16 daje 0 z resztą 1. Zbierając reszty od ostatniego dzielenia do pierwszego, otrzymujemy 173. Ta wiedza jest przydatna nie tylko w programowaniu, ale również w kryptografii czy inżynierii komputerowej, gdzie różne systemy liczbowania są powszechnie używane.

Pytanie 34

Jaką maksymalną liczbę podstawowych partycji na dysku twardym z tablicą MBR można utworzyć za pomocą narzędzia Zarządzanie dyskami dostępnego w systemie Windows?

A. 2
B. 1
C. 4
D. 3
Odpowiedzi 1, 2 i 3 są niepoprawne, ponieważ opierają się na błędnych założeniach dotyczących struktury tablicy MBR i możliwości zarządzania partycjami. W przypadku opcji pierwszej, twierdzenie, że można utworzyć jedynie jedną partycję podstawową, jest błędne, ponieważ MBR został zaprojektowany z myślą o umożliwieniu tworzenia czterech partycji podstawowych. Dla odpowiedzi drugiej, pomylenie możliwości utworzenia dwóch partycji z rzeczywistością sugeruje, że użytkownik nie rozumie podstawowych zasad działania MBR i jego struktury. Z kolei odpowiedź trzecia, która sugeruje, że można utworzyć trzy partycje podstawowe, również nie uwzględnia maksymalnego limitu czterech partycji. Takie błędne interpretacje często wynikają z niepełnego zrozumienia tematu i nieznajomości specyfiki działania systemów operacyjnych oraz sposobów przydzielania przestrzeni dyskowej. Warto również zauważyć, że w przypadku systemu MBR, partycje mogą być wykorzystywane nie tylko do przechowywania danych, ale także do instalacji różnych systemów operacyjnych, co czyni je kluczowym elementem w zarządzaniu dyskami. Dlatego znajomość limitów i funkcji MBR jest istotna dla osób zajmujących się administracją systemami oraz dbających o efektywność wykorzystania przestrzeni dyskowej.

Pytanie 35

Jakie zagrożenie nie jest eliminowane przez program firewall?

A. Szpiegowanie oraz kradzież poufnych informacji użytkownika
B. Dostęp do systemu przez hakerów
C. Wirusy rozprzestrzeniające się za pomocą poczty e-mail
D. Ataki powodujące zwiększony ruch w sieci
Wybór odpowiedzi dotyczącej wirusów rozprzestrzeniających się pocztą e-mail jako sytuacji, na którą firewall nie ma wpływu, jest zasłużony. Firewalle są narzędziami zabezpieczającymi sieci i urządzenia przed nieautoryzowanym dostępem oraz kontrolującymi przepływ danych w sieci, ale nie są projektowane do analizy i eliminacji złośliwego oprogramowania, które może być dostarczane przez e-maile. Wirusy, trojany i inne formy złośliwego oprogramowania często wykorzystują e-maile jako wektory ataku, co sprawia, że kluczowym zabezpieczeniem jest oprogramowanie antywirusowe oraz odpowiednia edukacja użytkowników. Przykłady skutecznych praktyk obejmują wdrażanie programów antywirusowych w celu skanowania załączników oraz korzystanie z filtrów spamowych. Z punktu widzenia standardów branżowych, takie działania są zgodne z zasadami bezpieczeństwa IT, które rekomendują wielowarstwowe podejście do ochrony danych.

Pytanie 36

W lokalnej sieci protokołem odpowiedzialnym za dynamiczną konfigurację adresów IP jest

A. FTP
B. TCP/IP
C. DNS
D. DHCP
Protokół DHCP to naprawdę ważny element w sieciach lokalnych, bo to on sprawia, że przydzielanie adresów IP do urządzeń jest łatwe i szybkie. Kiedy podłączasz komputer albo smartfona, to wysyła on do serwera DHCP zapytanie. A ten serwer odpowiada, przydzielając wolny adres IP oraz inne dane, jak maska podsieci czy brama domyślna. To mega ułatwia życie administratorom, bo nie muszą ręcznie przydzielać adresów, co mogłoby skończyć się błędami. Ze swojego doświadczenia mogę powiedzieć, że w dużych sieciach, gdzie jest masa urządzeń, DHCP naprawdę robi różnicę. I jeszcze, co jest super, to daje możliwość rezerwacji adresów IP dla konkretnych urządzeń, co jest przydatne, gdy musisz mieć urządzenia zawsze dostępne w sieci.

Pytanie 37

Którą czynność należy wykonać podczas konfiguracji rutera, aby ukryta sieć bezprzewodowa była widoczna dla wszystkich użytkowników znajdujących się w jej zasięgu?

A. Włączyć opcję rozgłaszania sieci.
B. Zmienić nazwę sieci.
C. Ustawić szerokość kanału.
D. Zmienić numer kanału.
Poprawna odpowiedź dotyczy włączenia opcji rozgłaszania sieci (broadcast SSID) w konfiguracji rutera. To właśnie ta funkcja decyduje, czy nazwa sieci Wi‑Fi (SSID) będzie widoczna na liście dostępnych sieci na laptopach, smartfonach czy innych urządzeniach. Jeśli SSID jest ukryty, sieć formalnie istnieje i działa, ale nie pojawia się w typowym skanowaniu, więc użytkownik musi ręcznie wpisać jej nazwę oraz hasło. Włączenie rozgłaszania powoduje, że ruter zaczyna wysyłać w ramkach beacon informacje o nazwie sieci, kanale, typie szyfrowania itp., zgodnie ze standardem IEEE 802.11. Moim zdaniem w praktyce, w większości domowych i małych firmowych sieci, lepiej jest mieć SSID jawny, a skupić się na mocnym szyfrowaniu (WPA2‑PSK lub WPA3‑Personal) oraz sensownym haśle. Ukrywanie SSID nie jest realnym zabezpieczeniem, bo i tak da się je bardzo łatwo podejrzeć przy użyciu prostych narzędzi do analizy ruchu Wi‑Fi. Dobra praktyka branżowa mówi jasno: bezpieczeństwo opieramy na silnym uwierzytelnianiu i szyfrowaniu, a nie na „maskowaniu” nazwy sieci. W konfiguracji rutera opcja ta bywa opisana jako „Broadcast SSID”, „Rozgłaszanie nazwy sieci”, „Ukryj SSID” (z możliwością odznaczenia). Żeby sieć była widoczna dla wszystkich w zasięgu, trzeba wyłączyć ukrywanie (czyli włączyć rozgłaszanie). Przykładowo: w typowym routerze domowym logujesz się do panelu WWW, przechodzisz do ustawień Wi‑Fi, zaznaczasz opcję „Włącz rozgłaszanie SSID” i zapisujesz zmiany. Od tego momentu każdy użytkownik w zasięgu zobaczy nazwę sieci na liście i będzie mógł się do niej podłączyć, oczywiście pod warunkiem, że zna hasło. To jest standardowe i poprawne podejście rekomendowane przez producentów sprzętu sieciowego i zgodne z typową konfiguracją w środowiskach firmowych, gdzie ważna jest zarówno wygoda użytkownika, jak i poprawne działanie mechanizmów roamingu i zarządzania siecią.

Pytanie 38

Symbol graficzny przedstawiony na ilustracji oznacza złącze

Ilustracja do pytania
A. COM
B. FIRE WIRE
C. DVI
D. HDMI
Symbol przedstawiony na rysunku to oznaczenie złącza FireWire znanego również jako IEEE 1394 Interfejs FireWire jest używany do przesyłania danych między urządzeniami elektronicznymi najczęściej w kontekście urządzeń multimedialnych takich jak kamery cyfrowe i zewnętrzne dyski twarde FireWire charakteryzuje się wysoką przepustowością i szybkością transmisji danych co czyni go idealnym do przesyłania dużych plików multimedialnych w czasie rzeczywistym Standard IEEE 1394 umożliwia podłączenie wielu urządzeń do jednego kontrolera co ułatwia tworzenie rozbudowanych systemów multimedialnych bez potrzeby stosowania skomplikowanych ustawień Dzięki szerokiej zgodności z wieloma systemami operacyjnymi FireWire jest ceniony w branżach kreatywnych takich jak produkcja filmowa i dźwiękowa choć w ostatnich latach jego popularność nieco zmalała z powodu wzrostu zastosowań USB i Thunderbolt Mimo to zrozumienie jego użycia jest kluczowe dla profesjonalistów zajmujących się archiwizacją cyfrową i edycją multimediów szczególnie w kontekście starszych urządzeń które nadal wykorzystują ten standard

Pytanie 39

Pamięć podręczna Intel Smart Cache, która znajduje się w procesorach wielordzeniowych, takich jak Intel Core Duo, to pamięć

A. Cache L1 współdzielona pomiędzy wszystkie rdzenie
B. Cache L2 lub Cache L3, równo podzielona pomiędzy rdzenie
C. Cache L2 lub Cache L3, współdzielona przez wszystkie rdzenie
D. Cache L1 równo dzielona pomiędzy rdzenie
Błędy w niepoprawnych odpowiedziach często wynikają z nieporozumienia dotyczącego struktury pamięci podręcznej w architekturze procesorów. Pojęcie pamięci L1, L2 i L3 odnosi się do różnych poziomów pamięci podręcznej, których zadaniem jest zmniejszenie czasu dostępu do danych. Pamięć L1 jest najszybsza, ale również najmniejsza, zazwyczaj dedykowana dla pojedynczego rdzenia. W sytuacji, gdy pamięć L1 jest podzielona pomiędzy rdzenie, jak sugerują niektóre odpowiedzi, nie bierze się pod uwagę, że L1 działa jako pamięć lokalna, co oznacza, że każda jednostka przetwarzająca ma swoją własną, niezależną pamięć L1. Podobnie, błędne jest twierdzenie, że pamięć L2 czy L3 jest podzielona równo pomiędzy rdzenie. W rzeczywistości, pamięci L2 i L3 są często projektowane jako pamięci współdzielone, co zmniejsza opóźnienia związane z dostępem do danych, zapewniając lepsze wykorzystanie zasobów. Typowe błędy myślowe prowadzące do takich nieprawidłowych wniosków obejmują mylenie lokalizacji pamięci i zrozumienia, że każda jednostka przetwarzająca wymaga swojego własnego zasobu pamięci podręcznej L1, podczas gdy L2 i L3 mogą być używane w sposób współdzielony. Takie zrozumienie jest kluczowe dla prawidłowego projektowania systemów komputerowych oraz efektywnego wykorzystania architektur wielordzeniowych.

Pytanie 40

Aby ustalić fizyczny adres karty sieciowej, w terminalu systemu Microsoft Windows należy wpisać komendę

A. ifconfig -a
B. get mac
C. ipconfig /all
D. show mac
Polecenie 'ipconfig /all' jest kluczowe w systemie Windows do uzyskiwania szczegółowych informacji dotyczących konfiguracji sieci, w tym adresów IP, masek podsieci, bram domyślnych oraz adresów fizycznych (MAC) kart sieciowych. Adres MAC jest unikalnym identyfikatorem przypisanym do interfejsu sieciowego, który służy do komunikacji w lokalnej sieci. Użycie 'ipconfig /all' pozwala na szybkie i efektywne sprawdzenie wszystkich tych informacji w jednym miejscu, co jest niezwykle przydatne w diagnozowaniu problemów sieciowych. W praktyce, jeśli na przykład komputer nie łączy się z siecią, administrator może użyć tego polecenia, aby upewnić się, że karta sieciowa ma przypisany adres MAC oraz inne niezbędne informacje. To podejście jest zgodne z najlepszymi praktykami w zarządzaniu siecią, które zalecają dokładne monitorowanie ustawień interfejsów sieciowych w celu zapewnienia ich prawidłowego działania oraz bezpieczeństwa.