Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 12 maja 2026 09:02
  • Data zakończenia: 12 maja 2026 09:23

Egzamin zdany!

Wynik: 20/40 punktów (50,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W procedurze Power-On Self-Test w pierwszej kolejności wykonywane jest sprawdzanie

A. podzespołów niezbędnych do działania komputera.
B. sterowników urządzeń peryferyjnych.
C. urządzeń peryferyjnych.
D. pamięci wirtualnej.
Poprawna odpowiedź odnosi się do istoty działania procedury POST (Power-On Self-Test). Po włączeniu komputera firmware BIOS lub UEFI uruchamia bardzo podstawowy kod zapisany w pamięci nieulotnej płyty głównej. Ten kod jako pierwszy krok sprawdza absolutnie kluczowe podzespoły niezbędne do dalszego startu systemu. Chodzi głównie o procesor, kontroler pamięci RAM, samą pamięć operacyjną, podstawowe układy chipsetu, kontrolery magistral oraz układ odpowiedzialny za wyświetlenie komunikatu startowego (zwykle podstawowy kontroler grafiki). Dopiero gdy te elementy „przejdą” test, możliwe jest dalsze ładowanie BIOS/UEFI, inicjalizacja urządzeń oraz start systemu operacyjnego. Moim zdaniem warto patrzeć na POST jak na procedurę bezpieczeństwa: najpierw sprawdzane jest to, bez czego komputer w ogóle nie ma prawa działać. Jeśli płyta główna wykryje poważną usterkę RAM, procesora czy kluczowego kontrolera, zatrzyma proces startu i zasygnalizuje błąd sekwencją sygnałów dźwiękowych (beep codes) lub kodem diagnostycznym na wyświetlaczu płyty. To jest standardowe zachowanie zgodne z praktykami producentów płyt głównych i firmware. W praktyce serwisowej rozumienie działania POST bardzo pomaga. Jeżeli komputer włącza się, ale nie wyświetla obrazu, a głośniczek systemowy wydaje charakterystyczne „piknięcia”, technik od razu może skojarzyć: to BIOS sygnalizuje problem z jednym z krytycznych podzespołów. Dzięki temu można systematycznie sprawdzać pamięć RAM, procesor, kartę graficzną czy zasilacz, zamiast błądzić po omacku. W nowoczesnych płytach UEFI często mamy też kody POST wyświetlane na małym wyświetlaczu LED – one również opisują etap testu kluczowych komponentów. To wszystko pokazuje, że priorytetem POST jest zawsze sprawdzenie podzespołów niezbędnych do działania komputera, a dopiero później reszty sprzętu i oprogramowania.

Pytanie 2

Podczas pracy z bazami danych, jakiego rodzaju operację wykonuje polecenie "SELECT"?

A. Aktualizowanie danych
B. Tworzenie tabel
C. Wybieranie danych
D. Usuwanie danych
Polecenie "SELECT" w języku SQL jest używane do wybierania danych z jednej lub więcej tabel w bazie danych. Jest to jedno z najczęściej używanych poleceń w SQL, ponieważ pozwala na przeszukiwanie i wyświetlanie danych bez ich modyfikacji. Dzięki "SELECT", możemy określić, które kolumny chcemy zobaczyć, a także zastosować różne filtry i sortowanie, aby uzyskać dokładnie te dane, które nas interesują. Na przykład, jeśli mamy tabelę klientów, możemy użyć "SELECT", aby wyświetlić tylko imiona i nazwiska klientów, którzy mieszkają w określonym mieście. To polecenie jest podstawą do tworzenia raportów i analiz danych, ponieważ pozwala na łatwe i szybkie przeglądanie informacji przechowywanych w bazie danych. W praktyce, "SELECT" można łączyć z innymi klauzulami, takimi jak "WHERE", "ORDER BY" czy "GROUP BY", co daje ogromne możliwości w zakresie manipulowania danymi w celu uzyskania konkretnych wyników. Jest to zgodne z dobrymi praktykami w branży, gdzie analiza danych jest kluczowym elementem zarządzania informacjami.

Pytanie 3

Jakie polecenie należy zastosować w systemach operacyjnych z rodziny Windows, aby zmienić właściwość pliku na tylko do odczytu?

A. ftype
B. attrib
C. chmod
D. set
Odpowiedzi 'set', 'ftype' oraz 'chmod' są błędne w kontekście ustawiania atrybutu pliku na tylko do odczytu w systemach Windows, ponieważ każde z tych poleceń ma zupełnie inne zastosowanie i nie ma wpływu na atrybuty plików w taki sposób, jak 'attrib'. Polecenie 'set' jest używane do ustawiania zmiennych środowiskowych w systemie Windows. Zmienne te mogą wpływać na sposób działania programów, ale nie mają nic wspólnego z bezpośrednim zarządzaniem atrybutami plików. 'Ftype' z kolei służy do określania, jakie programy są używane do otwierania określonych typów plików, co również nie ma zastosowania w kontekście zmiany właściwości pliku. Natomiast 'chmod' to polecenie stosowane w systemach operacyjnych Unix i Linux do ustawiania uprawnień dostępu do plików i katalogów, a nie do zarządzania atrybutami, takimi jak tylko do odczytu w Windows. Często użytkownicy mylą te komendy, co może prowadzić do frustracji, gdyż każde z tych poleceń jest ograniczone do swojego systemu operacyjnego i jego specyfikacji. W związku z tym, ważne jest, aby zapoznać się z dokumentacją oraz zrozumieć, które polecenia są właściwe dla danego środowiska, aby uniknąć nieporozumień i błędów w zarządzaniu plikami.

Pytanie 4

Który protokół zamienia adresy IP na adresy MAC, używane w sieciach Ethernet?

A. SNMP
B. IP
C. ARP
D. IRC
Wybór opcji IP, IRC, czy SNMP jako protokołów odpowiedzialnych za przekształcanie adresów IP na adresy MAC jest nieprawidłowy, ponieważ każdy z tych protokołów pełni inną funkcję w ekosystemie sieciowym. Protokół IP (Internet Protocol) jest odpowiedzialny za trasowanie danych w sieci, ale nie zajmuje się ich fizycznym przesyłaniem ani tłumaczeniem adresów. IP identyfikuje urządzenia w sieci za pomocą unikalnych adresów IP, jednak nie dostarcza mechanizmu rozwiązywania adresów MAC, co jest kluczowe w kontekście lokalnej komunikacji sieciowej. IRC (Internet Relay Chat) to protokół komunikacji, który pozwala na czatowanie w czasie rzeczywistym, ale nie ma związku z adresowaniem i komunikacją w sieciach opartych na IP. Z kolei SNMP (Simple Network Management Protocol) jest używany do zarządzania urządzeniami w sieciach komputerowych, a jego zadania obejmują monitorowanie i zarządzanie infrastrukturą sieciową, co również nie obejmuje konwersji adresów IP na MAC. Typowym błędem myślowym jest zatem pomylenie funkcji protokołów. Zrozumienie, że każdy protokół ma swoją specyfikę i rolę w architekturze sieciowej, jest kluczowe dla każdego, kto chce skutecznie zarządzać i projektować sieci komputerowe.

Pytanie 5

EN IEC 60276:2019 to przykład oznaczenia normy

A. w przygotowaniu.
B. odrzuconej.
C. europejskiej.
D. polskiej.
Oznaczenia norm potrafią być mylące, zwłaszcza gdy miesza się system międzynarodowy, europejski i krajowy. EN IEC 60276:2019 na pierwszy rzut oka wygląda skomplikowanie, ale każdy fragment ma konkretne znaczenie. Kluczowe jest tutaj „EN” na początku – to jednoznaczny sygnał, że mamy do czynienia z normą europejską (European Norm). Błąd polega często na tym, że użytkownik skupia się na środkowym fragmencie, czyli „IEC”, i na tej podstawie próbuje dopasować odpowiedź typu „polska” albo „w przygotowaniu”. Tymczasem „IEC” oznacza tylko, że źródłem treści normy jest International Electrotechnical Commission, czyli organizacja międzynarodowa, a nie poziom krajowy czy stan prac nad dokumentem. Norma polska miałaby oznaczenie zaczynające się od „PN” (Polska Norma), np. PN-EN IEC 60276:2019 – wtedy wiemy, że jest to norma europejska wdrożona jako polska. Sama obecność „IEC” nie czyni jej polską, tylko pokazuje rodowód międzynarodowy. Pomyłka z odpowiedzią „odrzucona” albo „w przygotowaniu” wynika zazwyczaj z niezrozumienia, że status prac nad normą nie jest kodowany w takim prostym oznaczeniu. Gdy norma jest opublikowana i ma rok wydania (tu: 2019), to znaczy, że jest przyjęta i obowiązuje w danym systemie normalizacyjnym. Odrzucone projekty norm nie dostają normalnego symbolu jak EN IEC z rokiem wydania, tylko pozostają na etapie roboczych dokumentów, których zwykły użytkownik zwykle nawet nie widzi. W praktyce, kiedy pracujesz z dokumentacją techniczną urządzeń, urządzeń sieciowych czy systemów zasilania, powinieneś umieć szybko rozpoznać: PN = poziom krajowy, EN = poziom europejski, IEC/ISO = poziom międzynarodowy. To pomaga uniknąć błędnych założeń, np. że wystarczy spełnienie jakiejś starej polskiej normy, podczas gdy w rzeczywistości wymagane są aktualne normy EN, często zintegrowane z systemem unijnym. Z mojego doświadczenia typowym błędem myślowym jest traktowanie każdego ciągu liter przy numerze normy jako dowolnej etykietki, a nie konkretnego kodu systemu normalizacyjnego. Warto to sobie uporządkować, bo w branży technicznej i informatycznej odwołania do norm są na porządku dziennym.

Pytanie 6

Zaprezentowany schemat ilustruje funkcjonowanie

Ilustracja do pytania
A. plotera grawerującego
B. skanera płaskiego
C. drukarki laserowej
D. drukarek 3D
Skaner płaski to urządzenie, które służy do digitalizacji obrazów poprzez przekształcenie ich na dane cyfrowe. Schemat przedstawiony na obrazku ilustruje typowy proces skanowania płaskiego. Główne elementy to źródło światła, zazwyczaj lampa fluorescencyjna, która oświetla dokument umieszczony na szklanej płycie roboczej. Następnie odbite światło przemieszcza się przez system luster i soczewek, skupiając się na matrycy CCD (Charge-Coupled Device). CCD przekształca światło na sygnały elektryczne, które są przetwarzane przez przetwornik analogowo-cyfrowy (ADC) na cyfrowy obraz. Skanery płaskie są szeroko stosowane w biurach i domach, gdzie umożliwiają łatwe przekształcanie dokumentów i obrazów na formę cyfrową. Standardy branżowe, takie jak rozdzielczość optyczna czy głębia kolorów, określają jakość skanera. Praktyczne zastosowania skanerów obejmują archiwizowanie dokumentów, digitalizację materiałów graficznych i przenoszenie treści do programów do edycji obrazów. Dzięki możliwości uzyskania wysokiej jakości cyfrowych kopii, skanery płaskie pozostają niezastąpionym narzędziem w wielu dziedzinach.

Pytanie 7

Aby w systemie Linux wykonać kopię zapasową określonych plików, należy wprowadzić w terminalu polecenie programu

A. cal
B. tar
C. gdb
D. set
Program tar (tape archive) jest szeroko stosowanym narzędziem w systemach Unix i Linux do tworzenia archiwów i kopii zapasowych. Jego główną funkcjonalnością jest możliwość zbierania wielu plików i katalogów w jeden plik archiwum, co ułatwia ich przechowywanie i przenoszenie. Tar umożliwia również kompresję archiwów, co pozwala na oszczędność miejsca na dysku. Przykładem użycia może być polecenie 'tar -czvf backup.tar.gz /ścieżka/do/katalogu', które tworzy skompresowane archiwum gzip z wybranego katalogu. Tar obsługuje wiele opcji, które pozwalają na precyzyjne zarządzanie kopiami zapasowymi, takie jak opcje do wykluczania plików, dodawania nowych plików do istniejącego archiwum czy wypakowywania plików. W branży IT standardem jest regularne tworzenie kopii zapasowych, co jest kluczowe dla ochrony danych przed ich utratą. Wykorzystanie tar w praktyce jest zgodne z najlepszymi praktykami w zakresie zarządzania danymi i ich zabezpieczania.

Pytanie 8

Na przedstawionym obrazku zaznaczone są strzałkami funkcje przycisków umieszczonych na obudowie projektora multimedialnego. Dzięki tym przyciskom można

Ilustracja do pytania
A. przystosować odwzorowanie przestrzeni kolorów.
B. modyfikować poziom jasności obrazu.
C. zmieniać źródła sygnału.
D. regulować zniekształcony obraz.
Projektory multimedialne wyposażone są w przyciski pozwalające na regulację geometrii obrazu co jest kluczowe do uzyskania odpowiedniej jakości wyświetlania w różnych warunkach. Jednym z najczęstszych problemów jest zniekształcenie obrazu wynikające z projekcji pod kątem co jest korygowane za pomocą funkcji korekcji trapezowej. Korekcja trapezowa pozwala na dostosowanie kształtu obrazu aby był prostokątny nawet gdy projektor nie jest ustawiony idealnie na wprost ekranu. To rozwiązanie umożliwia elastyczność w ustawieniu projektora w salach o ograniczonej przestrzeni czy niestandardowych układach co jest często spotykane w środowiskach biznesowych i edukacyjnych. Dobre praktyki branżowe zalecają korzystanie z tej funkcji w celu zapewnienia optymalnej czytelności prezentacji oraz komfortu oglądania dla odbiorców. Przyciski regulacji tej funkcji są zwykle intuicyjnie oznaczone na obudowie projektora co ułatwia szybkie i precyzyjne dostosowanie ustawień bez potrzeby użycia dodatkowego sprzętu czy oprogramowania. Dzięki temu użytkownicy mogą szybko dostosować wyświetlany obraz do wymagań specyficznej lokalizacji i układu pomieszczenia co jest nieocenione w dynamicznych środowiskach pracy i prezentacji.

Pytanie 9

Aby zapewnić, że komputer uzyska od serwera DHCP określony adres IP, należy na serwerze zdefiniować

A. dzierżawę adresu IP.
B. zastrzeżenie adresu IP urządzenia.
C. pulę adresów IP.
D. wykluczenie adresu IP urządzenia.
Wykluczenie adresu IP komputera polega na usunięciu danego adresu z puli, co sprawia, że nie może być on przydzielony innym urządzeniom. Choć może wydawać się to logiczne, nie ma ono wpływu na to, że konkretne urządzenie zawsze otrzyma ten sam adres IP. Dzierżawa adresu IP oznacza, że adres jest tymczasowo przypisywany urządzeniu, co w przypadku dynamicznego DHCP oznacza, że adres może ulegać zmianie po upływie określonego czasu. Użytkownicy mogą nie zdawać sobie sprawy, że w typowej konfiguracji DHCP bez zastrzeżenia, adresy IP mogą być zmieniane w zależności od aktualnego obciążenia serwera DHCP oraz polityki przydzielania adresów. W kontekście puli adresów IP, jej definicja polega na zbiorze adresów, które serwer DHCP może przydzielić klientom. Jeśli nie zostanie zdefiniowane zastrzeżenie adresu, komputer może otrzymać inny adres z puli, co może prowadzić do problemów z łącznością, zwłaszcza jeśli inne urządzenia polegają na stałym adresie IP tego komputera. W praktyce, brak zastrzeżenia IP może prowadzić do zamieszania w zarządzaniu siecią oraz utrudniać identyfikację i rozwiązywanie problemów z połączeniem.

Pytanie 10

Nierówne wydruki lub bladości w druku podczas korzystania z drukarki laserowej mogą sugerować

A. uszkodzenia kabla łączącego drukarkę z komputerem
B. zagięcie kartki papieru w urządzeniu
C. nieprawidłową instalację sterowników drukarki
D. niedobór tonera
Błędnie zainstalowane sterowniki drukarki mogą prowadzić do różnych problemów z komunikacją pomiędzy komputerem a urządzeniem, jednak nie są one bezpośrednią przyczyną bladych wydruków. Sterowniki dostarczają systemowi operacyjnemu niezbędnych informacji o funkcjach drukarki, a ich niewłaściwa instalacja może skutkować błędami w wydruku, ale nie w postaci wyraźnych zmian jakości druku, takich jak bladość. W kontekście uszkodzenia przewodu łączącego drukarkę z komputerem, choć może to prowadzić do przerwania lub braku komunikacji, nie ma to związku z jakością wydruku, a raczej z jego brakiem. Problemy z kartkami papieru, takie jak ich zgięcie, mogą spowodować błędy w podawaniu papieru, a niekoniecznie bladość lub nierównomierność wydruku. Kluczowe w diagnostyce problemów z drukiem jest zrozumienie, że czynniki fizyczne, jak stan tonera, mają bezpośredni wpływ na jakość druku, podczas gdy problemy z połączeniem czy oprogramowaniem mogą wpływać na inne aspekty działania drukarki, ale nie na samą jakość nanoszenia tonera. Wynika to z faktu, że w przypadku niewłaściwego działania mechanizmu drukującego, objawy mogą być całkowicie inne i niekoniecznie związane z bladością wydruku.

Pytanie 11

Adres IP 192.168.2.0/24 został podzielony na 8 podsieci. Jaką maskę należy zastosować dla tych nowych podsieci?

A. 255.255.255.224
B. 255.255.255.128
C. 255.255.255.192
D. 255.255.255.240
Wybór maski 255.255.255.192 nie jest poprawny, ponieważ nie odpowiada wymaganiom podziału sieci 192.168.2.0/24 na 8 podsieci. Maska 255.255.255.192, co odpowiada notacji /26, pozwala na utworzenie 4 podsieci (2^2 = 4), a nie 8. Oznacza to, że ten wybór nie zaspokaja wymagań podziału, które potrzebują 3 dodanych bitów do adresacji. Wybór maski 255.255.255.240 również jest błędny, ponieważ prowadzi do uzyskania 16 podsieci (2^4 = 16), co jest nadmiarem w stosunku do wymaganych 8 podsieci; to z kolei zbyt mocno zmniejsza dostępność adresów IP w każdej podsieci. Ostatnia odpowiedź, 255.255.255.128, również nie jest odpowiednia, ponieważ znowu dzieli sieć na 2 podsieci, co jest znacznie poniżej wymaganej liczby. Wybór odpowiedniej maski jest kluczowy w projektowaniu sieci, a błędne obliczenia mogą prowadzić do problemów z alokacją adresów IP oraz z zarządzaniem ruchem sieciowym. Takie pomyłki ilustrują typowy błąd myślowy, polegający na skupieniu się na liczbie podsieci bez uwzględnienia ich faktycznej pojemności. Dlatego ważne jest, aby dobrze rozumieć strukturę adresów IP oraz zasady związane z maskami podsieci, co jest kluczowe dla każdej osoby pracującej w dziedzinie sieci komputerowych.

Pytanie 12

Z jaką informacją wiąże się parametr TTL po wykonaniu polecenia ping?

C:\Users\Właściciel>ping -n 1 wp.pl

Pinging wp.pl [212.77.98.9] with 32 bytes of data:
Reply from 212.77.98.9: bytes=32 time=17ms TTL=54

Ping statistics for 212.77.98.9:
    Packets: Sent = 1, Received = 1, Lost = 0 (0% loss),
Approximate round trip times in milli-seconds:
    Minimum = 17ms, Maximum = 17ms, Average = 17ms
A. liczbą routerów biorących udział w przesyłaniu pakietu od nadawcy do odbiorcy
B. czasem trwania weryfikacji komunikacji w sieci
C. czasem odpowiedzi z docelowego urządzenia
D. liczbą pakietów wysłanych w celu weryfikacji połączenia w sieci
Parametr TTL nie jest związany z czasem trwania sprawdzenia komunikacji ani z czasem odpowiedzi z urządzenia docelowego. Są to częste błędne interpretacje wynikające z mylenia dwóch niezależnych pomiarów wykonywanych podczas korzystania z narzędzia ping. Czas trwania sprawdzenia komunikacji to rzeczywisty czas potrzebny na przesłanie pakietu w obie strony między klientem a serwerem co jest reprezentowane przez wartości czasowe w milisekundach w wynikach ping. Natomiast liczba pakietów wysłanych w celu sprawdzenia komunikacji odnosi się do całkowitej liczby wysłanych wiadomości echo ale nie ma bezpośredniego związku z TTL. TTL określa liczbę routerów przez które pakiet może przejść zanim zostanie odrzucony a nie ilość wysłanych pakietów. Mylenie tych pojęć często prowadzi do błędów w diagnozowaniu problemów sieciowych. Rozumienie czym dokładnie jest TTL oraz jak działa mechanizm pętli pakietów w sieci jest kluczowe dla skutecznego monitorowania i rozwiązywania problemów w sieciach komputerowych. Poprawne zrozumienie tych zasad umożliwia efektywne zarządzanie ruchem w sieci i zapewnia lepszą kontrolę nad zasobami IT. Takie zagadnienia są kluczowe w codziennej pracy administratorów sieci gdzie precyzyjna interpretacja danych sieciowych jest niezbędna do utrzymania wysokiej jakości usług sieciowych. Zrozumienie różnicy między czasem odpowiedzi a parametrem TTL jest także podstawą do dalszego zgłębiania wiedzy o protokołach sieciowych i ich zastosowaniu w praktyce zarządzania infrastrukturą IT. Współczesne sieci wymagają dokładności i wiedzy na temat działania różnych protokołów co podkreśla znaczenie posiadania solidnej bazy wiedzy w tym zakresie. Dobrze zrozumiane podstawy takie jak TTL stanowią fundament do projektowania i utrzymywania wydajnych i bezpiecznych sieci komputerowych.

Pytanie 13

Lista sprzętu kompatybilnego z systemem operacyjnym Windows, publikowana przez firmę Microsoft to

A. DOS
B. GPT
C. DSL
D. HCL
HCL, czyli Hardware Compatibility List, to dokument publikowany przez firmę Microsoft, który zawiera szczegółową listę sprzętu komputerowego, który jest zgodny z określonymi wersjami systemu operacyjnego Windows. HCL jest niezwykle ważny dla administratorów IT oraz użytkowników końcowych, ponieważ pozwala na dokonanie świadomego wyboru sprzętu, który będzie w stanie prawidłowo współpracować z systemem operacyjnym. Przykładowo, przed zakupem nowego komputera lub komponentów, użytkownicy mogą sprawdzić HCL, aby upewnić się, że ich sprzęt jest wspierany przez wybraną wersję Windows, co minimalizuje ryzyko problemów z instalacją i działaniem oprogramowania. Dobrym przykładem zastosowania HCL w praktyce jest sytuacja, gdy firma planuje modernizację infrastruktury IT i potrzebuje zakupić nowe serwery. Konsultacja HCL pozwala na wybór modeli, które są oficjalnie wspierane przez Microsoft, co zapewnia stabilność oraz wsparcie techniczne w przypadku pojawiających się problemów.

Pytanie 14

Kiedy użytkownik wpisuje w przeglądarkę adres www.egzamin.pl, nie ma on możliwości otwarcia strony WWW, natomiast wpisujący adres 211.0.12.41 zyskuje dostęp do tej strony. Problem ten wynika z nieprawidłowej konfiguracji serwera

A. DNS
B. SQL
C. DHCP
D. WWW
Odpowiedzi WWW, DHCP i SQL nie rozwiązują problemu opisanego w pytaniu. System WWW (World Wide Web) odnosi się do zbioru zasobów dostępnych przez Internet, ale nie jest odpowiedzialny za tłumaczenie nazw domenowych na adresy IP. Bez odpowiedniej konfiguracji DNS, usługi WWW nie mogą prawidłowo obsługiwać żądań związanych z nazwami domenowymi. DHCP (Dynamic Host Configuration Protocol) to protokół używany do automatycznego przydzielania adresów IP urządzeniom w sieci lokalnej, a nie do rozwiązywania problemów z dostępem do konkretnej strony internetowej. Brak serwera DHCP może prowadzić do problemów z dostępem do sieci, ale nie ma bezpośredniego wpływu na dostęp do zasobów WWW. SQL (Structured Query Language) jest językiem zapytań wykorzystywanym do interakcji z bazami danych, co również nie ma związku z tłumaczeniem nazw domenowych ani z dostępem do stron internetowych. Przyczyną niepowodzenia w dostępie do www.egzamin.pl jest więc brak działania systemu DNS, a nie żadna z tych trzech technologii.

Pytanie 15

Po włączeniu komputera na ekranie wyświetlił się komunikat "Non-system disk or disk error. Replace and strike any key when ready". Możliwą przyczyną tego może być

A. usunięty BIOS komputera
B. uszkodzony kontroler DMA
C. brak pliku ntldr
D. dyskietka umieszczona w napędzie
Analizując pozostałe odpowiedzi, można zauważyć, że pierwsza z nich, dotycząca skasowanego BIOS-u, jest myląca, ponieważ BIOS, czyli podstawowy system wejścia/wyjścia, jest odpowiedzialny za inicjalizację sprzętu oraz zarządzanie procesem rozruchu. Jeśli BIOS byłby usunięty lub uszkodzony, komputer najprawdopodobniej nie uruchomiłby się w ogóle, a użytkownik nie zobaczyłby nawet komunikatu o błędzie dysku. Druga odpowiedź, dotycząca braku pliku ntldr, odnosi się do systemu Windows, gdzie brak tego pliku rzeczywiście może uniemożliwić uruchomienie systemu. W takim przypadku jednak komunikat byłby inny, jednoznacznie wskazujący na brak pliku rozruchowego. Ostatnia odpowiedź, dotycząca uszkodzonego kontrolera DMA, jest również nieprawidłowa, ponieważ kontroler DMA (Direct Memory Access) nie jest bezpośrednio związany z procesem rozruchu systemu operacyjnego. Uszkodzony kontroler DMA mógłby prowadzić do problemów z wydajnością podczas pracy systemu, ale nie do błędów rozruchowych. W związku z tym, posługiwanie się nieprecyzyjnymi definicjami i pojęciami może prowadzić do mylnych wniosków. Ważne jest, aby zrozumieć, jakie są rzeczywiste funkcje komponentów systemu, aby skutecznie diagnozować i rozwiązywać problemy.

Pytanie 16

Do pokazanej na ilustracji płyty głównej nie da się podłączyć urządzenia korzystającego z interfejsu

Ilustracja do pytania
A. SATA
B. AGP
C. PCI
D. IDE
Złącze AGP, czyli Accelerated Graphics Port, to standard interfejsu opracowany głównie dla kart graficznych. Było popularne w komputerach osobistych w latach 90. i na początku XXI wieku. AGP oferowało dedykowane pasmo dla grafiki, co poprawiało wydajność w porównaniu do ówczesnych technologii. Wraz z rozwojem nowych standardów, takich jak PCI Express, AGP stało się przestarzałe i zniknęło z nowoczesnych płyt głównych. Współczesne płyty główne, takie jak ta przedstawiona na rysunku, używają PCI Express, który jest bardziej uniwersalny i wydajny. PCI Express potrafi obsługiwać różnorodne urządzenia, zapewniając wysoką przepustowość. W praktyce oznacza to, że współczesne karty graficzne, dyski SSD i inne komponenty są podłączane przez PCI Express. Jeśli planujesz modernizację systemu, złącze PCI Express oferuje lepszą elastyczność i kompatybilność z nowymi technologiami. Podsumowując, brak złącza AGP na nowoczesnej płycie wynika z przestarzałości tego standardu, co jest zgodne z obecnymi trendami w branży komputerowej.

Pytanie 17

Której aplikacji należy użyć, aby sprawdzić parametry S.M.A.R.T.?

A. HD Tune
B. GPU-Z
C. WireShark
D. CPU-Z
Sprawdzanie parametrów S.M.A.R.T. to zadanie typowo dyskowe, a nie związane z procesorem, kartą graficzną czy siecią. Mechanizm S.M.A.R.T. jest wbudowany w firmware dysków HDD i SSD i służy do monitorowania ich kondycji oraz przewidywania awarii. Dlatego narzędzia do analizy tych danych muszą umieć komunikować się z kontrolerem dysku i interpretować specyficzne atrybuty, takie jak liczba realokowanych sektorów, liczniki błędów odczytu/zapisu, czas rozkręcania talerzy, temperatura, liczba nieudanych prób kalibracji głowicy itd. Oprogramowanie typu CPU-Z koncentruje się wyłącznie na identyfikacji i monitoringu procesora, płyty głównej i pamięci RAM. Pokazuje taktowania, napięcia, typ gniazda, czasami SPD pamięci, ale w ogóle nie wchodzi w warstwę diagnostyki nośników danych. Łatwo się pomylić, bo to też narzędzie „diagnostyczne”, ale dotyczy zupełnie innego podsystemu. Podobnie GPU-Z jest wyspecjalizowane w kartach graficznych: pokazuje model GPU, ilość i typ pamięci VRAM, wersję sterownika, taktowania rdzenia i pamięci, czasem również temperatury i obciążenie. To są informacje istotne przy diagnostyce problemów z grafiką czy przy overclockingu, ale kompletnie nie związane ze S.M.A.R.T. i stanem dysków. Z kolei WireShark to narzędzie sieciowe, służące do przechwytywania i analizy pakietów w sieci. Używa się go do diagnozowania problemów z protokołami, opóźnieniami, błędami transmisji, bezpieczeństwem ruchu w sieci. To jest już zupełnie inna działka – warstwa sieciowa, a nie sprzętowa pamięć masowa. Typowy błąd myślowy przy takich pytaniach polega na tym, że skoro wszystkie wymienione programy są „narzędziami diagnostycznymi”, to można je ze sobą wrzucić do jednego worka. W praktyce każde z nich jest wyspecjalizowane w innym obszarze: CPU-Z i GPU-Z w podzespołach obliczeniowo-graficznych, WireShark w sieciach, a tylko takie narzędzia jak HD Tune, CrystalDiskInfo czy smartctl zajmują się bezpośrednio odczytem i oceną parametrów S.M.A.R.T. Dobra praktyka serwisowa polega na świadomym doborze narzędzia do konkretnego komponentu sprzętowego, a nie na przypadkowym używaniu „czegokolwiek diagnostycznego”.

Pytanie 18

Co należy zrobić, gdy podczas uruchamiania komputera procedura POST sygnalizuje błąd odczytu lub zapisu pamięci CMOS?

A. wymienić baterię układu lub przeprowadzić wymianę płyty głównej
B. wyjąć moduł pamięci RAM, oczyścić styki modułu i ponownie zamontować pamięć
C. przywrócić domyślne ustawienia w BIOS Setup
D. zapisać nowe dane w pamięci EEPROM płyty głównej
W przypadku sygnalizacji błędu odczytu/zapisu pamięci CMOS podczas procedury POST, właściwym krokiem jest wymiana baterii układu lub ewentualna wymiana płyty głównej. Bateria CMOS odpowiada za przechowywanie ustawień BIOS, które są kluczowe dla uruchamiania systemu. Kiedy bateria jest słaba lub rozładowana, ustawienia te mogą zostać utracone, co skutkuje błędem przy starcie komputera. W praktyce oznacza to, że po wymianie baterii komputer zazwyczaj wraca do normalnego działania, pozwalając na poprawne odczytanie i zapis konfiguracji. W przypadku, gdy wymiana baterii nie przynosi efektu, konieczne może być rozważenie wymiany płyty głównej, zwłaszcza jeśli inne komponenty są w dobrym stanie. Standardy branżowe zalecają regularne monitorowanie stanu baterii CMOS, a dla użytkowników domowych czy firmowych warto wypracować procedury konserwacyjne, które zapewnią ciągłość pracy urządzeń.

Pytanie 19

Co umożliwia połączenie trunk dwóch przełączników?

A. przesyłanie ramek z różnych wirtualnych sieci lokalnych w jednym łączu
B. zablokowanie wszystkich zbędnych połączeń na danym porcie
C. ustawienie agregacji portów, co zwiększa przepustowość między przełącznikami
D. zwiększenie przepustowości połączenia poprzez użycie dodatkowego portu
Odpowiedzi dotyczące agregacji portów oraz zwiększenia przepustowości przez wykorzystanie kolejnego portu dotyczą nieco innych aspektów zarządzania połączeniami w sieci. Agregacja portów, realizowana na przykład poprzez protokół LACP (Link Aggregation Control Protocol), polega na łączeniu kilku fizycznych portów w jeden logiczny port, co zwiększa całkowitą przepustowość i redundancję. Jednak nie jest to to samo, co trunking, który dotyczy przesyłania ramek z różnych VLAN-ów. Zwiększenie przepustowości poprzez dodanie kolejnego portu, które można by interpretować jako dołączenie drugiego trunku, jest w rzeczywistości bardziej skomplikowane i niekoniecznie daje takie same korzyści. W kontekście implementacji trunkingu, błędnym podejściem jest mylenie tych pojęć, co może prowadzić do nieefektywnego projektowania architektury sieci. Zablokowanie nadmiarowych połączeń również nie jest związane bezpośrednio z trunkingiem; takie działania są często realizowane w ramach protokołów STP (Spanning Tree Protocol), które zapobiegają pętlom w sieci, ale nie koncentrują się na przesyłaniu danych z różnych VLAN-ów. Pojęcie trunkingu jest fundamentalne dla zrozumienia dzisiejszych architektur sieciowych, gdzie różne VLAN-y muszą współistnieć i komunikować się ze sobą przez wspólne łącza.

Pytanie 20

W której fizycznej topologii awaria jednego komputera powoduje przerwanie pracy całej sieci?

A. Siatki
B. Magistrali
C. Drzewa
D. Pierścienia
Topologie magistrali, siatki i drzewa różnią się od pierścienia pod względem struktury i sposobu działania, co wpływa na ich odporność na awarie. W topologii magistrali wszystkie urządzenia są podłączone do pojedynczego kabla, co sprawia, że awaria kabla prowadzi do przerwania komunikacji całej sieci. W praktyce, jeśli jeden segment magistrali ulegnie uszkodzeniu, to wszystkie urządzenia w tej sieci przestaną być w stanie komunikować się ze sobą. Użytkownicy mylnie mogą sądzić, że magistrala jest bardziej odporna na awarie, ponieważ jest łatwiejsza w instalacji i tańsza, jednak jej kruchość w obliczu uszkodzeń jest istotnym problemem w większych sieciach. Topologia siatki zapewnia większą redundancję dzięki wielokrotnym połączeniom między węzłami, co oznacza, że uszkodzenie jednego węzła nie wpływa na funkcjonowanie całej sieci. Użytkownicy mogą mylnie myśleć, że siatka jest podobna do pierścienia, ale w rzeczywistości siatka umożliwia różne trasy dla danych, co zwiększa stabilność. Z kolei topologia drzewa, będąca hybrydą magistrali i gwiazdy, również prezentuje wyzwania związane z awariami. Uszkodzenie węzła w hierarchii drzewa może prowadzić do problemów z dostępnością, ale niekoniecznie do całkowitego zatrzymania sieci, co czyni ją bardziej odporną na awarie w porównaniu do magistrali. W związku z tym, kluczowe jest zrozumienie, że różne topologie mają swoje unikalne właściwości, które wpływają na ich odporność na uszkodzenia oraz na efektywność komunikacji w sieci.

Pytanie 21

Karta sieciowa przedstawiona na ilustracji ma zdolność przesyłania danych z maksymalną prędkością

Ilustracja do pytania
A. 54 Mb/s
B. 300 Mb/s
C. 108 Mb/s
D. 11 Mb/s
Karta sieciowa przedstawiona na obrazku działa w standardzie IEEE 802.11g który został opracowany jako rozwinięcie wcześniejszego standardu 802.11b. Standard 802.11g pozwala na przesyłanie danych z maksymalną prędkością 54 Mb/s co czyni go wydajniejszym rozwiązaniem w porównaniu do 802.11b który oferuje tylko 11 Mb/s. Dzięki zastosowaniu technologii OFDM (Orthogonal Frequency Division Multiplexing) 802.11g zapewnia lepszą przepustowość i stabilność połączenia w środowiskach o dużym zagęszczeniu urządzeń. Praktyczne zastosowania kart sieciowych w standardzie 802.11g obejmują sieci domowe oraz biurowe gdzie wymagana jest umiarkowana prędkość transmisji danych wystarczająca do przeglądania Internetu przesyłania plików czy oglądania multimediów w standardowej jakości. Warto również podkreślić że 802.11g jest wstecznie kompatybilny z 802.11b co umożliwia integrację z istniejącymi urządzeniami bez konieczności wymiany całej infrastruktury sieciowej. W latach gdy 802.11g był dominującym standardem stanowił istotny krok w kierunku rozwoju technologii bezprzewodowych dzięki czemu zyskał szeroką akceptację w branży IT.

Pytanie 22

System limitów dyskowych, umożliwiający kontrolowanie wykorzystania zasobów dyskowych przez użytkowników, nazywany jest

A. spool
B. management
C. release
D. quota
Odpowiedź 'quota' jest poprawna, ponieważ odnosi się do mechanizmu zarządzania przydziałem zasobów dyskowych na poziomie użytkowników. System limitów dyskowych, znany jako 'quota', pozwala administratorom określać maksymalną ilość przestrzeni dyskowej, jaką mogą wykorzystać poszczególni użytkownicy lub grupy użytkowników. To praktyczne podejście jest niezwykle istotne w środowiskach wieloużytkownikowych, gdzie kontrola nad zasobami jest kluczowa dla utrzymania wydajności i sprawności systemu. Przykładem zastosowania limitów dyskowych może być organizacja, która przydziela użytkownikom określoną ilość gigabajtów na ich kontach, co pozwala uniknąć przeciążenia systemu i zapewnia równomierne rozłożenie zasobów. Dobre praktyki branżowe sugerują regularne monitorowanie i dostosowywanie tych limitów w odpowiedzi na zmiany w potrzebach użytkowników oraz rozwój technologii. Warto również zaznaczyć, że systemy operacyjne, takie jak Linux, oferują wbudowane narzędzia do zarządzania limitami dyskowymi, co ułatwia ich administrację.

Pytanie 23

Zilustrowany schemat przedstawia zasadę funkcjonowania

Ilustracja do pytania
A. cyfrowego aparatu fotograficznego
B. drukarki termosublimacyjnej
C. skanera płaskiego
D. myszy optycznej
Schemat przedstawia działanie myszy optycznej. Mysz optyczna wykorzystuje diodę LED do oświetlenia powierzchni pod nią. Odbite światło przechodzi przez soczewkę i trafia na matrycę CMOS lub CCD, która jest odpowiedzialna za przetwarzanie obrazu na sygnały cyfrowe. Dzięki temu sensor optyczny rejestruje ruch myszy względem powierzchni. Układ cyfrowego przetwarzania sygnału DSP analizuje zmiany obrazu i przekłada je na ruch kursora na ekranie. Mysz optyczna jest preferowana nad mechaniczną ze względu na brak ruchomych części, co zwiększa jej trwałość i precyzję. Współczesne myszki optyczne korzystają z zaawansowanych sensorów oferujących wysoką rozdzielczość do precyzyjnej pracy graficznej czy w grach komputerowych. Standardy USB oraz RF zapewniają łatwość podłączenia do komputera. Technologia ta jest szeroko stosowana w różnych branżach, gdzie wymagana jest precyzja i niezawodność urządzeń wejściowych.

Pytanie 24

Wskaż nieprawidłowy sposób podziału dysków MBR na partycje?

A. 3 partycje podstawowe oraz 1 rozszerzona
B. 2 partycje podstawowe oraz 1 rozszerzona
C. 1 partycja podstawowa oraz 2 rozszerzone
D. 1 partycja podstawowa oraz 1 rozszerzona
Odpowiedź wskazująca na utworzenie 1 partycji podstawowej i 2 rozszerzonych jest poprawna w kontekście standardowego podziału dysków MBR (Master Boot Record). W schemacie partycjonowania MBR można mieć maksymalnie cztery partycje podstawowe lub trzy partycje podstawowe i jedną rozszerzoną. Partycja rozszerzona z kolei może zawierać wiele partycji logicznych. Przykład zastosowania to sytuacja, w której użytkownik potrzebuje kilku systemów operacyjnych na jednym dysku – mógłby utworzyć jedną partycję podstawową dla głównego systemu, a następnie partycję rozszerzoną, w której umieści różne systemy operacyjne jako partycje logiczne. Takie podejście jest zgodne z najlepszymi praktykami w zakresie zarządzania przestrzenią dyskową, co pozwala na elastyczne zarządzanie danymi oraz systemami operacyjnymi na jednym nośniku. Ważne jest, aby znać te zasady, aby skutecznie planować podział dysków, zwłaszcza w środowiskach serwerowych czy przy budowie własnych stacji roboczych.

Pytanie 25

Jaki typ pamięci powinien być umieszczony na płycie głównej komputera w miejscu, które wskazuje strzałka?

Ilustracja do pytania
A. SD-RAM DDR3
B. SO-DIMM DDR2
C. FLASH
D. SIMM
SD-RAM DDR3 jest typem pamięci używanym w nowoczesnych komputerach osobistych i serwerach. Charakterystyczną cechą pamięci DDR3 jest szybsza prędkość przesyłania danych w porównaniu do jej poprzednich wersji, jak DDR2. DDR3 oferuje większe przepustowości i mniejsze zużycie energii, co czyni ją bardziej efektywną energetycznie. Pamięci DDR3 zazwyczaj pracują przy napięciu 1,5V, co jest niższe od DDR2, które pracuje przy 1,8V, co przekłada się na mniejsze zużycie energii i mniejsze wydzielanie ciepła. Dzięki temu, DDR3 jest idealnym wyborem do systemów, które wymagają wysokiej wydajności oraz stabilności. W praktyce, DDR3 jest stosowane w komputerach przeznaczonych do zadań takich jak przetwarzanie grafiki, gry komputerowe, czy też przy obróbce multimediów. Standardy takie jak JEDEC określają parametry techniczne i zgodność modułów DDR3, zapewniając, że każdy moduł spełnia określone wymagania jakości i wydajności. Wybór DDR3 dla miejsca wskazanego strzałką na płycie głównej jest właściwy, ponieważ sloty te są zaprojektowane specjalnie dla tego typu pamięci, zapewniając ich prawidłowe działanie i optymalną wydajność.

Pytanie 26

Funkcja systemu operacyjnego, która umożliwia jednoczesne uruchamianie wielu aplikacji w trybie podziału czasu, z tym że realizacja tego podziału odbywa się przez same aplikacje, nosi nazwę

A. wielozadaniowości kooperatywnej
B. wielodostępowości
C. wieloprogramowości
D. wielozadaniowości z wywłaszczeniem
Wielozadaniowość kooperatywna to technika, która pozwala aplikacjom współdzielić czas procesora, przy czym odpowiedzialność za przełączanie kontekstu pomiędzy zadaniami spoczywa na samych aplikacjach. Oznacza to, że aplikacje muszą dobrowolnie oddać kontrolę nad procesorem, co pozwala innym aplikacjom na wykonanie swoich zadań. Systemy operacyjne, takie jak Windows w starszych wersjach, stosowały ten model, gdzie aplikacje były odpowiedzialne za zarządzanie własnym czasem pracy. Przykładem zastosowania wielozadaniowości kooperatywnej może być sytuacja, w której program edytorski i odtwarzacz multimedialny współdzielą zasoby, a edytor musi zakończyć swoje operacje, aby umożliwić odtwarzaczowi dostęp do procesora. Warto zauważyć, że w praktyce ten model może prowadzić do problemów, gdy jedna aplikacja nie oddaje kontroli, co może zamrozić system. Dlatego w nowoczesnych systemach operacyjnych, takich jak Linux czy Windows 10, częściej stosuje się podejście z wywłaszczeniem, które jest bardziej efektywne w zarządzaniu zasobami systemowymi.

Pytanie 27

Wskaż urządzenie, które należy wykorzystać do połączenia drukarki wyposażonej w interfejs Wi-Fi z komputerem stacjonarnym bez interfejsu Wi-Fi, ale z interfejsem USB.

A. Urządzenie 1
Ilustracja do odpowiedzi A
B. Urządzenie 2
Ilustracja do odpowiedzi B
C. Urządzenie 4
Ilustracja do odpowiedzi C
D. Urządzenie 3
Ilustracja do odpowiedzi D
Zadanie polegało na dobraniu odpowiedniego urządzenia, które pozwoli na połączenie komputera stacjonarnego bez Wi-Fi z drukarką mającą moduł Wi-Fi, przy założeniu że komputer posiada tylko port USB. Częstym błędem jest wybieranie adapterów, które wyglądają podobnie lub wykorzystują inne popularne technologie łączności bezprzewodowej, ale nie są zgodne ze standardem Wi-Fi. Przykład stanowią adaptery Bluetooth (ostatnie zdjęcie) – owszem, Bluetooth jest powszechny i używany do łączenia różnych urządzeń, takich jak klawiatury, myszy, czy głośniki, ale zupełnie nie nadaje się do obsługi drukarek Wi-Fi, które komunikują się wyłącznie w standardzie 802.11. Równie częstym błędem jest sięganie po adaptery IrDA (drugie zdjęcie) – podczerwień była wykorzystywana w starszych urządzeniach, lecz dziś to zabytek i nie funkcjonuje już praktycznie nigdzie poza bardzo niszowymi zastosowaniami. Osoby mniej obyte z technologiami mogą także wybierać różnego typu przejściówki dedykowane innym ekosystemom (jak te z pierwszego zdjęcia, przeznaczone do urządzeń Apple z portem Lightning), jednak taki adapter w żaden sposób nie doda funkcji Wi-Fi komputerowi PC. Typowym źródłem pomyłek jest nieumiejętność rozróżnienia standardów komunikacji i zamienne stosowanie pojęć Bluetooth oraz Wi-Fi albo zakładanie, że „byle bezprzewodowe” urządzenie wystarczy do połączenia z drukarką sieciową. W codziennej pracy technika IT warto zawsze upewnić się, jaki standard łączności obsługują urządzenia końcowe i dobrać sprzęt zgodnie z ich specyfikacją. To nie tylko ułatwia konfigurację, ale też zapobiega frustracjom i niepotrzebnie straconym godzinom na szukanie przyczyn niedziałającego połączenia.

Pytanie 28

Jaki akronim oznacza wydajność sieci oraz usługi, które mają na celu między innymi priorytetyzację przesyłanych pakietów?

A. ARP
B. PoE
C. STP
D. QoS
Akronimy ARP, STP oraz PoE odnoszą się do zupełnie innych zagadnień technologicznych, co wyjaśnia, dlaczego nie pasują do definicji QoS. ARP, czyli Address Resolution Protocol, służy do mapowania adresów IP na adresy MAC w sieci lokalnej. Jego głównym celem jest umożliwienie komunikacji między urządzeniami w sieci, a nie zarządzanie jakością przesyłu danych. STP, czyli Spanning Tree Protocol, jest protokołem używanym do zapobiegania pętlom w sieciach Ethernet, co także nie odnosi się do zagadnienia priorytetyzacji ruchu. Z kolei PoE, czyli Power over Ethernet, to technologia umożliwiająca zasilanie urządzeń sieciowych przez kable Ethernet, co także nie ma związku z jakością usług. Takie błędne podejście do rozumienia akronimów prowadzi do pomyłek w kontekście zarządzania sieciami. Często zdarza się, że osoby mylą cele tych technologii, co może prowadzić do nieefektywnego zarządzania infrastrukturą sieciową. Właściwe zrozumienie różnic oraz zastosowania każdego z tych akronimów jest kluczowe dla efektywnego planowania i zarządzania sieciami, a także dla zapewnienia optymalnej wydajności, co wychodzi naprzeciw obowiązującym standardom branżowym.

Pytanie 29

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 8 GB.
B. 1 modułu 16 GB.
C. 2 modułów, każdy po 16 GB.
D. 1 modułu 32 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 30

Fragment konfiguracji pliku httpd.conf dla serwera Apache wygląda następująco Listen 8012 Server Name localhost:8012 Aby zweryfikować prawidłowe działanie witryny WWW na serwerze, należy wpisać w przeglądarkę

A. http://localhost:apache
B. http://localhost:8012
C. http://localhost
D. http://localhost:8080
Wybór odpowiedzi http://localhost:8012 jest poprawny, ponieważ port 8012 został skonfigurowany w pliku httpd.conf serwera Apache za pomocą dyrektywy Listen. Oznacza to, że serwer nasłuchuje na tym porcie dla przychodzących połączeń. Wprowadzenie tego adresu URL w przeglądarce umożliwia nawiązanie połączenia z serwerem działającym lokalnie, co jest kluczowe w przypadku testowania aplikacji webowych. Użycie lokalnego adresu IP (localhost) oraz przypisanie odpowiedniego portu jest standardową praktyką w rozwoju oprogramowania, pozwalającą na szybkie uruchomienie i testowanie aplikacji bez potrzeby dostępu do zewnętrznych zasobów. Dodatkowo, w przypadku zmiany portu w przyszłości, należy pamiętać o aktualizacji ustawień w aplikacji klienckiej, aby zapewnić prawidłowe działanie. Zrozumienie tej koncepcji jest istotne dla każdego, kto pracuje z serwerami WWW, zwłaszcza w kontekście konfiguracji i zarządzania serwerami Apache.

Pytanie 31

Moduł Mini-GBiCSFP pełni funkcję

A. krosowania switchów przy wykorzystaniu złącz GG45
B. spawania włókien światłowodowych
C. zwiększania zasięgu sieci WIFI
D. podłączania światłowodu do switcha
Wybór odpowiedzi, która sugeruje krosowanie przełączników za pomocą złącz GG45, spawanie światłowodów lub zwiększanie zasięgu sieci WiFi, prowadzi do nieporozumienia na temat funkcji i zastosowania modułu Mini-GBiCSFP. Krosowanie przełączników to proces, który polega na łączeniu różnych portów przełączników w celu stworzenia sieci. W tym kontekście, GG45, które jest nowym standardem złącz dla połączeń miedzianych, nie ma związku z technologią SFP, która jest zdefiniowana dla mediów światłowodowych. Spawanie światłowodów to proces wymagający specjalistycznego sprzętu i umiejętności, a nie jest funkcjonalnością modułu Mini-GBiCSFP, który służy do podłączania tych światłowodów do przełączników. Z kolei zwiększanie zasięgu sieci WiFi odnosi się do technologii bezprzewodowej, a nie do przewodowych połączeń światłowodowych. Wiele osób nie dostrzega różnicy pomiędzy tymi technologiami, co prowadzi do błędnych założeń dotyczących możliwości zastosowania różnych komponentów sieciowych. Zrozumienie podstawowych funkcji i zastosowań konkretnych modułów jest kluczowe dla efektywnego projektowania i realizacji infrastruktury sieciowej.

Pytanie 32

Która funkcja serwera Windows umożliwia użytkownikom końcowym sieci pokazanej na rysunku dostęp do Internetu?

Ilustracja do pytania
A. Usługa drukowania
B. Usługa dzielenia
C. Usługa rutingu
D. Usługa LDS
Usługa rutingu na serwerze Windows umożliwia przesyłanie danych między różnymi sieciami, co jest kluczowe dla zapewnienia użytkownikom dostępu do Internetu. Dzięki tej usłudze serwer działa jako router, który kieruje pakiety danych pomiędzy siecią lokalną a globalną siecią Internet. Ruting jest kluczowy w kontekście dużych sieci, w których konieczne jest zarządzanie ruchem sieciowym, zapewniając optymalną wydajność i bezpieczeństwo. Implementacja rutingu w Windows Server opiera się na protokołach takich jak RIP czy OSPF, które pomagają w dynamicznej aktualizacji tras. Administracja usługą rutingu obejmuje konfigurację interfejsów sieciowych, tabel routingu oraz polityk trasowania, co jest zgodne z najlepszymi praktykami branżowymi. Praktyczne zastosowanie takiej usługi obejmuje złożone sieci korporacyjne, gdzie kilka oddzielnych sieci LAN musi współdzielić wspólne połączenie do Internetu. Dzięki rutingowi nie tylko możliwe jest efektywne zarządzanie ruchem, ale także implementacja zaawansowanych funkcji takich jak NAT, które dodatkowo zwiększają bezpieczeństwo i elastyczność infrastruktury sieciowej. Wiedza o usługach rutingu pozwala inżynierom sieciowym projektować skalowalne i niezawodne sieci oparte na Windows Server.

Pytanie 33

Które medium transmisyjne charakteryzuje się najmniejszym ryzykiem narażenia na zakłócenia elektromagnetyczne przesyłanego sygnału?

A. Czteroparowy kabel FTP
B. Cienki kabel koncentryczny
C. Kabel światłowodowy
D. Gruby kabel koncentryczny
Czteroparowy kabel FTP, gruby kabel koncentryczny oraz cienki kabel koncentryczny to media transmisyjne, które opierają się na przesyłaniu sygnału elektrycznego. W takim przypadku są one podatne na zakłócenia elektromagnetyczne, co może prowadzić do degradacji jakości sygnału. Kabel FTP (Foiled Twisted Pair) posiada dodatkową ekranowaną powłokę, co zwiększa odporność na zakłócenia w porównaniu do standardowego kabla U/UTP. Jednakże, w sytuacjach z silnymi zakłóceniami, takich jak w pobliżu urządzeń przemysłowych, kabel FTP może nie zapewnić wystarczającego poziomu ochrony. Gruby kabel koncentryczny, mimo swojej solidnej konstrukcji, również nie jest odporny na zakłócenia elektromagnetyczne, a jego zastosowanie jest obecnie ograniczane na rzecz nowocześniejszych technologii. Cienki kabel koncentryczny, charakteryzujący się mniejszą średnicą, jest jeszcze bardziej narażony na wpływ zakłóceń. Błędne przekonanie, że odpowiedzi oparte na kablach miedzianych mogą konkurować z światłowodami, często wynika z niepełnej analizy właściwości tych mediów. Wybór medium transmisyjnego powinien być oparty na analizie wymagań systemu oraz środowiska, w którym będzie ono używane. W przypadku silnych zakłóceń elektromagnetycznych, rozwiązania optyczne są zdecydowanie bardziej zalecane.

Pytanie 34

Która czynność nie służy do personalizacji systemu operacyjnego Windows?

A. Ustawienie opcji wyświetlania pasków menu i pasków narzędziowych.
B. Ustawienie domyślnej przeglądarki internetowej.
C. Ustawienie koloru lub kilku przenikających się kolorów jako tła pulpitu.
D. Ustawienie wielkości pliku wymiany.
Ustawienie wielkości pliku wymiany w systemie Windows to zdecydowanie nie jest proces związany z personalizacją interfejsu lub wyglądu środowiska pracy użytkownika, tylko z konfiguracją parametrów systemowych, mających wpływ na wydajność i zarządzanie pamięcią wirtualną. Plik wymiany, czyli tzw. pagefile.sys, służy przede wszystkim jako rozszerzenie pamięci RAM – gdy systemowi zaczyna brakować fizycznej pamięci, wówczas dane tymczasowo są przenoszone właśnie do tego pliku. Moim zdaniem, większość użytkowników nawet nie rusza tej opcji, bo domyślne ustawienia Windows są wystarczające w typowych zastosowaniach. Standardy branżowe zalecają ostrożność przy ręcznym ustawianiu rozmiaru pliku wymiany – można przez nieuwagę ograniczyć możliwości systemu lub wręcz przeciwnie, niepotrzebnie zajmować miejsce na dysku. Z mojego doświadczenia wynika, że personalizacja to raczej wszystko, co dotyczy wyglądu, wygody obsługi czy indywidualnych preferencji użytkownika, a nie właśnie zarządzania pamięcią czy innymi aspektami technicznymi działania systemu. Tło pulpitu, ustawienia pasków menu czy wybór domyślnej przeglądarki mają bezpośredni wpływ na odbiór środowiska pracy, podczas gdy plik wymiany pozostaje zupełnie niewidoczny dla większości osób. Jeżeli ktoś chce zoptymalizować wydajność komputera, to wtedy może pobawić się tym ustawieniem, ale nie szuka wtedy personalizacji. To dość duża różnica i warto ją rozumieć, bo pomaga to odróżnić obszary związane z wygodą użytkownika od tych stricte technicznych.

Pytanie 35

Podczas instalacji systemu operacyjnego Linux należy wybrać odpowiedni typ systemu plików

A. ReiserFS
B. NTFS 4
C. NTFS 5
D. FAT32
Wybór systemu plików jest kluczowy przy instalacji systemu operacyjnego Linux, a odpowiedzi takie jak FAT32, NTFS 4 oraz NTFS 5 są nieodpowiednie w kontekście używania tego systemu operacyjnego. FAT32, choć szeroko stosowany w systemach Windows oraz urządzeniach przenośnych, nie obsługuje plików większych niż 4 GB, co stawia go w niekorzystnej pozycji, gdy w dzisiejszych czasach potrzeba przechowywania dużych plików jest powszechna. NTFS, będący systemem plików opracowanym przez Microsoft, jest zoptymalizowany dla systemów Windows i nie zapewnia pełnej kompatybilności oraz wsparcia dla funkcji specyficznych dla Linuxa. Choć NTFS 4 i NTFS 5 mogą być technicznie dostępne na platformie Linux, ich użycie jest ograniczone i często wiąże się z problemami z danymi oraz wydajnością. W praktyce, użytkownicy mogą napotkać trudności związane z dostępem do plików lub ich integracją z aplikacjami w Linuxie. Takie podejście może prowadzić do nieefektywnego zarządzania danymi oraz zwiększonego ryzyka utraty informacji, co w dłuższej perspektywie jest niekorzystne. Dobry wybór systemu plików na Linuxa, takiego jak ReiserFS, wpływa na stabilność, szybkość i niezawodność systemu operacyjnego, co jest niezbędne dla wydajnego działania aplikacji i serwerów.

Pytanie 36

Licencja obejmująca oprogramowanie układowe, umieszczone na stałe w sprzętowej części systemu komputerowego, to

A. GPL
B. Firmware
C. Freeware
D. GNU
W tym pytaniu kluczowe jest zrozumienie, czym w ogóle jest firmware i dlaczego nie można go mylić z innymi pojęciami związanymi z oprogramowaniem czy licencjami. Firmware to oprogramowanie układowe trwale związane ze sprzętem, zapisane w pamięci nieulotnej urządzenia i odpowiedzialne za jego podstawowe działanie. Nie jest to ani nazwa typu licencji ogólnego przeznaczenia, ani model dystrybucji jak w przypadku freeware, ani nazwa projektu jak GNU. W praktyce sporo osób utożsamia każdy termin zawierający słowo „free” z wolnym lub darmowym oprogramowaniem, stąd częsty błąd z wyborem „freeware”. Freeware oznacza jednak oprogramowanie udostępniane użytkownikowi bez opłat, ale zazwyczaj z zamkniętym kodem źródłowym i dość restrykcyjną licencją – można używać, ale nie modyfikować, nie sprzedawać dalej w zmienionej formie itd. To typowe dla prostych narzędzi, małych aplikacji użytkowych, nie dla oprogramowania wbudowanego w sprzęt. Kolejne mylne skojarzenie dotyczy skrótu GPL. GNU GPL to konkretna licencja wolnego oprogramowania, która definiuje prawa użytkownika do uruchamiania, analizowania, modyfikowania i rozpowszechniania programu. Jest to model licencjonowania, a nie nazwa rodzaju oprogramowania. Owszem, zdarza się, że firmware też bywa wydany na licencji GPL, ale to nie zmienia faktu, że pytanie dotyczy typu oprogramowania układowego, a nie konkretnej licencji. Podobnie z terminem GNU – to nazwa projektu i ekosystemu wolnego oprogramowania (np. GNU/Linux), a nie określenie firmware’u ani licencji na niego. Typowy błąd myślowy polega tutaj na tym, że ktoś widzi słowa „licencja”, „oprogramowanie” i automatycznie wybiera znane skróty jak GPL albo kojarzy darmowość z freeware, zamiast skupić się na fragmencie „umieszczone na stałe w sprzętowej części systemu komputerowego”. Ten opis jednoznacznie wskazuje właśnie na firmware, czyli oprogramowanie wbudowane w urządzenie, bez którego sprzęt nie potrafiłby poprawnie wystartować i współpracować z resztą systemu.

Pytanie 37

W jakim oprogramowaniu trzeba zmienić konfigurację, aby użytkownik mógł wybrać z listy i uruchomić jeden z różnych systemów operacyjnych zainstalowanych na swoim komputerze?

A. QEMU
B. GRUB
C. GEDIT
D. CMD
Wybór niewłaściwych programów do zarządzania rozruchem systemów operacyjnych często wynika z niepełnego zrozumienia ich funkcji. QEMU jest narzędziem do wirtualizacji, które pozwala na uruchamianie maszyn wirtualnych, lecz nie jest przeznaczone do zarządzania rozruchem wielu systemów operacyjnych na tym samym komputerze. CMD, czyli Command Prompt, jest interpretem poleceń w systemie Windows, który służy do wykonywania różnych poleceń, ale także nie ma możliwości zarządzania procesem rozruchu systemów operacyjnych. GEDIT to prosty edytor tekstu używany głównie w środowisku GNOME, który nie ma żadnych funkcji związanych z rozruchem systemów. Typowym błędem myślowym jest mylenie narzędzi wirtualizacyjnych lub edytorów tekstów z systemami bootloaderów. Bootloader jest kluczowym elementem architektury systemu operacyjnego, a jego rola polega na odpowiednim załadowaniu i uruchomieniu wybranego systemu. Zrozumienie, że GRUB jest specjalnie zaprojektowany do tych celów, a inne wymienione programy nie spełniają tej funkcji, jest kluczowe dla efektywnego zarządzania środowiskiem komputerowym. Dlatego istotne jest korzystanie z odpowiednich narzędzi w kontekście ich przeznaczenia oraz zrozumienie ich ograniczeń.

Pytanie 38

Wartość liczby dziesiętnej 128(d) w systemie heksadecymalnym wyniesie

A. 80H
B. 128H
C. 10000000H
D. 10H
Wybór odpowiedzi 10H sugeruje, że użytkownik błędnie zrozumiał zasady konwersji między systemami liczbowymi. W systemie heksadecymalnym, 10H odpowiada wartości dziesiętnej 16, co jest znacząco poniżej 128. Z kolei odpowiedź 128H jest myląca, ponieważ dodanie sufiksu 'H' do liczby dziesiętnej 128 nie zmienia jej wartości. To podejście odzwierciedla typowy błąd, polegający na zakładaniu, że dodanie oznaczenia heksadecymalnego zmienia wartość liczby bez faktycznej konwersji. Odpowiedź 10000000H również jest nieprawidłowa, ponieważ w systemie heksadecymalnym 10000000H odpowiada wartości dziesiętnej 4294967296, co jest znacznie większe od 128(d). Często podczas konwersji do systemu heksadecymalnego użytkownicy popełniają błąd polegający na nadinterpretowaniu wartości lub dodawaniu nieodpowiednich sufiksów. Kluczowe jest zrozumienie, że każda zmiana systemu liczbowego wymaga przeliczenia liczby na odpowiednie podstawy, a nie jedynie zmiany zapisu. Takie błędy mogą prowadzić do poważnych nieporozumień, zwłaszcza w kontekście programowania, gdzie precyzyjna wiedza o systemach liczbowych jest niezbędna do poprawnego działania aplikacji.

Pytanie 39

Na przedstawionym rysunku widoczna jest karta rozszerzeń z systemem chłodzenia

Ilustracja do pytania
A. aktywne
B. wymuszone
C. symetryczne
D. pasywne
Pasywne chłodzenie odnosi się do metody odprowadzania ciepła z komponentów elektronicznych bez użycia wentylatorów lub innych mechanicznych elementów chłodzących. Zamiast tego, wykorzystuje się naturalne właściwości przewodzenia i konwekcji ciepła poprzez zastosowanie radiatorów. Radiator to metalowy element o dużej powierzchni, często wykonany z aluminium lub miedzi, który odprowadza ciepło z układu elektronicznego do otoczenia. Dzięki swojej strukturze i materiałowi, radiator efektywnie rozprasza ciepło, co jest kluczowe dla zapewnienia stabilnej pracy urządzeń takich jak karty graficzne. Pasywne chłodzenie jest szczególnie cenne w systemach, gdzie hałas jest czynnikiem krytycznym, jak w serwerach typu HTPC (Home Theater PC) czy systemach komputerowych używanych w bibliotece lub biurze. W porównaniu do aktywnego chłodzenia, systemy pasywne są mniej podatne na awarie mechaniczne, ponieważ nie zawierają ruchomych części. Istnieją również korzyści związane z niższym zużyciem energii i dłuższą żywotnością urządzeń. Jednakże, pasywne chłodzenie może być mniej efektywne w przypadku bardzo wysokich temperatur, dlatego jest stosowane tam, gdzie generowanie ciepła jest umiarkowane. W związku z tym, dobór odpowiedniego systemu chłodzenia powinien uwzględniać bilans między wydajnością a wymaganiami dotyczącymi ciszy czy niezawodności.

Pytanie 40

W systemie Windows 7 program Cipher.exe w trybie poleceń jest używany do

A. przełączania monitora w tryb uśpienia
B. wyświetlania plików tekstowych
C. sterowania rozruchem systemu
D. szyfrowania i odszyfrowywania plików oraz katalogów
Odpowiedź odnosząca się do szyfrowania i odszyfrowywania plików oraz katalogów za pomocą narzędzia Cipher.exe w systemie Windows 7 jest prawidłowa, ponieważ Cipher.exe to wbudowane narzędzie do zarządzania szyfrowaniem danych w systemie plików NTFS. Umożliwia użytkownikom zabezpieczanie wrażliwych danych przed nieautoryzowanym dostępem, co jest szczególnie istotne w kontekście ochrony danych osobowych oraz zgodności z regulacjami prawnymi, takimi jak RODO. W praktyce, można używać Cipher.exe do szyfrowania plików, co chroni je w przypadku kradzieży lub utraty nośnika danych. Na przykład, używając polecenia 'cipher /e <ścieżka do pliku>', można szybko zaszyfrować dany plik, a następnie, przy użyciu 'cipher /d <ścieżka do pliku>', odszyfrować go. Dobrą praktyką jest przechowywanie kluczy szyfrujących w bezpiecznym miejscu oraz regularne audyty systemu zabezpieczeń, aby zapewnić ciągłość ochrony danych.