Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 11 maja 2026 14:03
  • Data zakończenia: 11 maja 2026 14:18

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Technik serwisowy zrealizował w ramach zlecenia działania wymienione w zestawieniu. Całkowity koszt zlecenia obejmuje cenę usług wymienionych w zestawieniu oraz wynagrodzenie serwisanta, którego stawka godzinowa wynosi 60,00 zł netto. Oblicz całkowity koszt zlecenia brutto. Stawka VAT na usługi wynosi 23%

LPCzynnośćCzas wykonania w minutachCena usługi netto w zł
1.Instalacja i konfiguracja programu3520,00
2.Wymiana płyty głównej8050,00
3.Wymiana karty graficznej3025,00
4.Tworzenie kopii zapasowej
i archiwizacja danych
6545,00
5.Konfiguracja rutera3020,00
A. 492,00 zł
B. 400,00 zł
C. 455,20 zł
D. 436,80 zł
Całkiem dobrze, że wyszukałeś te liczby! Koszt zlecenia brutto to 492,00 zł, ale żeby tam dojść, musisz najpierw zsumować wszystkie usługi i dodatek za pracę serwisanta. W tabeli widzimy, że usługi kosztują razem 160,00 zł, czyli: 20,00 zł + 50,00 zł + 25,00 zł + 45,00 zł + 20,00 zł. Serwisant pracował przez 240 minut, co daje 4 godziny, a przy stawce 60,00 zł za godzinę, koszt pracy wynosi 240,00 zł. Tak więc, całkowity koszt netto to 160,00 zł + 240,00 zł, co daje 400,00 zł. Potem musisz doliczyć 23% VAT, co nam daje 400,00 zł * 1,23 = 492,00 zł. Ta umiejętność jest naprawdę przydatna, zwłaszcza w zarządzaniu kosztami w serwisie i przy wystawianiu faktur klientów. Ogólnie, znajomość rachunkowości jest kluczowa, żeby wszystko grało w firmie. Fajnie jest wiedzieć, jak przedstawiać te koszty klientom, żeby budować zaufanie i pokazać profesjonalizm.

Pytanie 2

Które z urządzeń może powodować wzrost liczby kolizji pakietów w sieci?

A. Mostu
B. Koncentratora
C. Przełącznika
D. Rutera
Koncentrator, jako urządzenie działające na warstwie drugiej modelu OSI, jest odpowiedzialny za propagację sygnałów do wszystkich podłączonych do niego urządzeń w sieci lokalnej. W praktyce oznacza to, że gdy jeden komputer wysyła dane, koncentrator przesyła te dane do wszystkich innych portów jednocześnie. To zjawisko powoduje zwiększenie liczby kolizji pakietów, ponieważ wiele urządzeń może próbować nadawać jednocześnie. W wyniku tego efektu, kolizje mogą prowadzić do opóźnień w transmisji danych oraz do konieczności ponownego nadawania, co obniża efektywność sieci. Dobre praktyki branżowe zalecają stosowanie przełączników (switchy) zamiast koncentratorów w nowoczesnych sieciach, ponieważ przełączniki działają na zasadzie przekazywania pakietów tylko do docelowego urządzenia, co znacząco ogranicza kolizje i poprawia wydajność. Warto również zauważyć, że w przypadku rozbudowanych sieci lokalnych, zastosowanie protokołów takich jak Ethernet oraz stosowanie technologii VLAN, może dodatkowo zminimalizować problemy związane z kolizjami.

Pytanie 3

Jakie narzędzie służy do obserwacji zdarzeń w systemie Windows?

A. dfrg.msc
B. gpedit.msc
C. tsmmc.msc
D. eventvwr.msc
Odpowiedź eventvwr.msc jest poprawna, ponieważ jest to narzędzie w systemie Windows znane jako Podgląd zdarzeń. Umożliwia ono monitorowanie i przeglądanie logów systemowych, aplikacyjnych oraz zabezpieczeń. Dzięki temu administratorzy mogą identyfikować i diagnozować problemy systemowe, analizować błędy aplikacji oraz śledzić działania użytkowników. Oprogramowanie to jest nieocenione w zarządzaniu bezpieczeństwem i w audytach, ponieważ pozwala na zbieranie danych o zdarzeniach, które mogą wskazywać na nieautoryzowane działania. Przykładem zastosowania jest sytuacja, w której administrator zauważa nietypowe logi logowania i może szybko zareagować, aby zapobiec potencjalnemu zagrożeniu. Posługiwanie się Podglądem zdarzeń jest zgodne z najlepszymi praktykami w zarządzaniu systemami IT, gdzie regularne monitorowanie logów jest kluczowym elementem zapewnienia bezpieczeństwa i stabilności infrastruktury IT.

Pytanie 4

W jakiej topologii fizycznej sieci każde urządzenie ma dokładnie dwa połączenia, jedno z najbliższymi sąsiadami, a dane są przesyłane z jednego komputera do kolejnego w formie pętli?

A. Gwiazda
B. Pierścień
C. Siatka
D. Drzewo
Topologia pierścienia charakteryzuje się tym, że każde urządzenie w sieci jest połączone z dwoma sąsiadami, co tworzy zamkniętą pętlę. Dane są przesyłane w jednym kierunku od jednego urządzenia do następnego, co minimalizuje ryzyko kolizji i pozwala na stosunkowo prostą konfigurację. W przypadku tej topologii, dodawanie lub usuwanie urządzeń może wpływać na cały system, co wymaga staranności w zarządzaniu siecią. Praktycznym zastosowaniem topologii pierścienia jest sieć Token Ring, która była popularna w latach 80. i 90. XX wieku. W standardzie IEEE 802.5 wykorzystywano specjalny token, aby kontrolować dostęp do mediów, co znacznie zwiększało wydajność przesyłania danych. Warto również zauważyć, że w przypadku awarii jednego z urządzeń, cały pierścień może zostać przerwany, co stanowi potencjalny problem w kontekście niezawodności sieci. Dlatego w nowoczesnych rozwiązaniach stosuje się różne mechanizmy redundancji oraz monitorowania stanu sieci, aby zwiększyć odporność na awarie.

Pytanie 5

Jakiego rodzaju adresację stosuje protokół IPv6?

A. 64-bitową
B. 256-bitową
C. 32-bitową
D. 128-bitową
Protokół IPv6 stosuje adresację 128-bitową, co jest znaczącym ulepszeniem w porównaniu do 32-bitowej adresacji IPv4. Dzięki temu możliwe jest przydzielenie ogromnej liczby unikalnych adresów IP, co jest niezbędne przy rosnącej liczbie urządzeń podłączonych do Internetu. W praktyce oznacza to, że IPv6 może obsłużyć około 340 undecylionów (3.4 x 10³⁸) adresów, co praktycznie eliminuje ryzyko wyczerpania się dostępnej przestrzeni adresowej. Wprowadzenie 128-bitowej adresacji pozwala także na lepsze wsparcie dla mobilności, autokonfiguracji i bezpieczeństwa sieciowego dzięki wbudowanym funkcjom, takim jak IPSec. W kontekście administracji i eksploatacji systemów komputerowych, znajomość i umiejętność zarządzania IPv6 jest kluczowa, ponieważ coraz więcej sieci przechodzi na ten protokół, aby sprostać wymaganiom nowoczesnych technologii i liczby urządzeń IoT.

Pytanie 6

Na ilustracji widać panel ustawień bezprzewodowego punktu dostępu, który pozwala na

Ilustracja do pytania
A. nadanie nazwy hosta
B. przypisanie adresów MAC kart sieciowych
C. przypisanie maski podsieci
D. konfigurację serwera DHCP
No dobra, jeśli chodzi o konfigurację serwera DHCP na bezprzewodowym urządzeniu dostępowym, to wiesz, że to naprawdę kluczowa rzecz, żeby wszystko działało sprawnie w sieci lokalnej. Serwer DHCP, czyli Dynamic Host Configuration Protocol, sprawia, że urządzenia klienckie dostają swoje adresy IP na bieżąco. Dzięki temu, jak nowe urządzenie łączy się z siecią, to automatycznie dostaje adres IP, maskę podsieci i inne potrzebne rzeczy jak brama domyślna czy serwery DNS. To mega ułatwia życie, bo nie musimy biegać i konfigurować każdego z osobna, co znacząco zmniejsza szansę na jakieś problemy z konfliktami adresów IP. W panelu, gdzie konfigurujemy to wszystko, można ustawić zakresy adresów do przydzielenia, czas dzierżawy i inne opcje jak DNS czy WINS. Jak się robi to zgodnie z najlepszymi praktykami, to wszędzie to tak właśnie działa, szczególnie w sieciach, gdzie często coś się zmienia lub jest więcej użytkowników. A tak w ogóle, jak konfigurujesz DHCP, to łatwo jest dodać nowe urządzenia bez zbędnej roboty, co jest super w większych sieciach, gdzie wszystko się dzieje szybko. Dobrze zarządzany serwer DHCP to też lepsze wykorzystanie IP, co ma znaczenie, jak masz dużą sieć.

Pytanie 7

Jaka jest maksymalna prędkość transferu danych w sieci lokalnej, w której zastosowano przewód UTP kat.5e do budowy okablowania strukturalnego?

A. 10 Mb/s
B. 1 Gb/s
C. 100 Mb/s
D. 10 Gb/s
Przewody UTP kat.5e są zgodne z normą ANSI/TIA-568, która definiuje wymagania dla kabli w sieciach telekomunikacyjnych. Ich maksymalna szybkość transmisji danych wynosi 1 Gb/s na odległość do 100 metrów, co czyni je odpowiednimi do zastosowań w lokalnych sieciach komputerowych. Użycie tego typu kabla pozwala na osiąganie wysokiej wydajności w przesyłaniu danych, co jest kluczowe w środowiskach biurowych oraz w domowych sieciach komputerowych, gdzie wiele urządzeń często komunikuje się jednocześnie. Standardowe wykorzystanie przewodów UTP kat.5e obejmuje połączenia w sieciach Ethernet, co umożliwia między innymi podłączenie komputerów, serwerów oraz urządzeń sieciowych. Dodatkowo, kategorie kabli, takie jak kat.5e, są zaprojektowane tak, aby minimalizować zakłócenia oraz poprawiać jakość sygnału, co przekłada się na niezawodność i stabilność połączeń w sieci.

Pytanie 8

Czym wyróżniają się procesory CISC?

A. prostą i szybką jednostką kontrolną
B. wysoką liczbą instrukcji
C. ograniczoną wymianą danych pomiędzy pamięcią a procesorem
D. niewielką ilością trybów adresowania
Procesory CISC (Complex Instruction Set Computing) charakteryzują się dużą liczbą rozkazów, co odzwierciedla ich złożoną architekturę. Ta różnorodność rozkazów umożliwia programistom pisanie bardziej złożonych instrukcji w mniejszej liczbie linii kodu, co jest szczególnie przydatne w kontekście programowania niskopoziomowego lub w systemach operacyjnych. Na przykład, w architekturze x86, która jest jedną z najbardziej popularnych architektur CISC, istnieje wiele instrukcji, które mogą wykonywać skomplikowane operacje na danych w pojedynczej instrukcji, co jest korzystne w aplikacjach wymagających intensywnej obliczeniowości. Dzięki temu, programiści mogą efektywnie wykorzystywać zasoby sprzętowe, co jest zgodne z najlepszymi praktykami w dziedzinie inżynierii oprogramowania, gdzie celem jest optymalizacja wydajności i minimalizacja zużycia pamięci. Zrozumienie architektury CISC jest kluczowe dla projektowania i implementacji wydajnych aplikacji komputerowych, co czyni tę wiedzę niezbędną w branży IT.

Pytanie 9

Termin określający zdolność do rozbudowy sieci to

A. nadmiarowością
B. bezawaryjnością
C. skalowalnością
D. kompatybilnością
Skalowalność to kluczowa cecha systemów informatycznych, która odnosi się do ich zdolności do rozbudowy i dostosowywania się do rosnących potrzeb użytkowników oraz zwiększającego się obciążenia. W kontekście sieci, oznacza to możliwość zwiększania liczby urządzeń, użytkowników lub przepustowości bez utraty wydajności. Przykłady skalowalnych rozwiązań obejmują architektury chmurowe, gdzie zasoby mogą być dynamicznie dostosowywane do potrzeb w czasie rzeczywistym. Dobre praktyki w projektowaniu skalowalnych systemów obejmują stosowanie mikroserwisów, które pozwalają na niezależną skalowalność poszczególnych komponentów, oraz implementację protokołów komunikacyjnych, które wspierają efektywne zarządzanie zasobami. W branży IT, standardy takie jak TOGAF czy ITIL również podkreślają znaczenie skalowalności jako fundamentu elastycznych i odpornych architektur przedsiębiorstw. Rozumienie skalowalności jest kluczowe dla inżynierów i architektów systemów, ponieważ pozwala na projektowanie rozwiązań, które będą mogły rosnąć razem z potrzebami biznesowymi.

Pytanie 10

Oprogramowanie OEM (Original Equipment Manufacturer) jest przypisane do

A. wszystkich komputerów w danym domu.
B. systemu operacyjnego zamontowanego na danym komputerze.
C. komputera (lub podzespołu), na którym zostało zainstalowane.
D. właściciela lub kupującego komputer.
Odpowiedź, że oprogramowanie OEM jest przypisane do komputera (lub jego części), na którym jest zainstalowane, jest poprawna, ponieważ oprogramowanie tego typu jest licencjonowane w sposób specyficzny dla konkretnego sprzętu. Oznacza to, że licencja na oprogramowanie jest związana z danym urządzeniem i nie może być przenoszona na inne komputery bez naruszania warunków umowy licencyjnej. Przykładem może być system operacyjny Windows preinstalowany na laptopie – użytkownik nabywa prawo do korzystania z tej wersji systemu wyłącznie na tym sprzęcie. W praktyce oznacza to, że jeśli użytkownik zdecyduje się na wymianę komputera, będzie musiał zakupić nową licencję na oprogramowanie. Dobre praktyki w branży IT zalecają, aby użytkownicy zapoznawali się z warunkami licencji, aby unikać nieautoryzowanego użycia oprogramowania, co może prowadzić do konsekwencji prawnych. Oprogramowanie OEM jest powszechnie stosowane w przemyśle komputerowym i jest istotnym elementem strategii sprzedażowych producentów sprzętu. Ponadto, zastosowanie oprogramowania OEM sprzyja obniżeniu kosztów, co jest korzystne zarówno dla producentów, jak i dla konsumentów, którzy mogą nabyć sprzęt z już zainstalowanym oprogramowaniem.

Pytanie 11

Podczas próby zapisania danych na karcie SD wyświetla się komunikat "usuń ochronę przed zapisem lub użyj innego dysku". Zwykle przyczyną tego komunikatu jest

A. posiadanie uprawnień "tylko do odczytu" do plików na karcie SD
B. ustawienie mechanicznego przełącznika blokady zapisu na karcie w pozycji ON
C. zbyt duża wielkość pliku, który ma być zapisany
D. brak wolnego miejsca na karcie pamięci
Odpowiedź dotycząca mechanicznego przełącznika blokady zapisu na karcie SD w pozycji ON jest prawidłowa, ponieważ wiele kart pamięci jest wyposażonych w taki przełącznik, który umożliwia zabezpieczenie danych przed przypadkowym usunięciem lub zapisaniem. Mechanizm ten jest prostym, ale skutecznym sposobem na ochronę zawartości karty. Kiedy przełącznik jest ustawiony w pozycji ON, karta SD przechodzi w tryb tylko do odczytu, co uniemożliwia użytkownikowi zapis nowych danych. Ważne jest, aby przed przystąpieniem do zapisu na karcie pamięci sprawdzić, czy przełącznik nie znajduje się w tym stanie. Dobre praktyki zarządzania danymi na kartach SD obejmują regularne sprawdzanie stanu przełącznika oraz dbanie o to, aby nie usunąć przypadkowo danych, co może prowadzić do ich utraty. Użytkownicy powinni być świadomi, że zmiana pozycji przełącznika na OFF umożliwi zapis danych, co jest szczególnie istotne podczas pracy z istotnymi plikami.

Pytanie 12

Profil mobilny staje się profilem obowiązkowym użytkownika po

A. zmianie nazwy pliku NTUSER.MAN na NTUSER.DAT
B. zmianie nazwy pliku NTUSER.DAT na NTUSER.MAN
C. skasowaniu pliku NTUSER.MAN
D. skasowaniu pliku NTUSER.DAT
Zmienianie profilu mobilnego na profil obowiązkowy użytkownika poprzez zmianę nazwy pliku NTUSER.DAT na NTUSER.MAN jest standardową praktyką w systemach Windows, która pozwala na przekształcenie profilu użytkownika w profil zarządzany przez administratora. Plik NTUSER.DAT zawiera wszystkie ustawienia i preferencje użytkownika, a jego zmiana na NTUSER.MAN powoduje, że profil staje się tylko do odczytu, co chroni go przed modyfikacjami ze strony użytkownika. Jest to szczególnie przydatne w środowiskach korporacyjnych, gdzie bezpieczeństwo i kontrola ustawień użytkowników są kluczowe. Przykładem zastosowania tej metody może być środowisko biurowe, w którym pracownicy nie powinni mieć możliwości zmiany ustawień systemowych, co zapewnia utworzenie profilu obowiązkowego. W ramach dobrych praktyk IT administratorzy powinni być świadomi, że takie zmiany powinny być dobrze udokumentowane oraz przeprowadzone zgodnie z politykami bezpieczeństwa organizacji, aby zminimalizować ryzyko naruszeń bezpieczeństwa.

Pytanie 13

Program df działający w systemach z rodziny Linux pozwala na wyświetlenie

A. zawartości katalogu ukrytego
B. tekstu, który odpowiada wzorcowi
C. danych dotyczących dostępnej przestrzeni na dysku
D. nazwa aktualnego katalogu
To narzędzie df (disk free) w systemach Unix i Linux jest naprawdę przydatne! Dzięki niemu możesz sprawdzić, ile miejsca zostało na dysku i jak dużo już zajmują pliki. Używa się go z różnymi opcjami, a jednym z najczęściej stosowanych poleceń jest 'df -h', które pokazuje wszystko w przystępnej formie, na przykład w MB czy GB. Fajnie jest wiedzieć, jak wygląda sytuacja z dyskiem, bo to pomaga w planowaniu przestrzeni na różne aplikacje czy pliki. Dobrze jest też robić kopie zapasowe, a to narzędzie pozwala szybciej zauważyć, gdy czegoś brakuje. Generalnie, znajomość tego, co można z tym narzędziem zrobić, jest naprawdę ważna dla zachowania sprawnego działania całego systemu.

Pytanie 14

Jak nazywa się seria procesorów produkowanych przez firmę Intel, charakteryzująca się małymi wymiarami oraz niskim zużyciem energii, zaprojektowana z myślą o urządzeniach mobilnych?

A. Alpha
B. Atom
C. Radeon
D. Athlon
Rodzina procesorów Intel Atom została zaprojektowana z myślą o zastosowaniach mobilnych, co czyni je idealnym rozwiązaniem dla urządzeń takich jak netbooki, tablety czy inteligentne urządzenia IoT. Procesory te charakteryzują się niewielkimi rozmiarami oraz niskim poborem energii, co sprawia, że są szczególnie przydatne w sytuacjach, gdzie długotrwała praca na baterii jest kluczowa. W praktyce, procesory Atom są wykorzystywane w urządzeniach takich jak ultrabooki, co pozwala na efektywne zarządzanie energią oraz zapewnia wystarczającą moc obliczeniową do codziennych zadań, takich jak przeglądanie internetu czy edytowanie dokumentów. Dzięki zastosowaniu architektury x86, procesory Atom są w stanie obsługiwać szereg aplikacji i systemów operacyjnych, co czyni je wszechstronnym wyborem dla producentów sprzętu. Warto również zauważyć, że procesory Atom są zgodne z najnowszymi standardami bezpieczeństwa i wydajności, co wspiera ich zastosowanie w nowoczesnych rozwiązaniach technologicznych.

Pytanie 15

Poleceniem systemu Linux służącym do wyświetlenia informacji, zawierających aktualną godzinę, czas działania systemu oraz liczbę zalogowanych użytkowników, jest

A. echo
B. history
C. chmod
D. uptime
Polecenie 'uptime' w systemie Linux to jedno z tych narzędzi, które wydają się banalne, ale w praktyce są niesamowicie przydatne w codziennej administracji systemami. Polecenie to wyświetla w jednej linii takie informacje jak aktualny czas, czas działania systemu (czyli tzw. uptime), liczbę aktualnie zalogowanych użytkowników oraz średnie obciążenie systemu w trzech ujęciach czasowych (1, 5 i 15 minut). To szczególnie wartościowe, kiedy trzeba szybko sprawdzić czy serwer niedawno był restartowany, ilu użytkowników korzysta z systemu albo czy komputer nie jest przeciążony. Z mojego doświadczenia, 'uptime' jest jednym z pierwszych poleceń, po które sięgam przy rutynowych kontrolach systemu – nie tylko na produkcji, ale też na własnych maszynach czy w środowiskach testowych. Warto zauważyć, że dobre praktyki administracji systemami UNIX i Linux zalecają bieżące monitorowanie czasu działania i obciążenia, aby wychwytywać potencjalne problemy zanim staną się krytyczne. Często nawet w skryptach monitorujących czy automatycznych raportach wykorzystuje się wyniki 'uptime', żeby mieć szybki podgląd kondycji systemu. Polecenie jest częścią podstawowego pakietu narzędzi systemowych, więc nie trzeba niczego dodatkowo instalować. Podsumowując – 'uptime' to taki mały, ale bardzo uniwersalny pomocnik administratora i moim zdaniem dobrze go znać nawet, jeśli na co dzień nie pracuje się z serwerami.

Pytanie 16

Podczas konfiguracji nowego routera, użytkownik został poproszony o skonfigurowanie WPA2. Czego dotyczy to ustawienie?

A. Bezpieczeństwa sieci bezprzewodowej
B. Trasy routingu
C. Przepustowości łącza
D. Konfiguracji VLAN
WPA2 to skrót od Wi-Fi Protected Access 2 i jest to protokół bezpieczeństwa stosowany w sieciach bezprzewodowych. Jego głównym zadaniem jest zapewnienie bezpiecznego połączenia pomiędzy urządzeniami a punktem dostępu. WPA2 wykorzystuje zaawansowane szyfrowanie AES (Advanced Encryption Standard), które jest uważane za bardzo bezpieczne. Dzięki temu, że WPA2 chroni dane przesyłane w sieci, istotnie zmniejsza ryzyko przechwycenia informacji przez osoby nieuprawnione. W praktyce oznacza to, że bez odpowiedniego klucza szyfrującego, nieautoryzowane urządzenia nie będą mogły połączyć się z siecią, co jest kluczowe dla ochrony poufności przesyłanych danych. Konfiguracja WPA2 powinna być jednym z pierwszych kroków przy ustawianiu nowego routera, aby zapewnić bezpieczeństwo sieci od samego początku. Dla administratorów sieci, zrozumienie i wdrożenie WPA2 jest częścią podstawowych obowiązków związanych z utrzymaniem i ochroną infrastruktury IT. Moim zdaniem, stosowanie WPA2 to standardowa praktyka w dzisiejszych czasach, szczególnie w środowiskach, gdzie bezpieczeństwo danych jest priorytetem.

Pytanie 17

Program wykorzystywany w wierszu poleceń systemu Windows do kompresji i dekompresji plików oraz katalogów to

A. DiskPart.exe
B. Compact.exe
C. Expand.exe
D. CleanMgr.exe
Compact.exe jest narzędziem wiersza poleceń w systemie Windows, które umożliwia kompresję i dekompresję plików oraz folderów. Działa ono na poziomie systemu plików NTFS, co oznacza, że zapewnia efektywną redukcję rozmiaru plików bez utraty danych. W praktyce, narzędzie to jest wykorzystywane do optymalizacji przestrzeni dyskowej na serwerach i komputerach stacjonarnych, co jest szczególnie istotne w środowiskach, gdzie miejsce na dysku jest ograniczone. Kompresja plików przy użyciu Compact.exe jest bardzo prostym procesem, wystarczy wprowadzić polecenie "compact /c <nazwa_pliku>" w wierszu poleceń, aby skompresować plik, a "compact /u <nazwa_pliku>" do dekompresji. Dobrą praktyką jest również regularne monitorowanie i zarządzanie skompresowanymi plikami, aby uniknąć potencjalnych problemów z dostępnością danych. Narzędzie to jest zgodne z różnymi standardami bezpieczeństwa i efektywności, ponieważ umożliwia zarządzanie danymi w sposób oszczędzający miejsce, co jest szczególnie ważne w kontekście zrównoważonego rozwoju technologii informacyjnej.

Pytanie 18

Jakiego protokołu używa warstwa aplikacji w modelu TCP/IP?

A. SPX
B. ARP
C. UDP
D. FTP
FTP, czyli File Transfer Protocol, to protokół działający na warstwie aplikacji modelu TCP/IP, który służy do przesyłania plików pomiędzy komputerami w sieci. Jest to standardowy protokół do transferu danych, który umożliwia użytkownikom zarówno przesyłanie, jak i pobieranie plików z serwera. FTP działa w oparciu o architekturę klient-serwer, gdzie klient inicjuje połączenie z serwerem FTP, a następnie wykonuje różne operacje na plikach, takie jak upload, download, usuwanie czy zmiana nazw plików. Przykładem zastosowania FTP jest przesyłanie dużych plików z jednego serwera na drugi lub publikowanie zawartości strony internetowej. W praktyce, administracja systemami często korzysta z FTP do zarządzania plikami na serwerach bezpośrednio. Warto również zaznaczyć, że istnieją różne rozszerzenia FTP, takie jak FTPS i SFTP, które dodają warstwę zabezpieczeń, co jest szczególnie istotne w kontekście ochrony danych. Znajomość FTP jest niezbędna dla specjalistów IT, zwłaszcza w zakresie zarządzania sieciami i administracji serwerami.

Pytanie 19

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 16 GB.
B. 2 modułów, każdy po 8 GB.
C. 1 modułu 32 GB.
D. 1 modułu 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 20

W systemie Windows za pomocą komendy assoc można

A. zmienić powiązania dla rozszerzeń plików
B. sprawdzić zawartość dwóch plików
C. dostosować listę kontroli dostępu do plików
D. wyświetlić właściwości plików
Polecenie 'assoc' w systemie Windows jest używane do wyświetlania i modyfikacji skojarzeń rozszerzeń plików z konkretnymi typami plików. Przykładowo, jeśli mamy plik o rozszerzeniu '.txt', możemy za pomocą polecenia 'assoc .txt' sprawdzić, z jakim typem pliku jest on powiązany, a także zmienić to skojarzenie, aby otwierał się w preferowanej aplikacji. Praktyczne zastosowanie polecenia 'assoc' może obejmować sytuacje, w których użytkownik chce, aby pliki .jpg były otwierane w programie graficznym zamiast w domyślnej przeglądarki. Polecenie to jest zgodne z zasadami zarządzania typami plików w systemach operacyjnych, co jest kluczowe w kontekście optymalizacji pracy z danymi. Znajomość tego narzędzia pozwala na bardziej efektywne zarządzanie plikami i ich otwieraniem, co zwiększa komfort pracy na komputerze.

Pytanie 21

Aby możliwe było przekierowanie drukowanego dokumentu na dysk twardy, należy w opcjach konfiguracyjnych drukarki wybrać drukowanie do portu

A. FILE
B. LPT
C. USB001
D. COM
Opcja FILE w ustawieniach drukarki to taka trochę ukryta perełka, o której wiele osób nawet nie wie. W praktyce, gdy wybierzesz port FILE, system operacyjny (najczęściej Windows) nie wysyła danych bezpośrednio do fizycznej drukarki, ale tworzy plik na dysku – najczęściej z rozszerzeniem .prn albo .pdf, zależnie od sterownika. To świetne rozwiązanie, gdy chcesz zachować dane wydruku na później, przesłać je do innej osoby, wydrukować później na zupełnie innym komputerze lub nawet skonwertować do innego formatu. Z mojego doświadczenia, FILE bywa wykorzystywany przez techników IT, którzy muszą analizować błędy wydruku albo testować ustawienia bez straty papieru. W praktyce, standard branżowy sugeruje korzystanie z FILE przy wszelkich testach wydajnościowych czy w środowiskach serwerowych, gdzie nie zawsze masz podpiętą fizyczną drukarkę. Moim zdaniem, zawsze warto wiedzieć, gdzie szukać tej opcji, bo może naprawdę ułatwić życie. Dodam jeszcze, że operacje na portach takich jak FILE są zgodne z polityką bezpieczeństwa danych, bo nie każdy dokument powinien się od razu znaleźć na papierze. Można go najpierw przechować, zarchiwizować lub przesłać dalej – dokładnie tak, jak wymagają tego dobre praktyki biurowe czy nawet normy ISO dotyczące zarządzania dokumentacją. To jest właśnie ten techniczny detal, który odróżnia przeciętnego użytkownika od kogoś ogarniętego w IT.

Pytanie 22

Jakiego rodzaju fizycznej topologii sieci komputerowej dotyczy przedstawiony obrazek?

Ilustracja do pytania
A. Częściowej siatki
B. Pełnej siatki
C. Połączenia punkt-punkt
D. Wzór gwiazdy
Topologia pełnej siatki to aranżacja sieci, w której każdy węzeł jest bezpośrednio połączony z każdym innym węzłem. Taka struktura zapewnia wysoką redundancję i niezawodność, ponieważ awaria jednego połączenia nie wpływa na inne, a dane mogą być przesyłane różnymi ścieżkami. Jest to idealne rozwiązanie w sytuacjach, gdzie niezawodność i dostępność są kluczowe, na przykład w systemach finansowych czy komunikacji wojskowej. Koszty wdrożenia i utrzymania są jednak wysokie ze względu na dużą liczbę połączeń potrzebnych do pełnego pokrycia sieci. W praktyce, pełna siatka jest rzadko stosowana w fizycznej formie, ale jej koncepcja jest wykorzystywana w wirtualnych sieciach komputerowych, w których połączenia są realizowane za pomocą odpowiednich protokołów. Implementacja takiej topologii zgodna jest z dobrymi praktykami przemysłowymi w zakresie zapewnienia ciągłości działania i bezpieczeństwa transmisji danych.

Pytanie 23

Który układ mikroprocesora jest odpowiedzialny między innymi za pobieranie rozkazów z pamięci oraz generowanie sygnałów sterujących?

A. EU
B. IU
C. FPU
D. ALU
IU, czyli jednostka sterująca (ang. Instruction Unit, czasem nazywana też Control Unit), to kluczowy element architektury każdego mikroprocesora. To właśnie ona odpowiada za pobieranie instrukcji z pamięci operacyjnej, dekodowanie ich oraz generowanie odpowiednich sygnałów sterujących dla pozostałych części procesora. Moim zdaniem to coś w rodzaju "dyrygenta orkiestry" – reszta jednostek wykonuje konkretne operacje, ale bez IU nie byłoby wiadomo, co i kiedy mają robić. W praktyce bez dobrze zaprojektowanej jednostki sterującej nawet najbardziej zaawansowane ALU czy FPU nie wykorzystałyby swojego potencjału, bo nie wiedziałyby, kiedy mają się uruchomić. Z mojego doświadczenia wynika, że IU to często niedoceniana część CPU, a przecież to ona odpowiada za obsługę cyklu rozkazowego (fetch-decode-execute). W nowoczesnych procesorach stosuje się rozbudowane mechanizmy IU, często z pipeline'm czy logiką predykcji rozgałęzień, żeby zwiększyć wydajność pracy całego układu. Według uznanych standardów projektowania układów cyfrowych, rozdział funkcji pomiędzy IU a wyspecjalizowane jednostki wykonawcze zapewnia elastyczność i łatwiejsze skalowanie mikroarchitektury. W zastosowaniach praktycznych – na przykład w systemach wbudowanych czy komputerach PC – optymalizacja działania IU bezpośrednio przekłada się na szybsze wykonywanie programów. Dobrze rozumieć rolę IU, bo to podstawa przy analizowaniu działania dowolnego procesora, od najprostszych mikrokontrolerów aż po zaawansowane CPU dla serwerów.

Pytanie 24

Który z wymienionych protokołów umożliwia nawiązanie szyfrowanego połączenia z witryną internetową?

A. SPX
B. HTTPS
C. TCP
D. NetBEUI
HTTPS, czyli Hypertext Transfer Protocol Secure, to rozszerzenie protokołu HTTP, które zapewnia szyfrowanie danych przesyłanych pomiędzy przeglądarką a serwerem. Dzięki zastosowaniu protokołów SSL (Secure Sockets Layer) lub TLS (Transport Layer Security), HTTPS chroni integralność i poufność danych. W praktyce oznacza to, że informacje takie jak hasła, dane osobowe czy numery kart kredytowych są szyfrowane i nie mogą być łatwo przechwycone przez osoby trzecie. Użycie HTTPS jest szczególnie istotne w przypadku stron internetowych, które przetwarzają dane wrażliwe lub umożliwiają logowanie użytkowników. Warto również zauważyć, że wiele przeglądarek internetowych oznacza strony korzystające z HTTPS jako bezpieczne, co zwiększa zaufanie użytkowników. W kontekście standardów branżowych, Google promuje użycie HTTPS jako element SEO, co wpływa na widoczność strony w wynikach wyszukiwania. W związku z tym, każda organizacja powinna dążyć do implementacji HTTPS na swoich stronach, aby zapewnić bezpieczeństwo danych oraz zgodność z aktualnymi standardami najlepszych praktyk w dziedzinie bezpieczeństwa informacji.

Pytanie 25

Przygotowując ranking dostawców łączy internetowych należy zwrócić uwagę, aby jak najmniejsze wartości miały parametry

A. download i latency.
B. latency i jitter.
C. upload i download.
D. upload i jitter.
Poprawnie wskazałeś, że w rankingu dostawców internetu chcemy, żeby jak najmniejsze były przede wszystkim parametry latency (opóźnienie) i jitter (zmienność opóźnienia). W praktyce to właśnie one decydują o „responsywności” łącza, czyli o tym, jak szybko sieć reaguje na nasze działania. Przepustowość (download, upload) oczywiście też jest ważna, ale jej zwykle nie optymalizujemy „w dół” – im więcej, tym lepiej. Natomiast opóźnienia i ich wahania staramy się minimalizować. Latency to czas, który pakiet potrzebuje, żeby przejść z twojego komputera do serwera i z powrotem (np. w poleceniu ping mierzymy właśnie RTT – round-trip time). Niskie latency jest kluczowe przy grach online, wideokonferencjach, VoIP (np. rozmowy przez Teams, Zoom, Skype), pracy zdalnej na pulpicie zdalnym, a nawet przy zwykłym przeglądaniu stron – strona po prostu szybciej zaczyna się ładować. W nowoczesnych sieciach dąży się do wartości rzędu kilkunastu–kilkudziesięciu ms dla połączeń krajowych. W SLA (Service Level Agreement) operatorzy często podają maksymalne opóźnienia dla określonych tras. Jitter to różnica w kolejnych pomiarach opóźnienia. Może być tak, że średnie latency jest w miarę OK, ale jitter jest wysoki i wtedy ruch czasu rzeczywistego (głos, wideo) zaczyna się rwać, pojawiają się lagi, artefakty, komunikatory audio-video muszą mocniej buforować pakiety, co skutkuje opóźnieniami w rozmowie. Z mojego doświadczenia w firmach bardziej zwraca się uwagę właśnie na jitter przy wdrożeniach VoIP czy systemów call center niż na samą „gołą” prędkość łącza. W dobrych praktykach branżowych przy projektowaniu sieci pod aplikacje czasu rzeczywistego (np. zgodnie z zaleceniami ITU-T dla VoIP czy zaleceniami producentów systemów UC) przyjmuje się, że: latency powinno być możliwie niskie (np. <150 ms dla rozmów głosowych), jitter minimalny (często <30 ms), a straty pakietów na bardzo niskim poziomie. W rankingach operatorów, jeśli chcemy ocenić jakość łącza „pod jakość użytkownika”, sensownie jest posługiwać się właśnie latency, jitter, packet loss, a dopiero potem patrzeć na prędkości pobierania i wysyłania. Twoja odpowiedź dokładnie wpisuje się w takie profesjonalne podejście do oceny jakości usług internetowych.

Pytanie 26

Jakie jest adres rozgłoszeniowy sieci, w której funkcjonuje host z adresem IP 195.120.252.32 oraz maską podsieci 255.255.255.192?

A. 195.120.252.0
B. 195.120.252.255
C. 195.120.252.63
D. 195.120.255.255
Adres rozgłoszeniowy sieci (broadcast address) jest używany do wysyłania pakietów do wszystkich urządzeń w danej sieci lokalnej. Aby obliczyć adres rozgłoszeniowy, należy najpierw określić adres sieci oraz maskę podsieci. W przypadku hosta o adresie IP 195.120.252.32 i masce 255.255.255.192, maska ta oznacza, że 26 bitów jest przeznaczonych na część sieci, a 6 bitów na część hosta. Przy takich parametrach, sieć jest zdefiniowana w zakresie adresów 195.120.252.0 do 195.120.252.63. Adres 195.120.252.0 to adres sieci, a 195.120.252.63 to adres rozgłoszeniowy, który jest uzyskiwany przez ustawienie wszystkich bitów części hosta na jedynki. W praktyce, adres rozgłoszeniowy pozwala na efektywną komunikację między urządzeniami w sieci, umożliwiając przesyłanie informacji do wszystkich hostów jednocześnie, co jest przydatne w wielu zastosowaniach, takich jak protokoły ARP czy DHCP. Warto pamiętać, że stosowanie poprawnych adresów rozgłoszeniowych jest kluczowe dla prawidłowego działania sieci oraz zgodności z normami RFC.

Pytanie 27

Jak najlepiej chronić zgromadzone dane przed ich odczytem w przypadku kradzieży komputera?

A. wdrożyć szyfrowanie partycji
B. chronić konta silnym hasłem
C. przygotować punkt przywracania systemu
D. ustawić atrybut ukryty dla wszystkich ważnych plików
Szyfrowanie partycji to jedna z najskuteczniejszych metod ochrony danych w przypadku kradzieży komputera. Gdy partycja jest zaszyfrowana, wszystkie dane na niej przechowywane są nieczytelne dla osób, które nie dysponują odpowiednim kluczem szyfrowania. Przykładem popularnych narzędzi do szyfrowania partycji są BitLocker w systemie Windows i FileVault w macOS. W praktyce zastosowanie szyfrowania partycji oznacza, że nawet w przypadku fizycznego dostępu do dysku twardego, dane nie mogą być odczytane bez posiadania klucza dostępu. Ponadto, zgodnie z najlepszymi praktykami bezpieczeństwa, szyfrowanie danych powinno być integralną częścią strategii ochrony informacji, szczególnie w kontekście danych wrażliwych, takich jak dane osobowe czy finansowe. Warto także zainwestować w regularne aktualizacje oprogramowania oraz tworzenie kopii zapasowych, aby dodatkowo zwiększyć bezpieczeństwo zgromadzonych danych.

Pytanie 28

Diagnozowanie uszkodzonych komponentów komputera przez sprawdzenie stanu wyjściowego układu cyfrowego umożliwia

A. kalibrator.
B. sonda logiczna.
C. sonometr.
D. impulsator.
Sonda logiczna to jedno z podstawowych narzędzi każdego serwisanta elektroniki cyfrowej, chociaż szczerze mówiąc, coraz mniej osób młodego pokolenia umie się nią sprawnie posługiwać. Jej główna zaleta polega na tym, że umożliwia szybkie i dokładne sprawdzenie stanu logicznego na wyjściach układów cyfrowych, czyli czy na danym pinie mamy logiczną jedynkę, zero albo stan nieustalony (tzw. high impedance lub często trzeci stan). W praktyce – naprawiając płytę główną, sterownik PLC czy prosty licznik cyfrowy, sonda pozwala dosłownie w kilka sekund stwierdzić, czy dany układ odpowiada poprawnie na sygnały sterujące. To niesamowicie przyspiesza diagnozowanie uszkodzeń. Moim zdaniem, opanowanie korzystania z sondy logicznej jest absolutnie kluczowe, jeśli ktoś myśli poważnie o pracy w serwisie sprzętu komputerowego lub automatyki przemysłowej, bo nie wszystko da się zweryfikować samym oscyloskopem czy multimetrem. Dodatkowo, większość standardów naprawczych (np. IPC-7711/7721) zakłada wykorzystanie sondy logicznej na etapie testów funkcjonalnych, zwłaszcza w środowiskach produkcyjno-serwisowych. Warto pamiętać, że sonda logiczna daje podgląd tylko na cyfrowy stan linii, co pozwala uniknąć wielu zbędnych pomiarów napięciowych i skupia się na logice pracy układów. To jest coś, co naprawdę się przydaje w praktyce i moim zdaniem każdy technik powinien mieć ją w swoim podstawowym zestawie narzędzi.

Pytanie 29

Użytkownik systemu Windows może logować się na każdym komputerze w sieci, korzystając z profilu, który jest przechowywany na serwerze i może być zmieniany przez użytkownika. Jak nazywa się ten profil?

A. tymczasowy
B. mobilny
C. obowiązkowy
D. lokalny
Profil mobilny w systemie Windows jest rozwiązaniem pozwalającym użytkownikom na dostęp do swojego środowiska roboczego z różnych komputerów w sieci. Gdy użytkownik loguje się na komputerze, system pobiera jego profil z serwera, co umożliwia synchronizację ustawień, plików i preferencji użytkownika. Mobilne profile są szczególnie przydatne w środowiskach korporacyjnych, gdzie pracownicy mogą korzystać z różnych stacji roboczych, a ich dane i konfiguracje muszą być spójne niezależnie od miejsca logowania. Działa to na zasadzie przechowywania profilu na serwerze, co oznacza, że wszelkie zmiany dokonane przez użytkownika są natychmiast synchronizowane. W praktyce zapewnia to większą elastyczność i wygodę, umożliwiając użytkownikom płynne przechodzenie między różnymi komputerami, co jest kluczowe w organizacjach o rozproszonych zasobach. Mobilne profile są zgodne z najlepszymi praktykami w zakresie zarządzania IT, zapewniając bezpieczeństwo danych oraz ułatwiając zarządzanie użytkownikami w przedsiębiorstwach.

Pytanie 30

Jakie urządzenie stosuje technikę polegającą na wykrywaniu zmian w pojemności elektrycznej podczas manipulacji kursorem na monitorze?

A. joystik
B. touchpad
C. mysz
D. trackpoint
Touchpad to urządzenie wejściowe, które wykorzystuje metodę detekcji zmian pojemności elektrycznej, aby zareagować na ruch palca użytkownika. W dotykowych panelach, takich jak touchpad, pod powierzchnią znajdują się czujniki, które monitorują zmiany w polu elektrycznym, gdy palec zbliża się do powierzchni. Działa to na zasadzie pomiaru pojemności elektrycznej, co pozwala na precyzyjne określenie pozycji dotyku. Takie rozwiązanie znajduje zastosowanie w laptopach, tabletach oraz niektórych smartfonach. Z perspektywy ergonomii i interakcji użytkownika, touchpady oferują łatwość nawigacji i możliwość wykonywania gestów, co poprawia komfort pracy. Przykładowo, przesunięcie palcem w górę może zastąpić przewijanie strony, a wykonanie podwójnego stuknięcia może działać jak kliknięcie. W kontekście standardów branżowych, touchpady muszą spełniać określone normy jakości w zakresie detekcji dotyku oraz responsywności, co wpływa na ich popularność w nowoczesnych urządzeniach komputerowych.

Pytanie 31

Do kategorii oprogramowania określanego mianem malware (ang. malicious software) nie zalicza się oprogramowania typu

A. exploit
B. computer aided manufacturing
C. scumware
D. keylogger
Odpowiedź 'computer aided manufacturing' (CAM) jest poprawna, ponieważ odnosi się do narzędzi i oprogramowania wspierającego procesy produkcyjne w przemyśle, a nie do oprogramowania szkodliwego. CAM jest wykorzystywane do projektowania, planowania oraz optymalizacji procesów produkcyjnych, co ma na celu zwiększenie efektywności i jakości wytwarzanych produktów. Przykładem zastosowania CAM może być automatyzacja obróbki CNC, gdzie oprogramowanie steruje maszynami w sposób precyzyjny, minimalizując błędy ludzkie. Standardy branżowe, takie jak ISO 9001, podkreślają znaczenie zintegrowanych procesów produkcyjnych, co czyni CAM kluczowym elementem strategii zarządzania jakością. W przeciwieństwie do oprogramowania typu malware, które ma na celu szkodzenie systemom informatycznym, CAM przyczynia się do rozwoju i innowacji w przemysłowych zastosowaniach.

Pytanie 32

Martwy piksel, będący defektem monitorów LCD, to punkt, który trwa niezmiennie w kolorze

A. szarym
B. czarnym
C. fioletowym
D. żółtym
Martwy piksel to problem, który dotyczy wyświetlaczy LCD i oznacza punkt na ekranie, który nie reaguje na sygnały z karty graficznej. W przypadku martwego piksela, najczęściej pozostaje on w jednym, niezmiennym kolorze, a najczęściej jest to kolor czarny. Oznacza to, że piksel nie emituje światła, co sprawia, że jest widoczny jako ciemny punkt na tle jaśniejszego obrazu. Martwe piksele mogą występować z różnych przyczyn, w tym uszkodzeń mechanicznych, błędów w produkcji lub problemów z oprogramowaniem. W branży standardem jest, że producenci monitorów klasyfikują martwe piksele jako defekty, jeżeli ich liczba przekracza określony próg, który zazwyczaj wynosi kilka pikseli na milion. Użytkownicy mogą spotkać się z tym problemem podczas codziennego użytku, np. w grach komputerowych czy podczas pracy z grafiką, gdzie jakość obrazu ma kluczowe znaczenie. Dobrą praktyką jest regularne sprawdzanie monitorów pod kątem martwych pikseli, aby zminimalizować wpływ takich defektów na doświadczenia użytkowników.

Pytanie 33

Jaką fizyczną topologię sieci komputerowej przedstawiono na załączonym rysunku?

Ilustracja do pytania
A. topologię hierarchiczną
B. topologię gwiazdy
C. topologię magistrali
D. topologię gwiazdy rozszerzonej
Topologia hierarchiczna, zwana również topologią drzewa, jest strukturą sieci, gdzie urządzenia są zorganizowane w sposób przypominający drzewo. Główna cecha tej topologii to hierarchiczne połączenie urządzeń, gdzie każde urządzenie może mieć wiele połączeń z urządzeniami niższego poziomu. W tej strukturze centralne urządzenia są połączone z urządzeniami podrzędnymi, co zapewnia skalowalność i łatwość zarządzania. Topologia hierarchiczna jest często stosowana w dużych sieciach korporacyjnych, gdzie wymagana jest infrastruktura, która może się łatwo rozwijać wraz z rosnącymi potrzebami firmy. Taka organizacja umożliwia efektywne zarządzanie ruchem sieciowym i łatwe lokalizowanie usterek. W przypadku awarii jednego elementu sieci, inne mogą nadal funkcjonować, co zwiększa niezawodność systemu. Przykładem praktycznego zastosowania topologii hierarchicznej jest struktura sieci w dużych organizacjach, gdzie są stosowane wielopoziomowe systemy przełączników i routerów, które łączą różne działy i oddziały firmy. Dzięki temu można skutecznie zarządzać ruchem danych i zapewnić odpowiednią przepustowość dla różnych aplikacji biznesowych.

Pytanie 34

W sytuacji, gdy brakuje odpowiedniej ilości pamięci RAM do przeprowadzenia operacji, takiej jak uruchomienie aplikacji, system Windows pozwala na przeniesienie nieużywanych danych z pamięci RAM do pliku

A. config.sys
B. pagefile.sys
C. tpm.sys
D. nvraid.sys
Odpowiedź 'pagefile.sys' jest jak najbardziej trafna! To plik, który bardzo mocno pomaga w zarządzaniu pamięcią w Windows. Kiedy aplikacje potrzebują więcej pamięci RAM, niż mamy w komputerze, system przenosi mniej używane dane do tego pliku na dysku. Dzięki temu możemy uruchomić więcej programów, nawet te bardziej wymagające. To naprawdę ważne, bo zapobiega zamrażaniu się systemu. Dobrze jest też wiedzieć, że można zmieniać rozmiar tego pliku w ustawieniach, co pozwala dostosować wydajność do własnych potrzeb. Moim zdaniem, warto monitorować, jak używamy pamięci, aby wszystko działało płynnie – od codziennych zadań po bardziej zaawansowane programy.

Pytanie 35

Aby w przeglądarce internetowej wyczyścić dane dotyczące adresów przeglądanych witryn, należy między innymi podać

A. uprawnienia zalogowanego użytkownika systemu operacyjnego.
B. ścieżkę do folderu przeglądarki z plikami tymczasowymi.
C. nazwę użytkownika systemu, którego ta czynność dotyczy.
D. zakres czasu, który ma obejmować ta czynność.
Prawidłowo – w typowych przeglądarkach internetowych (Chrome, Firefox, Edge, Opera i inne) przy czyszczeniu historii przeglądania jednym z kluczowych parametrów jest właśnie zakres czasu. Mechanizm wygląda zwykle podobnie: po wybraniu opcji „Wyczyść dane przeglądania” albo „Wyczyść historię” pojawia się okno, w którym wybierasz, co chcesz usunąć (historię odwiedzanych stron, ciasteczka, pliki tymczasowe, dane formularzy itp.) oraz za jaki okres. Standardowe zakresy to: ostatnia godzina, ostatnie 24 godziny, ostatnie 7 dni, ostatnie 4 tygodnie albo „od początku” (czyli cała historia). Zakres czasu jest ważny z punktu widzenia praktyki: czasem chcesz tylko „wyczyścić ślady” z krótkiej sesji, np. po zalogowaniu się na konto na cudzym komputerze, a czasem robisz pełne porządki, żeby przyspieszyć działanie przeglądarki albo rozwiązać problemy z ładowaniem stron. Z mojego doświadczenia sensowne jest regularne czyszczenie historii i cache z dłuższego okresu, ale ciasteczka lepiej kasować bardziej świadomie, bo powoduje to wylogowanie z wielu serwisów. Branżowo jest to też element dobrej higieny bezpieczeństwa i prywatności – w wytycznych np. RODO czy ogólnie politykach bezpieczeństwa w firmach często zaleca się okresowe usuwanie lokalnych danych przeglądarki, szczególnie na komputerach współdzielonych. Warto pamiętać, że przeglądarka nie potrzebuje od Ciebie żadnych ścieżek do folderów ani nazw użytkowników – ma własne mechanizmy zarządzania danymi i to właśnie wybór zakresu czasu jest jednym z głównych parametrów takiej operacji.

Pytanie 36

Typ systemu plików, który nie obsługuje tworzenia wewnętrznego rejestru zmian, zwanego księgowaniem, to

A. ext3
B. FAT32
C. NTFS
D. ext4
FAT32 to system plików opracowany przez firmę Microsoft, który nie obsługuje księgowania, czyli wewnętrznego dziennika zmian. Księgowanie jest techniką, która pozwala na rejestrowanie operacji na plikach, co zwiększa bezpieczeństwo danych i ułatwia odzyskiwanie ich w przypadku awarii. W przeciwieństwie do FAT32, systemy takie jak NTFS oraz ext3/ext4 implementują tę funkcjonalność. Przykładowo, NTFS używa dziennika, aby śledzić zmiany w strukturze plików, co minimalizuje ryzyko utraty danych. FAT32, mimo swoich ograniczeń, jest często używany w urządzeniach wymagających dużej kompatybilności, takich jak pendrive'y czy karty pamięci, ponieważ jest obsługiwany przez wiele systemów operacyjnych. W praktyce oznacza to, że FAT32 nie jest idealnym wyborem dla systemów, gdzie bezpieczeństwo danych i integralność plików są kluczowe, jednak jego prostota i szerokie wsparcie czynią go nadal popularnym rozwiązaniem w wielu zastosowaniach.

Pytanie 37

Jakie informacje można uzyskać za pomocą polecenia uname -s w systemie Linux?

A. stanu aktywnych interfejsów sieciowych.
B. wolnego miejsca na dyskach twardych.
C. nazwa jądra systemu operacyjnego.
D. ilości dostępnej pamięci.
Polecenie uname -s w systemie Linux pokazuje nam nazwę jądra. To jakby szybki sposób na dowiedzenie się, z jakiego rdzenia korzysta nasz system. Używa się go często wśród administratorów, żeby wiedzieć, jakie jądro jest zainstalowane, co jest ważne przy aktualizacjach, czy przy instalowaniu nowych programów. Z mojego doświadczenia, czasami warto sprawdzić, jakie jądro mamy, bo to może wpłynąć na to, czy nowy sterownik działa, czy nie. Regularne sprawdzanie wersji jądra to dobry pomysł, żeby utrzymać system stabilnym i bezpiecznym. Zresztą, różne wersje jądra mogą różnie reagować na sprzęt, a to z kolei wpływa na wydajność całego systemu.

Pytanie 38

W systemie operacyjnym Linux, do konfigurowania sieci VLAN wykorzystuje się polecenie

A. ip link
B. ip route
C. ip address
D. ip neighbour
Polecenie 'ip link' jest kluczowym narzędziem w zarządzaniu interfejsami sieciowymi w systemie Linux, w tym do tworzenia i zarządzania sieciami VLAN (Virtual Local Area Network). VLAN to technologia, która pozwala na segmentację sieci na mniejsze, logiczne podgrupy, co zwiększa bezpieczeństwo i wydajność. Używając 'ip link', można łatwo tworzyć, modyfikować i usuwać interfejsy sieciowe, w tym te wirtualne, które są niezbędne do działania VLAN. Na przykład, aby utworzyć interfejs VLAN o ID 10 na interfejsie fizycznym eth0, można użyć polecenia 'ip link add link eth0 name eth0.10 type vlan id 10'. Po dodaniu interfejsu trzeba go aktywować, co można zrobić poleceniem 'ip link set dev eth0.10 up'. Wiedza o VLAN jest szczególnie ważna w środowiskach z wieloma klientami, gdzie wymagana jest izolacja ruchu oraz efektywne zarządzanie przepustowością. Dobre praktyki sugerują również, aby dokumentować zmiany i konfiguracje VLAN w celu zapewnienia ciągłości działania oraz łatwego rozwiązywania problemów w przyszłości.

Pytanie 39

Jak nazywa się pamięć podręczną procesora?

A. ROM
B. EPROM
C. NVRAM
D. CACHE
Poprawna odpowiedź to CACHE, bo właśnie tak nazywa się pamięć podręczna procesora. Pamięć cache to bardzo szybka pamięć półprzewodnikowa, zbudowana zazwyczaj z komórek SRAM, umieszczona bezpośrednio w procesorze lub bardzo blisko niego. Jej głównym zadaniem jest przechowywanie najczęściej używanych danych i instrukcji, żeby procesor nie musiał za każdym razem odwoływać się do dużo wolniejszej pamięci RAM. W praktyce różnica w czasie dostępu między rejestrem CPU, cache, RAM a dyskiem jest ogromna, dlatego wszystkie współczesne procesory x86, ARM i inne mają wielopoziomową pamięć cache: L1, L2, a często także L3. L1 jest najszybsza i najmniejsza, L2 i L3 są trochę wolniejsze, ale pojemniejsze. Z mojego doświadczenia, przy analizie wydajności aplikacji systemowych i gier, bardzo często widać, że to właśnie efektywne wykorzystanie cache decyduje o realnej szybkości, a nie sama częstotliwość taktowania. Dobre praktyki programistyczne, takie jak lokalność odwołań do pamięci (sekwencyjny dostęp do danych, trzymanie struktur danych „obok siebie”), są projektowane właśnie pod działanie cache. W technice komputerowej przyjmuje się model pamięci hierarchicznej, gdzie cache jest kluczowym elementem między rejestrami procesora a pamięcią operacyjną RAM. W diagnostyce sprzętu i przy doborze procesora do konkretnego zastosowania (np. serwery, stacje robocze, komputery do gier) zwraca się uwagę nie tylko na liczbę rdzeni, ale też na wielkość i organizację pamięci cache. W skrócie: cache to taki „sprytny bufor” blisko CPU, który minimalizuje opóźnienia i pozwala maksymalnie wykorzystać możliwości procesora.

Pytanie 40

Na fotografii ukazana jest pamięć o 168 stykach

Ilustracja do pytania
A. SIMM
B. SDRAM
C. SIPP
D. RIMM
SDRAM czyli Synchronous Dynamic Random Access Memory to typ pamięci RAM, który jest zsynchronizowany z zegarem systemowym co pozwala na bardziej efektywną i szybszą komunikację z procesorem. Pamięć SDRAM jest powszechnie stosowana w komputerach osobistych od końca lat 90-tych ze względu na swoje zalety w zakresie wydajności. Typowo SDRAM jest podzielona na wiersze i kolumny co umożliwia jednoczesny dostęp do wielu miejsc w pamięci co znacznie przyspiesza procesy odczytu i zapisu danych. 168-stykowe moduły SDRAM są zazwyczaj używane w standardowych komputerach typu PC. Moduły te oferują przepustowość wystarczającą do obsługi większości aplikacji biurowych i multimedialnych z tamtych lat. Zgodność ze standardami SDRAM jest również kluczowa ponieważ zapewnia współdziałanie z różnymi platformami sprzętowymi. Warto również zauważyć że pamięci SDRAM były kluczowym elementem w przejściu na szybsze technologie takie jak DDR pamięci RAM co z kolei wpłynęło na ogólną poprawę wydajności komputerów.