Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 12 maja 2026 07:35
  • Data zakończenia: 12 maja 2026 07:45

Egzamin zdany!

Wynik: 37/40 punktów (92,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Aby ocenić stabilność systemu Windows Server, należy użyć narzędzia

A. Zasady grupy
B. Menedżer zadań
C. Monitor niezawodności
D. Dziennik zdarzeń
Monitor niezawodności to narzędzie dostępne w systemie Windows Server, które umożliwia użytkownikom monitorowanie i analizowanie stabilności oraz wydajności systemu. Działa na zasadzie zbierania danych o zdarzeniach systemowych, aplikacjach oraz sprzęcie, co pozwala na identyfikację potencjalnych problemów, zanim staną się one krytyczne. Użytkownicy mogą przeglądać raporty, które przedstawiają dane dotyczące awarii aplikacji, problemów ze sprzętem oraz innych zdarzeń, co ułatwia podejmowanie decyzji dotyczących konserwacji i optymalizacji systemu. Zastosowanie Monitora niezawodności jest zgodne z najlepszymi praktykami zarządzania IT, które zalecają proaktywne podejście do monitorowania i zarządzania zasobami IT. Przykładem praktycznego zastosowania może być przygotowanie raportu dotyczącego historii awarii aplikacji, co pozwala na analizę trendów i podejmowanie działań naprawczych, zanim problemy wpłyną na użytkowników końcowych. Narzędzie to jest nieocenione w środowiskach produkcyjnych, gdzie stabilność i ciągłość działania systemów są kluczowe dla sukcesu operacyjnego.

Pytanie 2

Zestaw dodatkowy, który zawiera strzykawkę z cieczą, igłę oraz rękawice ochronne, jest przeznaczony do napełniania pojemników z medium drukującym w drukarkach

A. igłowych
B. atramentowych
C. laserowych
D. przestrzennych
Drukarki atramentowe zazwyczaj korzystają z płynnego tuszu, który jest nanoszony na papier przez specjalne dysze. Zestaw, który zawiera strzykawkę, igłę i rękawiczki, jest właśnie do napełniania kartridży tym tuszem. Dobrze przeprowadzony proces napełniania jest mega ważny, żeby druk działał bez zarzutu i żeby jakość wydruku była ok. Z moich doświadczeń wynika, że wielu użytkowników decyduje się na samodzielne uzupełnianie tuszu, zwłaszcza jak skończą się oryginalne zapasy. To potrafi być tańsze i łatwiejsze w dostępie do materiałów eksploatacyjnych. Warto pamiętać, żeby używać tuszy dobrej jakości, które pasują do konkretnego modelu drukarki. Dzięki temu unikniemy problemów z wydajnością i jakością druku. Poza tym, dobrze jest zakładać rękawiczki, żeby nie pobrudzić sobie rąk tuszem i żeby zapobiec zanieczyszczeniu.

Pytanie 3

Jakie medium transmisyjne gwarantuje izolację galwaniczną pomiędzy systemami przesyłu danych?

A. Skrętka ekranowana
B. Przewód koncentryczny
C. Skrętka nieekranowana
D. Światłowód
Światłowód to medium transmisyjne, które zapewnia separację galwaniczną pomiędzy systemami transmisji danych. Oznacza to, że nie przewodzi prądu elektrycznego, co eliminuje ryzyko wystąpienia zakłóceń elektromagnetycznych oraz problemów związanych z uziemieniem. To sprawia, że światłowody są idealnym wyborem w środowiskach o wysokim poziomie zakłóceń, takich jak fabryki czy centra danych. Na przykład, w zastosowaniach telekomunikacyjnych światłowody są wykorzystywane do przesyłania danych na duże odległości z minimalnymi stratami sygnału. W branży sieci komputerowych światłowody są często używane w backbone'ach dużych sieci, zapewniając szybkie połączenia między różnymi segmentami. Dodatkowo, standardy takie jak IEEE 802.3 (Ethernet) i ITU-T G.652 definiują parametry i specyfikacje dla technologii światłowodowej, co czyni ją zgodną z najlepszymi praktykami w dziedzinie przesyłu danych. Warto dodać, że światłowody są również odporne na wpływ warunków atmosferycznych, co czyni je doskonałym rozwiązaniem dla systemów zewnętrznych.

Pytanie 4

Pamięć, która nie traci danych, może być elektrycznie kasowana i programowana, znana jest pod skrótem

A. EEPROM
B. RAM
C. ROM
D. IDE
Odpowiedź EEPROM (Electrically Erasable Programmable Read-Only Memory) jest poprawna, ponieważ odnosi się do pamięci nieulotnej, która może być elektrycznie kasowana i programowana. EEPROM jest istotnym elementem architektur systemów embedded, gdzie konieczne jest przechowywanie danych konfiguracyjnych, które muszą być w stanie przetrwać wyłączenie zasilania. Przykłady zastosowania EEPROM obejmują przechowywanie ustawień w urządzeniach elektronicznych, takich jak piloty zdalnego sterowania, sprzęt RTV oraz w systemach automatyki domowej. Dodatkowym atutem EEPROM jest możliwość wielokrotnego kasowania i programowania, co czyni go bardziej elastycznym w porównaniu do tradycyjnych pamięci ROM. W kontekście standardów branżowych, EEPROM znajduje zastosowanie w różnych protokołach komunikacyjnych, takich jak I2C oraz SPI, co ułatwia integrację z innymi komponentami i systemami. Zrozumienie działania EEPROM jest kluczowe dla inżynierów zajmujących się projektowaniem systemów cyfrowych, ponieważ pozwala na efektywne zarządzanie danymi i ich integralnością.

Pytanie 5

Wskaż złącze żeńskie o liczbie pinów 24 lub 29, które jest w stanie przesyłać skompresowany cyfrowy sygnał do monitora?

A. VGA
B. DVI
C. RCA
D. HDMI
DVI (Digital Visual Interface) jest standardem interfejsu służącym do przesyłania cyfrowych sygnałów wideo. Złącze DVI występuje w dwóch wersjach: DVI-D, które przesyła jedynie sygnał cyfrowy, oraz DVI-I, które obsługuje zarówno sygnał cyfrowy, jak i analogowy. DVI ma 24 piny w wersji DVI-D, co umożliwia przesyłanie sygnałów w wysokiej rozdzielczości, co jest istotne w kontekście nowoczesnych monitorów LCD oraz projektorów. W odróżnieniu od VGA, który przesyła sygnał analogowy, DVI zapewnia lepszą jakość obrazu oraz bardziej stabilne połączenie. W praktyce, DVI jest często stosowane w komputerach stacjonarnych oraz stacjach roboczych, gdzie wymagana jest wysoka jakość obrazu, na przykład w edytorach grafiki czy podczas pracy z aplikacjami CAD. Ponadto, DVI obsługuje różne formaty sygnału, co czyni go wszechstronnym rozwiązaniem dla różnych urządzeń wyświetlających. Warto również zauważyć, że DVI jest kompatybilne z HDMI, co umożliwia łatwe przejście na nowsze technologie bez utraty jakości obrazu.

Pytanie 6

Wskaż ilustrację obrazującą typowy materiał eksploatacyjny używany w drukarkach żelowych?

Ilustracja do pytania
A. A
B. D
C. C
D. B
Odpowiedź C jest poprawna, ponieważ przedstawia kartridż z atramentem żelowym, który jest typowym materiałem eksploatacyjnym do drukarek żelowych. Drukarki żelowe, takie jak te produkowane przez firmę Ricoh, wykorzystują specjalny żelowy atrament, który różni się od tradycyjnych atramentów wodnych. Żelowy atrament zapewnia wyższą jakość druku i większą trwałość wydruków, co jest szczególnie istotne w środowiskach biurowych, gdzie wysoka jakość jest wymagana przy drukowaniu dokumentów oraz grafik. Atrament żelowy szybko schnie po nałożeniu na papier, co zmniejsza ryzyko rozmazywania się wydruków. Materiały eksploatacyjne, takie jak te przedstawione na rysunku C, są zgodne ze standardami użytkowania w drukarkach żelowych, oferując dobrą wydajność i efektywność kosztową. Ponadto, użycie oryginalnych materiałów eksploatacyjnych zapewnia prawidłowe działanie urządzenia oraz zmniejsza ryzyko uszkodzeń mechanicznych. Użytkowanie zgodnie z zaleceniami producenta gwarantuje optymalne wykorzystanie możliwości drukarki.

Pytanie 7

W systemie Windows użycie prezentowanego polecenia spowoduje tymczasową zmianę koloru

Microsoft Windows [Version 10.0.14393]
(c) 2016 Microsoft Corporation. Wszelkie prawa zastrzeżone.
 
C:\Users\ak>color 1
A. czcionki wiersza poleceń, która była uruchomiona z ustawieniami domyślnymi.
B. tła okna wiersza poleceń, które było uruchomione z ustawieniami domyślnymi.
C. tła i czcionki okna Windows.
D. paska nazwy okna Windows.
Polecenie 'color 1' użyte w wierszu poleceń Windows (cmd.exe) powoduje zmianę koloru CZCIONKI (czyli tekstu) na niebieski w aktywnym oknie konsoli, pod warunkiem, że zostały zachowane domyślne ustawienia. To polecenie działa tylko na wiersz poleceń — nie ma wpływu na inne elementy środowiska graficznego Windows. Kolor tła pozostaje domyślny (czarny), zmienia się wyłącznie kolor tekstu. Z mojego doświadczenia to bardzo przydatna funkcja podczas pracy z wieloma oknami konsoli, np. kiedy prowadzisz kilka sesji jednocześnie i chcesz szybciutko odróżnić ich zadania bez dodatkowych narzędzi. Praktycznie rzecz biorąc, 'color' pozwala na większą przejrzystość, co jest wprost nieocenione przy dłuższym debugowaniu czy administracji serwerami. Warto zapamiętać, że parametr pierwszego znaku w komendzie 'color' (jak na przykładzie: 1) określa właśnie kolor czcionki, a nie tła. Branżowo przyjęło się korzystać z tej funkcjonalności do organizacji pracy, a nie tylko do zabawy kolorami. Sprawa drobna, ale jak ktoś raz się nauczy, skraca to czas i porządkuje pracę w konsoli. Zresztą, Microsoft w dokumentacji podkreśla, że to zmiana wyłącznie tymczasowa — po zamknięciu okna wracają ustawienia domyślne. Tak więc decyzja o zmianie koloru tekstu w danym oknie wiersza poleceń to zarówno przejaw dobrej organizacji pracy, jak i znajomości narzędzi systemowych.

Pytanie 8

Podczas uruchamiania (krótko po zakończeniu testu POST) komputer się zawiesza. Jakie mogą być możliwe przyczyny tej awarii?

A. Zbyt wiele ikon na pulpicie
B. Brak podłączonej myszki komputerowej
C. Niepoprawnie skonfigurowana drukarka
D. Nieprawidłowe napięcie zasilania procesora
Zasilanie procesora to naprawdę ważna sprawa, bo złe napięcie może namieszać w działaniu komputera. Procesor to jeden z kluczowych elementów i jeśli napięcie jest zbyt niskie, to po prostu może się zawiesić. Z drugiej strony, jak napięcie jest za wysokie, to może się przegrzać i uszkodzić. Dlatego warto używać zasilaczy, które spełniają normy ATX i mają dobre certyfikaty, żeby mieć pewność, że wszystko działa tak jak powinno. Dobrze jest też monitorować, jak pracują nasze podzespoły - programy takie jak HWMonitor czy CPU-Z mogą być w tym bardzo pomocne. Troska o prawidłowe napięcie zasilania to klucz do sprawnego działania komputera, zarówno dla tych, co budują sprzęt, jak i dla tych, co zajmują się konserwacją.

Pytanie 9

Jakie polecenie w systemie Windows służy do monitorowania bieżących połączeń sieciowych?

A. netstat
B. net view
C. netsh
D. telnet
Polecenie 'netstat' jest kluczowym narzędziem w systemie Windows, które umożliwia monitorowanie aktywnych połączeń sieciowych oraz analizy statystyk dotyczących protokołów TCP/IP. Używając 'netstat', użytkownicy mogą uzyskać informacje na temat otwartych portów, aktualnie aktywnych połączeń oraz stanu protokołów sieciowych. Na przykład, polecenie 'netstat -a' wyświetli wszystkie połączenia i porty nasłuchujące, co jest przydatne do diagnozowania problemów z siecią, identyfikowania nieautoryzowanych połączeń czy też weryfikowania działania aplikacji sieciowych. W kontekście bezpieczeństwa, regularne monitorowanie połączeń za pomocą 'netstat' staje się praktyką standardową, pozwalając na szybką reakcję w przypadku wykrycia podejrzanej aktywności. Narzędzie to jest zgodne z najlepszymi praktykami branżowymi w zakresie zarządzania siecią i bezpieczeństwa, umożliwiając administratorom systemów i sieci lepsze zrozumienie ruchu sieciowego oraz podejmowanie świadomych decyzji dotyczących konfiguracji i zabezpieczeń.

Pytanie 10

W systemie Linux polecenie touch ma na celu

A. stworzenie pliku lub aktualizację daty modyfikacji bądź daty ostatniego dostępu
B. policzenie ilości wierszy, słów i znaków w pliku
C. zmianę nazwy lub przeniesienie pliku
D. wyszukiwanie określonego wzorca w treści pliku
Polecenie 'touch' w systemie Linux pełni kluczową rolę w zarządzaniu plikami, umożliwiając zarówno tworzenie nowych plików, jak i aktualizację daty ostatniej modyfikacji lub dostępu do istniejących plików. Kiedy używasz polecenia 'touch' z nazwą pliku, na przykład 'touch nowy_plik.txt', system sprawia, że plik zostaje utworzony, jeśli jeszcze nie istnieje, lub aktualizuje datę modyfikacji i ostatniego dostępu, jeśli plik już istnieje. To narzędzie jest niezwykle przydatne w praktyce, zwłaszcza w skryptach bash, gdzie często potrzebujemy szybko stworzyć plik konfiguracyjny lub tymczasowy bez konieczności jego edytowania. Dobrym przykładem zastosowania 'touch' jest sytuacja, gdy automatyzujemy procesy w systemie, gdzie wymagane są pliki sygnalizacyjne do oznaczania postępu lub statusu operacji. W kontekście dobrych praktyk, użycie 'touch' pozwala na zachowanie porządku w zarządzaniu plikami i oszczędza czas przy pracy z systemem plików. Dodatkowo, w ramach administracji systemem, 'touch' może być wykorzystywane do resetowania dat plików, co bywa ważne w kontekście kopii zapasowych oraz zarządzania wersjami.

Pytanie 11

Jak w systemie Windows zmienić port drukarki, która została zainstalowana?

A. Ostatnia znana dobra konfiguracja
B. Menedżer zadań
C. Ustawienia drukowania
D. Właściwości drukarki
Aby zmienić port zainstalowanej drukarki w systemie Windows, należy skorzystać z opcji "Właściwości drukarki". W tej sekcji użytkownik ma możliwość dostosowania różnych ustawień drukarki, w tym konfiguracji portów. W praktyce, zmiana portu jest istotna, gdy drukarka jest podłączona do innego portu fizycznego, na przykład w przypadku zmiany kabla USB do innego gniazda lub przełączenia się na drukowanie w sieci. Właściwości drukarki umożliwiają także dostęp do informacji o sterownikach, preferencjach jakości druku oraz innych zaawansowanych ustawieniach. Standardem w branży jest upewnienie się, że wszystkie zmiany w konfiguracji sprzętowej są także odzwierciedlane w oprogramowaniu, aby uniknąć problemów z komunikacją i wydajnością. Dlatego znajomość tej funkcji jest kluczowa dla efektywnego zarządzania drukarkami w środowisku biurowym.

Pytanie 12

Na komputerze z zainstalowanymi systemami operacyjnymi Windows i Linux, po przeprowadzeniu reinstalacji systemu Windows, drugi system przestaje się uruchamiać. Aby przywrócić możliwość uruchamiania systemu Linux oraz zachować dane i ustawienia w nim zgromadzone, co należy zrobić?

A. zainstalować bootloadera GRUB na nowo
B. wykonać ponowną instalację systemu Linux
C. przeprowadzić jeszcze raz instalację systemu Windows
D. zrealizować skanowanie dysku przy użyciu programu antywirusowego
Reinstalacja bootloadera GRUB to naprawdę ważny krok, zwłaszcza po reinstalacji Windows. Bootloader jest tym, co zajmuje się uruchamianiem różnych systemów na komputerze, a Windows ma tendencję do nadpisywania go podczas swojej instalacji. W przypadku, gdy masz na komputerze kilka systemów, na przykład Windows i Linux, może to spowodować, że Linux przestanie się uruchamiać. GRUB, czyli GRand Unified Bootloader, to najczęściej używany bootloader w systemach Linux i pozwala na wybór systemu do uruchomienia przy starcie komputera. Żeby przywrócić możliwość uruchomienia Linuxa, trzeba bootować z Live CD lub Live USB, a potem ponownie zainstalować GRUB, wskazując odpowiednie partycje. To podejście nie tylko przywraca działanie, ale też chroni dane i ustawienia w Linuxie. Możesz użyć na przykład poleceń `sudo grub-install /dev/sda` oraz `sudo update-grub`, żeby wykryć wszystkie zainstalowane systemy. Takie działania to standard w zarządzaniu komputerem z wieloma systemami operacyjnymi, więc dobrze jest to wiedzieć.

Pytanie 13

Tryb pracy portu równoległego, bazujący na magistrali ISA, umożliwiający transfer danych do 2,4 MB/s, dedykowany dla skanerów i urządzeń wielofunkcyjnych, to

A. Nibble Mode
B. SPP
C. Bi-directional
D. ECP
Tryb ECP (Extended Capabilities Port) faktycznie powstał w odpowiedzi na rosnące wymagania sprzętu peryferyjnego, głównie skanerów i drukarek wielofunkcyjnych, pod koniec lat 90. ECP umożliwia dwukierunkowy transfer danych z prędkością sięgającą nawet 2,4 MB/s, co stanowiło wtedy ogromny skok jakościowy w porównaniu do starszych rozwiązań, takich jak SPP (Standard Parallel Port). W praktyce, ten tryb wspiera zaawansowane mechanizmy buforowania i kompresji danych – moim zdaniem to właśnie przez to urządzenia wielofunkcyjne były w stanie komunikować się płynnie z komputerami, nawet gdy przesyłano obrazy czy skanowane dokumenty. ECP wykorzystuje kanał DMA, co pozwala odciążyć procesor główny. Z mojego doświadczenia, wybór ECP podczas instalowania drukarki czy skanera na starszych komputerach często rozwiązywał problemy z „przerywanymi” transferami. Warto pamiętać, że tryb ECP jest zgodny z magistralą ISA, co ułatwiało jego wdrożenie w starszych płytach głównych i kartach rozszerzeń. W branży przyjęło się, że jeżeli zależy nam na niezawodnej i szybkiej komunikacji z drukarkami i skanerami, to ECP to najlepszy wybór. Dobrą praktyką jest też sprawdzanie ustawień BIOS – tam można wymusić tryb ECP, żeby wycisnąć maksimum z portu równoległego. Ostatecznie, ECP to nie tylko wyższa prędkość, ale i stabilność transmisji, która dziś wydaje się oczywista, ale dawniej miała spore znaczenie.

Pytanie 14

Jakie znaczenie ma skrót MBR w kontekście technologii komputerowej?

A. Fizyczny identyfikator karty sieciowej
B. Bloki pamięci w górnej części komputera IBM/PC
C. Główny rekord rozruchowy SO
D. Usługę związaną z interpretacją nazw domen
Skrót MBR oznacza 'Master Boot Record', co jest kluczowym elementem architektury systemów operacyjnych, zwłaszcza w kontekście rozruchu komputerów. Główny rekord rozruchowy znajduje się na początku dysku twardego i zawiera informacje niezbędne do zainicjowania systemu operacyjnego. MBR jest odpowiedzialny za lokalizację i uruchomienie systemu operacyjnego poprzez przekazywanie kontroli do odpowiedniego sektora rozruchowego. W praktyce, MBR zawiera również tablicę partycji, która definiuje, jak przestrzeń dyskowa jest podzielona pomiędzy różne systemy plików. W przypadku systemów BIOS, MBR jest standardem od lat 80-tych XX wieku, jednak coraz częściej zastępowany jest przez nowocześniejszy system UEFI, który oferuje lepsze wsparcie dla dużych dysków i więcej funkcji zabezpieczeń. Wiedza o MBR jest niezbędna dla specjalistów IT zajmujących się administracją systemów, gdyż pozwala na zrozumienie podstawowych zasad zarządzania danymi oraz procesów rozruchowych w komputerach.

Pytanie 15

Jaki standard szyfrowania powinien być wybrany przy konfiguracji karty sieciowej, aby zabezpieczyć transmisję w sieci bezprzewodowej?

A. EAP
B. MAC
C. WPA
D. PPP
WPA (Wi-Fi Protected Access) to standard szyfrowania, który został opracowany w celu poprawy bezpieczeństwa sieci bezprzewodowych. Jest on następcą wcześniejszych protokołów, takich jak WEP, które okazały się nieefektywne w ochronie przed nieautoryzowanym dostępem. WPA wykorzystuje silniejsze algorytmy szyfrowania, w tym TKIP (Temporal Key Integrity Protocol), co znacząco zwiększa poziom bezpieczeństwa. W praktyce, zastosowanie WPA w konfiguracji karty sieciowej pozwala na szyfrowanie danych przesyłanych w sieci bezprzewodowej, co zminimalizuje ryzyko podsłuchiwania i ataków typu „man-in-the-middle”. Oprócz WPA, istnieje również WPA2 i WPA3, które oferują jeszcze większe bezpieczeństwo dzięki zastosowaniu AES (Advanced Encryption Standard) oraz bardziej zaawansowanym mechanizmom uwierzytelniania. Wybierając WPA, Administratorzy powinni również pamiętać o stosowaniu silnych haseł oraz regularnych aktualizacjach oprogramowania, aby zapewnić maksymalne bezpieczeństwo systemu.

Pytanie 16

Rodzaj systemu plików, który w systemie Windows pozwala na kompresję danych oraz przydzielanie uprawnień do plików i folderów, to

A. FAT
B. FAT32
C. NTFS
D. EXT
NTFS (New Technology File System) to zaawansowany system plików wprowadzony w systemie Windows NT, który oferuje nie tylko możliwość organizacji danych, ale również szereg funkcji, takich jak kompresja danych oraz zarządzanie uprawnieniami. Kompresja danych w NTFS pozwala na oszczędność miejsca na dysku, co jest istotne w przypadku ograniczonej przestrzeni pamięci. Użytkownicy mogą decydować, które pliki i foldery mają być kompresowane, a system automatycznie zarządza procesem, co sprawia, że jest to rozwiązanie wygodne i efektywne. Dodatkowo, NTFS wprowadza zaawansowane mechanizmy kontroli dostępu, które umożliwiają definiowanie szczegółowych uprawnień dla poszczególnych użytkowników i grup. Dzięki temu administratorzy mogą precyzyjnie kontrolować, kto ma dostęp do danych i w jakim zakresie, co jest kluczowe dla bezpieczeństwa informacji. W praktyce użycie NTFS jest standardem w środowiskach profesjonalnych, gdzie bezpieczeństwo i efektywność zarządzania danymi mają kluczowe znaczenie.

Pytanie 17

Kable światłowodowe nie są powszechnie używane w lokalnych sieciach komputerowych z powodu

A. niskiej odporności na zakłócenia elektromagnetyczne
B. ograniczonej przepustowości
C. znacznych strat sygnału podczas transmisji
D. wysokich kosztów elementów pośredniczących w transmisji
Kable światłowodowe są coraz częściej wykorzystywane w różnych systemach komunikacyjnych, jednak ich powszechne zastosowanie w lokalnych sieciach komputerowych jest ograniczone przez koszty elementów pośredniczących w transmisji. Światłowody wymagają zastosowania specjalistycznych urządzeń, takich jak transceivery i przełączniki światłowodowe, które są znacznie droższe w porównaniu do tradycyjnych urządzeń dla kabli miedzianych. Przykładem może być wykorzystanie światłowodów w dużych przedsiębiorstwach, gdzie ich zalety, takie jak wysoka przepustowość i odporność na zakłócenia elektromagnetyczne, przeważają nad kosztami. W zastosowaniach lokalnych, szczególnie w małych biurach lub domach, miedź (np. kable Ethernet) pozostaje bardziej opłacalna. Zgodnie z najlepszymi praktykami, gdyż koszt wykonania instalacji światłowodowej nie zawsze jest uzasadniony w kontekście wymagań lokalnej sieci, ciągle preferowane są rozwiązania oparte na miedzi, które wystarczają do zaspokojenia bieżących potrzeb.

Pytanie 18

Jakie jest maksymalne dozwolone promień gięcia przy układaniu kabla U/UTP kat.5E?

A. sześć średnic kabla
B. osiem średnic kabla
C. dwie średnice kabla
D. cztery średnice kabla
Dopuszczalny promień zgięcia kabli jest kluczowym zagadnieniem w kontekście instalacji sieciowych, a wybór niewłaściwych wartości może prowadzić do poważnych problemów. Odpowiedzi wskazujące na cztery, sześć lub dwie średnice kabla opierają się na błędnych założeniach dotyczących wytrzymałości i wydajności kabli. Na przykład, zgięcie kabla w promieniu czterech średnic może powodować znaczne obciążenia, które mogą prowadzić do uszkodzenia żył miedzianych oraz zwiększenia tłumienia sygnału. Podobnie, sześć średnic jako wartość graniczna również nie zapewnia wystarczającego marginesu bezpieczeństwa, co w praktyce może skutkować problemami z transmisją danych w dłuższej perspektywie. Zgięcie o promieniu dwóch średnic jest zdecydowanie niewystarczające i stwarza ryzyko poważnych uszkodzeń kabla, co może prowadzić do jego całkowitego usunięcia. Właściwe podejście do instalacji kabla, zgodne z zaleceniami stawiającymi na osiem średnic, jest nie tylko dobrym praktyką, ale również wymogiem, aby zapewnić długotrwałą funkcjonalność i niezawodność sieci. Dlatego ważne jest, aby w trakcie planowania i przeprowadzania instalacji kabli, nie lekceważyć tych zasad, aby uniknąć kosztownych napraw i zminimalizować ryzyko przerw w działaniu sieci.

Pytanie 19

W sytuacji, gdy nie ma możliwości uruchomienia programu BIOS Setup, jak przywrócić domyślne ustawienia płyty głównej?

A. zaktualizować BIOS Setup
B. naładować baterię na płycie głównej
C. przełożyć zworkę na płycie głównej
D. ponownie uruchomić system
Przełożenie zworki na płycie głównej to właściwa metoda przywracania ustawień domyślnych BIOS-u, zwana również "resetowaniem BIOS-u". Zworki zazwyczaj znajdują się w pobliżu baterii CMOS i są oznaczone jako CLRTC, CLEAR, lub podobnie. Poprzez przestawienie zworki na odpowiednią pozycję przez kilka sekund, można zresetować wszystkie ustawienia BIOS-u do wartości fabrycznych. To szczególnie przydatne, gdy płyta główna nie odpowiada, a użytkownik stracił dostęp do ustawień BIOS. Po przywróceniu ustawień, ważne jest, aby z powrotem ustawić zworkę w pierwotnej pozycji, aby BIOS działał poprawnie. Dotyczy to także sytuacji, gdy na przykład zmieniono ustawienia overclockingu, które mogą uniemożliwić uruchomienie systemu. Resetowanie BIOS-u przez zworkę jest zgodne z najlepszymi praktykami i jest powszechnie stosowane przez techników komputerowych. Warto znać tę metodę, aby móc skutecznie radzić sobie z problemami płyty głównej.

Pytanie 20

Który standard w sieciach LAN określa dostęp do medium poprzez wykorzystanie tokenu?

A. IEEE 802.3
B. IEEE 802.5
C. IEEE 802.2
D. IEEE 802.1
Standard IEEE 802.5 definiuje protokół Token Ring, który opiera się na koncepcji przekazywania tokenu (żetonu) w sieci lokalnej (LAN). W tym modelu, aby urządzenie mogło wysłać dane, musi najpierw zdobyć token. Tylko urządzenie posiadające token ma prawo do przesyłania informacji, co znacznie redukuje ryzyko kolizji w transmisji danych. Praktyczne zastosowanie tego standardu widoczne było w środowiskach, gdzie stabilność i przewidywalność transmisji były kluczowe, na przykład w bankach czy instytucjach finansowych. Przykłady zastosowania obejmują systemy, które wymagają dużej niezawodności, takie jak kontrola dostępu czy systemy rozliczeniowe. Warto również zaznaczyć, że mimo iż Token Ring nie jest już tak powszechny jak Ethernet (IEEE 802.3), jego zasady oraz koncepcje są rozważane przy projektowaniu nowoczesnych sieci, ponieważ zapewniają one porządek w dostępie do medium transmisyjnego, co wciąż jest istotne w kontekście zarządzania ruchem sieciowym.

Pytanie 21

Która z usług na serwerze Windows umożliwi użytkownikom końcowym sieci zaprezentowanej na ilustracji dostęp do Internetu?

Ilustracja do pytania
A. Usługa udostępniania
B. Usługa drukowania
C. Usługa rutingu
D. Usługa LDS
Usługa rutingu jest kluczowym elementem umożliwiającym urządzeniom w sieci lokalnej dostęp do Internetu poprzez przekierowywanie pakietów sieciowych pomiędzy różnymi segmentami sieci. Na serwerach Windows funkcja rutingu jest realizowana poprzez rolę Routing and Remote Access Services (RRAS). Umożliwia ona nie tylko tradycyjny routing, ale także implementację funkcji takich jak NAT (Network Address Translation), co jest niezbędne w przypadku, gdy sieć lokalna korzysta z adresów IP prywatnych. Dzięki NAT, adresy IP prywatne mogą być translokowane na publiczne, co umożliwia komunikację z Internetem. W praktyce, aby skonfigurować serwer do pełnienia roli routera, należy zainstalować usługę RRAS i odpowiednio skonfigurować tablice routingu oraz reguły NAT. Dobrym przykładem zastosowania jest mała firma, gdzie serwer z zainstalowanym RRAS pozwala wszystkim komputerom w sieci lokalnej na dostęp do Internetu, jednocześnie zabezpieczając sieć poprzez kontrolowanie przepływu pakietów i filtrowanie ruchu, zgodnie z najlepszymi praktykami bezpieczeństwa sieciowego.

Pytanie 22

Jakie procesory można wykorzystać w zestawie komputerowym z płytą główną wyposażoną w gniazdo procesora typu Socket AM3?

A. Phenom II
B. Itanium
C. Core i7
D. Pentium D
Procesor Phenom II jest zgodny z gniazdem Socket AM3, co czyni go odpowiednim wyborem do montażu na płycie głównej obsługującej ten standard. Socket AM3 został zaprojektowany z myślą o procesorach AMD, w tym rodzinie Phenom, Phenom II oraz Athlon II. Użycie procesora Phenom II w zestawie komputerowym zapewnia dobrą wydajność w zastosowaniach multimedialnych oraz gier, co czyni go popularnym wyborem wśród entuzjastów. Przykładowo, procesory z tej serii oferują wielordzeniową architekturę, co pozwala na równoległe przetwarzanie zadań, co jest istotne w dzisiejszych aplikacjach wymagających dużej mocy obliczeniowej. Warto dodać, że Phenom II obsługuje także pamięć DDR2 i DDR3, co pozwala na większą elastyczność w konfiguracji systemu. W kontekście standardów branżowych, zgodność z gniazdem jest kluczowa dla zapewnienia stabilności i wydajności, a wybór odpowiednich komponentów zgodnych z płytą główną to fundamentalna zasada w budowie komputerów.

Pytanie 23

Menedżer urządzeń w systemie Windows pozwala na wykrycie

A. błędów systemu operacyjnego podczas jego pracy.
B. niewłaściwej pracy urządzeń podłączonych do komputera.
C. nieprawidłowej konfiguracji oprogramowania użytkowego.
D. błędnej konfiguracji rozruchu systemu oraz wykonywanych usług.
Menedżer urządzeń w Windowsie to jedno z tych narzędzi, które bardzo często przydaje się w praktyce, zwłaszcza jeśli ktoś lubi majsterkować przy sprzęcie albo po prostu musi rozwiązywać problemy z komputerem. To właśnie tam, w Menedżerze urządzeń, można szybko sprawdzić, czy wszystko, co jest podłączone do komputera – jak karta graficzna, dźwiękowa, sieciowa, dyski czy pendrive’y – działa poprawnie. Jeśli coś jest nie tak, pojawiają się żółte wykrzykniki lub czerwone krzyżyki przy danym sprzęcie. Z mojego doświadczenia wynika, że bardzo łatwo dzięki temu wykryć np. brak sterowników, konflikt zasobów czy uszkodzenie sprzętowe. Co ciekawe, niektórzy nawet nie wiedzą, że z tego poziomu można spróbować zaktualizować sterownik albo wyłączyć problematyczne urządzenie. Takie podejście, zgodne z dobrymi praktykami serwisantów i administratorów IT, pozwala na szybkie działanie bez zbędnego szukania po forach. Moim zdaniem opanowanie Menedżera urządzeń to absolutna podstawa dla każdego, kto chce być świadomym użytkownikiem Windowsa. Warto jeszcze dodać, że narzędzie to nie ma wiele wspólnego z konfiguracją usług systemowych czy naprawą błędów samego Windowsa – ono skupia się właśnie na sprzęcie (hardware), a nie na sofcie. Takie praktyczne, codzienne zastosowanie sprawia, że jest to jedno z bardziej niedocenianych, a bardzo użytecznych narzędzi na każdym komputerze z Windowsem.

Pytanie 24

W systemie Windows powiązanie rozszerzeń plików z odpowiednimi programami realizuje się za pomocą polecenia

A. assoc
B. label
C. path
D. bcdedit
Polecenie 'assoc' w systemie Windows jest odpowiedzialne za przypisywanie rozszerzeń plików do konkretnych aplikacji. Umożliwia ono użytkownikom oraz administratorom systemu zdefiniowanie, jakie programy mają otwierać pliki z określonymi rozszerzeniami. Na przykład, jeśli chcemy, aby pliki z rozszerzeniem '.txt' były otwierane przy użyciu notatnika, możemy użyć polecenia 'assoc .txt=Notatnik'. Dzięki temu, przy próbie otwarcia pliku .txt, system automatycznie wywoła odpowiedni program. Praktyczne zastosowanie tej funkcji jest szczególnie ważne w kontekście zarządzania dużą liczbą plików i różnych aplikacji, umożliwiając użytkownikom bardziej efektywne korzystanie z systemu operacyjnego. Dobrą praktyką jest regularne sprawdzanie, czy przypisania rozszerzeń są aktualne i odpowiadają używanym programom, co zapobiega problemom związanym z otwieraniem plików. Wiedza o tym poleceniu jest przydatna również dla administratorów systemów, którzy mogą zarządzać przypisaniami w sposób centralny dla wszystkich użytkowników.

Pytanie 25

Co oznacza standard ACPI w BIOSie komputera?

A. modyfikację ustawień BIOSu
B. zarządzanie energią oraz konfiguracją
C. zapamiętanie sekwencji rozruchu
D. weryfikowanie prawidłowości działania kluczowych komponentów płyty głównej
Standard ACPI (Advanced Configuration and Power Interface) jest kluczowym elementem nowoczesnych systemów BIOS, który odpowiada przede wszystkim za zarządzanie energią oraz konfigurację komponentów sprzętowych. ACPI umożliwia systemom operacyjnym, takim jak Windows czy Linux, efektywne zarządzanie energią, co pozwala na oszczędność energii oraz optymalizację pracy urządzeń. Dzięki ACPI, systemy mogą dynamicznie dostosowywać zużycie energii przez urządzenia, wprowadzając je w stan uśpienia, hibernacji czy całkowitego wyłączenia, gdy nie są używane. Przykładowo, laptopy wykorzystują ACPI do redukcji zużycia energii podczas pracy na baterii, co wydłuża czas pracy urządzenia bez ładowania. Standard ten wspiera również konfigurację sprzętu, co pozwala na automatyczne rozpoznawanie podzespołów i ich odpowiednią konfigurację bez potrzeby interwencji użytkownika. Dobre praktyki w zakresie zarządzania energią w komputerach stacjonarnych i przenośnych bazują na implementacji ACPI, co przyczynia się do zmniejszenia kosztów eksploatacji oraz wpływu na środowisko.

Pytanie 26

Według normy JEDEC, standardowe napięcie zasilające dla modułów pamięci RAM DDR3L o niskim napięciu wynosi

A. 1.35 V
B. 1.50 V
C. 1.65 V
D. 1.20 V
Odpowiedź 1.35 V jest prawidłowa, ponieważ jest to standardowe napięcie zasilania dla modułów pamięci RAM DDR3L, które zostało określone przez organizację JEDEC. DDR3L (Double Data Rate 3 Low Voltage) to technologia pamięci zaprojektowana z myślą o obniżonym zużyciu energii przy jednoczesnym zachowaniu wysokiej wydajności. Napięcie 1.35 V w porównaniu do tradycyjnego DDR3, które działa przy napięciu 1.5 V, pozwala na zmniejszenie poboru energii, co jest szczególnie istotne w urządzeniach mobilnych oraz w zastosowaniach serwerowych, gdzie efektywność energetyczna jest kluczowa. Dzięki zastosowaniu DDR3L możliwe jest zwiększenie czasu pracy na baterii w laptopach oraz zmniejszenie kosztów operacyjnych serwerów. Warto również zauważyć, że pamięci DDR3L są kompatybilne z standardowymi modułami DDR3, co pozwala na ich wykorzystanie w różnych systemach komputerowych.

Pytanie 27

W pierwszym oktecie adresów IPv4 klasy B znajdują się liczby mieszczące się w przedziale

A. od 192 do 223
B. od 64 do 127
C. od 128 do 191
D. od 32 do 63
Adresy IPv4 klasy B są definiowane na podstawie wartości pierwszego oktetu w adresie IP. W przypadku klasy B, pierwszy oktet mieści się w zakresie od 128 do 191. Klasa ta jest stosowana głównie w dużych sieciach, gdzie potrzebne jest więcej adresów niż w klasie A, ale mniej niż w klasie C. Przykładowo, adresy takie jak 128.0.0.1 czy 190.255.255.255 są typowymi adresami klasy B. W praktyce, organizacje korzystające z tej klasy mogą przydzielać do 65,536 adresów IP w obrębie jednej sieci, co czyni ją idealną do zastosowań takich jak duże przedsiębiorstwa, które potrzebują wielu urządzeń w jednej sieci lokalnej. Warto również zauważyć, że klasy adresów IP są częścią starszego podejścia do routingu, a obecnie coraz częściej stosuje się CIDR (Classless Inter-Domain Routing), który umożliwia bardziej elastyczne przydzielanie adresów IP.

Pytanie 28

Dezaktywacja automatycznych aktualizacji systemu Windows skutkuje

A. automatycznym ściąganiem aktualizacji bez ich instalacji
B. uniemożliwieniem jakiejkolwiek formy pobierania aktualizacji systemu
C. zablokowaniem samodzielnego pobierania uaktualnień przez system
D. automatycznym weryfikowaniem dostępności aktualizacji i informowaniem o tym użytkownika
Wyłączenie automatycznej aktualizacji systemu Windows skutkuje zablokowaniem samodzielnego pobierania i instalowania uaktualnień przez system operacyjny. Z perspektywy użytkownika oznacza to, że system nie będzie automatycznie pobierał najnowszych poprawek zabezpieczeń czy aktualizacji funkcjonalnych, co może wpłynąć na bezpieczeństwo i stabilność systemu. Przykładowo, jeśli użytkownik zdecyduje się na wyłączenie automatycznych aktualizacji, będzie musiał ręcznie sprawdzać dostępność aktualizacji oraz je instalować, co może prowadzić do opóźnień w zabezpieczaniu systemu. Zgodnie z najlepszymi praktykami branżowymi, regularne aktualizacje są kluczowe dla ochrony przed nowymi zagrożeniami oraz poprawy wydajności systemu. Użytkownicy powinni być świadomi tego, że decydując się na wyłączenie automatycznych aktualizacji, narażają się na ryzyko związane z potencjalnymi lukami w zabezpieczeniach, które mogłyby zostać załatane przez producenta.

Pytanie 29

Który z poniższych systemów operacyjnych jest systemem typu open-source?

A. Linux
B. Windows
C. iOS
D. macOS
Linux to system operacyjny typu open-source, co oznacza, że jego kod źródłowy jest dostępny publicznie i można go dowolnie modyfikować oraz rozpowszechniać. Jest to jedna z jego największych zalet, ponieważ umożliwia społeczności programistów na całym świecie wprowadzanie poprawek, optymalizacji i nowych funkcji, które mogą być szybko wdrażane. Dzięki temu Linux jest niezwykle elastyczny i może być dostosowany do wielu różnych zastosowań, od serwerów, przez desktopy, aż po urządzenia wbudowane. W praktyce oznacza to, że jeśli masz specyficzne potrzeby, możesz dostosować system do swoich wymagań, co jest nieosiągalne w systemach zamkniętych. Linux wspiera wiele architektur sprzętowych, co czyni go wyjątkowo uniwersalnym rozwiązaniem. W dodatku, wiele popularnych dystrybucji Linuxa, takich jak Ubuntu czy Fedora, jest dostępnych za darmo, co czyni go atrakcyjnym wyborem dla wielu użytkowników indywidualnych i organizacji.

Pytanie 30

Wartość liczby 1100112 zapisanej w systemie dziesiętnym wynosi

A. 52
B. 53
C. 51
D. 50
Liczba 1100112 w systemie dziesiętnym odpowiada wartości 51, co wynika z jej konwersji z systemu dwójkowego. Aby to obliczyć, musimy zrozumieć, jak działa system binarny. Każda cyfra w liczbie binarnej reprezentuje potęgę liczby 2. W przypadku liczby 1100112, odczytując ją od prawej do lewej, mamy: 1*2^6 + 1*2^5 + 0*2^4 + 0*2^3 + 1*2^2 + 1*2^1 + 0*2^0. Obliczając to, otrzymujemy: 64 + 32 + 0 + 0 + 4 + 2 + 0 = 102. Zauważmy jednak, że musimy skorygować nasze myślenie o systemach liczbowych. Wartości w systemie binarnym mogą być mylone z ich reprezentacjami w systemie dziesiętnym, co prowadzi do błędnych wniosków. Zrozumienie konwersji między systemami jest kluczowe w informatyce, szczególnie w kontekście programowania i analizy danych. Dobre praktyki obejmują umiejętność konwersji i zrozumienia reprezentacji liczbowych, co jest niezbędne w wielu dziedzinach, od projektowania algorytmów po konstruowanie baz danych.

Pytanie 31

Rodzajem złośliwego oprogramowania będącego programem rezydentnym, który działa, wykonując konkretną operację, nie powiela się przez sieć, a jedną z jego metod jest samoreplikacja aż do wyczerpania pamięci komputera, jest

A. Rootkit
B. Wabbit
C. Stealware
D. Backdoor
Wabbit to nietypowy rodzaj złośliwego oprogramowania, który rzeczywiście nie powiela się przez sieć, nie infekuje innych komputerów, nie ukrywa swojej obecności jak rootkit, ani nie otwiera tylnej furtki jak backdoor. Jego głównym celem jest samoreplikacja – uruchamia mnóstwo własnych kopii, aż system operacyjny nie radzi sobie z przydzielaniem pamięci i zasobów. Efektem tego może być zawieszenie się komputera, znaczne spowolnienie działania, a nawet wymuszenie restartu. Co ciekawe, Wabbit nie musi być przesyłany przez Internet, bo działa lokalnie, a taki rodzaj ataku często wykorzystywany jest do testowania odporności systemów na ataki typu DoS (Denial of Service), ale w mikroskali – tylko na jednym hoście. Moim zdaniem, warto znać takie przypadki, bo nie każdy atak wymaga dużej sieci czy zaawansowanych technik. W codziennej pracy administratora czy nawet zwykłego użytkownika, zauważenie nagłego spadku wydajności systemu lub zapełnienia pamięci RAM bez wyraźnego powodu powinno zapalić lampkę ostrzegawczą. Sugeruję, żeby zawsze monitorować procesy działające w tle i korzystać ze sprawdzonych narzędzi diagnostycznych. Dobre praktyki branżowe mówią, że regularne aktualizacje systemu i korzystanie z menedżera zadań do weryfikacji nieznanych procesów to podstawa ochrony przed takimi zagrożeniami. Niewiele osób słyszało o wabbitach, bo to raczej ciekawostka historyczna, ale mogą nadal stanowić problem, jeśli ktoś eksperymentuje ze starszymi systemami lub środowiskami testowymi.

Pytanie 32

Zjawisko przekazywania tokena (ang. token) występuje w sieci o fizycznej strukturze

A. magistrali
B. gwiazdy
C. pierścienia
D. siatki
Przekazywanie żetonu w sieci o strukturze fizycznej pierścienia jest kluczowym mechanizmem działania tej topologii. W topologii pierścienia każdy węzeł (urządzenie) jest połączony z dwoma innymi, tworząc zamknięty cykl. W takim układzie dane są przesyłane w formie żetonu, który krąży w sieci. Gdy węzeł otrzymuje żeton, może go wykorzystać do przesłania swoich danych, a następnie przekazuje go dalej. Przykładami zastosowania tej topologii są starsze sieci Token Ring, które były powszechnie używane w biurach. Taki system ogranicza kolizje, ponieważ tylko jeden węzeł ma prawo do nadawania w danym momencie, co zwiększa efektywność transmisji. W praktyce, aby tak zbudowana sieć działała sprawnie, kluczowe jest przestrzeganie zasad dotyczących synchronizacji czasowej oraz zarządzania pasmem, co jest zgodne z najlepszymi praktykami w projektowaniu sieci komputerowych. Również standardy takie jak ISO/IEC 8802-3 określają zasady działania w takiej strukturze, co potwierdza jej zastosowanie w profesjonalnych środowiskach.

Pytanie 33

Interfejs UDMA to interfejs

A. równoległy, który został zastąpiony przez interfejs SATA.
B. równoległy, wykorzystywany między innymi do podłączania kina domowego do komputera.
C. szeregowy, używany do podłączania urządzeń wejścia.
D. szeregowy, który służy do wymiany danych pomiędzy pamięcią RAM a dyskami twardymi.
Interfejs UDMA (Ultra Direct Memory Access) to rozwiązanie, które przez dłuższy czas było standardem w komputerach klasy PC, zwłaszcza do podłączania dysków twardych i napędów optycznych przy użyciu taśm ATA/IDE. UDMA to interfejs równoległy – dane przesyłane były wieloma przewodami jednocześnie, co w tamtym czasie pozwalało na osiągnięcie całkiem sporych prędkości transferu, nawet do 133 MB/s w wersji UDMA 6 (Ultra ATA/133). Jednak wraz z rozwojem technologii, pojawiły się szeregowe interfejsy takie jak SATA, które są mniej podatne na zakłócenia elektromagnetyczne i umożliwiają wygodniejsze prowadzenie przewodów oraz wyższe prędkości. Moim zdaniem warto znać historię UDMA, a nawet czasem spotyka się jeszcze starsze komputery lub sprzęt przemysłowy z tym interfejsem – wtedy wiedza o nim jest bardzo przydatna przy serwisie. W praktyce UDMA wymagał stosowania 80-żyłowych taśm, gdzie połowa przewodów była wykorzystywana do uziemienia i ochrony sygnału. To pokazuje, jak równoległość przesyłu wymuszała dodatkowe zabiegi techniczne. Dla porównania, SATA, który go zastąpił, przesyła dane tylko dwoma przewodami (plus masa), co jest dużo prostsze. No i jeszcze jedno – UDMA był typowo używany właśnie do dysków ATA, a jego obsługa wymagała wsparcia zarówno ze strony płyty głównej, jak i systemu operacyjnego. W skrócie: UDMA to interfejs równoległy, który dziś już praktycznie całkiem ustąpił szeregowej magistrali SATA. Warto o tym pamiętać, bo czasem można się jeszcze z nim spotkać, np. podczas modernizacji starszych maszyn.

Pytanie 34

W przypadku awarii którego urządzenia w sieci lokalnej, cała sieć przestaje działać w topologii magistrali?

A. Router
B. Kabel magistrali
C. Serwer DHCP
D. Dowolny komputer kliencki
W topologii magistrali, zwanej również topologią liniową, wszystkie urządzenia w sieci są połączone jednym kablem, zwanym magistralą. Kabel magistrali pełni rolę wspólnego medium komunikacyjnego dla wszystkich urządzeń w sieci. W przypadku, gdy ten kabel ulegnie uszkodzeniu, cała sieć przestaje działać, ponieważ sygnał nie jest w stanie przemieszczać się między urządzeniami. To właśnie dlatego awaria kabla magistrali jest krytycznym punktem w tego typu topologii. W praktyce, taka topologia była popularna w przeszłości ze względu na niskie koszty i prostotę konfiguracji, jednak ze względu na jej podatność na awarie, została w dużej mierze zastąpiona przez bardziej niezawodne rozwiązania, takie jak topologia gwiazdy. W topologii gwiazdy każde urządzenie jest połączone bezpośrednio z centralnym węzłem, co minimalizuje ryzyko awarii całej sieci w wyniku pojedynczego uszkodzenia.

Pytanie 35

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 16 GB.
B. 2 modułów, każdy po 8 GB.
C. 2 modułów, każdy po 16 GB.
D. 1 modułu 32 GB.
W tym zadaniu kluczowe są dwie rzeczy: liczba fizycznych modułów pamięci RAM oraz pojemność pojedynczej kości. Na filmie można zwykle wyraźnie zobaczyć, ile modułów jest wpiętych w sloty DIMM na płycie głównej. Każdy taki moduł to oddzielna kość RAM, więc jeśli widzimy dwie identyczne kości obok siebie, oznacza to dwa moduły. Typowym błędem jest patrzenie tylko na łączną pojemność podawaną przez system, np. „32 GB”, i automatyczne założenie, że jest to jeden moduł 32 GB. W praktyce w komputerach stacjonarnych i w większości laptopów bardzo często stosuje się konfiguracje wielomodułowe, właśnie po to, żeby wykorzystać tryb dual channel lub nawet quad channel. To jest jedna z podstawowych dobrych praktyk przy montażu pamięci – zamiast jednej dużej kości, używa się dwóch mniejszych o tej samej pojemności, częstotliwości i opóźnieniach. Dzięki temu kontroler pamięci w procesorze może pracować na dwóch kanałach, co znacząco zwiększa przepustowość i zmniejsza wąskie gardła przy pracy procesora. Odpowiedzi zakładające pojedynczy moduł 16 GB lub 32 GB ignorują ten aspekt i nie zgadzają się z tym, co widać fizycznie na płycie głównej. Kolejna typowa pułapka polega na myleniu pojemności całkowitej z pojemnością modułu. Jeśli system raportuje 32 GB RAM, to może to być 1×32 GB, 2×16 GB, a nawet 4×8 GB – sam wynik z systemu nie wystarcza, trzeba jeszcze zweryfikować liczbę zainstalowanych kości. Właśnie dlatego w zadaniu pojawia się odniesienie do filmu: chodzi o wizualne rozpoznanie liczby modułów. Dobrą praktyką w serwisie i diagnostyce jest zawsze sprawdzenie zarówno parametrów logicznych (w BIOS/UEFI, w systemie, w narzędziach diagnostycznych), jak i fizycznej konfiguracji na płycie. Pomija się też czasem fakt, że producenci płyt głównych w dokumentacji wprost rekomendują konfiguracje 2×8 GB, 2×16 GB zamiast pojedynczej kości, z uwagi na wydajność i stabilność. Błędne odpowiedzi wynikają więc zwykle z szybkiego zgadywania pojemności, bez przeanalizowania, jak pamięć jest faktycznie zamontowana i jak działają kanały pamięci w nowoczesnych platformach.

Pytanie 36

Jakie urządzenie sieciowe funkcjonuje w warstwie fizycznej modelu ISO/OSI, transmitując sygnał z jednego portu do wszystkich pozostałych portów?

A. Koncentrator
B. Modem
C. Karta sieciowa
D. Przełącznik
Koncentrator, znany również jako hub, jest urządzeniem sieciowym, które działa na warstwie fizycznej modelu ISO/OSI. Jego główną funkcją jest przesyłanie sygnałów elektrycznych z jednego portu do wszystkich pozostałych portów, co czyni go urządzeniem prostym, ale również niewydajnym w porównaniu z bardziej zaawansowanymi urządzeniami, takimi jak przełączniki. W kontekście zastosowań, koncentratory były powszechnie używane w sieciach LAN do łączenia różnych urządzeń, takich jak komputery czy drukarki, w jedną sieć lokalną. Warto jednak zauważyć, że ze względu na sposób działania, koncentratory mogą prowadzić do kolizji danych, ponieważ wszystkie podłączone urządzenia dzielą tę samą przepustowość. W praktyce, w nowoczesnych sieciach lokalnych, koncentratory zostały w dużej mierze zastąpione przez przełączniki, które są bardziej efektywne w zarządzaniu ruchem sieciowym. Dobrą praktyką w projektowaniu sieci jest stosowanie przełączników, które oferują inteligentniejsze przesyłanie danych oraz redukcję kolizji, co prowadzi do efektywniejszego zarządzania pasmem.

Pytanie 37

Z jakim protokołem związane są terminy "Sequence number" oraz "Acknowledgment number"?

 Sequence number: 117752 (relative sequence number)
Acknowledgment number: 33678 (relative ack number)
Header Length: 20 bytes
Flags: 0x010 (ACK)
Window size value: 258
A. IP (Internet Protocol)
B. UDP (User Datagram Protocol)
C. TCP (Transmission Control Protocol)
D. HTTP (Hypertext Transfer Protocol)
Protokół TCP czyli Transmission Control Protocol jest kluczowy dla niezawodnej transmisji danych w sieciach komputerowych Ponieważ TCP zapewnia kontrolę przepływu i potwierdzanie danych Sequence number i Acknowledgment number są fundamentalnymi koncepcjami w TCP Sequence number określa kolejność bajtów które są przesyłane co pozwala odbiorcy na zrekomponowanie danych w ich pierwotnej kolejności Jest to niezbędne dla aplikacji które wymagają porządku w danych Acknowledgment number z kolei jest używany do potwierdzania odbioru danych przez odbiorcę co pozwala na wykrywanie utraty pakietów i retransmisję TCP jest protokołem połączeniowym co oznacza że przed rozpoczęciem transmisji danych nawiązywane jest połączenie między nadawcą a odbiorcą Zabezpiecza to integralność danych i pozwala na kontrolę nad przepływem danych co jest niezwykle ważne w środowiskach sieciowych gdzie mogą wystąpić zakłócenia lub utrata pakietów W praktyce TCP jest szeroko stosowany w aplikacjach wymagających wysokiej niezawodności takich jak przeglądarki internetowe klienty poczty elektronicznej i komunikatory internetowe Protokół TCP stosuje różne techniki optymalizacji takie jak kontrola przeciążeń co przyczynia się do jego powszechnego zastosowania w branży

Pytanie 38

Pomiar strukturalnego okablowania metodą Permanent Link polega na

A. pomiarze od gniazda z jednym kablem krosowym
B. żadna z wymienionych odpowiedzi nie jest prawidłowa
C. pomiarze z gniazda do gniazda
D. pomiarze z użyciem 2 kabli krosowych
Pomiar od gniazda z jednym kablem krosowym nie jest właściwym podejściem do metody Permanent Link. Główna zasada tej metody polega na tym, że pomiar powinien obejmować pełną trasę sygnału od gniazda do gniazda, co oznacza, że wszystkie elementy, w tym kable stałe, muszą być uwzględnione. Użycie jednego kabla krosowego wprowadza dodatkową zmienną, która może zafałszować wyniki pomiaru. Zmiany w topologii sieci, takie jak wprowadzenie krosowania, mogą prowadzić do zmniejszenia jakości sygnału, co jest szczególnie istotne w kontekście standardów dotyczących wydajności. Innym często popełnianym błędem jest pomiar z użyciem dwóch kabli krosowych, co również nie jest zgodne z definicją Permanent Link. W tym przypadku pomiar jest przeprowadzany przez dwa różne kable, co wpływa na dokładność oceny i może prowadzić do błędnych wniosków na temat jakości instalacji. Warto pamiętać, że standardy okablowania, takie jak ISO/IEC 11801, zaznaczają, jak ważne jest, aby pomiary były przeprowadzane w warunkach zbliżonych do rzeczywistych, co oznacza eliminację elementów, które mogłyby wpływać na wyniki, takich jak dodatkowe krosowania. Przy nieprawidłowych pomiarach, instalatorzy mogą nie zauważyć problemów, które mogą wystąpić podczas eksploatacji sieci, co w dłuższym okresie może prowadzić do poważnych awarii i problemów z wydajnością sieci.

Pytanie 39

Które dwa urządzenia sieciowe CISCO wyposażone w moduły z portami smart serial można połączyć przy użyciu kabla szeregowego?

A. Przełącznik - ruter.
B. Ruter - komputer.
C. Ruter - ruter.
D. Przełącznik - przełącznik.
Poprawna odpowiedź to połączenie ruter – ruter, ponieważ moduły z portami smart serial w urządzeniach CISCO są przeznaczone właśnie do realizacji łączy szeregowych pomiędzy dwoma urządzeniami warstwy 3, czyli najczęściej dwoma ruterami. Port smart serial to fizyczne złącze na karcie interfejsu szeregowego (WIC/HWIC), do którego podłącza się odpowiedni kabel – zwykle jeden koniec ma wtyk smart serial (do rutera), a drugi koniec jest zakończony złączem typu V.35, X.21, EIA-530 lub podobnym, w zależności od standardu łącza. W praktyce takie połączenie wykorzystuje się do symulowania lub realizowania łączy WAN: np. w pracowni sieciowej łączysz dwa rutery CISCO szeregowo, żeby zasymulować połączenie między dwoma oddalonymi lokalizacjami. Na jednym ruterze konfigurujesz interfejs jako DCE (z podaniem clock rate), a na drugim jako DTE. To jest klasyczny scenariusz z kursów Cisco CCNA, gdzie testuje się protokoły routingu (RIP, OSPF, EIGRP), listy ACL, QoS itp. Moim zdaniem warto pamiętać, że komputer nie ma interfejsu smart serial, a przełączniki w ogóle nie są wyposażane w takie moduły – pracują głównie na portach Ethernet (miedzianych lub światłowodowych) i nie obsługują typowych łączy WAN w warstwie fizycznej. Dobra praktyka w projektowaniu sieci mówi, że łącza szeregowe WAN kończy się na ruterach, bo to one odpowiedzialne są za routing między sieciami LAN, translację adresów, tunelowanie VPN itd. W laboratoriach szkolnych używa się specjalnych kabli DCE/DTE smart serial do łączenia ruterów bez udziału operatora telekomunikacyjnego, co pozwala w pełni kontrolować parametry łącza i uczyć się konfiguracji od warstwy fizycznej po warstwę sieciową.

Pytanie 40

Narzędzie systemu Windows wykorzystywane do interpretacji poleceń, stosujące logikę obiektową oraz cmdlety, to

A. Windows PowerShell.
B. wiersz poleceń systemu Windows.
C. konsola MMC.
D. standardowy strumień wejścia.
Windows PowerShell to narzędzie, które faktycznie wyróżnia się na tle innych konsol systemowych w Windows, bo nie tylko interpretuje polecenia tekstowe, ale przede wszystkim bazuje na logice obiektowej oraz cmdletach. To daje użytkownikowi dużo większe możliwości niż typowy wiersz poleceń. Można np. manipulować obiektami .NET bezpośrednio w konsoli, co przydaje się w automatyzacji administrowania Windows. Cmdlety to takie specjalne polecenia, które zaprojektowano właśnie do PowerShella – przykładowo Get-Process, Set-Service, czy Import-Module. Moim zdaniem w codziennej pracy administratora systemów PowerShell jest wręcz niezbędny, bo pozwala na tworzenie skryptów zarządzających użytkownikami, usługami, nawet całymi serwerami. Warto dodać, że PowerShell jest zgodny ze standardami Microsoft, a jego elastyczność pozwala nawet zarządzać środowiskami chmurowymi czy Active Directory. Praktycznie każda nowoczesna firma, która poważnie traktuje automatyzację i bezpieczeństwo, wykorzystuje PowerShell do swoich zadań. Jeszcze jedna rzecz – PowerShell jest rozwijany w wersji open source jako PowerShell Core, więc działa też na Linuxie i MacOS, co zdecydowanie poszerza jego zastosowanie. Podsumowując: jeśli zależy Ci na profesjonalnej administracji, automatyzacji zadań i pracy na obiektach zamiast tylko tekstu – PowerShell to absolutny standard.