Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 7 maja 2026 15:43
  • Data zakończenia: 7 maja 2026 16:03

Egzamin zdany!

Wynik: 24/40 punktów (60,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Ile bitów minimum będzie wymaganych w systemie binarnym do zapisania liczby szesnastkowej 110ₕ?

A. 4 bity.
B. 9 bitów.
C. 16 bitów.
D. 3 bity.
Dobra robota, ta odpowiedź idealnie trafia w sedno zagadnienia! Liczba szesnastkowa 110ₕ to w systemie dziesiętnym wartość 272. Teraz, żeby zapisać tę liczbę w systemie binarnym, musimy znaleźć, ile bitów potrzeba, żeby pomieścić tę wartość. Największa liczba, jaką można zapisać na 8 bitach, to 255 (czyli 2⁸ - 1). 272 jest już większe, więc 8 bitów nie wystarczy. Trzeba iść poziom wyżej: 2⁹ = 512, więc 9 bitów pozwala już zapisać liczby od 0 do 511. To właśnie te 9 bitów daje nam odpowiedni zakres. W praktyce, jeśli projektuje się układy cyfrowe czy programuje mikrokontrolery, zawsze warto pamiętać o takim podejściu – nie tylko przy zamianie systemów liczbowych, ale też przy planowaniu rejestrów pamięci czy buforów. W dokumentacji technicznej często spotyka się określenie „minimalna liczba bitów wymagana do przechowania wartości” – to dokładnie to, co właśnie policzyliśmy. Moim zdaniem takie zadania uczą nie tylko logiki, ale też szacowania zasobów sprzętowych, co jest bardzo konkretne w codziennej pracy technika czy programisty. Swoją drogą, niektórzy błędnie myślą, że wystarczy tyle bitów, ile cyfr w systemie szesnastkowym, ale tu wyraźnie widać, że trzeba zawsze przeliczyć wartość na binarną i porównać zakresy.

Pytanie 2

Głównym celem realizowanej przez program antywirusowy funkcji ochrony przed ransomware jest zapewnienie zabezpieczenia systemu przed zagrożeniami

A. szyfrującymi dane oraz domagającymi się okupu za ich odblokowanie.
B. wykorzystującymi błędy w oprogramowaniu do przejęcia kontroli nad systemem.
C. podmieniającymi strony startowe przeglądarek i dodającymi paski narzędzi.
D. wyświetlającymi w natrętny sposób niepożądane reklamy.
Wydaje mi się, że sporo osób myli poszczególne typy zagrożeń komputerowych, bo rzeczywiście bywają do siebie trochę podobne na pierwszy rzut oka. Na przykład, programy wyświetlające natrętne reklamy (czyli adware) faktycznie potrafią być uciążliwe, ale ich głównym celem nie jest szyfrowanie danych ani żądanie okupu. One raczej zarabiają na klikaniach i śledzeniu zachowań użytkownika, co jest irytujące, ale raczej niesie mniejsze ryzyko utraty cennych plików. Z kolei podmiana strony startowej w przeglądarce, czy dorzucenie paska narzędzi, to typowe działania tzw. browser hijackerów – złośliwych dodatków, które zmieniają ustawienia przeglądarki bez zgody użytkownika. To też jest poważny problem, bo może prowadzić do kradzieży danych czy przekierowania na niebezpieczne strony, ale podstawowa ochrona przed ransomware ich nie zatrzyma. Ostatnia z wymienionych sytuacji – wykorzystanie błędów w oprogramowaniu, by przejąć kontrolę nad systemem – dotyczy raczej exploitów, czyli ataków na luki w zabezpieczeniach. One co prawda mogą być wykorzystywane przez ransomware do infekcji systemu, ale sama funkcja ochrony przed ransomware skupia się głównie na blokowaniu procesu szyfrowania i próbach wyłudzenia okupu. Często w praktyce ludzie wrzucają wszystkie zagrożenia do jednego worka, ale warto rozróżniać, jakie narzędzia i funkcje chronią przed konkretnymi atakami. Przykładowo, specjalne moduły anty-exploit są osobne od ochrony przed ransomware, a adblockery nie powstrzymają zaszyfrowania plików. Moim zdaniem, dobre zrozumienie tych różnic pozwala skuteczniej zabezpieczać systemy i świadomie wybierać narzędzia do ochrony.

Pytanie 3

Jakie oprogramowanie jest używane do archiwizacji danych w systemie Linux?

A. tar
B. free
C. lzma
D. compress
Odpowiedź 'tar' jest prawidłowa, ponieważ program ten jest standardowym narzędziem w systemach Unix i Linux do archiwizacji danych. Tar (Tape Archive) umożliwia tworzenie archiwów z wielu plików i katalogów w jednym pliku, co ułatwia ich przechowywanie i transport. Program tar nie tylko łączy pliki, ale może również kompresować dane przy użyciu różnych algorytmów, takich jak gzip czy bzip2, co dodatkowo redukuje rozmiar archiwum. Przykładowe użycie to komenda 'tar -cvf archiwum.tar /ścieżka/do/katalogu', która tworzy archiwum z zawartości podanego katalogu. Narzędzie to jest niezbędne w administracji systemami, przy tworzeniu kopii zapasowych oraz przy migracji danych. Dobre praktyki zalecają regularne tworzenie archiwów danych oraz ich szyfrowanie, aby zapewnić dodatkową ochronę przed utratą informacji. Tar jest także często używany w skryptach automatyzujących procesy zarządzania danymi.

Pytanie 4

Aby możliwe było skierowanie wydruku na twardy dysk, konieczne jest w ustawieniach drukarki wybranie opcji drukowania do portu

A. COM
B. LPT
C. FILE
D. USB001
Wybór opcji FILE w ustawieniach drukarki to całkiem sprytna opcja, bo pozwala na zapisanie dokumentu jako pliku na dysku, zamiast go od razu drukować. To może być mega przydatne, zwłaszcza jak chcesz mieć kopię dokumentu do przeglądania, edytowania czy wysyłania znajomym. Dużo ludzi korzysta z tego w biurach albo wtedy, gdy muszą archiwizować swoje dokumenty. Dzięki tej funkcji możesz też wybrać format zapisu, na przykład PDF, co sprawia, że dokument wygląda super. Z mojego doświadczenia, wiele firm wprowadza digitalizację dokumentów, co jest naprawdę na czasie, biorąc pod uwagę, jak wiele teraz robimy w formie elektronicznej. Żeby to ustawić, musisz przejść do opcji drukarki w systemie, a potem wybrać port, na którym zapiszesz plik. To naprawdę ułatwia życie i poprawia wydajność pracy, bo nie musisz drukować niepotrzebnych rzeczy na papierze.

Pytanie 5

Zasilacz UPS o mocy rzeczywistej 480 W nie jest przeznaczony do podłączenia

A. monitora
B. urządzeń sieciowych takich jak router
C. modemu ADSL
D. drukarki laserowej
Podłączenie urządzeń takich jak router, modem ADSL czy monitor do zasilacza UPS o mocy 480 W jest praktycznie akceptowalne i bezpieczne, ponieważ ich pobór mocy jest znacznie niższy niż możliwości tego urządzenia. Routery i modemy, jako urządzenia sieciowe, są zaprojektowane z myślą o niskim zużyciu energii, co sprawia, że mogą być bezpiecznie zasilane przez UPS na dłuższy czas, co w kryzysowych sytuacjach, takich jak przerwy w dostawie prądu, jest kluczowe dla utrzymania ciągłości pracy. Monitory, w zależności od technologii (LCD czy LED), również nie przekraczają zazwyczaj mocy, jaką może dostarczyć UPS o podanej mocy. Można jednak pomylić te urządzenia z bardziej wymagającymi pod względem energetycznym urządzeniami, co prowadzi do błędnego wniosku, że mogą być one niewłaściwie zasilane przez UPS. Kluczem do efektywnego korzystania z zasilaczy UPS jest zrozumienie wymaganej mocy poszczególnych urządzeń oraz ich charakterystyki poboru energii, co pozwala na właściwe dobieranie sprzętu i minimalizację ryzyka uszkodzeń. Typową pułapką myślową jest zakładanie, że wszystkie urządzenia biurowe pobierają podobną moc, co jest dalekie od prawdy. Właściwe podejście do zasilania urządzeń wymaga znajomości ich specyfikacji oraz zgodności z normami dotyczącymi zasilania awaryjnego, aby uniknąć awarii sprzętu.

Pytanie 6

Wskaż urządzenie wyjścia.

A. Skaner.
B. Czytnik linii papilarnych.
C. Kamera internetowa.
D. Ploter.
W informatyce i technice komputerowej bardzo ważne jest rozróżnienie, czy dane urządzenie służy do wprowadzania danych do komputera, czy do ich wyprowadzania na zewnątrz. Właśnie na tym opiera się klasyczny podział na urządzenia wejścia (input), wyjścia (output) oraz wejścia-wyjścia (I/O). Czytnik linii papilarnych jest typowym urządzeniem wejściowym. Jego zadaniem jest pobranie cech biometrycznych użytkownika, przetworzenie ich na postać cyfrową i przekazanie do systemu operacyjnego lub aplikacji. To komputer „odbiera” dane z czytnika i na ich podstawie coś decyduje, np. o logowaniu. Urządzenie nie prezentuje użytkownikowi treści, tylko odczytuje dane z otoczenia, więc nie spełnia definicji urządzenia wyjścia. Podobnie kamera internetowa – jej rolą jest przechwytywanie obrazu z rzeczywistości i przesyłanie strumienia wideo do komputera. To również jest klasyczne urządzenie wejściowe. Kamera nie wyświetla wyników pracy komputera, tylko dostarcza materiał wejściowy, który może być dalej kodowany, transmitowany lub zapisywany. Skaner działa na bardzo zbliżonej zasadzie, tylko zamiast ruchomego obrazu pobiera dane z dokumentów, zdjęć, rysunków. Z mojego doświadczenia wielu uczniów myli skaner z urządzeniem wyjściowym, bo „coś drukuje” w zestawie z urządzeniem wielofunkcyjnym. Tymczasem w takim kombajnie drukarka jest wyjściem, a skaner wejściem. W tym pytaniu łatwo popełnić błąd, jeśli patrzy się na urządzenia bardziej „wizualnie” niż funkcjonalnie. Czytnik linii papilarnych, kamera i skaner coś od nas pobierają, czyli wprowadzają informacje do komputera. Ploter natomiast, podobnie jak drukarka, tylko odwzorowuje to, co zostało przygotowane w systemie, na papierze lub innym nośniku. Dlatego wszystkie trzy odpowiedzi wskazujące na urządzenia przechwytujące dane są merytorycznie niepoprawne w kontekście pytania o urządzenie wyjścia.

Pytanie 7

Podczas próby zapisania danych na karcie SD wyświetla się komunikat „usuń ochronę przed zapisem lub skorzystaj z innego nośnika”. Najczęstszą przyczyną takiego komunikatu jest

A. Ustawienie mechanicznego przełącznika blokady zapisu na karcie w pozycji ON
B. Posiadanie uprawnień 'tylko do odczytu' dla plików na karcie SD
C. Zbyt duży rozmiar pliku, który ma być zapisany
D. Brak wolnego miejsca na karcie pamięci
Jak coś poszło nie tak z innymi odpowiedziami, to warto zrozumieć, czemu te problemy nie są przyczyną komunikatu o ochronie przed zapisem. Brak miejsca na karcie pamięci może powodować problemy z zapisem, ale nie daje komunikatu o ochronie przed zapisem. Zazwyczaj, jak brakuje miejsca, system operacyjny informuje w inny sposób, mówiąc, że nie można dodać plików przez ich niedobór. Jeśli masz uprawnienia tylko do odczytu do pliku na karcie SD, to dotyczy głównie plików, a nie samej karty. Nawet jak karta nie jest zablokowana, można zapisywać nowe pliki, mimo że niektóre mogą być tylko do odczytu. I jeszcze, za duży rozmiar pliku, który próbujesz zapisać, też nie jest powodem tego błędu. Systemy plików, takie jak FAT32, mają swoje limity, ale wtedy zazwyczaj dostajesz inny komunikat, który mówi o przekroczeniu maksymalnego rozmiaru pliku. Jak to zrozumiesz, unikniesz mylnych wniosków i lepiej zarządzisz danymi na swoich kartach SD.

Pytanie 8

Ile symboli routerów i przełączników występuje na diagramie?

Ilustracja do pytania
A. 4 przełączniki i 8 ruterów
B. 4 przełączniki i 3 rutery
C. 3 przełączniki i 4 rutery
D. 8 przełączników i 3 rutery
Prawidłowa odpowiedź wskazuje 4 przełączniki i 3 rutery. To kluczowe, by zrozumieć strukturę sieci komputerowej i jej komponenty. Przełączniki służą do łączenia urządzeń w tej samej podsieci i pracują na warstwie 2 modelu OSI. Rutery natomiast działają na warstwie 3 i są używane do łączenia różnych sieci. Na schemacie widzimy wyraźne rozgraniczenie między tymi urządzeniami dzięki ich symbolom. Prawidłowe rozpoznanie ich ilości jest istotne dla prawidłowej konfiguracji i diagnozowania sieci. W praktyce, wiedza o liczbie i rodzaju użytych urządzeń pozwala na ich efektywne zarządzanie, a także planowanie rozbudowy infrastruktury. Używanie właściwych urządzeń zgodnie z ich przeznaczeniem zgodnie z najlepszymi praktykami branżowymi, takimi jak te opisane w dokumentach IEEE, zapewnia stabilność i wydajność sieci. Dlatego znajomość funkcji i umiejętność rozróżniania przełączników i ruterów jest niezbędna dla każdego specjalisty IT, co może bezpośrednio wpływać na jakość i bezpieczeństwo sieci komputerowej.

Pytanie 9

W jakim typie skanera stosuje się fotopowielacze?

A. ręcznym
B. kodów kreskowych
C. płaskim
D. bębnowym
Wybór skanera ręcznego, kodów kreskowych lub płaskiego nie jest właściwy w kontekście wykorzystania fotopowielaczy. Skanery ręczne, chociaż przydatne w przenośnym skanowaniu, nie wykorzystują technologii fotopowielaczy, lecz często prostsze komponenty optyczne, co ogranicza ich zdolność do uzyskiwania wysokiej jakości obrazów. Z kolei skanery kodów kreskowych są zaprojektowane głównie do odczytywania kodów kreskowych, a ich technologie, takie jak laserowe skanowanie lub skanowanie CCD, nie wymagają użycia fotopowielaczy. Zamiast tego koncentrują się na szybkości i precyzji odczytu kodów, co w zupełności różni się od aspektów obrazowania. W przypadku skanerów płaskich, choć mogą oferować przyzwoitą jakość skanowania, zazwyczaj wykorzystują inne typy sensorów, takie jak CMOS, zamiast fotopowielaczy. W wielu przypadkach użytkownicy mogą błędnie zakładać, że wszystkie typy skanerów mogą osiągnąć podobną jakość obrazu, nie dostrzegając różnic w zastosowanych technologiach. Dlatego ważne jest, aby zrozumieć, że dobór odpowiedniego skanera zależy od specyficznych potrzeb związanych z jakością obrazu oraz rodzajem skanowanych materiałów. Nie mogą one zatem zastąpić bębnowych skanerów w kontekście profesjonalnych zastosowań wymagających najwyższej możliwości detekcji detali.

Pytanie 10

Jaką standardową wartość maksymalnej odległości można zastosować pomiędzy urządzeniami sieciowymi, które są ze sobą połączone przewodem UTP kat.5e?

A. 500 m
B. 10 m
C. 1000 m
D. 100 m
Standardowa maksymalna odległość dla przewodów UTP kategorii 5e wynosi 100 metrów. Ta wartość jest określona w standardzie ANSI/TIA-568, który reguluje wymagania dotyczące instalacji okablowania strukturalnego w budynkach. Utrzymanie tej odległości jest kluczowe dla zachowania odpowiedniej jakości sygnału oraz minimalizacji strat sygnałowych, co z kolei wpływa na wydajność sieci. W praktyce, przy projektowaniu sieci lokalnych, instalatorzy muszą zwrócić szczególną uwagę na długości kabli, aby zapewnić optymalną wydajność. Na przykład, w biurach, gdzie wiele urządzeń jest podłączonych do sieci, stosowanie kabli UTP kat. 5e w maksymalnej zalecanej długości pozwala na stabilne i szybkie połączenia internetowe oraz efektywne przesyłanie danych. Warto również zauważyć, że przy używaniu przełączników, rozgałęźników lub innych urządzeń sieciowych, maksymalna długość 100 metrów odnosi się do całkowitej długości segmentu kablowego, co oznacza, że połączenia między urządzeniami powinny być starannie planowane.

Pytanie 11

W systemie Windows konto użytkownika można założyć za pomocą polecenia

A. useradd
B. net user
C. adduser
D. users
Polecenie 'net user' jest prawidłowym sposobem na tworzenie kont użytkowników w systemie Windows. Umożliwia ono nie tylko dodawanie nowych użytkowników, ale także zarządzanie ich właściwościami, takimi jak hasła, członkostwo w grupach czy daty wygaśnięcia kont. Przykładowe użycie tego polecenia wygląda następująco: 'net user nowy_uzytkownik haslo /add', co tworzy nowe konto o nazwie 'nowy_uzytkownik' z podanym hasłem. To rozwiązanie jest zgodne z najlepszymi praktykami administracyjnymi w środowisku Windows, gdzie bezpieczeństwo i zarządzanie użytkownikami są kluczowe. Dodatkowo, polecenie 'net user' pozwala na wyświetlenie listy wszystkich kont w systemie oraz ich szczegółowych informacji, co może być przydatne w przypadku audytów czy monitorowania aktywności użytkowników. Stosowanie 'net user' zamiast innych narzędzi jest zalecane, ponieważ jest to wbudowane narzędzie systemowe, które zapewnia pełną kompatybilność z politykami bezpieczeństwa i uprawnieniami użytkowników.

Pytanie 12

Na ilustracji przedstawiony jest tylny panel jednostki komputerowej. Jakie jest nazewnictwo dla złącza oznaczonego strzałką?

Ilustracja do pytania
A. COM
B. LPT
C. USB
D. FireWire
Złącze oznaczone strzałką to port FireWire znany również jako IEEE 1394 lub i.LINK w zależności od producenta. FireWire został zaprojektowany do szybkiego przesyłania danych co czyni go idealnym do zastosowań takich jak edycja wideo gdzie duże pliki muszą być przesyłane między kamerą a komputerem. W porównaniu z innymi standardami jak na przykład USB 2.0 FireWire oferuje wyższą przepustowość która w wersji 800 może osiągnąć do 800 Mbps. Złącze to było popularne w profesjonalnych urządzeniach audio-wideo i często stosowane w komputerach Apple. FireWire pozwala na bezpośrednie połączenie urządzeń bez potrzeby używania komputera jako pośrednika czyli peer-to-peer co jest dużą zaletą w niektórych zastosowaniach. Standard FireWire wspiera również zasilanie urządzeń bezpośrednio przez kabel co eliminuje konieczność używania dodatkowych zasilaczy. W kontekście dobrych praktyk warto zauważyć że FireWire umożliwia hot swapping czyli podłączanie i odłączanie urządzeń bez konieczności wyłączania zasilania systemu. Chociaż jego popularność spadła z upływem lat z powodu rozwoju nowszych standardów jak USB 3.0 FireWire pozostaje ważnym elementem w historii rozwoju interfejsów komputerowych.

Pytanie 13

Jakie polecenie w środowisku Linux pozwala na modyfikację uprawnień dostępu do pliku lub katalogu?

A. chmod
B. chattrib
C. iptables
D. attrib
Odpowiedź 'chmod' jest prawidłowa, ponieważ jest to standardowe polecenie w systemie Linux służące do zmiany praw dostępu do plików i katalogów. 'chmod' pozwala na modyfikację uprawnień zarówno dla właściciela pliku, grupy, jak i dla innych użytkowników. Uprawnienia te są definiowane w trzech kategoriach: odczyt (r), zapis (w) i wykonanie (x). Można je ustawiać na trzy poziomy: dla właściciela pliku, grupy oraz dla wszystkich użytkowników. Przykładowo, polecenie 'chmod 755 plik.txt' nadaje pełne uprawnienia właścicielowi, natomiast grupie i innym użytkownikom pozwala tylko na odczyt i wykonanie. Dobre praktyki w zarządzaniu uprawnieniami obejmują stosowanie zasady najmniejszych uprawnień, co oznacza, że użytkownicy powinni mieć dostęp tylko do tych zasobów, które są im niezbędne do pracy. Zrozumienie mechanizmów uprawnień w systemie Linux jest kluczowe dla bezpieczeństwa i zarządzania zasobami w każdym środowisku serwerowym.

Pytanie 14

Osoba korzystająca z lokalnej sieci musi mieć możliwość dostępu do dokumentów umieszczonych na serwerze. W tym celu powinna

A. zalogować się do domeny serwera oraz dysponować odpowiednimi uprawnieniami do plików znajdujących się na serwerze
B. połączyć komputer z tym samym przełącznikiem, do którego podłączony jest serwer
C. posiadać konto użytkownika bez uprawnień administracyjnych na tym serwerze
D. należeć do grupy administratorzy na tym serwerze
Aby użytkownik mógł korzystać z plików znajdujących się na serwerze sieciowym, musi zalogować się do domeny serwera oraz posiadać odpowiednie uprawnienia do tych plików. Logowanie do domeny jest kluczowe, ponieważ umożliwia centralne zarządzanie kontami użytkowników i ich uprawnieniami. Administracja w kontekście sieciowym często opiera się na modelu kontrolera domeny, co zapewnia wysoki poziom bezpieczeństwa i organizacji. Przykładem może być zdalny dostęp do współdzielonego folderu, gdzie użytkownicy muszą być autoryzowani przez system operacyjny serwera, aby móc otworzyć lub edytować pliki. Ponadto, użytkownicy mogą być przypisani do grup, które mają określone prawa dostępu. W praktyce, organizacje wdrażają polityki bezpieczeństwa, aby zapewnić, że tylko odpowiedni pracownicy mają dostęp do wrażliwych danych, co jest zgodne z zasadą minimalnych uprawnień. Warto również zaznaczyć, że korzystanie z takich rozwiązań pozwala na łatwiejsze zarządzanie i audytowanie dostępu do zasobów sieciowych.

Pytanie 15

Jakie urządzenie sieciowe funkcjonuje w warstwie fizycznej modelu ISO/OSI, transmitując sygnał z jednego portu do wszystkich pozostałych portów?

A. Modem
B. Karta sieciowa
C. Przełącznik
D. Koncentrator
Koncentrator, znany również jako hub, jest urządzeniem sieciowym, które działa na warstwie fizycznej modelu ISO/OSI. Jego główną funkcją jest przesyłanie sygnałów elektrycznych z jednego portu do wszystkich pozostałych portów, co czyni go urządzeniem prostym, ale również niewydajnym w porównaniu z bardziej zaawansowanymi urządzeniami, takimi jak przełączniki. W kontekście zastosowań, koncentratory były powszechnie używane w sieciach LAN do łączenia różnych urządzeń, takich jak komputery czy drukarki, w jedną sieć lokalną. Warto jednak zauważyć, że ze względu na sposób działania, koncentratory mogą prowadzić do kolizji danych, ponieważ wszystkie podłączone urządzenia dzielą tę samą przepustowość. W praktyce, w nowoczesnych sieciach lokalnych, koncentratory zostały w dużej mierze zastąpione przez przełączniki, które są bardziej efektywne w zarządzaniu ruchem sieciowym. Dobrą praktyką w projektowaniu sieci jest stosowanie przełączników, które oferują inteligentniejsze przesyłanie danych oraz redukcję kolizji, co prowadzi do efektywniejszego zarządzania pasmem.

Pytanie 16

Jaką częstotliwość odświeżania należy ustawić, aby obraz na monitorze był odświeżany 85 razy na sekundę?

A. 8,5 Hz
B. 85 kHz
C. 850 Hz
D. 0,085 kHz
Częstotliwość odświeżania monitora jest kluczowym parametrem, który wpływa na jakość obrazu i komfort użytkowania. Odpowiedzi, które wskazują na 850 Hz, 85 kHz czy 8,5 Hz, są mylące i oparte na nieprawidłowych założeniach dotyczących konwersji jednostek oraz zrozumienia samego pojęcia częstotliwości. 850 Hz oznaczałoby odświeżanie obrazu 850 razy na sekundę, co jest znacząco wyższą wartością niż potrzebne 85 Hz, a także wymagałoby znacznie bardziej zaawansowanego sprzętu. Dodatkowo, 85 kHz jest jednostką, która wskazuje na częstotliwość 85000 Hz, co również jest nieadekwatne do sytuacji w kontekście standardowych monitorów. Z kolei 8,5 Hz to wartość zbyt niska, co prowadziłoby do poważnych problemów z widocznością obrazu, w tym migotania, które może prowadzić do dyskomfortu wzrokowego. Wybór odpowiedniej częstotliwości odświeżania powinien opierać się na zrozumieniu, że wyższe wartości (np. 75 Hz czy 144 Hz) są często stosowane w nowoczesnych monitorach do gier i zastosowań profesjonalnych, ponieważ zapewniają lepszą płynność obrazu. Typowe błędy myślowe, które prowadzą do takich niepoprawnych wniosków, obejmują pomylenie jednostek miary oraz nieprzemyślane podejście do przeliczeń, co jest kluczowe w kontekście uzyskania optymalnych parametrów pracy monitorów.

Pytanie 17

Funkcja failover usługi DHCP umożliwia

A. wyświetlanie statystyk serwera DHCP.
B. konfigurację zapasowego serwera DHCP.
C. filtrowanie adresów MAC.
D. konfigurację rezerwacji adresów IP.
Prawidłowo – funkcja failover w usłudze DHCP służy właśnie do skonfigurowania zapasowego serwera DHCP i zapewnienia wysokiej dostępności przydzielania adresów IP. W praktyce chodzi o to, żeby w sieci zawsze był przynajmniej jeden serwer zdolny do odpowiadania na żądania DHCPDISCOVER i DHCPREQUEST od klientów. Jeśli serwer główny ulegnie awarii, to drugi – partnerski – przejmuje jego rolę zgodnie z ustalonym wcześniej trybem pracy. Najczęściej stosuje się model load balance (obciążenie dzielone mniej więcej po równo) albo hot-standby (jeden serwer aktywny, drugi w gotowości). W systemach takich jak Windows Server konfiguracja failover polega na powiązaniu konkretnego zakresu (scope) z drugim serwerem DHCP, uzgodnieniu wspólnego stanu bazy dzierżaw (leases), ustawieniu czasu MCLT (Maximum Client Lead Time) i parametrów typu state switchover. Dzięki temu oba serwery mają zsynchronizowane informacje o tym, które adresy są już przydzielone, więc nie dochodzi do konfliktów IP. Z punktu widzenia dobrych praktyk sieciowych, w sieciach produkcyjnych – szczególnie w firmach, gdzie przerwa w działaniu sieci jest kosztowna – failover DHCP to praktycznie standard. Nie opiera się już na starym modelu split-scope (rozbijanie puli na dwie części ręcznie), tylko na mechanizmie opisanym w RFC 2131 i rozszerzeniach producentów, gdzie serwery regularnie wymieniają komunikaty o stanie dzierżaw. Moim zdaniem warto pamiętać, że failover nie tylko daje „zapasowy serwer”, ale też poprawia ciągłość działania przy konserwacjach, aktualizacjach i restartach – można spokojnie wyłączyć jeden serwer, a klienci dalej dostają adresy IP z drugiego, bez paniki w sieci.

Pytanie 18

FDDI (ang. Fiber Distributed Data Interface) jest standardem przesyłania danych opartym na technologii światłowodowej. Jaką topologię wykorzystuje się w sieciach zbudowanych według tej technologii?

A. podwójnego pierścienia
B. rozszerzonej gwiazdy
C. pierścienia
D. gwiazdy
Wybór podwójnego pierścienia jako topologii w sieciach FDDI jest właściwy, ponieważ ta technologia wykorzystuje dwie sprzężone pętle światłowodowe, co zapewnia redundancję i zwiększa niezawodność transmisji danych. W przypadku uszkodzenia jednego z pierścieni, dane mogą być przesyłane przez drugi, co minimalizuje ryzyko przerwania komunikacji. Topologia ta jest zgodna z zasadami projektowania sieci, które rekomendują zastosowanie rozwiązań zwiększających dostępność i ciągłość działania. FDDI jest szeroko stosowane w dużych przedsiębiorstwach oraz w centrum danych, gdzie wymagana jest wysoka przepustowość i niskie opóźnienia. Przykładami zastosowania mogą być systemy zarządzania danymi, które wymagają stabilnych połączeń oraz integrowanie różnych lokalizacji w jedną sieć. Dodatkowo, standard FDDI definiuje nie tylko fizyczne aspekty sieci, ale także protokoły dostępu do medium, co czyni go wszechstronnym rozwiązaniem. W praktyce, FDDI jest często wykorzystywane w akwarium sieciowym, gdzie wymagana jest wysoka jakość sygnału oraz odporność na zakłócenia.

Pytanie 19

AES (ang. Advanced Encryption Standard) to standard szyfrowania, który?

A. wykorzystuje symetryczny algorytm szyfrujący
B. jest następcą DES (ang. Data Encryption Standard)
C. nie może być wdrożony w sprzęcie
D. nie może być stosowany do szyfrowania plików
AES, czyli Advanced Encryption Standard, wykorzystuje symetryczny algorytm szyfrujący, co oznacza, że do szyfrowania i deszyfrowania danych używa się tego samego klucza. Jest to jedna z najważniejszych cech tego standardu, która zapewnia zarówno bezpieczeństwo, jak i szybkość operacji szyfrujących. AES został wprowadzony przez NIST w 2001 roku jako zamiennik dla DES, w odpowiedzi na rosnące wymagania dotyczące bezpieczeństwa danych. Przykładem zastosowania AES jest szyfrowanie danych w protokołach takich jak HTTPS, które zapewniają bezpieczną komunikację w Internecie. W praktyce, wiele systemów i aplikacji, od komunikatorów po bankowość internetową, korzysta z tego algorytmu, aby chronić dane przed nieautoryzowanym dostępem. Dodatkowo, zgodność z normami takimi jak FIPS 197, potwierdza, że AES spełnia wysokie standardy bezpieczeństwa, co czyni go zaufanym rozwiązaniem dla wielu zastosowań w branży IT.

Pytanie 20

Który podzespół nie jest kompatybilny z płytą główną MSI A320M Pro-VD-S socket AM4, 1 x PCI-Ex16, 2 x PCI-Ex1, 4 x SATA III, 2 x DDR4- max 32 GB, 1 x D-SUB, 1x DVI-D, ATX?

A. Dysk twardy 500GB M.2 SSD S700 3D NAND
B. Pamięć RAM Crucial 8GB DDR4 2400MHz Ballistix Sport LT CL16
C. Karta graficzna Radeon RX 570 PCI-Ex16 4GB 256-bit 1310MHz HDMI, DVI, DP
D. Procesor AMD Ryzen 5 1600, 3.2GHz, s-AM4, 16MB
Wybór dysku twardego 500GB M.2 SSD S700 3D NAND jako niekompatybilnego z płytą główną MSI A320M Pro-VD-S jest jak najbardziej trafny. Wynika to z podstawowej cechy tej płyty – ona po prostu nie ma złącza M.2, które jest wymagane do podłączenia tego typu nośnika SSD. W praktyce, nawet jeśli ten dysk wyglądałby na pierwszy rzut oka jak dobry wybór, nie da się go fizycznie zamontować w tej konstrukcji. To częsty błąd, zwłaszcza przy zakupach podzespołów – ludzie kierują się wydajnością czy pojemnością, ale nie sprawdzają zgodności mechanicznej i elektrycznej. W tej płycie głównej możemy wykorzystać wyłącznie dyski ze złączem SATA III. Moim zdaniem, zawsze warto przed zakupem nowego sprzętu rzucić okiem nie tylko na specyfikację, ale i na fotki płyty – wtedy od razu widać, czego realnie się spodziewać. Branżowym standardem jest, by sprawdzać nie tylko standard interfejsu (np. SATA vs M.2), ale i fizyczne możliwości podłączenia. Często też starsze płyty główne nie obsługują nowoczesnych dysków M.2 NVMe lub SATA M.2, bo po prostu nie mają odpowiedniego slotu – dokładnie jak w tym przypadku. Praktycznie, zawsze warto mieć w głowie, że wybierając podzespoły do komputera liczy się nie tylko wydajność, ale też zwykła kompatybilność sprzętowa. Dobrą praktyką jest korzystanie z oficjalnych list kompatybilności producenta lub konfiguratorów sprzętu. Takie podejście oszczędza niepotrzebnych wydatków i rozczarowań.

Pytanie 21

Topologia fizyczna sieci komputerowej przedstawiona na ilustracji to topologia

Ilustracja do pytania
A. magistrali
B. hierarchiczna
C. gwiazdy rozszerzonej
D. gwiazdy
Topologia hierarchiczna, inaczej zwana topologią drzewa, jest jedną z najczęściej spotykanych struktur w sieciach komputerowych, szczególnie w większych organizacjach. Charakteryzuje się ona rozbudową w postaci hierarchii urządzeń sieciowych, gdzie każdy węzeł centralny jest połączony z kilkoma urządzeniami podrzędnymi. W praktyce topologia hierarchiczna umożliwia łatwe zarządzanie dużymi sieciami dzięki czytelnej strukturze i możliwości centralnego administrowania. Jest to powszechnie stosowane podejście w centrach danych, gdzie serwery są zorganizowane według poziomów hierarchii, co ułatwia skalowanie i integrację z różnymi systemami. Warto zauważyć, że topologia ta wspiera redundancję i skalowalność, co jest kluczowe w utrzymaniu ciągłości działania firmy. Stosowanie topologii hierarchicznej jest zgodne z najlepszymi praktykami branżowymi, zapewniającymi nie tylko optymalizację pracy sieci, ale także jej bezpieczeństwo oraz możliwość implementacji zaawansowanych polityk dostępu i monitorowania ruchu. Jest to rozwiązanie rekomendowane przez wielu producentów sprzętu sieciowego, jak Cisco czy Juniper.

Pytanie 22

Jaka jest prędkość przesyłania danych w standardzie 1000Base-T?

A. 1 Mbit/s
B. 1 MB/s
C. 1 Gbit/s
D. 1 GB/s
Odpowiedź 1 Gbit/s jest prawidłowa, ponieważ standard 1000Base-T, który jest częścią rodziny standardów Ethernet, zapewnia prędkość transmisji danych wynoszącą 1 gigabit na sekundę. Jest to technologia szeroko stosowana w nowoczesnych sieciach lokalnych, pozwalająca na szybki transfer danych przy użyciu skrętkowych kabli miedzianych kategorii 5e lub wyższej. Przykładem zastosowania tego standardu może być budowanie infrastruktury sieciowej w biurach oraz centrach danych, gdzie wymagana jest duża przepustowość. Standard 1000Base-T korzysta z kodowania 4D-PAM5, co pozwala na efektywne wykorzystanie dostępnego pasma i minimalizację zakłóceń. Dodatkowo, w porównaniu do starszych standardów, takich jak 100Base-TX, 1000Base-T oferuje znacznie lepszą wydajność, co czyni go preferowanym wyborem dla aplikacji wymagających przesyłania dużych ilości danych, takich jak strumieniowanie wideo w wysokiej rozdzielczości czy wirtualizacja. Regularne korzystanie z tego standardu i jego wdrażanie w sieciach lokalnych jest zgodne z najlepszymi praktykami branżowymi, co zapewnia przyszłość sieci i elastyczność w dostosowywaniu się do rosnących potrzeb użytkowników.

Pytanie 23

Jakie są korzyści płynące z użycia systemu plików NTFS?

A. możliwość sformatowania nośnika o niewielkiej pojemności (1,44MiB)
B. przechowywanie tylko jednej kopii tabeli plików
C. możliwość szyfrowania folderów i plików
D. zapisywanie plików z nazwami dłuższymi niż 255 znaków
System plików NTFS (New Technology File System) to nowoczesne rozwiązanie, które oferuje wiele zaawansowanych funkcji zarządzania danymi. Jedną z kluczowych zalet jest możliwość szyfrowania folderów i plików, co zapewnia wysoki poziom bezpieczeństwa przechowywanych informacji. Funkcja ta wykorzystuje technologię EFS (Encrypting File System), która pozwala użytkownikom na szyfrowanie danych na poziomie systemu plików. Dzięki temu, nawet w przypadku fizycznego dostępu do nośnika, nieautoryzowane osoby nie będą mogły odczytać zaszyfrowanych plików bez odpowiednich uprawnień. Praktyczne zastosowanie tej funkcjonalności jest szczególnie istotne w środowiskach korporacyjnych oraz w pracy z danymi wrażliwymi, gdzie bezpieczeństwo informacji jest kluczowe. Warto również zauważyć, że NTFS wspiera długie nazwy plików, co w połączeniu z szyfrowaniem, umożliwia komfortowe i bezpieczne zarządzanie dużymi zbiorami danych. W branży IT stosowanie NTFS jest standardem, szczególnie w systemach operacyjnych Windows, gdzie funkcjonalności te są szczególnie doceniane.

Pytanie 24

Podczas testowania połączeń sieciowych za pomocą polecenia ping użytkownik otrzymał wyniki przedstawione na rysunku. Jakie może być źródło braku odpowiedzi serwera przy pierwszym teście, zakładając, że domena wp.pl ma adres 212.77.100.101?

C:\Users\uczen>ping wp.pl
Żądanie polecenia ping nie może znaleźć hosta wp.pl. Sprawdź nazwę i ponów próbe.

C:\Users\uczen>ping 212.77.100.101

Badanie 212.77.100.101 z 32 bajtami danych:
Odpowiedź z 212.77.100.101: bajtów=32 czas=19ms TTL=127
Odpowiedź z 212.77.100.101: bajtów=32 czas=35ms TTL=127
Odpowiedź z 212.77.100.101: bajtów=32 czas=40ms TTL=127
Odpowiedź z 212.77.100.101: bajtów=32 czas=20ms TTL=127

Statystyka badania ping dla 212.77.100.101:
    Pakiety: Wysłane = 4, Odebrane = 4, Utracone = 0
             (0% straty),
Szacunkowy czas błądzenia pakietów w millisekundach:
    Minimum = 19 ms, Maksimum = 40 ms, Czas średni = 28 ms
A. Nieprawidłowy adres IP przypisany do karty sieciowej
B. Brak domyślnej bramy w ustawieniach karty sieciowej
C. Brak przypisania serwera DHCP do karty sieciowej
D. Nieobecność adresów serwera DNS w konfiguracji karty sieciowej
Brak adresów serwera DNS w konfiguracji karty sieciowej powoduje, że komputer nie jest w stanie przetłumaczyć nazwy domeny wp.pl na jej odpowiadający adres IP 212.77.100.101. DNS, czyli Domain Name System, jest kluczowym elementem infrastruktury internetowej, który umożliwia przekształcanie czytelnych dla człowieka nazw domen na adresy IP zrozumiałe dla komputerów. Bez poprawnie skonfigurowanych serwerów DNS, komputer nie może skutecznie nawiązać połączenia z serwerem, co skutkuje błędem przy pierwszej próbie użycia polecenia ping. W praktyce wiele systemów operacyjnych umożliwia automatyczne przypisywanie adresów DNS za pomocą DHCP, jednak w przypadku braku odpowiedniego serwera DHCP lub jego nieprawidłowej konfiguracji, użytkownik musi ręcznie wprowadzić adresy DNS. Dobrymi praktykami jest korzystanie z powszechnie dostępnych serwerów DNS, takich jak te dostarczane przez Google (8.8.8.8 i 8.8.4.4), które są znane z wysokiej wydajności i niezawodności. Prawidłowa konfiguracja serwerów DNS jest kluczowa dla stabilnego i szybkiego działania aplikacji sieciowych oraz ogólnego doświadczenia użytkownika w korzystaniu z Internetu.

Pytanie 25

Podaj właściwy sposób zapisu liczby -1210 w metodzie znak-moduł na ośmiobitowej liczbie binarnej.

A. -1.11000zm
B. 00001100zm
C. 10001100zm
D. +1.11000zm
Wszystkie niepoprawne odpowiedzi bazują na błędnych założeniach dotyczących reprezentacji liczby -1210 w systemie binarnym oraz zastosowania metody znak-moduł. Przykładowo, zapis 00001100zm przedstawia tylko wartość dodatnią 12, natomiast nie uwzględnia faktu, że liczba jest ujemna. W przypadku metody znak-moduł, najstarszy bit powinien być ustawiony na 1, aby wskazać, że liczba jest ujemna. Z kolei odpowiedzi +1.11000zm oraz -1.11000zm sugerują format zmiennoprzecinkowy, który nie jest odpowiedni do reprezentacji liczb całkowitych w kontekście przedstawionym w pytaniu. Metoda znak-moduł wykorzystuje bezpośrednie reprezentacje liczb całkowitych, a nie zmiennoprzecinkowe, co jest kluczowym błędem tych odpowiedzi. Dodatkowo, odpowiedzi te nie uwzględniają, że liczba -1210 w systemie binarnym nie może być przedstawiona w postaci, która nie wskazuje wyraźnie na jej ujemność. W praktyce, w systemach komputerowych, istotne jest odpowiednie reprezentowanie liczb, aby uniknąć błędów obliczeniowych i zapewnić poprawność działania algorytmów. Stosowanie metod, które nie są zgodne z wymaganiami zadania, prowadzi do niepoprawnych wyników i może być źródłem problemów w aplikacjach wymagających precyzyjnych obliczeń.

Pytanie 26

Gdy system operacyjny laptopa działa normalnie, na ekranie wyświetla się komunikat o konieczności sformatowania wewnętrznego dysku twardego. Może to sugerować

A. niezainicjowany lub nieprzygotowany do pracy nośnik
B. błędy systemu operacyjnego spowodowane szkodliwym oprogramowaniem
C. uszkodzoną pamięć RAM
D. przegrzewanie się procesora
Wybór odpowiedzi dotyczącej uszkodzonej pamięci RAM jest nieprawidłowy, ponieważ problemy z pamięcią RAM zazwyczaj nie prowadzą do komunikatów o konieczności formatowania dysku twardego. Uszkodzenia pamięci RAM mogą objawiać się w postaci niestabilności systemu, losowych zawieszeń lub błędów w aplikacjach, ale nie wpływają bezpośrednio na integralność nośnika danych. Przegrzewanie się procesora również nie jest bezpośrednio związane z pojawieniem się komunikatów o konieczności formatowania dysku. Chociaż przegrzewanie może prowadzić do awarii sprzętu, najczęściej objawia się spadkiem wydajności lub automatycznym wyłączaniem komputera w celu ochrony przed uszkodzeniem. Błędy systemu operacyjnego spowodowane szkodliwym oprogramowaniem mogą prowadzić do poważnych problemów z systemem, jednak nie skutkują zazwyczaj koniecznością formatowania dysku, a raczej spróbą przywrócenia systemu do stanu sprzed infekcji. Takie błędne wnioski wynikają często z mylnego utożsamiania różnych objawów awarii systemowych. Przy interpretacji komunikatów o błędach niezwykle ważne jest zrozumienie podstaw działania sprzętu i oprogramowania, co pozwala na skuteczniejsze diagnozowanie problemów oraz ich rozwiązanie zgodnie z najlepszymi praktykami zarządzania systemami komputerowymi.

Pytanie 27

Jakie urządzenie stosuje się do pomiaru rezystancji?

A. woltomierz
B. amperomierz
C. omomierz
D. watomierz
Omomierz to przyrząd pomiarowy, który specjalizuje się w pomiarze rezystancji. Działa na zasadzie przepuszczania niewielkiego prądu przez badany element i mierzenia spadku napięcia na nim. Dzięki temu można obliczyć wartość rezystancji zgodnie z prawem Ohma. Omomierze są niezwykle przydatne w różnych dziedzinach, takich jak elektronika, elektrotechnika oraz w diagnostyce. Umożliwiają szybkie i dokładne pomiary rezystancji elementów, takich jak oporniki, cewki czy przewody. Przykładowo, w praktyce inżynierskiej omomierz może być używany do testowania przewodów w instalacjach elektrycznych, co pozwala na wykrycie ewentualnych uszkodzeń lub przerw w obwodzie. Ponadto, omomierze są często wykorzystywane w laboratoriach badawczych do analizy materiałów i komponentów elektronicznych. Warto zaznaczyć, że pomiar rezystancji jest kluczowy dla zapewnienia bezpieczeństwa i efektywności systemów elektrycznych, co jest zgodne z zasadami dobrych praktyk w inżynierii elektrycznej.

Pytanie 28

Na ilustracji zaprezentowano

Ilustracja do pytania
A. impulsator
B. sondę logiczną
C. czujnik temperatury
D. tester płyt głównych
Impulsator, znany również jako enkoder, jest urządzeniem służącym do konwersji ruchu mechanicznego na sygnały elektryczne, zazwyczaj wykorzystywanym w automatyce przemysłowej do monitorowania i kontroli pozycji oraz prędkości obrotowej maszyn. Sonda logiczna to narzędzie używane do testowania i diagnozowania obwodów cyfrowych poprzez wskazywanie stanów logicznych (wysoki, niski lub przejście) na wyjściach układów logicznych. Jest nieodzowna w procesie analizowania sekwencji logicznych oraz weryfikacji poprawności działania układów cyfrowych. Czujnik temperatury to urządzenie służące do pomiaru temperatury, szeroko stosowane w różnych aplikacjach od przemysłowych po domowe. Może korzystać z różnych technologii pomiarowych, takich jak termopary, termistory czy czujniki półprzewodnikowe, aby dostarczać precyzyjnych odczytów temperatury. Podczas gdy każdy z tych komponentów odgrywa istotną rolę w swoich odpowiednich dziedzinach, żaden z nich nie jest związany z diagnozowaniem problemów na poziomie płyty głównej komputera, co jest zadaniem testera płyt głównych. Błędnym podejściem jest zakładanie, że powyższe urządzenia mogą pełnić funkcję testera płyt głównych, ponieważ każda z tych technologii służy zupełnie innym celom i wymaga innego zakresu wiedzy do ich efektywnego zastosowania. Kluczowe jest rozróżnienie między narzędziami diagnostycznymi a innymi urządzeniami pomiarowymi czy kontrolnymi oraz zrozumienie, że testery płyt głównych są specjalistycznym rozwiązaniem dedykowanym wyłącznie do analizy problemów sprzętowych na poziomie BIOS i POST w komputerach PC.

Pytanie 29

Który z protokołów funkcjonuje w warstwie aplikacji modelu ISO/OSI, umożliwiając wymianę informacji kontrolnych między urządzeniami sieciowymi?

A. SNMP
B. POP3
C. DNS
D. SMTP
SNMP (Simple Network Management Protocol) to protokół, który działa w warstwie aplikacji modelu ISO/OSI i jest kluczowy dla zarządzania sieciami. Umożliwia wymianę informacji kontrolnych pomiędzy urządzeniami sieciowymi, takimi jak routery, przełączniki czy serwery. Protokół ten jest wykorzystywany do monitorowania i zarządzania sprzętem sieciowym, co pozwala administratorom na zbieranie danych o stanie urządzeń, wydajności, czy ewentualnych błędach. Przykładem zastosowania SNMP może być sytuacja, gdy zdalny serwer monitorujący zbiera informacje o obciążeniu CPU i ilości dostępnej pamięci RAM na urządzeniach w sieci. Dzięki SNMP administratorzy mogą szybko reagować na problemy, optymalizować konfiguracje oraz planować rozbudowę infrastruktury sieciowej. Standardy SNMP, takie jak SNMPv2 czy SNMPv3, wprowadzają dodatkowe funkcje, jak większe bezpieczeństwo i wydajność, co czyni ten protokół niezbędnym w zarządzaniu nowoczesnymi sieciami komputerowymi.

Pytanie 30

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 32 GB.
B. 2 modułów, każdy po 8 GB.
C. 2 modułów, każdy po 16 GB.
D. 1 modułu 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 31

Który system plików powinien być wybrany podczas instalacji Linuxa, aby umożliwić ustalanie uprawnień dla plików i katalogów?

A. EXT2
B. NTFS
C. FAT32
D. ISO9660
Wybór NTFS, FAT32 lub ISO9660 jako systemu plików do instalacji Linuxa w kontekście definiowania uprawnień do plików prowadzi do nieporozumień dotyczących ich podstawowych cech. NTFS, będący systemem plików używanym głównie w systemach Windows, oferuje pewne możliwości zarządzania uprawnieniami, jednak jego pełna funkcjonalność jest ograniczona w kontekście Linuxa. Oprogramowanie Linuxowe może interagować z NTFS poprzez specjalne sterowniki, ale pełne wsparcie dla uprawnień nie jest realizowane w sposób efektywny. FAT32 jest systemem plików przeznaczonym dla starszych systemów operacyjnych, który nie obsługuje rozbudowanych atrybutów uprawnień. W praktyce umożliwia on jedynie podstawowe operacje, co czyni go niewłaściwym wyborem dla nowoczesnych aplikacji wymagających ścisłej kontroli dostępu. ISO9660, używany głównie do zapisu obrazów płyt CD i DVD, nie jest systemem plików przeznaczonym do codziennego użytku na dyskach twardych, a jego struktura nie wspiera dynamiki zarządzania uprawnieniami w systemie plików. Użytkownicy często popełniają błąd, zakładając, że każdy system plików oferuje podobne możliwości, co prowadzi do wyboru niewłaściwego narzędzia do konkretnych zadań. Właściwe zrozumienie różnic między systemami plików jest kluczowe dla efektywnego zarządzania danymi i bezpieczeństwem w środowisku Linux.

Pytanie 32

Metoda przesyłania danych między urządzeniem CD/DVD a pamięcią komputera w trybie bezpośredniego dostępu do pamięci to

A. DMA
B. SATA
C. PIO
D. IDE
Wybranie PIO, IDE albo SATA jako metod transferu danych do pamięci w trybie DMA sugeruje pewne nieporozumienia. PIO, czyli Programmed Input/Output, to metoda, w której procesor kontroluje cały transfer. To znacznie obciąża jego możliwości i może ograniczać wydajność, zwłaszcza przy większych ilościach danych. Ide natomiast to interfejs do komunikacji z dyskami, który może wspierać DMA, ale to nie jest technika sama w sobie, tylko standard, który może współpracować z różnymi metodami transferu. SATA, z kolei, to nowoczesny interfejs dla dysków, który może też korzystać z DMA, ale sam w sobie nie jest metodą transferu. Często mylone są te terminy, co prowadzi do błędów. Ważne jest, żeby zrozumieć, że DMA to technika, która pozwala na ominięcie procesora podczas przesyłania danych, co znacząco podnosi wydajność, a PIO oraz interfejsy takie jak IDE czy SATA dotyczą głównie sposobu podłączania urządzeń i ich komunikacji z systemem, a nie samej metody transferu.

Pytanie 33

Złącze SC powinno być zainstalowane na przewodzie

A. światłowodowym
B. koncentrycznym
C. telefonicznym
D. typu skrętka
Złącza koncentryczne, telefoniczne oraz typu skrętka nie są przeznaczone do stosowania z kablami światłowodowymi, co stanowi kluczowy błąd w rozumieniu technologii przesyłu sygnałów. Złącza koncentryczne, typowo używane w systemach telewizyjnych i kablowych, posiadają metalową konstrukcję, która nie jest kompatybilna z delikatnymi włóknami światłowodowymi. W przypadku kabli telefonicznych, które często korzystają z technologii miedzi, złącza te również nie spełniają wymogów związanych z przesyłem sygnału optycznego. Z kolei złącza typu skrętka są stosowane w sieciach Ethernet, gdzie sygnał przesyłany jest za pomocą miedzi, a nie światła. To błędne podejście może wynikać z nieznajomości różnic między technologiami komunikacyjnymi. W praktyce, złącza SC są niezbędne do prawidłowego funkcjonowania sieci światłowodowych, a stosowanie niewłaściwych typów złącz prowadzi do znacznych strat sygnału oraz problemów z łącznością. Właściwe używanie złączy jest kluczowe dla efektywności i niezawodności nowoczesnych systemów komunikacyjnych, co podkreśla znaczenie edukacji i zrozumienia technologii w tej dziedzinie.

Pytanie 34

Podczas pracy dysk twardy wydaje stukanie, a uruchamianie systemu oraz odczyt danych są znacznie spowolnione. W celu naprawienia tej awarii, po wykonaniu kopii zapasowej danych na zewnętrznym nośniku należy

A. przeprowadzić defragmentację dysku
B. wymienić dysk na nowy
C. zrobić punkt przywracania systemu
D. sformatować dysk i zainstalować system
Wymiana dysku twardego na nowy jest właściwą decyzją w sytuacji, gdy podczas jego pracy pojawiają się niepokojące dźwięki, takie jak stukanie, a także gdy system operacyjny uruchamia się bardzo wolno. Takie objawy mogą wskazywać na uszkodzenie mechaniczne dysku, co z kolei grozi utratą danych. Wymiana dysku jest najlepszym rozwiązaniem, ponieważ zapewnia całkowite wyeliminowanie problemu, a także umożliwia użytkownikowi korzystanie z nowoczesnych technologii, takich jak dyski SSD, które oferują znacznie lepsze parametry wydajnościowe. Przykładowo, standardowe dyski SSD charakteryzują się czasem dostępu na poziomie milisekundowym, podczas gdy tradycyjne HDD mogą potrzebować znacznie więcej czasu, co przekłada się na szybsze uruchamianie aplikacji oraz systemu operacyjnego. Wymiana na nowy dysk pozwala również na skorzystanie z gwarancji producenta, co może być istotnym czynnikiem w przypadku dalszych problemów. Ponadto, w sytuacji, gdy dane zostały uprzednio zabezpieczone na nośniku zewnętrznym, proces migracji danych na nowy dysk będzie znacznie prostszy i bezpieczniejszy.

Pytanie 35

Taśma drukarska stanowi kluczowy materiał eksploatacyjny w przypadku drukarki

A. termicznej
B. atramentowej
C. igłowej
D. laserowej
Drukarki laserowe, termiczne i atramentowe działają na zupełnie innych zasadach, co implikuje, że stosowanie taśmy barwiącej w tych urządzeniach jest nieprawidłowe. Drukarki laserowe wykorzystują technologię elektrostatyczną, w której obraz jest tworzony na bębnie naładowanym elektrycznie, a następnie pokrywany tonerem, który jest utrwalany na papierze przez proces grzewczy. W związku z tym, tonery stanowią materiał eksploatacyjny dla tej kategorii drukarek, a użycie taśmy barwiącej nie ma zastosowania. Drukarki termiczne natomiast, w zależności od typu, mogą wykorzystywać specjalny papier termiczny lub kartridże z tuszem, ale w żadnym wypadku taśmy barwiące nie są stosowane. Drukarki atramentowe z kolei używają kartridży z płynnych atramentów, które są nanoszone na papier za pomocą dysz. W tym przypadku, błędne jest myślenie, że taśmy barwiące mogą być używane, ponieważ mechanizm druku opiera się na innej technologii. Często zdarza się, że użytkownicy mylą różne technologie druku, co prowadzi do niepoprawnych wyborów materiałów eksploatacyjnych, co może skutkować nie tylko słabą jakością wydruku, ale również uszkodzeniem urządzenia. Dlatego istotne jest zrozumienie zasad działania danego typu drukarki i dobieranie do niej odpowiednich materiałów eksploatacyjnych zgodnie z zaleceniami producenta.

Pytanie 36

Aby sygnały pochodzące z dwóch routerów w sieci WiFi pracującej w standardzie 802.11g nie wpływały na siebie nawzajem, należy skonfigurować kanały o numerach

A. 1 i 5
B. 3 i 6
C. 5 i 7
D. 2 i 7
Wybór kanałów 1 i 5, 3 i 6, czy 5 i 7, może prowadzić do niepożądanych zakłóceń w sieci WiFi, ponieważ kanały te nie są odpowiednio oddalone od siebie. Na przykład, wybierając kanały 1 i 5, użytkownik naraża się na interferencje, ponieważ kanał 5 leży w pobliżu kanału 1, co może prowadzić do nakładania się sygnałów. Podobnie, kombinacja kanałów 3 i 6 nie jest optymalna, ponieważ oba kanały są zbyt blisko siebie, co wprowadza niepotrzebny szum i zmniejsza efektywność transmisji. Użytkownicy często popełniają błąd polegający na przyjęciu, że im więcej kanałów używają, tym lepsza będzie jakość sieci, jednak kluczowe jest, aby wybrane kanały były rozdzielone, aby zminimalizować zakłócenia. W praktyce, wybieranie kanałów w bliskiej odległości od siebie prowadzi do obniżenia przepustowości sieci, wzrostu opóźnień oraz problemów z łącznością, co negatywnie wpływa na doświadczenia użytkowników i może skutkować koniecznością częstszego resetowania routerów. Dlatego ważne jest, aby przy konfiguracji sieci WiFi kierować się dobrymi praktykami, które zapewnią optymalne wykorzystanie dostępnych zasobów bezprzewodowych.

Pytanie 37

Jakie zagrożenia eliminują programy antyspyware?

A. programy szpiegujące
B. oprogramowanie antywirusowe
C. ataki typu DoS oraz DDoS (Denial of Service)
D. programy działające jako robaki
Programy antyspyware są specjalistycznymi narzędziami zaprojektowanymi w celu wykrywania, zapobiegania i usuwania programów szpiegujących. Te złośliwe oprogramowania, znane również jako spyware, mają na celu zbieranie informacji o użytkownikach bez ich zgody, co może prowadzić do naruszenia prywatności oraz kradzieży danych. Oprogramowanie antyspyware skanuje system w poszukiwaniu takich programów i blokuje ich działanie, stosując różne metody, takie jak monitorowanie aktywności systemowej, analizy zachowań aplikacji czy porównywanie znanych sygnatur szkodliwego oprogramowania. Przykładem praktycznym może być sytuacja, w której użytkownik instaluje darmowy program, który mimo korzystnej funkcjonalności, zawiera elementy spyware. Program antyspyware wykryje takie zagrożenie i zablokuje instalację lub usunie już zainstalowane komponenty, co jest zgodne z najlepszymi praktykami w zakresie zabezpieczeń IT, które zalecają regularne skanowanie systemu oraz aktualizację oprogramowania bezpieczeństwa.

Pytanie 38

Jak na diagramach sieciowych LAN oznaczane są punkty dystrybucyjne znajdujące się na różnych kondygnacjach budynku, zgodnie z normą PN-EN 50173?

A. FD (Floor Distribution)
B. MDF (Main Distribution Frame)
C. BD (BuildingDistributor)
D. CD (Campus Distribution)
Wybór BD (Building Distributor) może prowadzić do nieporozumień, ponieważ ten termin odnosi się do głównych punktów dystrybucyjnych, które łączą różne piętra w budynku, a nie do punktów rozdzielczych na poszczególnych poziomach. BD z reguły znajduje się na poziomie parteru lub w piwnicy i odpowiada za prowadzenie sygnałów do różnych punktów na piętrach. Każde piętro wymaga jednak osobnych punktów dystrybucyjnych, aby zapewnić optymalne połączenie i w każdej chwili umożliwić dostęp do sieci. CD (Campus Distribution) to termin dotyczący zewnętrznej dystrybucji między różnymi budynkami na terenie kampusu, co jest zupełnie inną koncepcją, nie mającą zastosowania w kontekście pojedynczego budynku. MDF (Main Distribution Frame) to natomiast główny punkt, w którym odbywa się dystrybucja sygnału w sieci telekomunikacyjnej, a nie dystrybucja na poziomie piętera. Zrozumienie tych różnic jest kluczowe dla prawidłowego projektowania infrastruktury sieciowej. W praktyce, błędne przypisanie terminologii może prowadzić do komplikacji w instalacji i administrowaniu systemami, co z kolei może wpłynąć na wydajność pracy całej organizacji. Właściwe rozumienie i zastosowanie standardów, takich jak PN-EN 50173, jest istotne dla zapewnienia efektywności i organizacji sieci LAN.

Pytanie 39

Którego wbudowanego narzędzia w systemie Windows 8 Pro można użyć do szyfrowania danych?

A. BitLocker
B. OneLocker
C. AppLocker
D. WinLocker
Istnieje wiele narzędzi do zarządzania bezpieczeństwem danych, jednak odpowiedzi takie jak AppLocker, OneLocker i WinLocker w rzeczywistości nie są odpowiednimi rozwiązaniami dla szyfrowania danych w systemie Windows 8 Pro. AppLocker to narzędzie, które pozwala administratorom na kontrolowanie, które aplikacje mogą być uruchamiane na komputerach w organizacji, jednak nie ma funkcji szyfrowania danych. Jego głównym celem jest zatem zarządzanie dostępem do aplikacji, a nie ochrona danych poprzez ich szyfrowanie. OneLocker to nieznany z nazwy program, który nie jest częścią ekosystemu Windows i nie oferuje żadnych funkcji szyfrowania. WinLocker, podobnie jak OneLocker, nie jest znanym ani powszechnie używanym rozwiązaniem w kontekście szyfrowania danych. Wiele osób myli te pojęcia, przyjmując, że jakiekolwiek narzędzie związane z bezpieczeństwem danych automatycznie będzie również obejmować szyfrowanie. Takie podejście prowadzi do nieporozumień i może skutkować niewłaściwym doborem narzędzi do ochrony informacji. W kontekście bezpieczeństwa ważne jest, aby stosować sprawdzone metody i narzędzia, takie jak BitLocker, które są zgodne z branżowymi standardami ochrony danych. Dlatego kluczowe jest, aby zrozumieć różnice między tymi narzędziami oraz ich funkcjonalności, aby zagwarantować odpowiednią ochronę wrażliwych informacji.

Pytanie 40

Za co odpowiada protokół DNS?

A. określenie adresu MAC na podstawie adresu IP
B. konwertowanie nazw mnemonicznych na adresy IP
C. przekazywanie zaszyfrowanej wiadomości e-mail do serwera pocztowego
D. ustalanie wektora ścieżki między różnymi autonomicznymi sieciami
Protokół DNS (Domain Name System) jest kluczowym elementem infrastruktury internetu, odpowiadającym za tłumaczenie nazw mnemonicznych, takich jak www.example.com, na adresy IP, które są używane do identyfikacji urządzeń w sieci. Proces ten umożliwia użytkownikom korzystanie z przyjaznych dla oka nazw, zamiast pamiętania skomplikowanych ciągów cyfr. Gdy użytkownik wpisuje adres URL w przeglądarkę, system operacyjny najpierw sprawdza lokalną pamięć podręczną DNS, a jeśli nie znajdzie odpowiedniej informacji, wysyła zapytanie do serwera DNS. Serwer ten przeszukuje swoją bazę danych i zwraca odpowiedni adres IP. Na przykład, gdy wpiszesz www.google.com, DNS tłumaczy tę nazwę na adres IP 172.217.0.46, co umożliwia przeglądarki połączenie się z serwerem Google. Zastosowanie protokołu DNS jest nie tylko praktyczne, ale również zabezpieczone poprzez implementacje takie jak DNSSEC (Domain Name System Security Extensions), które chronią przed atakami typu spoofing. Zrozumienie działania DNS jest fundamentalne dla każdego specjalisty IT, ponieważ pozwala na efektywne zarządzanie sieciami oraz zapewnienie ich bezpieczeństwa.