Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 2 maja 2026 08:43
  • Data zakończenia: 2 maja 2026 08:53

Egzamin zdany!

Wynik: 27/40 punktów (67,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Aby uzyskać na ekranie monitora odświeżanie obrazu 85 razy w ciągu sekundy, trzeba częstotliwość jego odświeżania ustawić na

A. 85 kHz
B. 850 Hz
C. 0,085 kHz
D. 8,5 Hz
To zagadnienie często sprawia trudność, bo myli się jednostki lub skaluje niepoprawnie wartości. Przy odświeżaniu ekranu monitora, kluczowe jest zrozumienie, że częstotliwość 85 Hz oznacza 85 cykli na sekundę. Teraz, jeśli ktoś wybiera 8,5 Hz, to jest to dziesięciokrotnie za mało – taki monitor odświeżałby obraz bardzo wolno, przez co obraz wręcz by migał i absolutnie nie nadawałby się do pracy czy oglądania filmów. Moim zdaniem, wybór 850 Hz bierze się z błędnego przeskalowania, jakby ktoś pomyślał, że 85 to za mało i trzeba dodać jedno zero. W praktyce takie odświeżanie nie jest typowe dla monitorów komputerowych – to raczej domena specjalistycznych oscyloskopów, paneli laboratoryjnych czy szybkich ekranów przemysłowych, ale nie w codziennym użytku biurowym czy domowym. Z kolei wybór 85 kHz świadczy o dużym przeszacowaniu – 85 tysięcy Hz to wartość kosmiczna jak na odświeżanie obrazu. Tak szybkie częstotliwości spotyka się raczej przy generowaniu sygnałów radiowych czy w przetwornicach zasilania niż w monitorach. Częstym błędem jest też zamiana jednostek bez sprawdzenia, co one faktycznie oznaczają – 0,085 kHz to właśnie 85 Hz, bo 1 kHz = 1000 Hz, więc 0,085 x 1000 = 85. Prawidłowe przeliczanie jednostek to podstawa, której warto pilnować, bo w branży IT i elektronice takie pomyłki prowadzą do poważnych problemów ze sprzętem lub konfiguracją. W praktyce, większość monitorów pracuje w zakresie 60–120 Hz, czyli 0,06–0,12 kHz. Przy wyborze sprzętu oraz ustawieniach grafiki zawsze trzeba zwracać uwagę na oznaczenia i nie sugerować się dużymi liczbami bez analizy, co tak naprawdę oznaczają. Z mojego doświadczenia ludzie najczęściej wybierają niepoprawną odpowiedź, bo albo przeliczają źle jednostki, albo dają się złapać na zbyt wysokie lub zbyt niskie wartości, które nie mają zastosowania w praktyce monitorów komputerowych.

Pytanie 2

Jak nazywa się proces dodawania do danych z warstwy aplikacji informacji powiązanych z protokołami funkcjonującymi na różnych poziomach modelu sieciowego?

A. Enkapsulacja
B. Multipleksacja
C. Fragmentacja
D. Dekodowanie
Segmentacja jest procesem, który polega na dzieleniu danych na mniejsze części, zwane segmentami, w celu ich efektywnego przesyłania przez sieć. Choć segmentacja jest ważnym elementem w warstwie transportowej, to nie obejmuje całego procesu dodawania informacji na różnych poziomach modelu sieciowego, co jest istotą enkapsulacji. Ponadto, dekodowanie odnosi się do procesu interpretacji przesyłanych danych przez odbiorcę, co jest odwrotnością enkapsulacji. W kontekście protokołów sieciowych, dekodowanie nie dodaje nowych informacji do danych, a jedynie je odczytuje. Multipleksacja z kolei to technika, która umożliwia przesyłanie wielu sygnałów przez ten sam kanał komunikacyjny, również nie jest związana z procesem dodawania informacji do danych. Typowym błędem myślowym jest mylenie tych pojęć z enkapsulacją, co prowadzi do nieporozumień dotyczących sposobu, w jaki dane są przygotowywane do przesyłu. Szczególnie w kontekście projektowania protokołów i systemów komunikacyjnych, ważne jest, aby zrozumieć rolę każdego z tych procesów oraz ich odpowiednie zastosowania i różnice. Właściwe zrozumienie ogólnych zasad ich działania jest kluczowe dla budowy wydajnych i bezpiecznych systemów sieciowych.

Pytanie 3

W nowoczesnych panelach dotykowych prawidłowe działanie wyświetlacza zapewnia mechanizm rozpoznający zmianę

A. położenia ręki dotykającej ekranu z zastosowaniem kamery
B. pola elektromagnetycznego
C. pola elektrostatycznego
D. oporu pomiędzy przezroczystymi diodami wtopionymi w ekran
W nowoczesnych ekranach dotykowych, takich jak te stosowane w smartfonach i tabletach, mechanizm wykrywający dotyk opiera się na zmianach pola elektrostatycznego. Ekrany te zazwyczaj wykorzystują technologię pojemnościową, która polega na mierzeniu zmian w ładunku elektrycznym. Kiedy palec zbliża się do ekranu, zmienia się lokalne pole elektrostatyczne, co jest detektowane przez matrycę czujników umieszczoną na powierzchni ekranu. Dzięki tej technologii, ekrany dotykowe są bardzo czułe i pozwalają na precyzyjne sterowanie przy użyciu zaledwie lekkiego dotknięcia. Przykłady zastosowania tego mechanizmu można znaleźć nie tylko w urządzeniach mobilnych, ale także w kioskach informacyjnych, tabletach do rysowania oraz panelach sterujących w różnych urządzeniach elektronicznych. Zastosowanie technologii pojemnościowej zgodne jest z najlepszymi praktykami w branży, co zapewnia wysoką jakość i trwałość ekranów dotykowych.

Pytanie 4

W ustawieniach haseł w systemie Windows Server została dezaktywowana możliwość wymogu dotyczącego złożoności hasła. Z jakiej minimalnej liczby znaków powinno składać się hasło użytkownika?

A. 12 znaków
B. 10 znaków
C. 6 znaków
D. 5 znaków
Hasło użytkownika w systemie Windows Server, gdy opcja wymuszania złożoności haseł jest wyłączona, może składać się z minimum 6 znaków. Warto zauważyć, że chociaż nie ma obligatoryjnych wymagań dotyczących złożoności, to jednak z perspektywy bezpieczeństwa zaleca się stosowanie dłuższych haseł. Dobre praktyki w zakresie tworzenia haseł sugerują, że im dłuższe hasło, tym trudniejsze do złamania. W związku z tym, nawet w sytuacji braku wymogu co do złożoności, użytkownicy powinni dążyć do stosowania haseł o długości przynajmniej 12 znaków, które zawierają kombinacje liter, cyfr oraz znaków specjalnych. Pomaga to w ochronie kont przed atakami brute force oraz innymi formami ataków, które polegają na łamaniu haseł. Warto również pamiętać o regularnej zmianie haseł oraz stosowaniu unikalnych haseł dla różnych systemów i aplikacji, co zwiększa ogólny poziom bezpieczeństwa.

Pytanie 5

Awaria drukarki igłowej może być spowodowana uszkodzeniem

A. elektromagnesu.
B. dyszy.
C. elektrody ładującej.
D. termorezystora.
Wybieranie dyszy jako przyczyny awarii w drukarce igłowej to spora pomyłka. Dysze są charakterystyczne dla drukarek atramentowych i tam odpowiadają za tusz, ale nie w igłowych, gdzie to wszystko działa inaczej. Często użytkownicy mylą się i szukają problemu w dyszy, co prowadzi do złych diagnoz. Podobnie, termorezystor reguluje ciepło w niektórych modelach, ale w drukarkach igłowych tego nie ma, bo one nie topnieją tuszem. Jeszcze elektrodę ładującą znajdziesz w drukarkach laserowych, a nie w igłowych. Takie myślenie może zaprowadzić do niepotrzebnych wydatków na części, które w ogóle nie są związane z problemem. Warto zrozumieć, że każdy typ drukarki ma swoje unikalne mechanizmy, a dobra diagnoza wymaga znajomości konkretnego modelu. Z mojego punktu widzenia, to nie tylko kwestia techniki, ale też wiesz, trzeba znać procedury serwisowe, które się przydają w praktyce.

Pytanie 6

Który protokół należy do bezpołączeniowych protokołów warstwy transportowej?

A. FTP
B. UDP
C. ARP
D. TCP
Wybór złego protokołu, jak FTP, ARP czy TCP, pokazuje, że coś jest nie tak z rozumieniem różnic między nimi. FTP, czyli File Transfer Protocol, jest oparty na TCP, co sprawia, że jest wolniejszy i dość skomplikowany w użyciu w porównaniu do UDP. Używa się go do takich rzeczy jak przesyłanie plików, gdzie każda paczka musi być dostarczona bezbłędnie. ARP (Address Resolution Protocol) to zupełnie inna bajka – on mapuje adresy IP na adresy MAC, więc to nie ma nic wspólnego z warstwą transportową, a działa w warstwie łącza danych, więc ten wybór jest kiepski. Co do TCP, to jest to protokół połączeniowy, który stara się zapewnić, że wszystko dojdzie, ale przez to wprowadza opóźnienia, a w sytuacjach, gdy potrzebna jest natychmiastowa reakcja, nie jest najlepszą opcją. Często ludzie mylą różne warstwy protokołów albo myślą, że wszystkie muszą być niezawodne, co nie jest prawdą. Ważne jest, żeby rozumieć te różnice, bo to przydaje się w projektowaniu oraz budowaniu systemów sieciowych.

Pytanie 7

Które z metod szyfrowania wykorzystywanych w sieciach bezprzewodowych jest najsłabiej zabezpieczone przed łamaniem haseł?

A. WEP
B. WPA AES
C. WPA TKIP
D. WPA2
WEP, czyli Wired Equivalent Privacy, to protokół bezpieczeństwa, który pojawił się w 1997 roku jako część standardu IEEE 802.11. Jego głównym celem było zabezpieczenie sieci bezprzewodowych na poziomie, który byłby porównywalny z sieciami przewodowymi. Niestety, po czasie okazało się, że WEP ma sporo słabości. Największym problemem jest krótki klucz szyfrujący, który można łatwo złamać. Ataki statystyczne, jak np. atak IV, pozwalają napastnikom przechwycić dane i odszyfrować klucze, co sprawia, że WEP jest naprawdę łatwy do złamania. Jest sporo narzędzi, jak Aircrack-ng, które potrafią to zrobić w praktyce. Dlatego dzisiaj WEP uznaje się za przestarzały i nie powinno się go stosować w nowych sieciach. Lepiej skorzystać z nowszych standardów, jak WPA2, które korzystają z lepszych algorytmów szyfrowania, takich jak AES, co znacznie poprawia bezpieczeństwo.

Pytanie 8

Jaką klasę adresów IP reprezentuje publiczny adres 130.140.0.0?

A. Należy do klasy D
B. Należy do klasy A
C. Należy do klasy C
D. Należy do klasy B
Adres IP 130.140.0.0 należy do klasy B, ponieważ pierwsze bity tego adresu zaczynają się od 10. W klasyfikacji adresów IP, klasa B obejmuje adresy od 128.0.0.0 do 191.255.255.255. Adresy klasy B są przeznaczone głównie dla średnich i dużych organizacji, które potrzebują większej liczby adresów IP niż te oferowane przez klasę A, ale mniej niż te w klasie C. Adresy klasy B mają maskę podsieci 255.255.0.0, co pozwala na utworzenie wielu podsieci z szeroką liczbą hostów. Przykładowo, organizacja mogąca wykorzystać adres klasy B mogłaby być uczelnią z wieloma wydziałami, gdzie każdy wydział potrzebuje swoich własnych zasobów sieciowych. Użycie adresów klasy B jest zgodne z najlepszymi praktykami w zarządzaniu infrastrukturą sieciową i planowaniu adresacji, co ułatwia zarządzanie komunikacją oraz bezpieczeństwem sieci.

Pytanie 9

Jaką rolę pełni serwer FTP?

A. udostępnianie plików
B. nadzór nad siecią
C. zarządzanie kontami e-mail
D. uzgadnianie czasu
Funkcją serwera FTP (File Transfer Protocol) jest przede wszystkim udostępnianie plików w sieci. Protokół FTP umożliwia przesyłanie danych pomiędzy komputerami w sposób zorganizowany i bezpieczny. Dzięki FTP użytkownicy mogą łatwo wysyłać oraz pobierać pliki z serwera, co jest niezwykle przydatne w różnych zastosowaniach, od przesyłania dokumentów, przez synchronizację zasobów witryn internetowych, aż po zarządzanie danymi w chmurze. W kontekście biznesowym, serwery FTP często są wykorzystywane do udostępniania dużych plików, które nie mogą być przesyłane za pomocą zwykłych wiadomości e-mail. Zastosowanie FTP w branży IT opiera się na standardach IETF RFC 959 oraz 3659, które definiują zasady działania protokołu, co zapewnia dużą interoperacyjność pomiędzy różnymi systemami operacyjnymi. Dodatkowo, wiele firm implementuje zabezpieczenia, takie jak FTP Secure (FTPS) czy SSH File Transfer Protocol (SFTP), aby chronić dane podczas transmisji. W praktyce korzystanie z FTP jest kluczowe w środowiskach, gdzie wymagana jest efektywna wymiana plików w zespole lub z klientami.

Pytanie 10

Jakim poleceniem w systemie Linux można utworzyć nowych użytkowników?

A. useradd
B. net user
C. usersadd
D. usermod
Polecenie 'useradd' jest podstawowym narzędziem w systemach Linux do zakupu nowych użytkowników. Umożliwia ono administratorom systemu tworzenie kont użytkowników z określonymi atrybutami, takimi jak nazwa użytkownika, hasło, katalog domowy oraz powiązane grupy. W przeciwieństwie do 'usersadd', które jest literówką, 'useradd' jest standardowym poleceniem zgodnym z normami UNIX. Przykładowa komenda, aby dodać nowego użytkownika o nazwie 'janek', to 'sudo useradd janek'. Można także określić dodatkowe opcje, takie jak '-m' do utworzenia katalogu domowego lub '-s' do zdefiniowania domyślnej powłoki użytkownika. Dobre praktyki sugerują stosowanie opcji '-e' do ustalenia daty wygaśnięcia konta oraz '-G' do przypisania użytkownika do dodatkowych grup. Dzięki takim funkcjom, 'useradd' jest niezwykle elastycznym narzędziem, które pozwala na skuteczne zarządzanie użytkownikami w systemie. Zrozumienie jego działania jest kluczowe dla administracyjnych zadań w systemie Linux.

Pytanie 11

Który z podanych adresów protokołu IPv4 jest adresem klasy D?

A. 10.0.3.5
B. 239.255.203.1
C. 128.1.0.8
D. 191.12.0.18
Adres 239.255.203.1 należy do klasy D, która jest zarezerwowana dla multicastu w protokole IPv4. Klasa D obejmuje adresy od 224.0.0.0 do 239.255.255.255, co oznacza, że wszystkie adresy w tym zakresie są przeznaczone do przesyłania danych do grupy odbiorców, a nie do pojedynczego hosta. Przykłady zastosowania adresów klasy D obejmują transmisje wideo na żywo, gdzie wiele urządzeń może odbierać ten sam strumień danych, co pozwala na efektywne wykorzystanie pasma sieciowego. Multicast jest szczególnie użyteczny w aplikacjach takich jak IPTV, konferencje online oraz różne usługi strumieniowe, gdzie kluczowe jest dotarcie z tymi samymi danymi do wielu użytkowników jednocześnie. Standardy, takie jak RFC 4604, szczegółowo opisują funkcjonowanie multicastu oraz jego implementację w sieciach komputerowych, podkreślając wagę zarządzania adresowaniem i ruchem multicastowym dla optymalnej wydajności sieci.

Pytanie 12

Wskaż zdanie, które jest nieprawdziwe:

A. Stroną aktywną w architekturze klient-serwer jest strona klienta
B. Awaria węzła w topologii gwiazdy spowoduje zablokowanie sieci
C. Zaletą topologii pierścienia jest niewielkie zużycie kabla
D. IEEE 802.11 to określenie standardu Wireless LAN
Węzeł w topologii gwiazdy pełni kluczową rolę w zarządzaniu komunikacją w sieci. W tej topologii wszystkie urządzenia są podłączone do centralnego węzła, na przykład przełącznika (switch). Gdy dojdzie do awarii jednego z węzłów, np. komputera, inne urządzenia w sieci mogą dalej funkcjonować, ponieważ komunikacja przebiega przez centralny węzeł. W przeciwnym razie, w topologii pierścienia, awaria jednego węzła może zablokować całą sieć, ponieważ każda jednostka jest połączona z dwiema innymi, tworząc zamknięty cykl. Z tego powodu, ważne jest, aby projektować sieci tak, aby były one odporne na awarie, co można osiągnąć poprzez stosowanie redundantnych połączeń i urządzeń. W praktyce zaleca się także zastosowanie protokołów monitorujących, które mogą wykrywać awarie w czasie rzeczywistym oraz automatycznie przekierowywać ruch sieciowy, co zwiększa niezawodność i dostępność sieci.

Pytanie 13

W jakim gnieździe należy umieścić procesor INTEL CORE i3-4350- 3.60 GHz, x2/4, 4MB, 54W, HD 4600, BOX, s-1150?

Ilustracja do pytania
A. rys. B
B. rys. D
C. rys. A
D. rys. C
Procesor Intel Core i3-4350 wykorzystuje gniazdo LGA 1150 znane również jako Socket H3. Jest to standardowe gniazdo używane przez Intel dla mikroprocesorów z serii Haswell. Gniazdo LGA 1150 charakteryzuje się specyficznym wzorem pinów i mechanizmem zabezpieczającym który jest kluczowy dla prawidłowego umieszczenia i funkcjonowania procesora w płycie głównej. Wybór odpowiedniego gniazda jest kluczowy ponieważ tylko prawidłowe dopasowanie zapewnia bezpieczne połączenie elektryczne i optymalną wydajność. Standard LGA 1150 wspiera cechy takie jak zintegrowana grafika co jest ważne dla użytkowników chcących korzystać z wbudowanej karty graficznej procesora Intel HD Graphics 4600. Dodatkowo właściwe gniazdo zapewnia kompatybilność z systemami chłodzenia i innymi komponentami płyty głównej. Montaż w odpowiednim gnieździe minimalizuje ryzyko uszkodzeń fizycznych zarówno procesora jak i płyty co jest kluczowe dla zachowania stabilności systemu i długowieczności sprzętu.

Pytanie 14

Aby zmierzyć tłumienie światłowodowego łącza w dwóch zakresach długości fal 1310 nm i 1550 nm, należy zastosować

A. reflektometr TDR
B. rejestratora cyfrowego
C. miernika mocy optycznej
D. testera UTP
Reflektometr TDR (Time Domain Reflectometer) jest urządzeniem używanym do diagnostyki linii transmisyjnych, w tym kabli miedzianych, jednak nie jest odpowiedni do pomiarów w systemach światłowodowych. Działa na zasadzie wysyłania impulsu elektrycznego i analizy odbitych sygnałów, co pozwala na lokalizację usterek, ale nie jest w stanie zmierzyć tłumienia sygnału optycznego. W przypadku światłowodów, bardziej adekwatnym narzędziem byłby reflektometr OTDR (Optical Time Domain Reflectometer), który jest w stanie analizować sygnał optyczny. Rejestrator cyfrowy służy do zapisu danych, ale nie przeprowadza pomiarów mocy sygnału optycznego, przez co nie spełnia wymagań dotyczących testowania tłumienia. Tester UTP jest urządzeniem przeznaczonym do weryfikacji kabli miedzianych i nie ma zastosowania w pomiarach światłowodowych. Użytkownicy często popełniają błąd, myśląc, że narzędzia zaprojektowane do mediów miedzianych mogą być zastosowane w systemach światłowodowych, co kończy się nieprawidłowymi wynikami. Kluczowe jest zrozumienie specyfiki technologii światłowodowej oraz wybór odpowiednich narzędzi zgodnych z normami i dobrymi praktykami branżowymi, aby zapewnić prawidłowe pomiary i diagnostykę.

Pytanie 15

Wykonanie komendy dxdiag w systemie Windows pozwala na

A. kompresję wskazanych danych na dysku twardym
B. konfigurację klawiatury, aby była zgodna z wymaganiami języka polskiego
C. uruchomienie maszyny wirtualnej z systemem Windows 10 zainstalowanym
D. uruchomienie narzędzia diagnostycznego DirectX
Wykonanie polecenia dxdiag w systemie Windows uruchamia narzędzie diagnostyczne DirectX, które jest kluczowym elementem do analizy i rozwiązywania problemów związanych z grafiką oraz dźwiękiem w systemie. Narzędzie to umożliwia użytkownikom zbieranie informacji na temat zainstalowanych komponentów sprzętowych, takich jak karty graficzne, dźwiękowe oraz sterowniki. Dzięki temu można szybko zidentyfikować potencjalne problemy z wydajnością lub zgodnością z oprogramowaniem. Przykładowo, gdy użytkownik doświadcza problemów z uruchomieniem gry, uruchomienie dxdiag pozwala sprawdzić, czy sterowniki graficzne są aktualne oraz czy sprzęt spełnia minimalne wymagania. To narzędzie jest również użyteczne dla programistów, którzy chcą zrozumieć, jak ich aplikacje działają na różnych konfiguracjach sprzętowych, zapewniając zgodność i optymalizację. W branży gier i multimediów, regularne korzystanie z dxdiag jest praktyką zalecaną, aby zapewnić, że system jest zawsze w optymalnym stanie operacyjnym, co wpisuje się w standardy zarządzania jakością oprogramowania.

Pytanie 16

Jakie narzędzie chroni komputer przed niechcianym oprogramowaniem pochodzącym z sieci?

A. Program antywirusowy
B. Protokół SSL
C. Program sniffer
D. Protokół HTTPS
Program antywirusowy jest kluczowym narzędziem w ochronie komputerów przed złośliwym oprogramowaniem, które często pochodzi z Internetu. Jego głównym zadaniem jest skanowanie, wykrywanie oraz usuwanie wirusów, robaków, trojanów i innych form malware'u. Dzięki wykorzystaniu sygnatur wirusów oraz technologii heurystycznych, programy antywirusowe są w stanie identyfikować nowe zagrożenia, co jest niezbędne w dzisiejszym szybko zmieniającym się środowisku cyfrowym. Przykładowo, wiele rozwiązań antywirusowych oferuje także zabezpieczenia w czasie rzeczywistym, co oznacza, że monitorują oni aktywność systemu i plików w momencie ich użycia, co znacząco zwiększa poziom ochrony. Rekomendowane jest regularne aktualizowanie bazy sygnatur, aby program mógł skutecznie rozpoznawać najnowsze zagrożenia. Ponadto, dobre praktyki zalecają użytkownikom korzystanie z dodatkowych warstw zabezpieczeń, takich jak zapory ogniowe, które współpracują z oprogramowaniem antywirusowym, tworząc kompleksowy system ochrony. Warto również pamiętać o regularnym wykonywaniu kopii zapasowych danych, co w przypadku infekcji pozwala na ich odzyskanie.

Pytanie 17

Które wbudowane narzędzie systemu Windows pozwala rozwiązywać problemy z błędnymi sektorami i integralnością plików?

A. oczyszczanie dysku.
B. optymalizowanie dysków.
C. diskpart
D. chkdsk
Prawidłowo wskazałeś narzędzie chkdsk, które w systemie Windows jest klasycznym, wbudowanym mechanizmem do sprawdzania spójności systemu plików oraz wykrywania uszkodzonych sektorów na dysku. To polecenie analizuje strukturę logiczną woluminu (NTFS, dawniej też FAT32), czyli katalogi, wpisy MFT, alokację klastrów, a także może próbować oznaczać fizycznie uszkodzone sektory jako „bad sectors”, żeby system ich później nie używał. W praktyce, gdy użytkownik ma problem typu: „dysk dziwnie mieli”, „pliki znikają lub są uszkodzone”, „system zgłasza błędy odczytu/zapisu”, to jednym z pierwszych kroków diagnostycznych według dobrych praktyk administracji Windows jest właśnie uruchomienie chkdsk z odpowiednimi przełącznikami, np. chkdsk C: /f /r. Parametr /f naprawia błędy systemu plików, a /r dodatkowo wyszukuje uszkodzone sektory i próbuje odzyskać możliwe do odczytania dane. Moim zdaniem warto pamiętać, że chkdsk działa na poziomie logicznej struktury dysku, więc uzupełnia narzędzia firmware’owe producenta dysku i S.M.A.R.T., a nie je zastępuje. W środowiskach produkcyjnych i serwerowych wykorzystuje się go ostrożnie, najlepiej po wykonaniu kopii zapasowej, bo każda operacja naprawcza na systemie plików wiąże się z ryzykiem utraty części danych. Dobrą praktyką jest też uruchamianie chkdsk nie „na żywym” systemie, tylko podczas restartu, żeby wolumin nie był aktywnie używany. W administracji Windows przyjęło się, że przy podejrzeniu problemów z integralnością danych, spójnością katalogów lub po nieprawidłowym wyłączeniu zasilania, chkdsk jest jednym z podstawowych i najprostszych narzędzi pierwszej linii diagnostyki. To takie trochę „must know” dla każdego technika systemowego.

Pytanie 18

Jaką topologię fizyczną sieci komputerowej przedstawia rysunek?

Ilustracja do pytania
A. Gwiazd
B. Pierścienia
C. Magistrali
D. Siatki
Topologia siatki jest jedną z najbardziej rozbudowanych form organizacji sieci komputerowych. Charakteryzuje się tym, że każdy węzeł sieci jest połączony bezpośrednio z wieloma innymi węzłami, co zapewnia wysoki poziom redundancji i niezawodności. Dzięki temu, w przypadku awarii jednego z połączeń lub urządzeń, dane mogą być przesyłane alternatywnymi trasami, co zwiększa odporność sieci na uszkodzenia. Topologia siatki jest często stosowana w środowiskach, gdzie niezawodność i dostępność sieci są krytyczne, na przykład w centrach danych czy sieciach operatorskich. Standardy takie jak IEEE 802.11s definiują sposób wdrażania topologii siatki w sieciach bezprzewodowych, co umożliwia tworzenie rozległych, samokonfigurowalnych sieci. W praktyce, mimo że topologia ta wiąże się z wyższymi kosztami związanymi z większą liczbą połączeń i skomplikowaną konfiguracją, oferuje niezrównane korzyści w kontekście wydajności i niezawodności, które często przeważają nad wadami, szczególnie w krytycznych aplikacjach biznesowych.

Pytanie 19

W systemie Linux komenda chown pozwala na

A. zmianę parametrów pliku
B. przeniesienie pliku
C. zmianę właściciela pliku
D. naprawę systemu plików
Polecenie chown (change owner) w systemie Linux służy do zmiany właściciela pliku lub katalogu. Właściciel pliku ma prawo do zarządzania nim, co obejmuje możliwość jego edytowania, przesuwania czy usuwania. W praktyce, polecenie to jest kluczowe w kontekście zarządzania uprawnieniami w systemach wieloużytkownikowych, gdzie różni użytkownicy mogą potrzebować dostępu do różnych zasobów. Na przykład, aby zmienić właściciela pliku na użytkownika 'janek', użyjemy polecenia: `chown janek plik.txt`. Ważne jest, aby użytkownik wykonujący to polecenie miał odpowiednie uprawnienia, najczęściej wymaga to posiadania roli administratora (root). Zmiana właściciela pliku jest również stosowana w przypadku przenoszenia plików pomiędzy różnymi użytkownikami, co pozwala na odpowiednią kontrolę nad danymi. W kontekście bezpieczeństwa IT, właściwe zarządzanie właścicielami plików jest istotne dla ochrony danych i zapobiegania nieautoryzowanemu dostępowi.

Pytanie 20

W systemie serwerowym Windows widoczny jest zakres adresów IPv4. Ikona umieszczona obok jego nazwy sugeruje, że

Ilustracja do pytania
A. ten zakres jest aktywny
B. pula adresów w tym zakresie jest prawie w pełni wyczerpana
C. ten zakres jest nieaktywny
D. pula adresów w tym zakresie została wyczerpana całkowicie
Zakres adresów IP w systemie serwerowym Windows przy opisywanej ikonie jest nieaktywny co oznacza że serwer nie przydziela adresów IP z tej puli. Przekonanie że zakres jest aktywny wynika często z niewłaściwego zrozumienia ikon i interfejsów użytkownika. Jest to typowy błąd wynikający z założenia że wszystkie widoczne elementy w interfejsie są aktywne co nie zawsze jest zgodne z rzeczywistością. Zakładając że pula jest wyczerpana w 100% może wynikać z niedostatecznej analizy sytuacji. Taki stan byłby sygnalizowany innymi wskaźnikami a nie wyłącznie ikoną sugerującą nieaktywność. Użytkownicy mogą mylnie identyfikować problemy z dostępnością adresów zamiast sprawdzać stan aktywności zakresu i jego konfigurację. Myślenie że pula jest bliska wyczerpania również odzwierciedla niedostateczne rozumienie mechanizmów zarządzania DHCP. Właściwa interpretacja ikon i wskaźników pozwala na efektywne zarządzanie zasobami sieciowymi i unikanie błędów które mogą skutkować przestojami w pracy sieci. Poprawna analiza wymaga zarówno teoretycznej wiedzy jak i praktycznego doświadczenia w administracji serwerami co jest kluczowe dla utrzymania sprawnie działającej infrastruktury IT. Zrozumienie kiedy i dlaczego zakresy są aktywne lub nieaktywne jest fundamentem skutecznego zarządzania DHCP i zapewnienia ciągłości działania sieci komputerowej.

Pytanie 21

Zestaw komputerowy, który został przedstawiony, jest niepełny. Który z elementów nie został wymieniony w tabeli, a jest kluczowy dla prawidłowego funkcjonowania zestawu?

Lp.Nazwa podzespołu
1.Zalman Obudowa R1 Midi Tower bez PSU, USB 3.0
2.Gigabyte GA-H110M-S2H, Realtek ALC887, DualDDR4-2133, SATA3, HDMI, DVI, D-Sub, LGA1151, mATX
3.Intel Core i5-6400, Quad Core, 2.70GHz, 6MB, LGA1151, 14nm, 65W, Intel HD Graphics, VGA, BOX
4.Patriot Signature DDR4 2x4GB 2133MHz
5.Seagate BarraCuda, 3.5", 1TB, SATA/600, 7200RPM, 64MB cache
6.LG SuperMulti SATA DVD+/-R24x,DVD+RW6x,DVD+R DL 8x, bare bulk (czarny)
7.Gembird Bezprzewodowy Zestaw Klawiatura i Mysz
8.Monitor Iiyama E2083HSD-B1 19.5inch, TN, HD+, DVI, głośniki
9.Microsoft OEM Win Home 10 64Bit Polish 1pk DVD
A. Zasilacz
B. Karta graficzna
C. Wentylator procesora
D. Pamięć RAM
Zestaw komputerowy wymaga do swojego działania kilku kluczowych komponentów, ale nie wszystkie elementy są równie niezbędne w podstawowej konfiguracji. Pamięć RAM, choć istotna dla wydajności systemu, nie jest elementem, który można pominąć w kontekście podstawowego uruchomienia komputera. Podobnie, karta graficzna jest wymagana tylko w sytuacjach, gdy komputer jest używany do zaawansowanych aplikacji graficznych lub gier, ale większość nowoczesnych procesorów posiada zintegrowane układy graficzne, które pozwalają na podstawowe użycie komputera. Wentylator procesora, choć zalecany, szczególnie dla utrzymania optymalnej temperatury procesora i zapewnienia jego długowieczności, nie jest absolutnie niezbędny do samego uruchomienia systemu komputerowego, pod warunkiem, że procesor nie osiągnie krytycznych temperatur. Typowy błąd myślowy polega na nieświadomym ignorowaniu roli zasilacza, ponieważ jest on mniej widoczny na poziomie użytkownika niż na przykład karta graficzna czy układ chłodzenia. Zasilacz jest jednak nieodzowny, ponieważ bez niego żaden inny komponent nie będzie mógł działać. To on zasila komputer, dostarczając niezbędną energię do funkcjonowania wszystkich komponentów, a jego brak uniemożliwia jakiekolwiek operacje, nawet te najbardziej podstawowe, jak uruchomienie systemu operacyjnego.

Pytanie 22

Jakie napięcie jest dostarczane przez płytę główną do pamięci typu SDRAM DDR3?

A. 1,5V
B. 2,5V
C. 1,2V
D. 3,3V
Odpowiedź 1,5V jest prawidłowa, ponieważ pamięci SDRAM DDR3 są zaprojektowane do pracy przy napięciu zasilania wynoszącym właśnie 1,5V. To napięcie jest kluczowe dla zapewnienia odpowiedniej wydajności oraz stabilności operacyjnej tych modułów pamięci. Pamięci DDR3 w porównaniu do wcześniejszych standardów, takich jak DDR2, charakteryzują się zmniejszonym napięciem, co pozwala na niższe zużycie energii oraz mniejsze wydzielanie ciepła. Przykładowo, przy pracy w aplikacjach wymagających intensywnego przetwarzania danych, jak w grach komputerowych czy obliczeniach inżynieryjnych, niższe napięcie przyczynia się do zwiększenia efektywności energetycznej systemu. Dodatkowo, standardy JEDEC definiują specyfikacje dla różnych typów pamięci, a DDR3 jest jednym z najczęściej stosowanych w nowoczesnych systemach komputerowych. Zastosowanie odpowiedniego napięcia zasilania jest kluczowe dla uniknięcia problemów z kompatybilnością, co jest szczególnie ważne w środowiskach o dużej różnorodności sprzętowej.

Pytanie 23

Gdzie w dokumencie tekstowym Word umieszczony jest nagłówek oraz stopka?

A. Nagłówek jest umieszczony na dolnym marginesie, a stopka na górnym marginesie
B. Na stronach parzystych dokumentu
C. Nagłówek występuje na początku dokumentu, a stopka na końcu dokumentu
D. Nagłówek znajduje się na górnym marginesie, a stopka na dolnym marginesie
Nagłówek i stopka w dokumencie tekstowym Word odgrywają kluczową rolę w organizacji treści oraz w estetyce dokumentów. Nagłówek, umieszczany na górnym marginesie, pozwala na umieszczenie istotnych informacji, takich jak tytuł dokumentu, nazwa autora czy numer strony. Dzięki temu czytelnik ma łatwy dostęp do kontekstu całego dokumentu, co jest szczególnie przydatne w dłuższych publikacjach, takich jak raporty czy prace naukowe. Z kolei stopka, umieszczana na dolnym marginesie, często zawiera dane kontaktowe, numery stron lub jakiekolwiek dodatkowe notatki, które mogą być istotne dla odbiorcy. Ważne jest, aby dobrze zorganizować te elementy zgodnie z zasadami typografii i dostosować je do stylu dokumentu, co zwiększa jego profesjonalny wygląd oraz czytelność. Dobrą praktyką jest również stosowanie odpowiednich formatów i rozmiarów czcionek, a także unikanie nadmiaru informacji, co może prowadzić do chaosu wizualnego.

Pytanie 24

Które polecenie pozwala na mapowanie zasobów sieciowych w systemie Windows Serwer?

A. net use
B. network
C. net map
D. net add
Polecenie 'net use' jest kluczowym narzędziem w systemach Windows Server, służącym do mapowania zasobów sieciowych, co umożliwia użytkownikom tworzenie i zarządzanie połączeniami z zasobami udostępnionymi w sieci, takimi jak foldery i drukarki. Dzięki temu poleceniu można przypisać literę dysku do zdalnego zasobu, co ułatwia dostęp i zarządzanie plikami. Przykładowo, używając 'net use Z: \serwer older', przypisujesz literę 'Z:' do zdalnego folderu, co pozwala na łatwiejszą nawigację w eksploratorze plików. Ponadto, 'net use' zapewnia możliwość autoryzacji przy użyciu określonego użytkownika i hasła, co jest zgodne z najlepszymi praktykami bezpieczeństwa, umożliwiając kontrolę dostępu do wrażliwych danych. Warto również zaznaczyć, że polecenie to jest często wykorzystywane w skryptach do automatyzacji procesów, co zwiększa efektywność zarządzania infrastrukturą IT.

Pytanie 25

Do wykonania końcówek kabla UTP wykorzystuje się wtyczkę

A. BNC
B. RS232
C. 8P8C
D. DVI
Wtyk 8P8C, znany również jako RJ-45, jest standardowym złączem stosowanym w kablach UTP (Unshielded Twisted Pair), które służą do transmisji danych w sieciach komputerowych. Dzięki swojej konstrukcji, 8P8C umożliwia podłączenie do ośmiu żył, co jest kluczowe dla wydajnej komunikacji w sieciach Ethernet, które obsługują różne prędkości, takie jak 10/100/1000 Mbps. Złącze to jest zgodne z normami T568A i T568B, które określają sposób okablowania żył w kablu, co ma istotne znaczenie dla uzyskania prawidłowej transmisji sygnału i eliminacji potencjalnych zakłóceń. Użycie 8P8C jest powszechne w różnych zastosowaniach, od domowych sieci lokalnych po rozbudowane systemy w przedsiębiorstwach. Posiadanie wiedzy na temat wtyku 8P8C i zasad jego użycia jest niezbędne dla każdego specjalisty zajmującego się instalacjami sieciowymi, ponieważ zapewnia to trwałość i niezawodność połączeń w sieci.

Pytanie 26

Wskaż adresy podsieci, które powstaną po podziale sieci o adresie 172.16.0.0/22 na 4 równe podsieci.

A. 172.16.0.0, 172.16.3.0, 172.16.7.0, 172.16.11.0
B. 172.16.0.0, 172.16.7.0, 172.16.15.0, 172.16.23.0
C. 172.16.0.0, 172.16.1.0, 172.16.2.0, 172.16.3.0
D. 172.16.0.0, 172.16.31.0, 172.16.63.0, 172.16.129.0
Żeby dobrze zrozumieć, dlaczego pozostałe zestawy adresów są niepoprawne, warto wrócić do podstawowego mechanizmu podziału sieci w CIDR. Adres 172.16.0.0/22 oznacza maskę 255.255.252.0, czyli zakres od 172.16.0.0 do 172.16.3.255. To jest jedna ciągła sieć o rozmiarze 1024 adresów IP. Podział na 4 równe podsieci oznacza, że każda podsieć musi mieć dokładnie 1024 / 4 = 256 adresów. A 256 adresów odpowiada masce /24 (255.255.255.0). To jest kluczowy punkt, który często jest pomijany. Typowym błędem jest patrzenie tylko na przyrost w trzecim oktecie i dobieranie go „na oko”, bez powiązania z maską. W błędnych odpowiedziach widać skoki o 3, 7, 11, 15, 23, 31, 63 czy nawet 129 w trzecim oktecie. Takie wartości nie wynikają z rozmiaru pierwotnej sieci /22. Dla sieci 172.16.0.0/22 kolejne podsieci muszą się mieścić w tym jednym bloku od 172.16.0.0 do 172.16.3.255. Jeżeli jakaś „podsiec” zaczyna się np. od 172.16.7.0 czy 172.16.15.0, to oznacza to już zupełnie inne zakresy, wykraczające poza pierwotną sieć. To jest niezgodne z ideą dzielenia konkretnej sieci, bo wtedy nie dzielimy 172.16.0.0/22, tylko mieszamy różne, niezależne bloki adresowe. Kolejna pułapka polega na myleniu rozmiaru bloku z przyrostem w trzecim oktecie. Dla maski /22 rozmiar bloku w trzecim oktecie to 4 (bo 252 w masce to 256 − 4). To oznacza, że sieci /22 zaczynają się co 4 w trzecim oktecie: 172.16.0.0/22, 172.16.4.0/22, 172.16.8.0/22 itd. Jeśli ktoś zaczyna wyliczać podsieci używając skoków 3, 7, 15, 31, to najczęściej myli właśnie ten mechanizm – próbuje zgadywać zamiast policzyć rozmiar podsieci i dobrać właściwą maskę. Z mojego doświadczenia częstym błędem jest też ignorowanie faktu, że podsieci po podziale muszą się idealnie pokrywać z oryginalnym zakresem, bez „dziur” i bez wychodzenia poza niego. Czyli początek pierwszej podsieci musi być równy adresowi sieci wyjściowej (tu 172.16.0.0), a ostatnia podsieć musi kończyć się dokładnie na końcu zakresu (tu 172.16.3.255). Jeżeli jakieś zaproponowane adresy sieci sugerują większy zakres, np. sięgający do 172.16.255.255, albo zaczynający się dużo dalej niż 172.16.0.0, to znaczy, że nie jest to poprawny podział tej konkretnej sieci /22. Dobra praktyka w projektowaniu sieci jest taka, żeby zawsze najpierw policzyć: ile hostów lub podsieci potrzebujesz, jaka maska to obsłuży, jaki będzie rozmiar bloku i dopiero wtedy wyznaczać adresy sieci. Unikanie zgadywania i trzymanie się matematyki binarnej i standardów CIDR bardzo ogranicza tego typu błędy i pozwala budować spójną, skalowalną i łatwą w zarządzaniu adresację IP.

Pytanie 27

Thunderbolt to interfejs

A. równoległy, dwukanałowy, dwukierunkowy, bezprzewodowy.
B. szeregowy, dwukanałowy, dwukierunkowy, przewodowy.
C. równoległy, asynchroniczny, przewodowy.
D. szeregowy, asynchroniczny, bezprzewodowy.
Thunderbolt to naprawdę ciekawe rozwiązanie, które łączy w sobie kilka bardzo nowoczesnych technologii transmisji danych. Właśnie dlatego odpowiedź szeregowy, dwukanałowy, dwukierunkowy, przewodowy jest tutaj prawidłowa. Thunderbolt bazuje na transmisji szeregowej, co pozwala osiągać ogromne prędkości – w nowszych wersjach nawet do 40 Gb/s! Szeregowość jest tu kluczowa, bo właśnie dlatego kabel Thunderbolt może być taki cienki i elastyczny, a mimo to przesyłać tak dużo informacji. Dwukanałowość – to w praktyce znaczy, że przez jeden kabel idą dwa niezależne strumienie danych, co umożliwia np. jednoczesne przesyłanie obrazu i danych albo obsługę kilku urządzeń naraz. Dwukierunkowość (czyli full-duplex) zapewnia, że dane mogą płynąć w obie strony jednocześnie, więc np. możesz jednocześnie korzystać z szybkiego dysku zewnętrznego i przesyłać obraz na monitor. No i przewodowość – tu nie ma miejsca na pomyłkę, Thunderbolt używa specjalnych kabli, a nie komunikacji bezprzewodowej. Moim zdaniem Thunderbolt to taki trochę szwajcarski scyzoryk jeśli chodzi o połączenia komputerowe – podpięcie monitora 4K, dysku SSD i ładowanie laptopa przez jeden kabel to już codzienność w wielu firmach i na uczelniach. Standard ten jest zgodny z dobrymi praktykami branżowymi – stawia na uniwersalność, wysoką przepustowość i niezawodność fizycznych połączeń. Warto też wiedzieć, że w nowszych wersjach Thunderbolt wykorzystuje się złącze USB-C, co jeszcze bardziej zwiększa kompatybilność. W praktyce, jeśli ktoś pracuje z dużą ilością danych, montuje wideo czy korzysta z profesjonalnych stanowisk graficznych, to Thunderbolt jest wręcz nieoceniony. Sam miałem okazję podpiąć kilka monitorów i dysków do MacBooka – wszystko śmigało na jednej wtyczce. To właśnie pokazuje siłę nowoczesnych, przewodowych interfejsów szeregowych, takich jak Thunderbolt.

Pytanie 28

Które z kont nie jest standardowym w Windows XP?

A. admin
B. asystent
C. użytkownik gość
D. administrator
Wybór konta 'gość', 'pomocnik' lub 'administrator' jako nie-wbudowanego w systemie Windows XP jest niepoprawny, ponieważ wszystkie te konta są integralną częścią tego systemu operacyjnego. Konto 'gość' to konto z ograniczonymi uprawnieniami, które pozwala na dostęp do systemu bez konieczności posiadania pełnego konta użytkownika. Konto 'administrator' jest kluczowe, ponieważ zapewnia pełny dostęp do zasobów systemowych oraz możliwość zarządzania innymi kontami użytkowników. Konto 'pomocnik' jest wykorzystywane do wsparcia technicznego i również jest wbudowane. Błędem jest myślenie, że 'admin' to standardowe konto w Windows XP; w rzeczywistości, system stosuje termin 'administrator' maksymalnie. Tego rodzaju pomyłki mogą wynikać z nieznajomości dokumentacji technicznej lub faktu, że wiele osób korzysta z różnych wersji systemów operacyjnych, które mogą mieć różne domyślne konta użytkowników. W praktyce, zrozumienie struktury kont użytkowników w systemie operacyjnym jest kluczowe dla administratorów, aby móc efektywnie zabezpieczać system oraz zarządzać dostępem do zasobów. Dlatego ważne jest, aby zdobywać wiedzę na temat uprawnień użytkowników i najlepszych praktyk w zakresie zarządzania kontami, co w znaczący sposób wpływa na bezpieczeństwo i stabilność całego środowiska IT.

Pytanie 29

W dokumentacji technicznej procesora producent umieścił wyniki testu, który został wykonany przy użyciu programu CPU-Z. Z tych danych wynika, że procesor dysponuje

Ilustracja do pytania
A. 2 rdzenie
B. 5 rdzeni
C. 6 rdzeni
D. 4 rdzenie
Procesor o 2 rdzeniach, jak wynika z opisu, jest odpowiedni dla podstawowych zastosowań, takich jak przeglądanie internetu, praca biurowa czy oglądanie multimediów. Takie procesory charakteryzują się mniejszym poborem mocy i niższą emisją ciepła, co jest korzystne dla dłuższej pracy na baterii w laptopach. W kontekście standardów i praktyk branżowych, procesory dwurdzeniowe są często stosowane w urządzeniach, które nie wymagają wysokiej wydajności, ale potrzebują niezawodności i stabilności pracy. Warto dodać, że technologie stosowane w nowoczesnych procesorach, takie jak Intel Hyper-Threading, mogą wirtualnie zwiększać liczbę rdzeni, co poprawia wydajność w aplikacjach wielowątkowych. Jednak fizycznie nadal mamy do czynienia z dwoma rdzeniami. Dla aplikacji zoptymalizowanych do pracy wielowątkowej, liczba rdzeni jest kluczowym parametrem, wpływającym na efektywność przetwarzania danych. Właściwy dobór procesora do konkretnych zadań jest istotny w branży IT, aby zapewnić optymalną wydajność przy jednoczesnym zachowaniu efektywności energetycznej.

Pytanie 30

Ikona z wykrzyknikiem, pokazana na ilustracji, która pojawia się obok nazwy sprzętu w Menedżerze urządzeń, wskazuje, że to urządzenie

Ilustracja do pytania
A. zainstalowane na nim sterowniki są w nowszej wersji
B. nie działa poprawnie
C. zostało dezaktywowane
D. działa prawidłowo
Ikona z wykrzyknikiem przy nazwie urządzenia w Menedżerze urządzeń oznacza, że urządzenie to nie działa poprawnie. Oznaczenie to jest sygnałem, że system operacyjny wykrył problem z urządzeniem, który najczęściej wynika z nieprawidłowo zainstalowanych sterowników lub braku kompatybilności sprzętowej. W praktyce, aby rozwiązać ten problem, należy sprawdzić czy zainstalowane sterowniki są aktualne oraz zgodne z wersją systemu operacyjnego. Często pomocne jest pobranie najnowszych sterowników ze strony producenta urządzenia, które mogą zawierać poprawki błędów lub nowe funkcje poprawiające wydajność i stabilność sprzętu. Ważne jest również upewnienie się, że wszystkie podzespoły komputera są odpowiednio podłączone i spełniają wymagania systemowe. W kontekście dobrych praktyk branżowych, regularne monitorowanie i aktualizacja sterowników jest kluczowe dla utrzymania optymalnej wydajności i długowieczności sprzętu komputerowego. Zarządzanie sterownikami zgodnie z polityką bezpieczeństwa IT zapewnia nie tylko poprawną funkcjonalność urządzeń, ale również minimalizuje ryzyko podatności na ataki wynikające z luk w oprogramowaniu. Dlatego świadomość i umiejętność identyfikacji takich problemów jest fundamentalna dla każdego specjalisty IT.

Pytanie 31

Który z profili w systemie Windows umożliwia migrację ustawień konta pomiędzy stacjami roboczymi?

A. Mobilny.
B. Lokalny.
C. Rozproszony.
D. Globalny.
W systemach Windows pojęcie profilu użytkownika jest ściśle zdefiniowane i wynika z architektury systemu oraz sposobu zarządzania kontami w środowisku domenowym. Typowy błąd polega na mieszaniu potocznych określeń z faktycznymi rodzajami profili obsługiwanych przez Windows. Profil lokalny istnieje tylko na danej stacji roboczej – wszystkie ustawienia, pulpit, dokumenty, lokalne dane aplikacji są zapisane na dysku tego konkretnego komputera. Jeśli użytkownik zaloguje się na innym komputerze, tworzony jest tam nowy, niezależny profil. Taki profil nie służy do migracji ustawień między stacjami, choć można go ręcznie kopiować narzędziami administratora, ale to już zupełnie inny proces niż automatyczna migracja. Pojęcia „globalny” czy „rozproszony” nie występują jako oficjalne typy profili użytkownika w Windows. Czasem komuś kojarzy się „globalny” z kontem domenowym, bo jest widoczne w całej domenie, ale to dotyczy konta w Active Directory, a nie samego profilu użytkownika. Konto domenowe może mieć nadal profil lokalny, jeśli administrator nie skonfiguruje profilu mobilnego lub innego mechanizmu, jak przekierowanie folderów. Z kolei słowo „rozproszony” bywa mylone z architekturą rozproszoną usług czy z replikacją między serwerami, ale to zupełnie inny obszar niż profile użytkowników. W praktyce w środowisku Windows mamy przede wszystkim profil lokalny, mobilny (roaming) i czasem obowiązkowy (mandatory), który jest tylko do odczytu. Migracja ustawień między stacjami roboczymi w sposób zautomatyzowany i przejrzysty dla użytkownika jest domeną właśnie profilu mobilnego, skonfigurowanego w domenie i wskazanego do przechowywania na serwerze plików. Błędne odpowiedzi wynikają często z intuicyjnego rozumienia nazw, a nie z faktycznej znajomości sposobu działania systemu Windows i standardów administracji domeną.

Pytanie 32

Czym jest skrót MAN w kontekście sieci?

A. lokalną
B. rozległą
C. miejską
D. bezprzewodową
Odpowiedzi sugerujące, że skrót MAN odnosi się do sieci bezprzewodowej, rozległej lub lokalnej, opierają się na niepełnym zrozumieniu terminów i koncepcji związanych z infrastrukturą sieciową. Sieci bezprzewodowe, takie jak WLAN (Wireless Local Area Network), są ukierunkowane na lokalne połączenia, wykorzystując fale radiowe do komunikacji, co różni się od założenia MAN, które koncentruje się na większym obszarze, obejmującym wiele lokalnych sieci. Z kolei sieci rozległe (WAN) zajmują się łącznością na znacznie większym obszarze, często obejmującym różne miasta czy państwa, co także nie jest celem MAN. Sieci lokalne (LAN) natomiast są ograniczone do niewielkiego obszaru, takiego jak jedno biuro czy budynek, co również nie pasuje do definicji MAN. W skutek tego, można zauważyć, że pomyłki w zrozumieniu tych terminów mogą prowadzić do sytuacji, w których użytkownicy mylnie klasyfikują różne typy sieci. MAN pełni kluczową rolę w integracji i synchronizacji danych w obrębie obszarów miejskich, co czyni go istotnym elementem nowoczesnych systemów telekomunikacyjnych. Zrozumienie różnic między tymi typami sieci jest niezbędne do właściwego ich zastosowania oraz do efektywnej budowy infrastruktury telekomunikacyjnej. W praktyce, wiedza ta ma olbrzymie znaczenie, szczególnie w kontekście projektowania i zarządzania sieciami w obszarze miejskim, co jest zgodne z normami i standardami branżowymi.

Pytanie 33

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 16 GB.
B. 1 modułu 32 GB.
C. 2 modułów, każdy po 8 GB.
D. 1 modułu 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 34

Dysk znajdujący się w komputerze ma zostać podzielony na partycje. Jaką maksymalną liczbę partycji rozszerzonych można utworzyć na jednym dysku?

A. 1
B. 3
C. 4
D. 2
Dobra robota! Odpowiedź, którą wybrałeś, jest jak najbardziej trafna. Zgodnie z zasadami MBR (Master Boot Record) można mieć tylko jedną partycję rozszerzoną na dysku. To taka partycja, która pozwala na stworzenie wielu partycji logicznych w jej obrębie. W praktyce oznacza to, że na jednym dysku możesz mieć do 4 partycji podstawowych, albo jedną partycję rozszerzoną, w której można zrobić więcej partycji logicznych. Ułatwia to zarządzanie przestrzenią dyskową i pozwala lepiej organizować dane. Fajnie jest dzielić różne pliki na partycjach logicznych, bo to później bardzo pomocne przy robieniu backupów czy przywracaniu systemu. Ważne jest, żebyś nie mylił partycji podstawowych z rozszerzonymi, bo mają one zupełnie różne zadania i zastosowanie w strukturze dysku.

Pytanie 35

W dokumentacji powykonawczej dotyczącej fizycznej oraz logicznej struktury sieci lokalnej powinny być zawarte

A. schemat sieci z wyróżnionymi punktami dystrybucji i gniazdami
B. plan prac realizacyjnych
C. umowa pomiędzy zlecającym a wykonawcą
D. wstępny kosztorys materiałów oraz robocizny
Dokumentacja powykonawcza sieci lokalnej powinna być kompleksowa i dokładna, jednak niektóre z wymienionych elementów są nieadekwatne w kontekście specyfikacji, które powinny znaleźć się w takim dokumencie. Harmonogram prac wykonawczych, mimo że istotny dla zarządzania projektem, nie jest elementem, który powinien być częścią dokumentacji powykonawczej sieci. Jego rolą jest wyłącznie planowanie i organizacja prac, a nie szczegółowe przedstawienie struktury sieci. Podobnie umowa zlecającego pracę z wykonawcą, choć ma znaczenie prawne i organizacyjne, nie dostarcza informacji niezbędnych do zrozumienia i zarządzania siecią. W kontekście sieci lokalnych, istotniejsze jest posiadanie precyzyjnych danych dotyczących samej infrastruktury. Wstępny kosztorys materiałów i robocizny jest również mało przydatnym elementem w dokumentacji powykonawczej, gdyż ma głównie charakter szacunkowy, a nie operacyjny. Kluczowe w dokumentacji powykonawczej jest zrozumienie, że schemat sieci z oznaczeniem punktów dystrybucyjnych i gniazd jest niezbędny do przyszłego zarządzania i konserwacji infrastruktury. Brak tego elementu może prowadzić do trudności w diagnozowaniu problemów, co w dłuższym czasie może generować znaczne koszty operacyjne dla organizacji. Użytkownicy często popełniają błąd, myląc dokumentację projektową z dokumentacją powykonawczą, co podkreśla znaczenie zrozumienia ich różnicy w kontekście zarządzania siecią.

Pytanie 36

Cookie to plik

A. tekstowy, zapisujący dane dla konkretnej witryny sieci Web
B. graficzny, przechowujący zdjęcie witryny sieci Web
C. tekstowy, z którego korzystają wszystkie strony internetowe
D. graficzny, używany przez wszystkie strony internetowe
Cookie, znany również jako plik cookie, to tekstowy plik stworzony przez witrynę internetową, który przechowuje różne informacje związane z interakcjami użytkownika. Jest to kluczowy element w mechanizmie działania aplikacji webowych, pozwalający na personalizację doświadczeń użytkowników. Pliki cookie umożliwiają zapisywanie preferencji, takich jak język, lokalizacja, czy dane logowania, co umożliwia użytkownikom komfortowe korzystanie z witryn. Na przykład, gdy użytkownik loguje się na stronie e-commerce, jego dane logowania mogą być przechowywane w pliku cookie, co pozwala na automatyczne logowanie przy kolejnych wizytach. W kontekście bezpieczeństwa i prywatności, istotne jest, aby pliki cookie były odpowiednio zarządzane zgodnie z regulacjami, takimi jak RODO, które wymagają zgody użytkownika na ich przechowywanie i użycie. Dobre praktyki w zarządzaniu plikami cookie obejmują również stosowanie opcji 'same-site' oraz 'secure', które poprawiają bezpieczeństwo danych użytkowników.

Pytanie 37

Rodzajem złośliwego oprogramowania będącego programem rezydentnym, który działa, wykonując konkretną operację, nie powiela się przez sieć, a jedną z jego metod jest samoreplikacja aż do wyczerpania pamięci komputera, jest

A. Rootkit
B. Backdoor
C. Stealware
D. Wabbit
Wielu osobom rootkit, stealware czy backdoor wydają się pasować do opisu złośliwego oprogramowania, ale każda z tych kategorii ma swoje charakterystyczne cechy i działa zupełnie inaczej niż wabbit. Rootkit to w rzeczywistości złośliwy zestaw narzędzi służących do ukrywania obecności atakującego na zainfekowanym systemie – nie chodzi tu o samoreplikację czy wyczerpywanie pamięci, tylko raczej o długofalowe utrzymanie się w systemie i maskowanie innych szkodliwych procesów. Stealware, jak sama nazwa sugeruje, jest projektowane głównie po to, by wykradać dane lub przekierowywać środki, najczęściej przy pomocy manipulowania ruchem internetowym użytkownika. To złośliwe oprogramowanie jest raczej ciche i nie powoduje skokowego zużycia pamięci RAM czy przeciążenia procesora. Jeśli chodzi o backdoora, to mamy do czynienia z funkcją umożliwiającą pominięcie standardowych mechanizmów uwierzytelniania – backdoor pozwala atakującemu na dostęp do systemu, ale nie opiera się na masowej samoreplikacji i wyczerpywaniu zasobów sprzętowych. Moim zdaniem często powtarzanym błędem jest utożsamianie wszelkich poważniejszych objawów infekcji z rootkitami lub backdoorami, bo te określenia są popularne w mediach. Jednak w praktyce, jeśli widzimy objawy typowego wyczerpywania pamięci wskutek masowego namnażania się procesu, to należy pomyśleć właśnie o takich przypadkach jak wabbit. Standardy bezpieczeństwa, jak ISO/IEC 27002, zalecają, by analizować symptomy ataku z kilku perspektyw – nie tylko przez pryzmat wykradania danych lub zdalnej kontroli, ale też pod kątem anomalii w zarządzaniu zasobami systemowymi. W tej sytuacji, żadne z wymienionych błędnych odpowiedzi nie trafia w sedno mechanizmu działania złośliwego programu opisanego w pytaniu.

Pytanie 38

Liczba szesnastkowa 1E2F₍₁₆₎ zapisana w systemie ósemkowym ma postać

A. 74274
B. 17057
C. 7277
D. 7727
Wybrana odpowiedź jest jak najbardziej prawidłowa, bo liczba szesnastkowa 1E2F₍₁₆₎ rzeczywiście po konwersji do systemu ósemkowego przyjmuje postać 17057. Cały trik polega na poprawnym przejściu przez system dziesiętny lub bezpośrednim podziale każdej cyfry szesnastkowej na odpowiadające jej wartości binarne, a później zgrupowaniu tych bitów w trójki i konwersji do ósemkowego. Najpierw warto przeliczyć 1E2F₍₁₆₎ na binarny: 1 = 0001, E = 1110, 2 = 0010, F = 1111, co daje 0001 1110 0010 1111. Następnie grupujemy od końca po trzy bity: 001 111 000 101 111, czyli 1 7 0 5 7 w systemie ósemkowym. Stąd wynik 17057. W praktyce, taka umiejętność jest nieoceniona w pracy z mikrokontrolerami, układami FPGA i wszędzie tam, gdzie liczy się efektywna reprezentacja danych i szybkie przeliczanie między systemami liczbowymi. Z mojego doświadczenia, programiści, którzy swobodnie poruszają się między systemami binarnym, ósemkowym i szesnastkowym, radzą sobie lepiej przy odczycie dokumentacji sprzętowej czy analizie protokołów komunikacyjnych. Warto pamiętać, że w branży IT i elektronice konwersje te są na porządku dziennym i zgodnie ze standardami np. IEEE czy dokumentacją ARM, wymagana jest właśnie taka precyzyjna transformacja. Trochę to żmudne liczenie na piechotę, ale jak się człowiek nauczy automatycznie tak grupować bity, to już potem idzie jak z płatka. Ja też kiedyś się na tym wykładałem, więc rozumiem, że to nie jest takie oczywiste, ale praktyka czyni mistrza.

Pytanie 39

Na diagramie mikroprocesora blok wskazany strzałką pełni rolę

Ilustracja do pytania
A. przechowywania aktualnie przetwarzanej instrukcji
B. wykonywania operacji arytmetycznych i logicznych na liczbach
C. przetwarzania wskaźnika do następnej instrukcji programu
D. zapisywania kolejnych adresów pamięci zawierających rozkazy
W mikroprocesorze blok ALU (Arithmetic Logic Unit) jest odpowiedzialny za wykonywanie operacji arytmetycznych i logicznych na liczbach. Jest to kluczowy element jednostki wykonawczej procesora, który umożliwia realizację podstawowych działań matematycznych, takich jak dodawanie, odejmowanie, mnożenie i dzielenie. Oprócz operacji arytmetycznych ALU wykonuje także operacje logiczne, takie jak AND, OR, NOT oraz XOR, które są fundamentalne w procesach decyzyjnych i manipulacji danymi w systemie binarnym. Współczesne procesory mogą zawierać zaawansowane jednostki ALU, które pozwalają na równoległe przetwarzanie danych, co zwiększa ich wydajność i efektywność w realizacji złożonych algorytmów. Zastosowanie ALU obejmuje szeroko pojętą informatykę i przemysł technologiczny, od prostych kalkulacji w aplikacjach biurowych po skomplikowane obliczenia w symulacjach naukowych i grach komputerowych. W projektowaniu mikroprocesorów ALU jest projektowane z uwzględnieniem standardów takich jak IEEE dla operacji zmiennoprzecinkowych co gwarantuje dokładność i spójność obliczeń w różnych systemach komputerowych.

Pytanie 40

Jaki pakiet powinien zostać zainstalowany na serwerze Linux, aby umożliwić stacjom roboczym z systemem Windows dostęp do plików i drukarek udostępnianych przez ten serwer?

A. Samba
B. Proftpd
C. Vsftpd
D. Wine
Samba jest otwartoźródłowym oprogramowaniem, które implementuje protokoły SMB/CIFS, umożliwiając stacjom roboczym z systemem Windows dostęp do plików i drukarek udostępnianych na serwerach Linux. Dzięki Samba, użytkownicy mogą łatwo integrować środowiska Linux i Windows, co jest szczególnie istotne w heterogenicznych sieciach. Przykładowo, poprzez odpowiednią konfigurację Samby, organizacje mogą stworzyć centralne repozytoria plików, które będą dostępne zarówno dla użytkowników Windows, jak i Linux, co znacznie ułatwia współpracę oraz zapewnia efektywność zarządzania danymi. Dodatkowo, Samba wspiera autoryzację użytkowników i grup, co pozwala na precyzyjne kontrolowanie dostępu do zasobów. W branży IT, powszechną praktyką jest używanie Samby jako standardowego rozwiązania do integracji systemów operacyjnych, co zapewnia nie tylko łatwość w konfiguracji, ale również wysoką wydajność transferu plików i zabezpieczeń. Inwestycja w zrozumienie i wdrożenie Samby w infrastruktury IT przynosi długofalowe korzyści.