Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 17 kwietnia 2026 13:15
  • Data zakończenia: 17 kwietnia 2026 13:22

Egzamin zdany!

Wynik: 29/40 punktów (72,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Usterka przedstawiona na ilustracji, widoczna na monitorze komputera, nie może być spowodowana przez

Ilustracja do pytania
A. uszkodzenie modułów pamięci operacyjnej
B. przegrzanie karty graficznej
C. nieprawidłowe napięcie zasilacza
D. spalenie rdzenia lub pamięci karty graficznej po overclockingu
Przegrzewanie się karty graficznej może powodować różne dziwne artefakty na ekranie, bo generowanie grafiki 3D wymaga sporo mocy i ciepła. Jeśli chłodzenie karty jest za słabe albo powietrze krąży źle, to temperatura może wzrosnąć, co prowadzi do kłopotów z działaniem chipów graficznych i problemów z obrazem. Zasilacz to też sprawa kluczowa, bo jak napięcie jest złe, to może to wpłynąć na stabilność karty. Zasilacz z niewystarczającą mocą lub z uszkodzeniem może spowodować przeciążenia i wizualne problemy. Jak ktoś kręci rdzeń czy pamięć karty graficznej po overclockingu, to może dojść do błędów w wyświetlaniu, bo przekraczanie fabrycznych ograniczeń mocno obciąża komponenty i może je uszkodzić termicznie. Podsumowując, wszystkie te przyczyny, poza problemami z pamięcią RAM, są związane z kartą graficzną i jej działaniem, co skutkuje zakłóceniami w obrazie.

Pytanie 2

Zainstalowanie w komputerze wskazanej karty pozwoli na

Ilustracja do pytania
A. podłączenie dodatkowego urządzenia peryferyjnego, na przykład skanera lub plotera
B. rejestrację, przetwarzanie oraz odtwarzanie obrazu telewizyjnego
C. bezprzewodowe połączenie z siecią LAN przy użyciu interfejsu BNC
D. zwiększenie przepustowości magistrali komunikacyjnej w komputerze
Odpowiedź dotycząca rejestracji przetwarzania oraz odtwarzania obrazu telewizyjnego jest prawidłowa ponieważ karta przedstawiona na zdjęciu to karta telewizyjna często używana do odbioru sygnału telewizyjnego w komputerze. Tego typu karty pozwalają na dekodowanie analogowego sygnału telewizyjnego na cyfrowy format przetwarzany w komputerze co umożliwia oglądanie telewizji na ekranie monitora oraz nagrywanie programów TV. Karty takie obsługują różne standardy sygnału analogowego jak NTSC PAL i SECAM co umożliwia ich szerokie zastosowanie w różnych regionach świata. Montaż takiej karty w komputerze jest szczególnie przydatny w systemach do monitoringu wideo gdzie może służyć jako element do rejestracji obrazu z kamer przemysłowych. Dodatkowo karty te często oferują funkcje takie jak timeshifting pozwalające na zatrzymanie i przewijanie na żywo oglądanego programu. Stosowanie kart telewizyjnych w komputerach stacjonarnych jest praktyką umożliwiającą integrację wielu funkcji multimedialnych w jednym urządzeniu co jest wygodne dla użytkowników domowych oraz profesjonalistów zajmujących się edycją wideo.

Pytanie 3

Uruchomienie systemu Windows w trybie debugowania pozwala na

A. tworzenie pliku dziennika <i>LogWin.txt</i> podczas startu systemu.
B. zapobieganie ponownemu automatycznemu uruchamianiu systemu w przypadku wystąpienia błędu.
C. uruchomienie systemu z ostatnią poprawną konfiguracją.
D. eliminację błędów w działaniu systemu.
Wiele osób myli tryb debugowania z innymi opcjami uruchamiania systemu Windows, co nie jest niczym dziwnym, bo te tryby bywają podobnie nazwane i dostępne z tego samego menu. W rzeczywistości, tryb debugowania nie służy do uruchamiania komputera z ostatnią znaną, dobrą konfiguracją – od tego jest specjalna opcja w menu startowym (Ostatnia znana dobra konfiguracja), która pozwala powrócić do ustawień systemowych z ostatniego poprawnego rozruchu. Częstym błędem jest też myślenie, że tryb debugowania automatycznie generuje plik dziennika LogWin.txt. System Windows domyślnie nie tworzy tego typu pliku podczas startu w trybie debugowania – jeśli już, to logi takie jak ntbtlog.txt mogą powstawać w innych trybach diagnostycznych, np. podczas uruchamiania w trybie awaryjnym z rejestrowaniem zdarzeń. Następna kwestia: zapobieganie automatycznemu restartowi po błędzie. To osobna funkcja, którą można włączyć lub wyłączyć niezależnie od trybu debugowania, najczęściej przez zaawansowane ustawienia uruchamiania lub właściwości systemu – nie jest to tożsame z debugowaniem. Widać tu typowy błąd polegający na utożsamianiu różnych trybów uruchamiania systemu z funkcjami rozwiązywania problemów, a one mają konkretne przeznaczenie i działają innymi mechanizmami. Tryb debugowania to przede wszystkim narzędzie do śledzenia działania systemu na bardzo niskim poziomie, z myślą o tworzeniu, testowaniu lub naprawianiu sterowników czy jądra – nie rozwiązuje on automatycznie problemów użytkownika, tylko daje narzędzia do ich głębokiej analizy. Warto pamiętać, że w praktyce codziennej administracji systemami korzysta się z niego raczej sporadycznie, głównie w przypadku poważnych problemów lub prac rozwojowych.

Pytanie 4

Jakiego protokołu używa polecenie ping?

A. FTP
B. ICMP
C. RDP
D. LDAP
Protokół ICMP (Internet Control Message Protocol) jest kluczowym elementem zestawu protokołów internetowych, który służy do przesyłania komunikatów o błędach oraz informacji diagnostycznych. W przypadku polecenia ping, ICMP jest wykorzystywany do wysyłania pakietów echo request do określonego hosta oraz odbierania pakietów echo reply, co pozwala na ocenę dostępności i czasów odpowiedzi urządzenia w sieci. Ping jest powszechnie stosowany w diagnostyce sieci, aby sprawdzić, czy dany adres IP jest osiągalny oraz jakie są czasy opóźnień w transmisji danych. Dzięki ICMP administratorzy sieci mogą szybko identyfikować problemy z łącznością i optymalizować konfigurację sieci. W dobrych praktykach sieciowych zaleca się regularne monitorowanie dostępności kluczowych urządzeń za pomocą narzędzi opartych na ICMP, co pozwala na utrzymanie wysokiej wydajności i dostępności usług. Zrozumienie działania protokołu ICMP jest istotne dla każdego specjalisty IT, ponieważ pozwala na skuteczne zarządzanie infrastrukturą sieciową oraz identyfikowanie potencjalnych zagrożeń związanych z bezpieczeństwem.

Pytanie 5

Aby chronić systemy sieciowe przed atakami z zewnątrz, należy zastosować

A. menedżera połączeń
B. zapory sieciowej
C. protokołu SSH
D. serwera DHCP
Zapora sieciowa, znana również jako firewall, jest kluczowym elementem zabezpieczającym systemy sieciowe przed nieautoryzowanym dostępem i atakami z zewnątrz. Działa ona na granicy pomiędzy zaufaną siecią a siecią zewnętrzną, kontrolując ruch przychodzący i wychodzący na podstawie ustalonych reguł bezpieczeństwa. Przykładowo, organizacje mogą skonfigurować zapory sieciowe tak, aby zezwalały na określone rodzaje ruchu (np. protokoły HTTP/HTTPS) oraz blokowały inne (np. porty wykorzystywane przez złośliwe oprogramowanie). Ponadto, zapory mogą być używane do segmentacji sieci, co zwiększa bezpieczeństwo poprzez ograniczenie dostępu do krytycznych zasobów. Dobre praktyki wskazują również na regularne aktualizowanie reguł oraz monitorowanie logów zapory, aby szybko reagować na potencjalne zagrożenia. Korzystanie z zapór, zarówno sprzętowych, jak i programowych, jest zalecane w standardach takich jak ISO/IEC 27001 czy NIST Cybersecurity Framework, co podkreśla ich znaczenie w ochronie danych i zasobów informacyjnych.

Pytanie 6

W nowoczesnych ekranach dotykowych działanie ekranu jest zapewniane przez mechanizm, który wykrywa zmianę

A. pola elektrostatycznego
B. oporu między przezroczystymi diodami wbudowanymi w ekran
C. położenia dłoni dotykającej ekranu z wykorzystaniem kamery
D. pola elektromagnetycznego
Ekrany dotykowe działające na zasadzie wykrywania pola elektrostatycznego są powszechnie stosowane w nowoczesnych urządzeniach mobilnych. Ta technologia polega na detekcji zmian w polu elektrycznym, które zachodzą, gdy palec użytkownika zbliża się do powierzchni ekranu. W momencie dotyku, zmieniają się wartości napięcia na powierzchni ekranu, co umożliwia precyzyjne określenie lokalizacji dotyku. Przykładem zastosowania tej technologii są smartfony i tablety, które korzystają z ekranów pojemnościowych. Dzięki nim, użytkownicy mogą korzystać z różnych gestów, takich jak przesuwanie, powiększanie czy zmniejszanie obrazu. Technologia ta jest zgodna z międzynarodowymi standardami dotyczącymi interfejsów użytkownika i ergonomii, co wpływa na jej popularność w branży elektroniki. Warto dodać, że pola elektrostatyczne są również wykorzystywane w innych urządzeniach, takich jak panele interaktywne w edukacji czy kioski informacyjne, podnosząc komfort i intuicyjność interakcji użytkownika z technologią.

Pytanie 7

Wykonując w konsoli systemu Windows Server komendę convert, co można zrealizować?

A. zmianę systemu plików
B. defragmentację dysku
C. naprawę systemu plików
D. naprawę logicznej struktury dysku
Polecenie 'convert' w systemie Windows Server służy do zmiany systemu plików z FAT32 na NTFS. NTFS, czyli New Technology File System, jest bardziej zaawansowanym systemem plików niż FAT32, oferującym funkcje takie jak wsparcie dla większych dysków, lepsze zarządzanie uprawnieniami oraz możliwość wykorzystania kompresji plików. Przykładem zastosowania tego polecenia może być sytuacja, w której użytkownik chce zainstalować nowe oprogramowanie wymagające NTFS lub chce skorzystać z funkcji, takich jak szyfrowanie EFS (Encrypted File System). Aby przeprowadzić tę konwersję, wystarczy w wierszu poleceń wpisać 'convert D: /FS:NTFS', gdzie D: to litera napędu, który chcemy przekonwertować. Dobrą praktyką jest wykonanie kopii zapasowej danych przed dokonaniem takiej zmiany, aby zminimalizować ryzyko utraty informacji. Warto również zauważyć, że konwersja na NTFS jest procesem bezpiecznym i nie powoduje utraty danych, co czyni go preferowanym rozwiązaniem dla wielu administratorów systemów.

Pytanie 8

Które z urządzeń nie powinno być serwisowane podczas korzystania z urządzeń antystatycznych?

A. Pamięć.
B. Zasilacz.
C. Dysk twardy.
D. Modem.
Odpowiedź wskazująca na zasilacz jako urządzenie, które nie powinno być naprawiane podczas używania urządzeń antystatycznych, jest prawidłowa. Zasilacz komputerowy ma bezpośredni kontakt z siecią elektryczną, co stwarza ryzyko porażenia prądem, a także uszkodzenia podzespołów. W przypadku pracy z zasilaczem, ważne jest, aby zawsze odłączyć go od źródła zasilania przed przystąpieniem do jakiejkolwiek naprawy. Zastosowanie urządzeń antystatycznych, takich jak opaski czy maty antystatyczne, ma na celu zabezpieczenie komponentów przed wyładowaniami elektrostatycznymi, które mogą być szkodliwe dla wrażliwych podzespołów, takich jak pamięci RAM czy procesory. Jednak zasilacz, z uwagi na jego konstrukcję i funkcję, wymaga innego podejścia, które nie powinno zachodzić w czasie, gdy zasilanie jest aktywne. Ponadto, według standardów bezpieczeństwa, takich jak IEC 60950, kluczowe jest unikanie manipulacji przy urządzeniach wymagających zasilania, co podkreśla znaczenie odpowiednich procedur podczas pracy z zasilaczami.

Pytanie 9

Aby zminimalizować wpływ zakłóceń elektromagnetycznych na przesyłany sygnał w tworzonej sieci komputerowej, jakie rozwiązanie należy zastosować?

A. ekranowaną skrętkę
B. gruby przewód koncentryczny
C. cienki przewód koncentryczny
D. światłowód
Ekranowana skrętka czy przewody koncentryczne, zarówno cienkie jak i grube, mogą wydawać się ok, ale nie dają takiej ochrony przed zakłóceniami jak światłowód. Ekranowana skrętka ma wprawdzie dodatkową warstwę, co trochę pomaga, ale wciąż bazuje na miedzi, więc w trudnych warunkach nie sprawdzi się na 100%. Używa się jej w lokalnych sieciach komputerowych, ale w porównaniu do światłowodów to niezbyt duża efektywność. Gruby przewód koncentryczny lepiej zabezpiecza, ale i tak jest wrażliwy na zakłócenia, a teraz to coraz rzadziej go w instalacjach widać. Cienki przewód koncentryczny to już w ogóle nie ma sensu, bo jest jeszcze bardziej podatny na zakłócenia, a to nie jest dobre, gdy chcemy przesyłać sygnał w trudnych warunkach. Jak wybierzesz coś złego, jakość sygnału się pogarsza, błędów więcej, a wydajność sieci leci na łeb na szyję, co w dzisiejszych czasach, gdzie szybkość i stabilność połączeń są kluczowe, jest mocno nie na miejscu.

Pytanie 10

Jakie polecenie w systemie Windows pozwala na zmianę zarówno nazwy pliku, jak i jego lokalizacji?

A. mkdir
B. set
C. rename
D. move
Polecenia 'set', 'mkdir' oraz 'rename' nie są odpowiednie do zmiany zarówno nazwy, jak i lokalizacji pliku. Polecenie 'set' jest używane w systemie Windows do definiowania zmiennych środowiskowych i nie ma zastosowania w kontekście pracy z plikami. Często mylnie uważa się, że można go użyć do zmiany nazw plików, jednak jego funkcjonalność jest całkowicie inna i ogranicza się do operacji na zmiennych. 'Mkdir' służy do tworzenia nowych katalogów, a nie do przenoszenia plików, co również może prowadzić do nieporozumień. Użytkownicy mogą błędnie zakładać, że jedynie utworzenie nowego folderu jest wystarczające do zorganizowania plików. Z kolei polecenie 'rename' jest używane tylko do zmiany nazwy pliku w tej samej lokalizacji i nie może być użyte do przenoszenia go w inne miejsce. Często w praktyce użytkownicy błędnie interpretują te polecenia, co prowadzi do frustracji, gdyż nie osiągają zamierzonego celu. Kluczowe jest zrozumienie właściwego kontekstu i zastosowania każdego polecenia, aby efektywnie zarządzać plikami w systemie operacyjnym.

Pytanie 11

Napięcie dostarczane do poszczególnych elementów komputera w zasilaczu komputerowym w standardzie ATX jest zmniejszane z wartości 230V między innymi do wartości

A. 20V
B. 130V
C. 4V
D. 12V
Napięcie 12V jest jednym z kluczowych napięć dostarczanych przez zasilacze komputerowe w standardzie ATX. Zasilacz redukuje napięcie sieciowe 230V AC do kilku wartości stałych, które są niezbędne do pracy różnych komponentów komputera. Napięcie 12V jest szczególnie istotne, ponieważ zasila podzespoły wymagające większej mocy, takie jak procesory graficzne, dyski twarde oraz wentylatory. Zastosowanie standardowych napięć, takich jak 3.3V, 5V i 12V, jest zgodne z normami ATX, co zapewnia kompatybilność z szeroką gamą sprzętu komputerowego. Przykładowo, wiele kart graficznych wymaga złącza zasilania 12V do prawidłowego działania, co pokazuje, jak ważne jest to napięcie w kontekście nowoczesnych systemów komputerowych. Dodatkowo, 12V jest również używane w systemach chłodzenia oraz w zasilaniu różnorodnych akcesoriów zewnętrznych, co podkreśla jego wszechstronność i znaczenie w architekturze komputerowej.

Pytanie 12

Liczba 10011001100 zaprezentowana w systemie heksadecymalnym ma formę

A. 2E4
B. 4CC
C. EF4
D. 998
Odpowiedź 4CC jest prawidłowa, ponieważ liczba binarna 10011001100 reprezentuje wartość dziesiętną 1236. Aby skonwertować ją na zapis heksadecymalny, najpierw grupujemy bity w zestawy po cztery, zaczynając od prawej strony. W tym przypadku grupujemy 0010 0110 0110 00, co daje nam dodatkowo zera z lewej strony, aby uzyskać pełne grupy: 0001 0010 0110 1100. Następnie przekształcamy każdą grupę na wartość heksadecymalną: 0001 to 1, 0010 to 2, 0110 to 6, a 1100 to C. Łącząc te wartości, uzyskujemy 4CC. Praktycznym zastosowaniem konwersji binarno-heksadecymalnej jest programowanie systemów wbudowanych, gdzie efektywne zarządzanie pamięcią i zasobami wymaga szybkiego i czytelnego przedstawienia danych. Heksadecymalny format jest powszechnie stosowany w systemach komputerowych, przykładowo w adresowaniu pamięci oraz w reprezentacji kolorów w grafice komputerowej, co czyni znajomość konwersji kluczową umiejętnością inżynierów oprogramowania i specjalistów IT.

Pytanie 13

Jakie jest usytuowanie przewodów w złączu RJ45 według schematu T568A?

Ilustracja do pytania
A. C
B. A
C. D
D. B
Sekwencja połączeń T568A dla wtyku RJ45 jest normowana przez standardy telekomunikacyjne, a dokładnie przez normę TIA/EIA-568. Poprawna kolejność przewodów we wtyku RJ45 zgodnie z tym standardem to: 1) Biało-zielony 2) Zielony 3) Biało-pomarańczowy 4) Niebieski 5) Biało-niebieski 6) Pomarańczowy 7) Biało-brązowy 8) Brązowy. Taka kolejność ma na celu zapewnienie kompatybilności i efektywności połączeń sieciowych, przede wszystkim w systemach Ethernet. W praktyce zastosowanie tej sekwencji jest kluczowe w instalacjach sieciowych, gdzie wymagane jest zachowanie standardów, aby urządzenia różnych producentów mogły ze sobą współpracować bez problemów. Dostosowanie się do normy T568A jest powszechnie stosowane w instalacjach w budynkach mieszkalnych i biurowych. Poprawne okablowanie wg tego standardu minimalizuje zakłócenia sygnału i zwiększa niezawodność transmisji danych, co jest szczególnie istotne w środowiskach biurowych, gdzie wymagana jest wysoka przepustowość i stabilność połączeń.

Pytanie 14

Rodzajem złośliwego oprogramowania będącego programem rezydentnym, który działa, wykonując konkretną operację, nie powiela się przez sieć, a jedną z jego metod jest samoreplikacja aż do wyczerpania pamięci komputera, jest

A. Rootkit
B. Wabbit
C. Backdoor
D. Stealware
Wielu osobom rootkit, stealware czy backdoor wydają się pasować do opisu złośliwego oprogramowania, ale każda z tych kategorii ma swoje charakterystyczne cechy i działa zupełnie inaczej niż wabbit. Rootkit to w rzeczywistości złośliwy zestaw narzędzi służących do ukrywania obecności atakującego na zainfekowanym systemie – nie chodzi tu o samoreplikację czy wyczerpywanie pamięci, tylko raczej o długofalowe utrzymanie się w systemie i maskowanie innych szkodliwych procesów. Stealware, jak sama nazwa sugeruje, jest projektowane głównie po to, by wykradać dane lub przekierowywać środki, najczęściej przy pomocy manipulowania ruchem internetowym użytkownika. To złośliwe oprogramowanie jest raczej ciche i nie powoduje skokowego zużycia pamięci RAM czy przeciążenia procesora. Jeśli chodzi o backdoora, to mamy do czynienia z funkcją umożliwiającą pominięcie standardowych mechanizmów uwierzytelniania – backdoor pozwala atakującemu na dostęp do systemu, ale nie opiera się na masowej samoreplikacji i wyczerpywaniu zasobów sprzętowych. Moim zdaniem często powtarzanym błędem jest utożsamianie wszelkich poważniejszych objawów infekcji z rootkitami lub backdoorami, bo te określenia są popularne w mediach. Jednak w praktyce, jeśli widzimy objawy typowego wyczerpywania pamięci wskutek masowego namnażania się procesu, to należy pomyśleć właśnie o takich przypadkach jak wabbit. Standardy bezpieczeństwa, jak ISO/IEC 27002, zalecają, by analizować symptomy ataku z kilku perspektyw – nie tylko przez pryzmat wykradania danych lub zdalnej kontroli, ale też pod kątem anomalii w zarządzaniu zasobami systemowymi. W tej sytuacji, żadne z wymienionych błędnych odpowiedzi nie trafia w sedno mechanizmu działania złośliwego programu opisanego w pytaniu.

Pytanie 15

Jakie oprogramowanie do wirtualizacji jest dostępne jako rola w systemie Windows Server 2012?

A. Virtual PC
B. VMware
C. Hyper-V
D. Virtual Box
Hyper-V to natywne oprogramowanie do wirtualizacji, które jest dostępne jako rola w systemie Windows Server 2012. Umożliwia tworzenie, zarządzanie i uruchamianie wielu maszyn wirtualnych na jednym fizycznym serwerze. Hyper-V wspiera różne systemy operacyjne gościa, zarówno Windows, jak i Linux, co czyni go elastycznym rozwiązaniem w środowiskach serwerowych. Przykładowe zastosowanie Hyper-V obejmuje konsolidację serwerów, co pozwala na zmniejszenie kosztów sprzętu i energii, a także na zwiększenie efektywności wykorzystania zasobów. Hyper-V oferuje również funkcje takie jak migracja na żywo, które pozwalają na przenoszenie maszyn wirtualnych między hostami bez przerywania ich pracy. Warto także zwrócić uwagę na zgodność Hyper-V z wieloma standardami branżowymi, co zapewnia bezpieczeństwo i niezawodność. Użycie Hyper-V w środowisku produkcyjnym staje się coraz bardziej popularne, a jego integracja z innymi rozwiązaniami Microsoft, takimi jak System Center, umożliwia efektywne zarządzanie infrastrukturą IT.

Pytanie 16

Głównie które aktualizacje zostaną zainstalowane po kliknięciu na przycisk OK prezentowany na zrzucie ekranu?

Ilustracja do pytania
A. Zwiększające bezpieczeństwo, prywatność i niezawodność systemu.
B. Dotyczące sterowników lub nowego oprogramowania.
C. Rozwiązujące problemy niekrytyczne systemu.
D. Związane z podniesieniem komfortu pracy z komputerem.
Wybierając opcję instalacji aktualizacji oznaczonych jako „ważne”, system Windows zadba przede wszystkim o bezpieczeństwo, prywatność i niezawodność działania komputera. To właśnie te aktualizacje – zwłaszcza zbiorcze pakiety jakości zabezpieczeń, jak widoczny na zrzucie KB4462923 – odpowiadają za łatanie luk, które mogą być wykorzystane przez złośliwe oprogramowanie albo atakujących. W praktyce, gdyby użytkownik zignorował takie aktualizacje, system byłby znacznie bardziej podatny na zagrożenia, a dane mogłyby zostać skompromitowane. Z mojego doświadczenia wynika, że aktualizacje bezpieczeństwa są kluczowe nie tylko w środowiskach biznesowych, gdzie ochrona informacji jest priorytetem, ale i w komputerach domowych. Takie działania wynikają ze standardów branżowych, które wręcz nakazują administratorom jak najszybszą instalację poprawek bezpieczeństwa, zgodnie z zasadą „security by default”. Producenci systemów operacyjnych, na przykład Microsoft, regularnie wydają tego typu poprawki, by wyeliminować ryzyka wynikające z nowych zagrożeń. Komfort pracy czy nowe funkcjonalności są ważne, ale zawsze najpierw stawia się na bezpieczeństwo i stabilność. Dlatego właśnie ta odpowiedź jest zgodna z najlepszymi praktykami zarządzania systemami IT, a aktualizacje typu „ważne” są pierwszym krokiem do ochrony całej infrastruktury.

Pytanie 17

Po włączeniu komputera wyświetlił się komunikat: Non-system disk or disk error. Replace and strike any key when ready. Co może być tego przyczyną?

A. brak pliku NTLDR
B. skasowany BIOS komputera
C. uszkodzony kontroler DMA
D. dyskietka włożona do napędu
Odpowiedź, którą zaznaczyłeś, dotyczy sytuacji, w której komputer ma problem z rozruchem przez obecność dyskietki w napędzie. Kiedy uruchamiasz system operacyjny, to najpierw sprawdza on BIOS, żeby zobaczyć, jakie urządzenia mogą być użyte do rozruchu. Jeśli napęd dyskietek jest ustawiony jako pierwsze urządzenie startowe i jest w nim dyskietka, komputer spróbuje z niego wystartować. Może to prowadzić do błędu, jeśli dyskietka nie ma właściwych plików do uruchomienia. Przykładowo, wysunięcie dyskietki lub zmiana ustawień bootowania w BIOS, żeby najpierw próbować uruchomić z twardego dysku, powinno załatwić sprawę. To się często zdarza w starszych komputerach, gdzie dyskietki były normą. Warto zawsze sprawdzać, jak jest skonfigurowany BIOS, żeby jakieś stare urządzenie, jak napęd dyskietek, nie przeszkadzało w uruchamianiu systemu.

Pytanie 18

Jak wygląda liczba 257 w systemie dziesiętnym?

A. F0 w systemie szesnastkowym
B. 1000 0000 w systemie binarnym
C. FF w systemie szesnastkowym
D. 1 0000 0001 w systemie binarnym
Odpowiedź 1 0000 0001 dwójkowo jest poprawna, ponieważ liczba 257 w systemie dziesiętnym jest równa liczbie 1 0000 0001 w systemie dwójkowym. Przekształcenie liczby dziesiętnej na system dwójkowy polega na wyznaczeniu wartości poszczególnych bitów. W przypadku liczby 257, zaczynamy od największej potęgi dwójki, która mieści się w tej liczbie, czyli 2^8 = 256, a następnie dodajemy 1 (2^0 = 1). W rezultacie otrzymujemy zapis: 1 (256) + 0 (128) + 0 (64) + 0 (32) + 0 (16) + 0 (8) + 0 (4) + 1 (2) + 1 (1), co daje nam ostatecznie 1 0000 0001. Praktyczne zastosowanie tej wiedzy można zauważyć w programowaniu oraz inżynierii komputerowej, gdzie konwersja między systemami liczbowymi jest często wymagana do efektywnego przetwarzania danych. Wiedza ta jest zgodna z ogólnymi standardami reprezentacji danych w systemach komputerowych, co czyni ją istotnym elementem w pracy programisty czy specjalisty IT.

Pytanie 19

W dokumentacji jednego z komponentów komputera zamieszczono informację, że to urządzenie obsługuje OpenGL. Jakiego elementu dotyczy ta dokumentacja?

A. dysku twardego
B. mikroprocesora
C. karty graficznej
D. karty sieciowej
Odpowiedź dotycząca karty graficznej jest poprawna, ponieważ OpenGL (Open Graphics Library) to standard API (Application Programming Interface) przeznaczony do renderowania grafiki 2D i 3D. Karty graficzne są zaprojektowane do obsługi tego typu aplikacji, co czyni je kluczowymi komponentami w systemach graficznych. OpenGL umożliwia programistom korzystanie z funkcji sprzętowych kart graficznych w celu tworzenia interaktywnych aplikacji wizualnych, takich jak gry, programy do modelowania 3D oraz aplikacje inżynieryjne. Przykładem zastosowania OpenGL jest tworzenie realistycznych scen w grach komputerowych, gdzie efekty świetlne, cienie oraz tekstury są generowane na podstawie obliczeń przeprowadzanych przez kartę graficzną. Warto również zauważyć, że standard OpenGL jest szeroko stosowany w branży gier oraz w aplikacjach CAD (Computer-Aided Design), co świadczy o jego znaczeniu w codziennej pracy programistów oraz inżynierów. Karty graficzne, które wspierają OpenGL, są zgodne z wieloma platformami oraz systemami operacyjnymi, co umożliwia ich szerokie zastosowanie.

Pytanie 20

Jakie jest adres rozgłoszeniowy sieci, w której funkcjonuje host z adresem IP 195.120.252.32 oraz maską podsieci 255.255.255.192?

A. 195.120.252.0
B. 195.120.255.255
C. 195.120.252.255
D. 195.120.252.63
Adres rozgłoszeniowy sieci (broadcast address) jest używany do wysyłania pakietów do wszystkich urządzeń w danej sieci lokalnej. Aby obliczyć adres rozgłoszeniowy, należy najpierw określić adres sieci oraz maskę podsieci. W przypadku hosta o adresie IP 195.120.252.32 i masce 255.255.255.192, maska ta oznacza, że 26 bitów jest przeznaczonych na część sieci, a 6 bitów na część hosta. Przy takich parametrach, sieć jest zdefiniowana w zakresie adresów 195.120.252.0 do 195.120.252.63. Adres 195.120.252.0 to adres sieci, a 195.120.252.63 to adres rozgłoszeniowy, który jest uzyskiwany przez ustawienie wszystkich bitów części hosta na jedynki. W praktyce, adres rozgłoszeniowy pozwala na efektywną komunikację między urządzeniami w sieci, umożliwiając przesyłanie informacji do wszystkich hostów jednocześnie, co jest przydatne w wielu zastosowaniach, takich jak protokoły ARP czy DHCP. Warto pamiętać, że stosowanie poprawnych adresów rozgłoszeniowych jest kluczowe dla prawidłowego działania sieci oraz zgodności z normami RFC.

Pytanie 21

Liczba BACA zapisana w systemie szesnastkowym odpowiada liczbie

A. 135316₍₈₎
B. 1011101011001010₍₂₎
C. 4782₍₁₀₎
D. 1100101010111010₍₂₎
Liczba BACA w systemie szesnastkowym, czyli heksadecymalnym, to doskonały przykład tego, jak istotne jest zrozumienie konwersji między różnymi systemami liczbowymi. Każda cyfra heksadecymalna reprezentuje dokładnie 4 bity – stąd często mówi się, że zapis szesnastkowy jest bardzo przyjazny do przedstawiania wartości binarnych, zwłaszcza w elektronice czy informatyce. Żeby przeliczyć BACA16 na system binarny, rozbijamy ją na cyfry: B=1011, A=1010, C=1100, A=1010. Po połączeniu tych grup otrzymujemy ciąg 1011101011001010, czyli dokładnie tak, jak w poprawnej odpowiedzi. Często w praktyce, zwłaszcza przy pracy z mikrokontrolerami lub analizie pamięci, takie przeliczanie robi się niemal automatycznie. Przyznam szczerze, że na początku może się to wydawać trochę żmudne, ale z czasem to już wchodzi w nawyk – trochę jak szybkie zamienianie złotówek na grosze w głowie. Z mojego doświadczenia wynika, że znajomość tej metody bardzo się przydaje przy debugowaniu kodu maszynowego i czytaniu wyjść narzędzi do analizy pamięci. Warto też pamiętać, że standardy takie jak IEEE 754 dla liczb zmiennoprzecinkowych czy różne formaty plików (np. nagłówki PE w Windows) często używają zapisu szesnastkowego właśnie ze względu na jego czytelność. Poza tym, gdy ktoś pracuje z assemblerem, to praktycznie nie da się bez tego obyć. Tak więc, nie jest to tylko teoria ze szkoły, ale umiejętność, którą naprawdę wykorzystuje się w praktyce!

Pytanie 22

Podczas tworzenia sieci kablowej o maksymalnej prędkości przesyłu danych wynoszącej 1 Gb/s, w której maksymalna odległość między punktami sieci nie przekracza 100 m, należy zastosować jako medium transmisyjne

A. fale radiowe o częstotliwości 2,4 GHz
B. kabel UTP kategorii 5e
C. fale radiowe o częstotliwości 5 GHz
D. kabel koncentryczny o średnicy 1/4 cala
Kabel UTP kategorii 5e to naprawdę dobry wybór, jeśli chodzi o sieci przewodowe. Jego maksymalna prędkość to 1 Gb/s na odległości do 100 metrów, co jest całkiem spoko. Ten kabel działa według standardu 1000BASE-T, który jest częścią tych wszystkich norm IEEE 802.3. Co ciekawe, jak użyjesz go w sieci, to zapewni ci stabilność, a przesył danych będzie bardzo wysokiej jakości. W biurach i różnych instytucjach, gdzie potrzebna jest szybka komunikacja, ten kabel sprawdza się świetnie. W praktyce często widzę, że w biurach instalują go zgodnie z normami TIA/EIA-568. Dzięki temu można łatwo zaktualizować sieć do wyższych kategorii kabli, jak kategoria 6, co jest na pewno fajne na przyszłość.

Pytanie 23

W którym katalogu w systemie Linux można znaleźć pliki zawierające dane o urządzeniach zainstalowanych w komputerze, na przykład pamięci RAM?

A. /sbin
B. /dev
C. /var
D. /proc
Katalog /var jest przeznaczony do przechowywania plików, które mogą się zmieniać w czasie działania systemu, takich jak logi systemowe oraz pliki tymczasowe. W kontekście informacji o urządzeniach zainstalowanych w systemie, jego zawartość nie odnosi się bezpośrednio do monitorowania stanu sprzętu, co czyni go niewłaściwym wyborem. Katalog /dev z kolei zawiera specjalne pliki urządzeń, które reprezentują urządzenia systemowe w postaci plików, ale nie dostarcza on informacji o stanie systemu czy parametrach sprzętowych w czasie rzeczywistym. Warto zauważyć, że pliki w /dev są statyczne i nie zawierają szczegółowych informacji o działających procesach czy zasobach systemowych. Katalog /sbin jest zarezerwowany dla plików binarnych i programów wykorzystywanych do administracji systemem, ale podobnie jak w przypadku /var, nie dostarcza informacji o zainstalowanych urządzeniach. Użytkownicy często mylą te katalogi z /proc, co prowadzi do nieporozumień dotyczących lokalizacji informacji o systemie i jego zasobach. Kluczowe jest zrozumienie, że /proc jest unikalnym katalogiem, który odzwierciedla stan systemu w czasie rzeczywistym, podczas gdy inne katalogi służą zupełnie innym celom, co może prowadzić do błędnych wniosków i nieefektywnego zarządzania systemem.

Pytanie 24

Wskaż usługę, którą należy skonfigurować na serwerze aby blokować ruch sieciowy?

A. DNS
B. Zarządca SMNP.
C. IIS
D. Zapora sieciowa.
Prawidłowo – aby blokować ruch sieciowy na serwerze, konfigurujemy zaporę sieciową (firewall). To właśnie firewall decyduje, które pakiety sieciowe są przepuszczane, a które odrzucane, na podstawie zdefiniowanych reguł. Można filtrować ruch po adresach IP, portach, protokołach (TCP/UDP/ICMP), kierunku (ruch przychodzący/wychodzący), a nawet po aplikacjach. W praktyce administracji serwerami to jedno z absolutnie podstawowych narzędzi bezpieczeństwa. W systemach Windows rolę tę pełni „Zapora systemu Windows z zabezpieczeniami zaawansowanymi” albo firewall wbudowany w rozwiązania typu Windows Server, często zarządzany przez zasady grup (GPO). W Linuksie najczęściej używa się iptables, nftables, firewalld czy ufw. Niezależnie od konkretnego narzędzia, idea zawsze jest ta sama: domyślnie zamykamy wszystko, a otwieramy tylko to, co jest naprawdę potrzebne (np. port 80/443 dla serwera WWW, 22 dla SSH, 3389 dla RDP). To jest taka podstawowa dobra praktyka – zasada najmniejszych uprawnień, ale w kontekście ruchu sieciowego. W środowiskach produkcyjnych zapora sieciowa bywa warstwowa: mamy firewalle sprzętowe na brzegu sieci (np. w routerach, UTM-ach) oraz lokalne zapory programowe na każdym serwerze. Moim zdaniem sensownie skonfigurowany firewall to jedna z najskuteczniejszych i najtańszych form ochrony – chroni przed skanowaniem portów, prostymi atakami z zewnątrz, ogranicza skutki przejęcia jednego hosta, bo nie pozwala mu swobodnie gadać z całą resztą sieci. Standardy bezpieczeństwa, takie jak dobre praktyki CIS Benchmarks czy wytyczne OWASP, wyraźnie wskazują na konieczność stosowania filtracji ruchu sieciowego i separacji usług właśnie poprzez zapory. W codziennej pracy administratora konfiguracja firewall’a to chleb powszedni przy wystawianiu nowych serwerów do sieci lokalnej lub Internetu.

Pytanie 25

Jaki jest adres rozgłoszeniowy (broadcast) dla hosta z adresem IP 192.168.35.202 oraz maską 26 bitową?

A. 192.168.35.63
B. 192.168.35.0
C. 192.168.35.192
D. 192.168.35.255
Adres rozgłoszeniowy (broadcast) w przypadku adresu IP 192.168.35.202 z 26-bitową maską (255.255.255.192) można obliczyć, ustalając, które bity w adresie IP należą do części sieciowej, a które do części hosta. W przypadku maski 255.255.255.192, 26 bitów jest używanych do identyfikacji sieci, co zostawia 6 bitów dla hostów. Oznacza to, że wszystkie bity hosta muszą być ustawione na '1', aby otrzymać adres rozgłoszeniowy. W przypadku 192.168.35.202, bity hosta to ostatnie 6 bitów, które w postaci binarnej są '01001010'. Po ustawieniu tych bitów na '1' otrzymujemy adres 192.168.35.255, który jest adresem broadcast dla tej sieci. Adres rozgłoszeniowy jest istotny, ponieważ pozwala na wysyłanie pakietów do wszystkich hostów w danej sieci lokalnej, co jest przydatne w różnych scenariuszach, takich jak DHCP czy ARP. W praktyce, znajomość adresów broadcast jest kluczowa dla administratorów sieci oraz przy projektowaniu i zarządzaniu infrastrukturą sieciową, opierając się na standardach takich jak RFC 791 oraz RFC 950.

Pytanie 26

Którego protokołu działanie zostało zaprezentowane na diagramie?

Ilustracja do pytania
A. Dynamic Host Configuration Protocol (DHCP)
B. Telnet
C. Security Shell (SSH)
D. Domain Name System(DNS)
Dynamic Host Configuration Protocol DHCP jest protokołem sieciowym używanym do automatycznego przydzielania adresów IP i innych informacji konfiguracyjnych klientom w sieci. Działa w modelu klient-serwer co oznacza że urządzenie klienckie wysyła żądanie o adres IP do serwera DHCP a ten odpowiada oferując dostępne parametry sieciowe. Proces składa się z czterech głównych etapów: Discovery Offer Request i Acknowledgment. Discovery polega na wysłaniu przez klienta wiadomości rozgłoszeniowej aby zlokalizować serwery DHCP. Serwer odpowiada wiadomością Offer zawierającą proponowany adres IP. Klient następnie wysyła Request akceptując ofertę a serwer kończy proces wiadomością ACK potwierdzając dzierżawę adresu. DHCP jest powszechnie stosowany w sieciach korporacyjnych i domowych upraszczając zarządzanie adresacją IP oraz minimalizując błędy konfiguracyjne. Standardy związane z DHCP są opisane w dokumentach RFC takich jak RFC 2131 i RFC 2132. Korzystanie z DHCP zautomatyzowało proces zarządzania siecią oszczędzając czas administratorów i redukując ryzyko konfliktów adresów IP co jest szczególnie użyteczne w dużych i dynamicznych środowiskach sieciowych.

Pytanie 27

Narzędziem systemu Windows, służącym do sprawdzenia wpływu poszczególnych procesów i usług na wydajność procesora oraz tego, w jakim stopniu generują one obciążenie pamięci czy dysku, jest

A. credwiz
B. dcomcnfg
C. cleanmgr
D. resmon
Resmon, czyli Monitor zasobów (resource monitor), to jedno z naprawdę niedocenianych narzędzi w Windowsie. Pozwala bardzo szczegółowo sprawdzić, jakie procesy i usługi najbardziej obciążają procesor, pamięć RAM, a także dysk i kartę sieciową. Osobiście uważam, że dla administratorów czy nawet zaawansowanych użytkowników to podstawa przy analizie wydajności systemu – znacznie bardziej szczegółowa niż sam Menedżer zadań. Przykładowo, gdy komputer nagle zaczyna „mulić”, to w resmonie od razu widać, który proces zjada zasoby albo np. jaka aplikacja mocno obciąża dysk, co często jest trudne do wychwycenia przy użyciu standardowych narzędzi. Co fajne, można też łatwo sprawdzić użycie portów sieciowych czy konkretne pliki, które są aktualnie blokowane przez procesy – to naprawdę spore ułatwienie przy diagnozowaniu problemów. Według dobrych praktyk branżowych, podczas troubleshootingu wydajności zawsze powinno się przeanalizować dane z resmona, bo pozwala nie tylko identyfikować „winowajców”, ale i potwierdzić czy np. bottleneck leży po stronie CPU, RAM czy dysku. Warto też wiedzieć, że resmon jest dostępny praktycznie w każdej edycji Windowsa od wersji 7 wzwyż. Takie narzędzia pokazują, jak skomplikowane może być zarządzanie systemem, ale też jak dużo daje dokładna analiza procesów w codziennej pracy.

Pytanie 28

Jaką liczbę bitów posiada adres logiczny IPv6?

A. 32
B. 16
C. 128
D. 64
Adres logiczny IPv6 składa się z 128 bitów, co jest istotnym usprawnieniem w porównaniu do wcześniejszej wersji protokołu IP, IPv4, gdzie długość adresu wynosiła tylko 32 bity. Większa długość adresu w IPv6 umożliwia znacznie większą liczbę unikalnych adresów, co jest kluczowe w kontekście rosnącej liczby urządzeń podłączanych do Internetu. Dzięki zastosowaniu 128-bitowych adresów, IPv6 pozwala na adresowanie 340 undecylionów (10^36) unikalnych adresów, co jest wystarczające, aby zaspokoić potrzebę globalną w kontekście Internetu rzeczy (IoT) oraz globalnej sieci. W praktyce, organizacje i dostawcy usług internetowych już wykorzystują IPv6, aby zapewnić przyszłość swoich sieci. Standardy te są również zgodne z zaleceniami IETF (Internet Engineering Task Force), które promują przejście z IPv4 na IPv6, aby sprostać rosnącym wymaganiom adresowania w sieciach komputerowych. Użycie IPv6 staje się niezbędne w wielu nowoczesnych aplikacjach, takich jak chmurowe usługi, rozproszone systemy oraz różnorodne IoT, co czyni tę wiedzę niezwykle istotną dla każdego specjalisty IT.

Pytanie 29

Rezultatem działania przedstawionego na ilustracji okna jest

Ilustracja do pytania
A. dodanie użytkownika Superużytkownik
B. zmiana nazwy konta Administrator na Superużytkownik
C. wyłączenie konta Gość
D. zmiana nazwy konta Gość na Superużytkownik
Na zrzucie ekranu widzisz Edytor zarządzania zasadami grupy w domenie Windows. Po lewej stronie jest drzewo: Konfiguracja komputera → Ustawienia systemu Windows → Ustawienia zabezpieczeń → Zasady lokalne → Opcje zabezpieczeń. Po prawej stronie otwarte jest konkretne ustawienie o nazwie „Konta: Zmienianie nazwy konta administratora”. To jest gotowa polityka bezpieczeństwa systemu Windows, nie dotyczy ona konta Gość ani tworzenia nowego użytkownika, tylko właśnie wbudowanego konta Administrator. W polu tekstowym wpisano nazwę „Superużytkownik” i zaznaczono „Definiuj następujące ustawienie zasad”, więc system wymusi zmianę nazwy wbudowanego konta Administrator na Superużytkownik na maszynach objętych tą GPO. W praktyce to jest jedna z podstawowych dobrych praktyk hardeningu systemu Windows: ukryć domyślne konto Administrator poprzez zmianę jego nazwy oraz ewentualnie dodatkowo włączyć zasady złożoności hasła, ograniczenia logowania, audyt logowań itp. Moim zdaniem w środowiskach domenowych warto łączyć to z użyciem osobnych kont administracyjnych dla każdego admina, a konto wbudowane mieć z mocnym hasłem i wykorzystywać tylko awaryjnie. Ważne jest też, że ta polityka nie tworzy nowego konta o nazwie Superużytkownik, tylko zmienia nazwę już istniejącego wbudowanego konta Administrator, zachowując jego SID i uprawnienia. Dzięki temu skrypty, uprawnienia i członkostwo w grupach dalej działają poprawnie, bo identyfikacja opiera się na SID, a nie na nazwie wyświetlanej użytkownikowi.

Pytanie 30

Według normy PN-EN 50174 maksymalna całkowita długość kabla połączeniowego między punktem abonenckim a komputerem oraz kabla krosowniczego A+C) wynosi

Ilustracja do pytania
A. 5 m
B. 3 m
C. 6 m
D. 10 m
Warto zrozumieć, dlaczego inne wartości długości kabli nie są odpowiednie zgodnie z normą PN-EN 50174. Krótsze długości, takie jak 3 m i 5 m, mogą być wystarczające w niektórych małych instalacjach, ale nie oferują one elastyczności wymaganą w bardziej złożonych systemach sieciowych. Taka krótka długość kabla może ograniczać możliwości adaptacji infrastruktury w przyszłości. Z kolei długość 6 m może być myląca, ponieważ nie jest zgodna z wymaganiami normy, która przewiduje 10 m jako maksymalną długość. Często spotykanym błędem jest niedocenianie znaczenia tłumienia sygnału i jego wpływu na jakość połączenia. Nieodpowiednia długość kabli może prowadzić do zwiększonego opóźnienia i utraty pakietów, co bezpośrednio wpływa na wydajność sieci. Ponadto, nieprzestrzeganie norm może prowadzić do problemów przy certyfikacji i audytach jakości sieci. W praktyce inżynierowie muszą brać pod uwagę zarówno wymagania techniczne, jak i przyszłe potrzeby rozwijającej się infrastruktury IT, co czyni przestrzeganie ustalonych standardów kluczowym elementem w projektowaniu i wdrażaniu sieci komputerowych. Normy takie jak PN-EN 50174 są tworzone, aby unikać problemów związanych z kompatybilnością i stabilnością systemów połączonych w sieci. Dlatego ważne jest, aby stosować się do tych standardów, zapewniając jednocześnie możliwość skalowania i adaptacji sieci do przyszłych potrzeb technologicznych.

Pytanie 31

W specyfikacji IEEE 802.3af opisano technologię dostarczania energii elektrycznej do różnych urządzeń sieciowych jako

A. Power over Ethernet
B. Power over Internet
C. Power over Classifications
D. Power under Control
Poprawna odpowiedź to 'Power over Ethernet' (PoE), która jest standardem zdefiniowanym w normie IEEE 802.3af. Technologia ta umożliwia przesyłanie energii elektrycznej przez standardowe kable Ethernet, co pozwala na zasilanie różnych urządzeń sieciowych, takich jak kamery IP, telefony VoIP czy punkty dostępu Wi-Fi, bez potrzeby stosowania oddzielnych zasilaczy. Zastosowanie PoE znacznie upraszcza instalację urządzeń, eliminując konieczność dostępu do gniazdek elektrycznych w pobliżu. Dzięki temu technologia ta jest szeroko stosowana w nowoczesnych biurach oraz systemach monitoringu. PoE przyczynia się również do zmniejszenia kosztów instalacji oraz zwiększa elastyczność w rozmieszczaniu urządzeń w przestrzeni roboczej. Dodatkowo, standard IEEE 802.3af pozwala na przesyłanie do 15.4 W mocy, co jest wystarczające dla wielu typowych urządzeń. Warto również zaznaczyć, że PoE jest częścią większej rodziny standardów, w tym IEEE 802.3at (PoE+) i IEEE 802.3bt (PoE++), które oferują jeszcze wyższe moce zasilania.

Pytanie 32

Zamieszczony komunikat tekstowy wyświetlony na ekranie komputera z zainstalowanym systemem Windows wskazuje na

Ilustracja do pytania
A. stare lub uszkodzone sterowniki sprzętowe.
B. brak włączonej Zapory systemowej.
C. źle skojarzone aplikacje domyślne.
D. błędną konfigurację adresu IP karty Wi-Fi.
Analizując podane opcje, łatwo się pomylić, bo każdy z wymienionych problemów rzeczywiście może powodować różne kłopoty z komputerem, ale nie są one powiązane z komunikatem BSOD „HAL INITIALIZATION FAILED”. Skojarzenie tego błędu ze źle skonfigurowanymi aplikacjami domyślnymi jest nieporozumieniem – taka sytuacja może co najwyżej utrudnić otwieranie plików określonego typu, ale nie prowadzi do poważnych awarii systemowych czy restartów komputera. Brak włączonej Zapory systemowej (Windows Firewall) może stanowić zagrożenie bezpieczeństwa i zwiększa podatność na ataki z sieci, jednak nie generuje błędów sprzętowych ani nie wywołuje krytycznych błędów systemowych skutkujących niebieskim ekranem. Z kolei błędna konfiguracja adresu IP karty Wi-Fi doprowadzi raczej do utraty połączenia sieciowego lub problemów z dostępem do internetu, lecz nie wpływa bezpośrednio na pracę jądra systemu czy warstwy sprzętowej. Z mojego doświadczenia wynika, że bardzo często użytkownicy mylą błędy logiczne, konfiguracyjne albo sieciowe ze sprzętowymi – to dość powszechny błąd myślowy. Tymczasem warstwa sprzętowa systemu Windows i jej stabilność zależy głównie od poprawności działania sterowników oraz samego sprzętu, a nie od ustawień aplikacji czy sieci. Warto więc na przyszłość odróżniać problemy użytkowe od tych, które mają swoje źródło głębiej – w komunikacji systemu z urządzeniami. Takie rozróżnienie jest jedną z podstawowych umiejętności każdego technika czy administratora IT.

Pytanie 33

Do zarządzania przydziałami przestrzeni dyskowej w systemach Windows 7 oraz Windows 8 wykorzystywane jest narzędzie

A. perfmon
B. dcpromo
C. query
D. fsutil
Query to narzędzie, które jest używane do uzyskiwania informacji na temat systemu, ale nie jest odpowiednie do zarządzania przydziałami dyskowymi. Zostało zaprojektowane głównie do monitorowania i analizowania wydajności, a jego funkcjonalność koncentruje się na raportowaniu stanu systemu oraz podzespołów. W związku z tym, korzystanie z query w kontekście zarządzania dyskami prowadzi do nieporozumień, ponieważ narzędzie to nie oferuje funkcji potrzebnych do tworzenia lub modyfikacji przydziałów dyskowych. Perfmon to z kolei narzędzie do monitorowania wydajności, które zbiera dane z różnych składników systemu, takich jak CPU, pamięć, czy dyski, jednak również nie jest przeznaczone do zarządzania przydziałami. Skupia się na analizie i raportowaniu, co czyni je nieodpowiednim narzędziem w kontekście modyfikacji przydziałów dyskowych. Dcpromo jest narzędziem używanym do promowania serwera do roli kontrolera domeny, co jest zupełnie inną funkcjonalnością niż zarządzanie dyskami. Nieprawidłowe wybory mogą wynikać z mylnego przekonania, że różne narzędzia monitorujące i raportujące mogą pełnić funkcję zarządzania dyskami, podczas gdy każde z nich ma swoje specyficzne zastosowania. Właściwe zrozumienie ról i funkcji tych narzędzi jest kluczowe dla efektywnego zarządzania systemem operacyjnym.

Pytanie 34

Narzędzia do dostosowywania oraz Unity Tweak Tool to aplikacje w systemie Linux przeznaczone do

A. przydzielania uprawnień do zasobów systemowych
B. administracji kontami użytkowników
C. ustawiania zapory systemowej
D. personalizacji systemu
Narzędzia do dostrajania i Unity Tweak Tool to takie fajne dodatki w systemach Linux, które pozwalają na naprawdę sporo, gdy chcemy, żeby nasz pulpit wyglądał tak, jak nam się podoba. Chodzi o to, żeby dostosować interfejs do naszych upodobań – tu możemy zmienić motywy, ikony, czcionki, a nawet układy pulpitów. Za pomocą Unity Tweak Tool można łatwo ochrzcić nasz system nowym motywem kolorystycznym, co naprawdę potrafi odmienić jego wygląd. To narzędzie jest super, bo pozwala nam pokazać swoją osobowość i sprawia, że praca na komputerze staje się przyjemniejsza. W biurach, gdzie ludzie siedzą przy komputerze całe dnie, taka personalizacja naprawdę ma znaczenie. Moim zdaniem, jeżeli czujemy się dobrze w swoim środowisku pracy, to i efektywność idzie w górę.

Pytanie 35

Interfejs UDMA to interfejs

A. szeregowy, używany do podłączania urządzeń wejścia.
B. szeregowy, który służy do wymiany danych pomiędzy pamięcią RAM a dyskami twardymi.
C. równoległy, wykorzystywany między innymi do podłączania kina domowego do komputera.
D. równoległy, który został zastąpiony przez interfejs SATA.
Interfejs UDMA (Ultra Direct Memory Access) to rozwiązanie, które przez dłuższy czas było standardem w komputerach klasy PC, zwłaszcza do podłączania dysków twardych i napędów optycznych przy użyciu taśm ATA/IDE. UDMA to interfejs równoległy – dane przesyłane były wieloma przewodami jednocześnie, co w tamtym czasie pozwalało na osiągnięcie całkiem sporych prędkości transferu, nawet do 133 MB/s w wersji UDMA 6 (Ultra ATA/133). Jednak wraz z rozwojem technologii, pojawiły się szeregowe interfejsy takie jak SATA, które są mniej podatne na zakłócenia elektromagnetyczne i umożliwiają wygodniejsze prowadzenie przewodów oraz wyższe prędkości. Moim zdaniem warto znać historię UDMA, a nawet czasem spotyka się jeszcze starsze komputery lub sprzęt przemysłowy z tym interfejsem – wtedy wiedza o nim jest bardzo przydatna przy serwisie. W praktyce UDMA wymagał stosowania 80-żyłowych taśm, gdzie połowa przewodów była wykorzystywana do uziemienia i ochrony sygnału. To pokazuje, jak równoległość przesyłu wymuszała dodatkowe zabiegi techniczne. Dla porównania, SATA, który go zastąpił, przesyła dane tylko dwoma przewodami (plus masa), co jest dużo prostsze. No i jeszcze jedno – UDMA był typowo używany właśnie do dysków ATA, a jego obsługa wymagała wsparcia zarówno ze strony płyty głównej, jak i systemu operacyjnego. W skrócie: UDMA to interfejs równoległy, który dziś już praktycznie całkiem ustąpił szeregowej magistrali SATA. Warto o tym pamiętać, bo czasem można się jeszcze z nim spotkać, np. podczas modernizacji starszych maszyn.

Pytanie 36

Adres fizyczny karty sieciowej AC-72-89-17-6E-B2 jest zapisany w formacie

A. binarnym
B. oktalnym
C. heksadecymalnym
D. dziesiętnym
Adres AC-72-89-17-6E-B2 jest zapisany w formacie heksadecymalnym, co oznacza, że używa systemu liczbowego o podstawie 16. W heksadecymalnym stosuje się cyfry od 0 do 9 oraz litery od A do F, które reprezentują wartości od 10 do 15. Taki format jest powszechnie stosowany w kontekście adresów MAC (Media Access Control), które identyfikują unikalne urządzenia w sieciach komputerowych. Adresy MAC są kluczowe dla komunikacji w warstwie 2 modelu OSI i są używane podczas przesyłania danych przez Ethernet oraz inne technologie sieciowe. Dla przykładu, w sieciach lokalnych routery i przełączniki wykorzystują adresy MAC do przekazywania pakietów do odpowiednich urządzeń. W praktyce, rozumienie formatu heksadecymalnego jest niezbędne dla administratorów sieci, którzy muszą konfigurować urządzenia, monitorować ruch sieciowy i diagnozować problemy. Przyjmuje się również, że adresy MAC zapisane w formacie heksadecymalnym są bardziej kompaktowe i czytelne niż w innych systemach liczbowych, co wpływa na łatwość ich wykorzystania w dokumentacji oraz konfiguracji sprzętu sieciowego.

Pytanie 37

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 32 GB.
B. 2 modułów, każdy po 16 GB.
C. 2 modułów, każdy po 8 GB.
D. 1 modułu 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 38

Które z poniższych poleceń służy do naprawienia głównego rekordu rozruchowego dysku twardego w systemie Windows?

A. bootcfg
B. fixmbr
C. bcdedit
D. fixboot
Istnieją różne polecenia, które mogą być stosowane do zarządzania procesem rozruchu systemu Windows, ale nie wszystkie one służą do naprawy głównego rekordu rozruchowego. Na przykład, fixboot jest poleceniem używanym do zapisywania nowego kodu rozruchowego na partycji systemowej, co jest przydatne, gdy problem dotyczy sektora rozruchowego, a nie samego MBR. Bcdedit to narzędzie do zarządzania danymi rozruchowymi, co może obejmować ustawienia dotyczące sposobu uruchamiania systemu, ale nie naprawia fizycznych uszkodzeń MBR. Bootcfg, z kolei, jest używane w starszych wersjach Windows do konfigurowania ustawień rozruchu, ale nie jest odpowiednie do naprawy MBR. Wiele osób myli te polecenia, co prowadzi do nieefektywnych prób rozwiązania problemów z uruchamianiem. Kluczowym błędem jest założenie, że wszystkie te polecenia pełnią tę samą funkcję, co jest nieprawidłowe. Aby skutecznie rozwiązywać problemy z rozruchem, ważne jest, aby dobrze rozumieć różnice między tymi narzędziami oraz ich odpowiednie zastosowanie w różnych scenariuszach. Wiedza o tym, kiedy używać konkretnego polecenia, jest kluczowa dla efektywnej diagnostyki i naprawy systemów operacyjnych.

Pytanie 39

Norma EN 50167 odnosi się do rodzaju okablowania

A. szkieletowego
B. pionowego
C. poziomego
D. kampusowego
Norma EN 50167 dotyczy okablowania poziomego, które jest kluczowym elementem w infrastrukturze sieciowej budynków. Okablowanie poziome jest odpowiedzialne za przesyłanie sygnałów między punktami dostępowymi, takimi jak gniazda sieciowe, a urządzeniami końcowymi, na przykład komputerami czy telefonami. W praktyce, odpowiednie zastosowanie standardów dotyczących okablowania poziomego zapewnia wysoką jakość sygnału, minimalizując straty oraz zakłócenia. Norma ta precyzuje wymagania dotyczące instalacji, typów kabli, ich długości oraz sposobów prowadzenia, co jest kluczowe dla zapewnienia sprawności i niezawodności całego systemu. Dzięki wdrożeniu normy EN 50167, można zrealizować efektywne i bezpieczne instalacje sieciowe, które spełniają wymogi zarówno użytkowników, jak i regulacji prawnych. Przykładem zastosowania może być biuro, w którym okablowanie poziome łączy różne strefy robocze, umożliwiając pracownikom swobodny dostęp do zasobów sieciowych.

Pytanie 40

Aby poprawić organizację plików na dysku i przyspieszyć działanie systemu, co należy zrobić?

A. poddać defragmentacji.
B. usunąć pliki tymczasowe.
C. przeskanować dysk za pomocą programu antywirusowego.
D. wyeliminować nieużywane oprogramowanie.
Usuwanie plików tymczasowych czy odinstalowywanie starych programów to coś, co warto robić, żeby komputer działał lepiej, ale to nie jest defragmentacja. Te działania mogą pomóc w zwolnieniu miejsca, co w efekcie może podnieść wydajność, ale nie zmienia, jak dane leżą na dysku. Jak odinstalowujesz nieużywane programy, to też dobrze, ale nie rozwiązuje to problemu z fragmentacją. Skanowanie antywirusowe jest super ważne, żeby pozbyć się wirusów, ale to nie ma wpływu na to, jak szybko dostępne są zfragmentowane pliki. Dużo osób myli te działania z defragmentacją, bo wszystkie one są ważne dla działania systemu, ale celują w różne rzeczy. Często się zdarza, że ludzie myślą, że te wszystkie konserwacje to to samo co defragmentacja i przez to mogą nie rozumieć, jak działa optymalizacja dysku.