Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 20 kwietnia 2026 16:01
  • Data zakończenia: 20 kwietnia 2026 16:31

Egzamin zdany!

Wynik: 29/40 punktów (72,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Jakie polecenie w systemie Windows powinno być użyte do sprawdzania aktywnych połączeń karty sieciowej w komputerze?

A. Telnet
B. Ping
C. Netstat
D. Ipconfig
Polecenie Netstat jest kluczowym narzędziem w systemie Windows do monitorowania i diagnozowania aktywnych połączeń sieciowych. Umożliwia ono wyświetlenie informacji na temat wszystkich aktywnych połączeń TCP/IP oraz UDP, a także statystyk dotyczących interfejsów sieciowych. Przykładowo, używając polecenia 'netstat -an', użytkownik może szybko zobaczyć wszystkie aktywne połączenia oraz ich statusy, co jest niezwykle przydatne w zarządzaniu bezpieczeństwem sieci. Dla administratorów systemów i specjalistów IT, monitorowanie takich połączeń pozwala na identyfikację potencjalnych zagrożeń, jak nieautoryzowane połączenia, czy też analizy wydajności aplikacji sieciowych. Dobrą praktyką jest regularne korzystanie z tego narzędzia w celu weryfikacji stanu sieci oraz wprowadzenia ewentualnych działań naprawczych. Ponadto, zrozumienie wyników generowanych przez polecenie Netstat jest fundamentalne w kontekście zarządzania ruchem sieciowym oraz optymalizacji jego wydajności.

Pytanie 2

W przypadku planowania wykorzystania przestrzeni dyskowej komputera do przechowywania oraz udostępniania danych, takich jak pliki oraz aplikacje dostępne w internecie, a także ich zarządzania, komputer powinien być skonfigurowany jako

A. serwer plików
B. serwer terminali
C. serwer aplikacji
D. serwer DHCP
Serwer plików to dedykowane urządzenie lub oprogramowanie, które umożliwia przechowywanie, zarządzanie i udostępnianie plików w sieci. Jego główną funkcją jest archiwizacja i udostępnianie danych, co czyni go kluczowym elementem w wielu organizacjach. Użytkownicy mogą z łatwością uzyskiwać dostęp do plików z różnych urządzeń. Typowym przykładem zastosowania serwera plików jest przechowywanie dokumentów, zdjęć czy multimediów w centralnej lokalizacji, z której mogą one być udostępniane wielu użytkownikom jednocześnie. W praktyce, konfigurując serwer plików, można korzystać z protokołów takich jak SMB (Server Message Block) lub NFS (Network File System), które są standardami w branży. Dobre praktyki obejmują regularne tworzenie kopii zapasowych danych, aby zapobiec ich utracie, oraz stosowanie systemów uprawnień, które kontrolują, kto ma dostęp do określonych plików. Serwery plików są również często implementowane w architekturze NAS (Network-Attached Storage), co zwiększa ich dostępność w sieci.

Pytanie 3

Urządzeniem, które służy do wycinania kształtów oraz grawerowania między innymi w materiałach drewnianych, szklanych i metalowych, jest ploter

A. bębnowy.
B. tnący.
C. solwentowy.
D. laserowy.
Ploter laserowy to naprawdę bardzo zaawansowane urządzenie, które rewolucjonizuje sposób wycinania i grawerowania w różnych materiałach. Moim zdaniem trudno o bardziej uniwersalne rozwiązanie – technologia laserowa pozwala na pracę zarówno z drewnem, sklejką, szkłem, metalem, jak i plastikiem czy nawet niektórymi rodzajami tkanin. Wszystko to dzięki precyzyjnej wiązce lasera, która topi lub odparowuje materiał dokładnie tam, gdzie potrzeba. Praktycznie w każdej nowoczesnej pracowni reklamowej, fabryce mebli czy warsztacie jubilerskim spotkasz dzisiaj plotery laserowe – to już taki standard branżowy, bez którego trudno sobie wyobrazić szybkie i powtarzalne cięcie nietypowych kształtów czy tworzenie szczegółowych wzorów na powierzchni. Bardzo ważną zaletą jest możliwość sterowania nimi z poziomu komputera – praktycznie każdy projekt można przygotować w programie graficznym, a urządzenie samo perfekcyjnie odwzoruje nawet najdrobniejsze detale. Moim zdaniem, jeżeli ktoś myśli o precyzyjnej obróbce materiałów i zależy mu na wysokiej jakości, to właśnie ploter laserowy jest najlepszym wyborem. To też świetny przykład na to, jak automatyzacja i informatyka łączą się z tradycyjnym rzemiosłem. Warto dodać, że wiele firm inwestuje w takie maszyny, bo pozwalają szybko realizować nietypowe zamówienia – od tabliczek znamionowych po elementy dekoracyjne czy prototypy. Z doświadczenia wiem, że obsługa tego sprzętu wymaga trochę nauki, ale możliwości są ogromne. Dodatkowo, ploter laserowy jest bardzo wydajny – cięcia i grawerunki są powtarzalne i bardzo precyzyjne, co jest nie do przecenienia zwłaszcza w seryjnej produkcji.

Pytanie 4

W strukturze sieciowej zaleca się umiejscowienie jednego punktu abonenckiego na powierzchni wynoszącej

A. 20m^2
B. 10m^2
C. 30m^2
D. 5m^2
Wybór odpowiedzi takich jak 20m², 5m² i 30m² pokazuje szereg nieporozumień związanych z zasadami projektowania sieci strukturalnych. Umieszczenie jednego punktu abonenckiego na 20m² sugeruje zbyt dużą przestrzeń między punktami, co może prowadzić do zwiększenia latencji oraz obniżenia jakości usług. W gęsto zaludnionych obszarach, większe odległości między punktami abonenckimi mogą skutkować przeciążeniem sieci, co negatywnie wpływa na doświadczenie użytkowników. Z kolei odpowiedź 5m² może wskazywać na zbyt dużą gęstość punktów, co w praktyce może prowadzić do problemów z zarządzaniem siecią oraz zwiększonymi kosztami operacyjnymi związanymi z nadmiarem infrastruktury. Na przykład, w przypadku lokalizacji, gdzie zbyt wiele punktów abonenckich mogłoby kolidować z innymi instalacjami, takie podejście może przynieść więcej szkód niż korzyści. Odpowiedź 30m² również nie jest zgodna z najlepszymi praktykami, ponieważ zwiększa odległości między punktami, co w dłuższej perspektywie prowadzi do niewystarczającego pokrycia i jakości usług. Kluczowe jest zrozumienie, że odpowiednie rozmieszczenie punktów abonenckich jest fundamentalne dla zbudowania stabilnej i wydajnej sieci, a nieprzestrzeganie tych zasad może skutkować poważnymi problemami operacyjnymi i niezadowoleniem użytkowników.

Pytanie 5

Jakie polecenie w terminalu systemu operacyjnego Microsoft Windows wyświetla dane dotyczące wszystkich zasobów udostępnionych na komputerze lokalnym?

A. net print
B. net share
C. net file
D. net session
Polecenie 'net share' w systemie Microsoft Windows jest kluczowym narzędziem do zarządzania zasobami udostępnionymi na komputerze lokalnym. Umożliwia ono wyświetlanie informacji na temat wszystkich folderów i zasobów, które są dostępne dla innych użytkowników w sieci. Dzięki jego zastosowaniu administratorzy mogą szybko sprawdzić, które pliki lub foldery są udostępnione oraz jakie mają ustawienia dostępu. Przykładowo, użytkownik może wpisać 'net share' w wierszu poleceń, aby uzyskać listę aktywnych udostępnień, co jest niezwykle przydatne w środowiskach biurowych, gdzie współdzielenie plików jest powszechną praktyką. Dobrą praktyką jest regularne monitorowanie zasobów udostępnionych, aby zapewnić bezpieczeństwo danych, unikając nieautoryzowanego dostępu. Warto również zauważyć, że polecenie to może być używane w skryptach automatyzujących zarządzanie siecią, co zwiększa efektywność pracy administratorów systemów.

Pytanie 6

Dokument mający na celu przedstawienie oferty cenowej dla inwestora dotyczącej przeprowadzenia robót instalacyjnych w sieci komputerowej, to

A. kosztorys ślepy
B. specyfikacja techniczna
C. przedmiar robót
D. kosztorys ofertowy
Kosztorys ofertowy to bardzo ważny dokument, który pokazuje inwestorowi szczegółową ofertę cenową na wykonanie konkretnych robót, jak na przykład instalacja sieci komputerowej. W takim kosztorysie są zawarte wszystkie prace, materiały i inne koszty związane z realizacją projektu. Moim zdaniem, to kluczowy element, kiedy przychodzi do przetargów, bo umożliwia porównanie ofert od różnych wykonawców. Oprócz samej ceny, warto, żeby taki dokument mówił też o terminach realizacji i warunkach płatności. W branży budowlanej dobrze jest, gdy kosztorys jest przygotowany zgodnie z aktualnymi regulacjami prawnymi i normami, bo wtedy można mu zaufać. Przykładowo, kiedy jest przetarg na sieć LAN w biurowcu, każdy wykonawca powinien dostarczyć swoją ofertę z kosztorysem, co ułatwia inwestorowi podjęcie świadomej decyzji.

Pytanie 7

Jaka jest prędkość przesyłania danych w standardzie 1000Base-T?

A. 1 GB/s
B. 1 Gbit/s
C. 1 MB/s
D. 1 Mbit/s
Odpowiedzi 1 Mbit/s, 1 MB/s oraz 1 GB/s są nieprawidłowe i wynikają z nieporozumień dotyczących jednostek miary oraz standardów transmisji danych. Odpowiedź 1 Mbit/s jest znacznie poniżej rzeczywistej prędkości oferowanej przez standard 1000Base-T. 1 Mbit/s oznacza prędkość transmisji wynoszącą jedynie 1 milion bitów na sekundę, co jest typowe dla starszych technologii, jak np. 56k modem. Z kolei 1 MB/s odnosi się do prędkości 1 megabajta na sekundę, co w jednostkach bitowych daje równowartość 8 Mbit/s. Ta wartość również znacząco odbiega od rzeczywistej prędkości standardu 1000Base-T. W przypadku odpowiedzi 1 GB/s, choć zbliżona do prawidłowej wartości, wprowadza w błąd ponieważ 1 GB/s to równowartość 8 Gbit/s, co przewyższa możliwości technologiczne przyjęte w standardzie 1000Base-T. Takie nieprecyzyjne interpretacje jednostek mogą prowadzić do błędnych wyborów przy projektowaniu sieci, co w efekcie wpływa na wydajność i koszty. Ważne jest, aby w kontekście technologii sieciowych znać różnice między jednostkami miary (bit, bajt) oraz zrozumieć ich zastosowanie w praktyce. Zrozumienie tych koncepcji jest kluczowe nie tylko dla inżynierów sieci, ale również dla menedżerów IT, którzy odpowiedzialni są za wdrażanie efektywnych rozwiązań w obszarze infrastruktury sieciowej.

Pytanie 8

Serwer Apache to rodzaj

A. DNS
B. DHCP
C. baz danych
D. WWW
Odpowiedź 'WWW' jest prawidłowa, ponieważ Apache jest najczęściej używanym serwerem WWW, odpowiedzialnym za obsługę stron internetowych. Apache HTTP Server, znany po prostu jako Apache, jest oprogramowaniem serwerowym, które umożliwia użytkownikom publikowanie treści w Internecie, zarządzanie żądaniami HTTP oraz generowanie odpowiedzi w postaci stron internetowych. Dzięki elastyczności i rozbudowanym możliwościom konfiguracji, Apache może być używany zarówno w małych projektach, jak i w dużych aplikacjach webowych. Jako przykład zastosowania, wiele popularnych platform, takich jak WordPress czy Drupal, bazuje na Apache, co podkreśla jego znaczenie w branży. Zgodnie z najlepszymi praktykami, serwer Apache można łączyć z różnymi modułami, co umożliwia rozszerzenie jego funkcji, na przykład poprzez obsługę SSL/TLS dla bezpiecznych połączeń. Warto również pamiętać, że Apache jest zgodny z wieloma systemami operacyjnymi, co czyni go wszechstronnym rozwiązaniem w różnych środowiskach. Z tego względu, wybór Apache jako serwera WWW to często rekomendowane podejście w kontekście tworzenia i zarządzania stronami internetowymi.

Pytanie 9

Protokół TCP (Transmission Control Protocol) funkcjonuje w trybie

A. połączeniowym
B. bezpołączeniowym
C. sekwencyjnym
D. hybrydowym
Protokół TCP (Transmission Control Protocol) działa w trybie połączeniowym, co oznacza, że przed przesłaniem danych nawiązywane jest połączenie między nadawcą a odbiorcą. Ten proces nazywa się handshaking, który zapewnia, że obie strony są gotowe do komunikacji. TCP gwarantuje dostarczenie pakietów danych, zapewniając ich kolejność i integralność. Dzięki mechanizmowi kontroli błędów oraz retransmisji utraconych pakietów, TCP jest idealnym protokołem dla aplikacji wymagających niezawodności, takich jak przeglądanie stron internetowych czy przesyłanie e-maili. Standardy takie jak RFC 793 definiują działanie protokołu TCP, co czyni go fundamentem komunikacji w Internecie. W praktyce oznacza to, że użytkownicy mogą być pewni, że dane dotrą w całości i w odpowiedniej kolejności, co jest kluczowe w przypadku transakcji finansowych czy przesyłania ważnych informacji. W przeciwieństwie do protokołu UDP, który działa w trybie bezpołączeniowym, TCP zapewnia bardziej stabilne i przewidywalne połączenie.

Pytanie 10

Jakie znaczenie ma parametr NEXT w kontekście pomiarów systemów okablowania strukturalnego?

A. przesłuch obcy
B. przesłuch zbliżony
C. straty odbiciowe
D. tłumienie
W kontekście pomiarów okablowania strukturalnego, zrozumienie różnych parametrów, takich jak tłumienie, straty odbiciowe czy przesłuch obcy, ma kluczowe znaczenie dla efektywności sieci. Tłumienie odnosi się do redukcji sygnału w trakcie jego przechodzenia przez medium transmisyjne; im wyższe tłumienie, tym gorsza jakość sygnału na wyjściu. Z drugiej strony, straty odbiciowe dotyczą sytuacji, w której część sygnału zostaje odbita w wyniku niezgodności impedancji, co powoduje, że tylko część sygnału dociera do odbiornika, a reszta jest tracona w postaci odbicia. Przesłuch obcy, z kolei, to wpływ sygnałów z jednego toru na inny tor w różnych kablach, który również może negatywnie wpłynąć na jakość transmisji. Te pomiary są niezwykle ważne, ponieważ pozwalają na ocenę, jak dobrze sieć może funkcjonować w praktyce. W powszechnej praktyce, błędne zrozumienie tych terminów prowadzi do konkluzji, że wszystkie te parametry można stosować wymiennie, co jest nieprawidłowe. Każdy z tych parametrów daje inne informacje i ma swoje unikalne zastosowania w analizie i optimizacji sieci. Ignorowanie tych różnic może skutkować projektowaniem sieci, które nie spełniają wymaganych standardów wydajności i niezawodności.

Pytanie 11

Znak handlowy dla produktów certyfikowanych według standardów IEEE 802.11 to

A. Wi-Fi
B. DSL
C. LTE
D. GSM
Odpowiedź 'Wi-Fi' jest prawidłowa, ponieważ jest to oznaczenie dla technologii bezprzewodowej opartej na standardach IEEE 802.11. Standardy te definiują metody transmisji danych w sieciach lokalnych, co umożliwia urządzeniom takim jak laptopy, smartfony i tablety łączność z Internetem bez użycia kabli. Wi-Fi stało się powszechnym rozwiązaniem w domach, biurach oraz miejscach publicznych, dzięki czemu użytkownicy mogą korzystać z szerokopasmowego dostępu do sieci bez potrzeby fizycznego podłączenia do routera. Warto również zauważyć, że Wi-Fi wspiera różne pasma częstotliwości, takie jak 2.4 GHz i 5 GHz, co pozwala na zwiększenie szybkości transferu danych oraz zmniejszenie zakłóceń. Standardy IEEE 802.11 są regularnie aktualizowane, co zapewnia rozwój technologii i adaptację do rosnących potrzeb użytkowników. Przykładowo, najnowsze standardy, takie jak Wi-Fi 6 (802.11ax), oferują znacznie wyższą wydajność i lepsze zarządzanie ruchem sieciowym w porównaniu do wcześniejszych wersji.

Pytanie 12

Przedstawione wbudowane narzędzie systemów Windows w wersji Enterprise lub Ultimate służy do

Ilustracja do pytania
A. kryptograficznej ochrony danych na dyskach.
B. konsolidacji danych na dyskach.
C. tworzenia kopii dysku.
D. kompresji dysku.
BitLocker to jedno z tych narzędzi systemowych, które – moim zdaniem – powinno być włączane od razu po instalacji Windowsa na komputerach firmowych czy szkolnych. Jego główną rolą jest zapewnienie kryptograficznej ochrony danych na dyskach. Działa to tak, że cała zawartość dysku zostaje zaszyfrowana przy użyciu silnych algorytmów szyfrowania, takich jak AES, a klucz odblokowujący może być przechowywany np. na module TPM lub na zewnętrznym nośniku (pendrive). Dzięki temu, nawet jeśli ktoś fizycznie wyjmie dysk z komputera i spróbuje odczytać dane na innym urządzeniu, nie będzie mógł ich zobaczyć bez właściwego klucza. To rozwiązanie jest szczególnie polecane wszędzie tam, gdzie mamy do czynienia z wrażliwymi informacjami – w biznesie, administracji czy nawet prywatnie. W praktyce wdrożenie BitLockera znacząco podnosi poziom bezpieczeństwa, a do tego spełnia wymagania różnych norm branżowych, np. ISO 27001 czy wytyczne RODO dotyczące ochrony danych osobowych. Szyfrowanie nie wpływa zauważalnie na wydajność pracy nowoczesnych komputerów, a ryzyko przypadkowego ujawnienia danych drastycznie spada. Często spotyka się też BitLocker To Go, który umożliwia szyfrowanie pamięci przenośnych – świetna sprawa, jeśli ktoś gubi pendrive’y. W skrócie: bezpieczeństwo na serio, a nie tylko na papierze.

Pytanie 13

Które medium transmisyjne umożliwia izolację galwaniczną pomiędzy systemami przesyłu danych?

A. Skrętka ekranowana
B. Skrętka nieekranowana
C. Przewód koncentryczny
D. Światłowód
Światłowód jako medium transmisyjne zapewnia separację galwaniczną dzięki zastosowaniu zasadniczo różnych technologii przesyłania sygnału. W przeciwieństwie do przewodów miedzianych, które mogą prowadzić prąd elektryczny i są podatne na zakłócenia elektromagnetyczne, światłowody przesyłają informacje w postaci światła. To oznacza, że nie ma fizycznego połączenia elektrycznego pomiędzy nadajnikiem a odbiornikiem, co eliminuje ryzyko wystąpienia problemów związanych z różnicami potencjałów elektrycznych. Przykładem zastosowania światłowodów są sieci telekomunikacyjne, gdzie używane są do łączenia różnych lokalizacji, szczególnie w sytuacjach, gdzie wymagane są długie dystanse i duże prędkości transmisji danych. Standardy takie jak ITU-T G.652 definiują parametry techniczne dla światłowodów, co zapewnia ich niezawodność i kompatybilność w różnych aplikacjach. Dzięki temu, światłowody znajdują zastosowanie nie tylko w telekomunikacji, ale również w systemach monitoringu oraz w technologii łączności w centrach danych.

Pytanie 14

Podaj właściwe przyporządkowanie usługi z warstwy aplikacji oraz standardowego numeru portu, na którym ta usługa działa?

A. SMTP - 80
B. DHCP - 161
C. IMAP - 8080
D. DNS - 53
Odpowiedzi wskazujące na inne usługi są nieprawidłowe z kilku powodów. Przykładowo, SMTP, czyli Simple Mail Transfer Protocol, służy do przesyłania wiadomości e-mail i standardowo działa na porcie 25, a nie 80. Port 80 jest zarezerwowany dla HTTP, co oznacza, że jest używany do przesyłania danych stron internetowych. W przypadku DHCP, to Dynamic Host Configuration Protocol, jego standardowy port to 67 dla serwera i 68 dla klienta, a nie 161, który jest zarezerwowany dla SNMP (Simple Network Management Protocol). IMAP, czyli Internet Message Access Protocol, używa portu 143 lub 993 w przypadku zabezpieczonej komunikacji SSL/TLS. Wybierając błędne odpowiedzi, można doświadczyć typowych pułapek myślowych, takich jak mylenie portów przypisanych do różnych protokołów lub nieznajomość standardów RFC, które dokładnie definiują te ustawienia. Zrozumienie, które porty są przypisane do konkretnych protokołów, jest kluczowe dla prawidłowej konfiguracji sieci oraz bezpieczeństwa, a mylenie tych wartości prowadzi do problemów z komunikacją w sieci oraz zwiększa ryzyko wystąpienia luk bezpieczeństwa.

Pytanie 15

Aby możliwe było przekierowanie drukowanego dokumentu na dysk twardy, należy w opcjach konfiguracyjnych drukarki wybrać drukowanie do portu

A. COM
B. USB001
C. FILE
D. LPT
Opcja FILE w ustawieniach drukarki to taka trochę ukryta perełka, o której wiele osób nawet nie wie. W praktyce, gdy wybierzesz port FILE, system operacyjny (najczęściej Windows) nie wysyła danych bezpośrednio do fizycznej drukarki, ale tworzy plik na dysku – najczęściej z rozszerzeniem .prn albo .pdf, zależnie od sterownika. To świetne rozwiązanie, gdy chcesz zachować dane wydruku na później, przesłać je do innej osoby, wydrukować później na zupełnie innym komputerze lub nawet skonwertować do innego formatu. Z mojego doświadczenia, FILE bywa wykorzystywany przez techników IT, którzy muszą analizować błędy wydruku albo testować ustawienia bez straty papieru. W praktyce, standard branżowy sugeruje korzystanie z FILE przy wszelkich testach wydajnościowych czy w środowiskach serwerowych, gdzie nie zawsze masz podpiętą fizyczną drukarkę. Moim zdaniem, zawsze warto wiedzieć, gdzie szukać tej opcji, bo może naprawdę ułatwić życie. Dodam jeszcze, że operacje na portach takich jak FILE są zgodne z polityką bezpieczeństwa danych, bo nie każdy dokument powinien się od razu znaleźć na papierze. Można go najpierw przechować, zarchiwizować lub przesłać dalej – dokładnie tak, jak wymagają tego dobre praktyki biurowe czy nawet normy ISO dotyczące zarządzania dokumentacją. To jest właśnie ten techniczny detal, który odróżnia przeciętnego użytkownika od kogoś ogarniętego w IT.

Pytanie 16

W systemie Linux polecenie touch ma na celu

A. wyszukiwanie określonego wzorca w treści pliku
B. stworzenie pliku lub aktualizację daty modyfikacji bądź daty ostatniego dostępu
C. policzenie ilości wierszy, słów i znaków w pliku
D. zmianę nazwy lub przeniesienie pliku
Polecenie 'touch' w systemie Linux pełni kluczową rolę w zarządzaniu plikami, umożliwiając zarówno tworzenie nowych plików, jak i aktualizację daty ostatniej modyfikacji lub dostępu do istniejących plików. Kiedy używasz polecenia 'touch' z nazwą pliku, na przykład 'touch nowy_plik.txt', system sprawia, że plik zostaje utworzony, jeśli jeszcze nie istnieje, lub aktualizuje datę modyfikacji i ostatniego dostępu, jeśli plik już istnieje. To narzędzie jest niezwykle przydatne w praktyce, zwłaszcza w skryptach bash, gdzie często potrzebujemy szybko stworzyć plik konfiguracyjny lub tymczasowy bez konieczności jego edytowania. Dobrym przykładem zastosowania 'touch' jest sytuacja, gdy automatyzujemy procesy w systemie, gdzie wymagane są pliki sygnalizacyjne do oznaczania postępu lub statusu operacji. W kontekście dobrych praktyk, użycie 'touch' pozwala na zachowanie porządku w zarządzaniu plikami i oszczędza czas przy pracy z systemem plików. Dodatkowo, w ramach administracji systemem, 'touch' może być wykorzystywane do resetowania dat plików, co bywa ważne w kontekście kopii zapasowych oraz zarządzania wersjami.

Pytanie 17

Na ilustracji zobrazowano okno ustawień rutera. Wprowadzone parametry sugerują, że

Ilustracja do pytania
A. komputer z adresem MAC 44-8A-5B-5A-56-D0 oraz adresem IP 192.168.17.30 nie będzie w stanie połączyć się z urządzeniami w tej sieci
B. na komputerze z adresem MAC 44-8A-5B-5A-56-D0 skonfigurowano adres IP 192.168.17.30 przy użyciu Panelu Sterowania
C. komputerowi o adresie MAC 44-8A-5B-5A-56-D0 usługa DHCP rutera przydzieli adres IP 192.168.17.30
D. komputer z adresem MAC 44-8A-5B-5A-56-D0 oraz adresem IP 192.168.17.30 został usunięty z sieci
Prawidłowa odpowiedź wskazuje na to że usługa DHCP rutera została skonfigurowana w taki sposób aby przypisywać komputerowi o adresie MAC 44-8A-5B-5A-56-D0 stały adres IP 192.168.17.30. Tego typu konfiguracja jest znana jako rezerwacja DHCP i pozwala na przypisanie określonego adresu IP do konkretnego urządzenia w sieci co jest użyteczne w przypadku gdy chcemy zapewnić urządzeniu zawsze ten sam adres IP bez konieczności ręcznej konfiguracji na każdym urządzeniu. Przykładowo serwery drukarki czy inne urządzenia wymagające stałego adresu IP mogą korzystać z tej funkcji aby zapewnić stabilne i przewidywalne działanie w sieci. Rezerwacja IP jest kluczowym elementem zarządzania siecią pozwalającym na lepszą kontrolę nad alokacją zasobów sieciowych oraz uniknięcie konfliktów IP. Jest to szczególnie ważne w środowiskach biznesowych gdzie stabilność sieci ma bezpośredni wpływ na ciągłość operacyjną przedsiębiorstwa. Zgodnie z najlepszymi praktykami branżowymi rezerwacja DHCP jest preferowanym rozwiązaniem w porównaniu do ręcznego przypisywania adresów IP na urządzeniach co minimalizuje ryzyko błędów konfiguracyjnych.

Pytanie 18

Program do odzyskiwania danych, stosowany w warunkach domowych, umożliwia przywrócenie danych z dysku twardego w sytuacji

A. problemu z elektroniką dysku
B. awarii silnika dysku
C. zamoczenia dysku
D. niezamierzonego skasowania danych
Odzyskiwanie danych z dysku twardego w warunkach domowych jest najskuteczniejsze w przypadku przypadkowego usunięcia danych. W takich sytuacjach, gdy pliki zostały usunięte z systemu operacyjnego, ale nie zostały nadpisane, programy typu recovery mogą skanować dysk w poszukiwaniu utraconych plików. Używają one technik takich jak analiza systemu plików czy skanowanie sektora po sektorze. Przykłady popularnych programów do odzyskiwania danych obejmują Recuva, EaseUS Data Recovery Wizard oraz Stellar Data Recovery. Ważne jest, aby nie zapisywać nowych danych na dysku, z którego chcemy odzyskać pliki, ponieważ może to spowodować nadpisanie usuniętych danych. W przypadku przypadkowego usunięcia postępowanie zgodnie z zasadami dobrych praktyk, takimi jak regularne tworzenie kopii zapasowych i korzystanie z oprogramowania do monitorowania stanu zdrowia dysku, może znacznie zwiększyć szanse na skuteczne odzyskanie danych.

Pytanie 19

Wskaż kształt złącza USB typu C.

Ilustracja do pytania
A. Złącze 2.
B. Złącze 4.
C. Złącze 3.
D. Złącze 1.
Poprawnie wskazane zostało złącze USB typu C – to jest właśnie kształt pokazany jako „Złącze 4”. USB-C ma charakterystyczny, niewielki, owalno‑prostokątny kształt z delikatnie zaokrąglonymi rogami i, co najważniejsze, jest całkowicie symetryczne w poziomie. Dzięki temu wtyczkę można włożyć „obie strony”, nie ma już problemu znanego z USB typu A czy micro USB, gdzie zawsze trzeba było trafić odpowiednią orientacją. W standardzie USB Type‑C zdefiniowano 24 styki, co pozwala na obsługę wysokich prędkości transmisji (USB 3.2, a nawet USB4), trybu Alternate Mode (np. DisplayPort, Thunderbolt) oraz zasilania zgodnego z USB Power Delivery nawet do 100 W, a w nowszych specyfikacjach jeszcze wyżej. W praktyce oznacza to, że jednym kablem USB-C można jednocześnie ładować laptop, przesyłać obraz na monitor i dane do dysku zewnętrznego. W nowoczesnych laptopach, smartfonach, tabletach czy stacjach dokujących USB-C stało się standardem, zalecanym także przez Unię Europejską jako ujednolicone złącze ładowania urządzeń mobilnych. Moim zdaniem warto też zapamiętać, że sam kształt złącza (USB-C) nie gwarantuje konkretnej funkcji – to, czy port obsługuje np. Thunderbolt, DisplayPort czy tylko USB 2.0, zależy od kontrolera i implementacji producenta. Jednak w testach kwalifikacyjnych zwykle chodzi właśnie o rozpoznanie fizycznego kształtu: małe, symetryczne, lekko owalne gniazdo – to USB typu C.

Pytanie 20

Jaki protokół umożliwia terminalowe połączenie zdalne z urządzeniami, zapewniając przy tym transfer danych w sposób zaszyfrowany?

A. SSL (Secure Socket Layer)
B. SSH (Secure Shell)
C. Remote
D. Telnet
SSH (Secure Shell) to protokół używany do bezpiecznego łączenia się ze zdalnymi systemami, oferujący wysoki poziom zabezpieczeń dzięki szyfrowaniu danych. Działa na poziomie aplikacji i umożliwia zdalne logowanie oraz wykonywanie poleceń na serwerach. Zastosowanie SSH jest szerokie, od administracji serwerami, przez transfer plików przy użyciu SCP (Secure Copy Protocol), po zarządzanie infrastrukturą w chmurze. Protokół ten jest zgodny z najlepszymi praktykami w zakresie bezpieczeństwa, jako że zapewnia integralność, poufność oraz autoryzację użytkowników. W przeciwieństwie do protokołu Telnet, który przesyła dane w postaci niezaszyfrowanej, SSH chroni przed podsłuchem i atakami typu man-in-the-middle. Ponadto, SSH wspiera różne metody uwierzytelniania, w tym klucze publiczne i prywatne, co pozwala na znaczne podniesienie poziomu bezpieczeństwa. Dzięki standardom takim jak RFC 4251, SSH stał się podstawowym narzędziem w obszarze zdalnego dostępu, które powinno być stosowane w każdej organizacji.

Pytanie 21

Jakiego rodzaju złącze powinna mieć płyta główna, aby umożliwić zainstalowanie karty graficznej przedstawionej na rysunku?

Ilustracja do pytania
A. PCI
B. AGP
C. PCIe x16
D. PCIe x1
AGP, czyli Accelerated Graphics Port, było spoko złącze dla kart graficznych w latach 90-tych i na początku 2000-nych. Ale z powodu niskiej przepustowości, szybko ustąpiło miejsca PCIe. Dzisiaj AGP już nie występuje w nowych płytach głównych ani kartach graficznych. PCI, czyli Peripheral Component Interconnect, to stary standard, który używano do różnych urządzeń peryferyjnych. Chociaż był użyteczny, to nie dawał wystarczającej przepustowości dla nowoczesnych kart graficznych, dlatego przesiedliśmy się na PCIe. PCIe x1 to mniejsze złącze, które ma mniej pinów i niższą przepustowość, głównie do kart sieciowych czy dźwiękowych. Choć jest częścią tej samej rodziny co x16, to nie ma szans, żeby się sprawdziło w kartach graficznych, bo one potrzebują znacznie szerszego pasma. Złe wyboru złącza często kończą się problemami z kompatybilnością i wydajnością, co zdarza się nowym użytkownikom. W dzisiejszych czasach, przy obecnych wymaganiach graficznych, PCIe x16 jest jedynym sensownym wyborem zapewniającym dobrą wydajność i zgodność z nowoczesnym oprogramowaniem.

Pytanie 22

Narzędziem służącym do tworzenia logicznych podziałów na dysku twardym w systemie GNU/Linux jest

A. convert
B. format
C. truncate
D. fdisk
Odpowiedź 'fdisk' jest prawidłowa, ponieważ jest to narzędzie w systemie GNU/Linux używane do partycjonowania dysków twardych. Umożliwia ono tworzenie, usuwanie oraz modyfikację partycji na dysku, co jest kluczowe w zarządzaniu przestrzenią dyskową. Fdisk operuje na poziomie systemu plików, co pozwala użytkownikowi na dokładne dostosowanie struktury dysku do jego potrzeb. Przykładem zastosowania fdisk może być sytuacja, gdy administrator systemu chce podzielić nowo podłączony dysk twardy na kilka partycji, aby utworzyć osobne obszary dla różnych systemów operacyjnych lub danych. W praktyce korzystanie z fdisk wymaga pewnej ostrożności, ponieważ błędne operacje mogą prowadzić do utraty danych. Dlatego ważne jest, aby przed przystąpieniem do pracy z tym narzędziem zrobić kopię zapasową danych. Narzędzie to jest zgodne z wieloma standardami branżowymi i jest szeroko stosowane w administracji systemami Linux, co czyni je niezbędnym dla każdego, kto zarządza infrastrukturą IT.

Pytanie 23

Protokół stosowany do rozgłaszania w grupie, dzięki któremu hosty informują o swoim członkostwie, to

A. ICMP
B. IGRP
C. EIGRP
D. IGMP
IGMP, czyli Internet Group Management Protocol, jest protokołem odpowiedzialnym za zarządzanie członkostwem w grupach multicastowych w sieciach IP. Umożliwia hostom zgłaszanie swojej przynależności do grup multicastowych, co jest kluczowe dla efektywnego rozgłaszania danych do wielu odbiorców jednocześnie. W praktyce, IGMP jest wykorzystywany w aplikacjach takich jak streaming wideo czy transmisje audio, gdzie wysoka efektywność przesyłania danych do wielu użytkowników jest niezbędna. Zgodnie ze standardem RFC 1112, IGMP operuje na trzech poziomach, co pozwala na dynamiczne zarządzanie członkostwem grupy. Protokół ten jest integralną częścią zarządzania ruchem multicastowym w sieciach lokalnych, co zapewnia optymalizację wykorzystania pasma oraz redukcję przeciążeń. Dzięki IGMP, routery mogą skutecznie śledzić aktywność hostów w sieci i odpowiednio dostosowywać rozgłaszanie danych, co jest zgodne z najlepszymi praktykami w zakresie zarządzania ruchem sieciowym.

Pytanie 24

Aby serwerowa płyta główna mogła działać poprawnie, potrzebuje pamięci z rejestrem. Który z poniższych modułów pamięci będzie z nią zgodny?

A. Kingston 4GB 1600 MHz DDR3 ECC CL11 DIMM 1,5V
B. Kingston 8GB 1333 MHz DDR3 ECC Reg CL9 DIMM 2Rx8
C. Kingston Hynix B 8GB 1600 MHz DDR3L CL11 ECC SODIMM 1,35V
D. Kingston 4GB 1333 MHz DDR3 Non-ECC CL9 DIMM
Odpowiedź Kingston 8GB 1333 MHz DDR3 ECC Reg CL9 DIMM 2Rx8 jest poprawna, ponieważ moduł ten jest zgodny z wymaganiami serwerowych płyt głównych, które często używają pamięci z rejestrem (Registered). Pamięć typu ECC (Error-Correcting Code) jest niezbędna w środowiskach serwerowych, gdzie niezawodność i stabilność danych są kluczowe. Moduł ten zapewnia korekcję błędów, co zwiększa bezpieczeństwo danych podczas operacji obliczeniowych. Dodatkowo, pamięć Registered umożliwia większą skalowalność w porównaniu do pamięci Unbuffered, co jest istotne w konfiguracjach serwerowych, gdzie płyta główna może obsłużyć wiele modułów pamięci. Użycie takich modułów w serwerach minimalizuje ryzyko awarii oraz zapewnia wyższą wydajność w zastosowaniach wymagających intensywnej analizy danych, takich jak bazy danych czy obliczenia w chmurze. Warto również zaznaczyć, że standard DDR3, przy częstotliwości 1333 MHz, oferuje wystarczającą wydajność dla wielu zastosowań serwerowych. W związku z tym, wybór tego modułu pamięci jest zgodny z najlepszymi praktykami w branży serwerowej.

Pytanie 25

Który typ drukarki powinien być wykorzystany w dziale sprzedaży hurtowni materiałów budowlanych do tworzenia faktur na papierze samokopiującym, aby uzyskać kopie wydruku?

A. Igłowa
B. Atramentowa
C. Sublimacyjna
D. Laserowa
Wybór drukarki atramentowej do generowania faktur na papierze samokopiującym jest błędny, ponieważ technologia atramentowa nie jest przystosowana do drukowania na wielu warstwach papieru jednocześnie. Atrament może nie przenikać w sposób wystarczający przez wszystkie warstwy, co skutkuje słabą jakością kopii, a w niektórych przypadkach ich całkowitym brakiem. Dodatkowo, koszt atramentu w dłuższym okresie użytkowania może być znaczący, co nie jest opłacalne przy dużej liczbie wydruków. Drukarka laserowa, choć charakteryzująca się wysoką jakością druku, również nie sprawdzi się w tym przypadku. Proces drukowania laserowego opiera się na tonera, który nie przenika przez papier w taki sposób, aby uzyskać kopie. Z kolei drukarka sublimacyjna, która jest używana głównie w fotografii, również nie jest przystosowana do druku na papierze samokopiującym. W rzeczywistości, nieprzemyślane podejście do wyboru technologii druku może prowadzić do frustracji użytkowników, którzy oczekują efektywności w codziennych operacjach. Konsekwentnie, należy zwracać uwagę na specyfikę zadań, dla których sprzęt jest przeznaczony, aby uniknąć inwestycji w niewłaściwe rozwiązania technologiczne.

Pytanie 26

Aby osiągnąć przepustowość 4 GB/s w obydwie strony, konieczne jest zainstalowanie w komputerze karty graficznej używającej interfejsu

A. PCI - Express x 1 wersja 3.0
B. PCI - Express x 4 wersja 2.0
C. PCI - Express x 16 wersja 1.0
D. PCI - Express x 8 wersja 1.0
Odpowiedzi wskazujące na karty graficzne z interfejsem PCI-Express x1, x4 lub x8 nie są adekwatne do osiągnięcia wymaganej przepustowości 4 GB/s w każdą stronę. Interfejs PCI-Express x1 wersji 3.0 oferuje maksymalną przepustowość zaledwie 1 GB/s, co jest zdecydowanie niewystarczające dla nowoczesnych aplikacji wymagających dużych prędkości transferu, takich jak gry komputerowe czy programy do obróbki grafiki. Z kolei PCI-Express x4 wersji 2.0 zapewnia 2 GB/s, co również nie spełnia zadanych kryteriów. Interfejs PCI-Express x8 wersji 1.0, mimo iż teoretycznie oferuje 4 GB/s, nie jest optymalnym wyborem, gdyż wykorzystuje starszą wersję standardu, a zatem jego rzeczywista wydajność może być ograniczona przez inne czynniki, takie jak architektura płyty głównej i interfejsowe przeciążenia. Często popełnianym błędem jest zakładanie, że wystarczy wybrać interfejs o minimalnej wymaganej przepustowości, bez uwzględnienia przyszłych potrzeb rozwojowych systemu. Rekomenduje się stosowanie komponentów, które przewyższają aktualne wymagania, co zapewni długoterminową wydajność i elastyczność konfiguracji. Dlatego kluczowe jest, aby przy wyborze karty graficznej brać pod uwagę nie tylko bieżące potrzeby, ale także możliwe przyszłe rozszerzenia systemu.

Pytanie 27

Thunderbolt stanowi interfejs

A. szeregowy, asynchroniczny, bezprzewodowy
B. szeregowy, dwukanałowy, dwukierunkowy, przewodowy
C. równoległy, dwukanałowy, dwukierunkowy, bezprzewodowy
D. równoległy, asynchroniczny, przewodowy
Odpowiedź 'szeregowy, dwukanałowy, dwukierunkowy, przewodowy' jest poprawna, ponieważ interfejs Thunderbolt, stworzony przez firmę Intel we współpracy z Apple, rzeczywiście operuje w trybie szeregowym. Oznacza to, że dane są przesyłane jeden po drugim, co pozwala na osiąganie dużych prędkości transferu, sięgających nawet 40 Gbps w najnowszych wersjach. Dwukanałowość oznacza, że Thunderbolt wykorzystuje dwa kanały do przesyłania danych, co podwaja przepustowość w porównaniu do jednego kanału. Dwukierunkowość pozwala na jednoczesne wysyłanie i odbieranie danych, co jest kluczowe w zastosowaniach wymagających dużych przepustowości, takich jak edycja wideo w czasie rzeczywistym czy transfer dużych zbiorów danych. Przewodowy charakter interfejsu Thunderbolt oznacza, że wymaga on fizycznego połączenia kablowego, co zapewnia stabilność oraz mniejsze opóźnienia w transmisji. W praktyce, wykorzystanie Thunderbolt można zaobserwować w nowoczesnych laptopach, stacjach dokujących oraz zewnętrznych dyskach twardych, które korzystają z tej technologii do szybkiej komunikacji. Standard ten jest uznawany za jedną z najlepszych opcji do podłączania wysokowydajnych urządzeń. Dodatkowo, Thunderbolt obsługuje protokoły DisplayPort i PCI Express, co czyni go wszechstronnym rozwiązaniem dla różnych zastosowań.

Pytanie 28

W celu konserwacji elementów z łożyskami oraz ślizgami w urządzeniach peryferyjnych wykorzystuje się

A. powłokę grafitową
B. sprężone powietrze
C. tetrową szmatkę
D. smar syntetyczny
Smar syntetyczny jest optymalnym rozwiązaniem do konserwacji elementów łożyskowanych oraz ślizgowych w urządzeniach peryferyjnych ze względu na swoje wyjątkowe właściwości tribologiczne. Charakteryzuje się niskim współczynnikiem tarcia, wysoką odpornością na ścinanie oraz stabilnością termiczną, co sprawia, że jest idealny do zastosowań w warunkach wysokotemperaturowych i dużych obciążeń. Przykładowo, w silnikach elektrycznych lub napędach mechanicznych, smar syntetyczny zmniejsza zużycie elementów ściernych, co wydłuża żywotność urządzeń. Zgodnie z normą ISO 6743, smary syntetyczne są klasyfikowane według różnych wymagań aplikacyjnych, co pozwala na dobór odpowiedniego produktu do specyficznych warunków pracy. Użycie smaru syntetycznego jest również zgodne z najlepszymi praktykami w zakresie utrzymania ruchu, co przyczynia się do zwiększenia efektywności energetycznej oraz zmniejszenia kosztów operacyjnych.

Pytanie 29

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 32 GB.
B. 2 modułów, każdy po 8 GB.
C. 1 modułu 16 GB.
D. 2 modułów, każdy po 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 30

Jaką komendę należy wykorzystać, aby uzyskać informację o rekordzie MX dla podanej domeny?

A. Sieć nie ogłasza identyfikatora SSID
B. Karta sieciowa jest aktywna
C. Karta sieciowa korzysta z DHCP
D. Sieć jest zabezpieczona hasłem
Pytanie dotyczy sposobu sprawdzenia wartości rekordu MX dla domeny, a odpowiedzi sugerują różne aspekty konfiguracji sieci, które nie są powiązane z tą konkretną funkcjonalnością. Sieć nie rozgłaszająca identyfikatora SSID dotyczy przede wszystkim kwestii widoczności sieci bezprzewodowej, co nie ma wpływu na konfigurację rekordów MX. Rekordy te są częścią systemu DNS (Domain Name System) i są zdefiniowane w strefach DNS, co oznacza, że muszą być odpowiednio skonfigurowane na serwerach DNS, a nie mają związku z identyfikatorem SSID. Z kolei włączenie DHCP na karcie sieciowej dotyczy przypisywania adresów IP w lokalnej sieci, co także nie ma wpływu na konfigurację DNS i rekordy MX. Podobnie, hasło zabezpieczające sieć bezprzewodową odnosi się do autoryzacji dostępu do sieci, ale nie wpływa na to, jak rekordy MX są przechowywane i udostępniane. Właściwe podejście do analizy wartości rekordu MX wymaga umiejętności korzystania z narzędzi takich jak 'nslookup' czy 'dig', które są zaprojektowane specjalnie w celu interakcji z systemem DNS, a nie zajmowania się aspektami bezpieczeństwa czy dostępu do sieci. Typowe błędy myślowe prowadzące do takich niepoprawnych odpowiedzi obejmują mylenie różnych warstw infrastruktury sieciowej oraz brak zrozumienia funkcji, jakie pełnią poszczególne elementy w kontekście zarządzania domenami i pocztą elektroniczną.

Pytanie 31

Aby przygotować do pracy skaner, którego opis zawarto w tabeli, należy w pierwszej kolejności

Skaner przenośny IRIScanBook 3
Bezprzewodowy, zasilany baterią i bardzo lekki. Można go przenosić w dowolne miejsce!
Idealny do skanowania książek, czasopism i gazet
Rozdzielczość skanowania 300/600/900 dpi
Prędkość skanowania: 2 sek. dla tekstów biało-czarnych / 3 sek. dla tekstów kolorowych
Bezpośrednie skanowanie do formatu PDF i JPEG
Zapis skanu na kartę microSD ™ (w zestawie)
Kolorowy ekran (do podglądu zeskanowanych obrazów)
3 baterie alkaliczne AAA (w zestawie)
A. podłączyć skaner do komputera za pomocą kabla Ethernet.
B. podłączyć ładowarkę i całkowicie naładować akumulator.
C. włożyć baterię i kartę pamięci do odpowiedniego gniazda skanera.
D. włączyć urządzenie i rozpocząć bezpośrednie skanowanie do formatu PDF.
Do przygotowania skanera IRIScanBook 3 do pracy trzeba najpierw zadbać o dwie absolutnie podstawowe rzeczy: zasilanie i pamięć na dane. W praktyce oznacza to, że należy włożyć baterie alkaliczne AAA, które są zresztą w zestawie, a do tego kartę microSD – właśnie tam będą zapisywane wszystkie zeskanowane pliki. To jest zgodne z ogólnie przyjętymi zasadami użytkowania urządzeń przenośnych, szczególnie tych bez własnej pamięci wbudowanej lub stałego zasilania sieciowego. Z mojego doświadczenia wynika, że bardzo często użytkownicy próbują uruchomić sprzęt bez tych dwóch elementów, co kończy się frustracją, bo urządzenie nawet nie zareaguje na włączenie. To naprawdę podstawowa procedura – zawsze najpierw sprawdzamy zasilanie i nośnik danych. Dopiero po tym można myśleć o konfiguracji, wyborze trybu pracy czy ustawieniu rozdzielczości skanowania. W branży IT i elektronice użytkowej mówi się wręcz o zasadzie „zawsze od podstaw”, czyli najpierw hardware, potem software. Warto też pamiętać, że przy pracy w terenie wymiana kart microSD może być bardzo praktyczna – można szybko zmienić nośnik i kontynuować skanowanie bez kopiowania danych. Dobre praktyki podpowiadają też, żeby zawsze sprawdzić stan baterii, bo niska energia może skutkować przerwaniem procesu skanowania, co bywa frustrujące zwłaszcza przy dużych dokumentach. Tak więc, bez baterii i karty pamięci – ani rusz!

Pytanie 32

Użytkownicy sieci WiFi zauważyli problemy oraz częste zrywanie połączenia z internetem. Co może być przyczyną tej sytuacji?

A. niedziałający serwer DHCP
B. niewłaściwy sposób szyfrowania sieci
C. zbyt niski poziom sygnału
D. nieprawidłowe hasło do sieci
Zbyt słaby sygnał WiFi jest jedną z najczęstszych przyczyn problemów z połączeniem. Sygnał radiowy przesyłany przez router może być osłabiony przez różnorodne przeszkody, takie jak ściany, meble czy inne urządzenia elektroniczne. W praktyce, jeśli użytkownicy znajdują się w odległości zbyt dużej od routera lub w strefie z ograniczoną widocznością, mogą doświadczyć przerywanego połączenia lub jego całkowitej utraty. Dobrym rozwiązaniem w takich przypadkach jest umieszczenie routera w centralnym punkcie domu, zminimalizowanie przeszkód oraz korzystanie z rozszerzeń sygnału, takich jak repeater WiFi czy systemy mesh. Standardy takie jak IEEE 802.11ac oraz nowsze 802.11ax (Wi-Fi 6) oferują lepszą wydajność i zasięg, dlatego warto rozważyć ich użycie. Regularne sprawdzanie siły sygnału przy użyciu aplikacji mobilnych lub narzędzi diagnostycznych może również pomóc w identyfikacji i rozwiązaniu problemów z połączeniem.

Pytanie 33

Narzędziem do zarządzania usługami katalogowymi w systemach Windows Server, które umożliwia przeniesienie komputerów do jednostki organizacyjnej wskazanej przez administratora, jest polecenie

A. dsrm
B. redircmp
C. redirusr
D. dcdiag
Polecenie redircmp jest narzędziem wykorzystywanym w systemach Windows Server do przekierowywania komputerów do określonej jednostki organizacyjnej (OU) w Active Directory. Umożliwia to administratorom automatyzację procesu przypisywania nowych komputerów do odpowiednich OU, co jest kluczowe dla utrzymywania porządku w strukturze katalogowej oraz zapewniania właściwych zasad grupowych na poziomie kolejnych jednostek. Przykładowo, jeśli w organizacji istnieje potrzeba, aby wszystkie nowe komputery były automatycznie przypisywane do OU odpowiedzialnej za dział IT, administrator może użyć polecenia redircmp, aby skonfigurować to przekierowanie. Umożliwia to również uproszczenie zarządzania politykami grupowymi, ponieważ każda jednostka organizacyjna może mieć przypisane odmienne zasady. Dobre praktyki w zakresie zarządzania Active Directory zalecają stosowanie takich narzędzi, aby minimalizować błędy ludzkie i usprawniać procesy administracyjne. W skrajnych przypadkach, brak prawidłowego przypisania komputerów do OU może prowadzić do problemów z dostępem do zasobów czy zastosowaniem polityk bezpieczeństwa.

Pytanie 34

Urządzenie sieciowe działające w trzeciej warstwie modelu ISO/OSI, obsługujące adresy IP, to

A. bridge
B. hub
C. repeater
D. router
Router to urządzenie sieciowe działające na trzeciej warstwie modelu ISO/OSI, znanej jako warstwa sieci. Jego głównym zadaniem jest kierowanie ruchem danych pomiędzy różnymi sieciami, operując na adresach IP. Routery są kluczowe w realizacji komunikacji w Internecie, ponieważ umożliwiają wymianę informacji pomiędzy urządzeniami znajdującymi się w różnych podsieciach. W praktyce, routery potrafią analizować adresy IP pakietów danych, co pozwala na podejmowanie decyzji o ich dalszej trasie. Dzięki zastosowaniu protokołów, takich jak RIP, OSPF czy BGP, routery mogą dynamicznie aktualizować swoje tablice rutingu, co zwiększa efektywność komunikacji. W kontekście bezpieczeństwa, routery często pełnią funkcję zapory sieciowej, filtrując nieautoryzowany ruch. Przykładem zastosowania routerów są domowe sieci Wi-Fi, gdzie router łączy lokalne urządzenia z Internetem, kierując ruch danych w sposób efektywny i bezpieczny. Dobre praktyki obejmują regularne aktualizowanie oprogramowania routerów oraz konfigurowanie zabezpieczeń, takich jak WPA3, aby chronić przesyłane dane.

Pytanie 35

Industry Standard Architecture to standard magistrali, który określa, że szerokość szyny danych wynosi:

A. 128 bitów
B. 64 bitów
C. 32 bitów
D. 16 bitów
Odpowiedź z 16 bitami jest jak najbardziej trafna. To właśnie Industry Standard Architecture (ISA) określa architekturę komputerów, w której szerokość magistrali danych wynosi 16 bitów. Ten standard wymyślił Intel w latach 80., co było mega ważne dla rozwoju komputerów osobistych. Dzięki temu można było lepiej przetwarzać dane. Architektura 16-bitowa pozwalała na przechowywanie większej ilości informacji w jednym cyklu, a to naprawdę zwiększało moc obliczeniową. Dobrym przykładem są komputery PC bazujące na procesorach Intel 8086 i 80286, które były w tamtych czasach bardzo popularne. W porównaniu do starszych, 8-bitowych mikroprocesorów, 16-bitowa architektura dawała radę z większą pamięcią i bardziej skomplikowanymi aplikacjami. No i w końcu, rozwój ISA doprowadził do tego, że powstały nowsze standardy jak EISA czy PCI, które jeszcze bardziej podkręciły możliwości komputerów.

Pytanie 36

Liczba \( 10_{D} \) w systemie uzupełnień do dwóch jest równa

A. \(01110_{U2}\)
B. \(11010_{U2}\)
C. \(01010_{U2}\)
D. \(10010_{U2}\)
Warianty, w których na pierwszej pozycji pojawia się jedynka, sugerują liczbę ujemną w kodzie uzupełnień do dwóch. I tu zwykle zaczynają się typowe pomyłki. Wiele osób myśli: „skoro 10₁₀ to 1010₂, to wystarczy dopisać coś z lewej strony, obojętnie jakie bity” albo próbuje zgadywać na zasadzie podobieństwa do dziesiętnego. Niestety w systemach pozycyjnych tak to nie działa. W kodzie U2 pierwszy bit jest bitem znaku, a jego wartość ma bardzo konkretne znaczenie. Jeśli ten bit jest równy 1, to cała liczba jest ujemna i nie można jej już traktować jak zwykłego binarnego dodatniego zapisu. To jest najczęstszy błąd: patrzenie na 11010₂ czy 10010₂ jak na „trochę większą dziesiątkę”. W rzeczywistości są to inne liczby, o całkowicie innym znaczeniu. Druga typowa pułapka to mylenie zwykłego kodu binarnego z kodem ze znakiem. W kodzie U2 dodatnie liczby zapisujemy tak samo jak w binarnym, ale tylko wtedy, gdy bit znaku wynosi 0. Gdy pojawia się 1 na początku, trzeba zastosować procedurę odwrotną: odczytać wartość ujemną poprzez odwrócenie wszystkich bitów i dodanie 1, a dopiero potem przeliczyć wynik na dziesiętny. Z mojego doświadczenia wynika, że wiele osób próbuje robić to „na oko”, co kończy się kompletnym rozjazdem wartości. Dobre praktyki mówią jasno: najpierw sprawdzamy bit znaku, potem decydujemy, czy traktujemy słowo binarne jako dodatnie, czy trzeba wyliczyć jego wartość jako liczbę ujemną. W projektowaniu elektroniki cyfrowej, w programowaniu niskopoziomowym czy przy analizie rejestrów sprzętowych takie niuanse mają ogromne znaczenie. Jedno źle zinterpretowane słowo w U2 i algorytm zaczyna zwracać ujemne wyniki tam, gdzie spodziewamy się dodatnich, albo odwrotnie. Dlatego nie wystarczy, że zapis „wygląda znajomo” – musi być zgodny z zasadami reprezentacji liczb w systemie uzupełnień do dwóch.

Pytanie 37

Karta sieciowa przedstawiona na ilustracji ma zdolność przesyłania danych z maksymalną prędkością

Ilustracja do pytania
A. 300 Mb/s
B. 11 Mb/s
C. 54 Mb/s
D. 108 Mb/s
Karta sieciowa przedstawiona na obrazku działa w standardzie IEEE 802.11g który został opracowany jako rozwinięcie wcześniejszego standardu 802.11b. Standard 802.11g pozwala na przesyłanie danych z maksymalną prędkością 54 Mb/s co czyni go wydajniejszym rozwiązaniem w porównaniu do 802.11b który oferuje tylko 11 Mb/s. Dzięki zastosowaniu technologii OFDM (Orthogonal Frequency Division Multiplexing) 802.11g zapewnia lepszą przepustowość i stabilność połączenia w środowiskach o dużym zagęszczeniu urządzeń. Praktyczne zastosowania kart sieciowych w standardzie 802.11g obejmują sieci domowe oraz biurowe gdzie wymagana jest umiarkowana prędkość transmisji danych wystarczająca do przeglądania Internetu przesyłania plików czy oglądania multimediów w standardowej jakości. Warto również podkreślić że 802.11g jest wstecznie kompatybilny z 802.11b co umożliwia integrację z istniejącymi urządzeniami bez konieczności wymiany całej infrastruktury sieciowej. W latach gdy 802.11g był dominującym standardem stanowił istotny krok w kierunku rozwoju technologii bezprzewodowych dzięki czemu zyskał szeroką akceptację w branży IT.

Pytanie 38

Czym jest kopia różnicowa?

A. polega na kopiowaniu jedynie plików, które zostały stworzone lub zmienione od momentu utworzenia ostatniej kopii pełnej
B. polega na kopiowaniu jedynie plików, które zostały zmodyfikowane od chwili utworzenia ostatniej kopii pełnej
C. polega na kopiowaniu jedynie plików, które zostały stworzone od momentu ostatniej kopii pełnej
D. polega na kopiowaniu jedynie tej części plików, która została dodana od czasu utworzenia ostatniej kopii pełnej
Odpowiedzi, które skupiają się na kopiowaniu tylko plików stworzonych lub zmienionych, często mylnie identyfikują istotę kopii różnicowej. Niepoprawne odpowiedzi sugerują różne interpretacje tego procesu. Na przykład, stwierdzenie, że kopia różnicowa polega na kopiowaniu wyłącznie plików, które zostały utworzone od czasu ostatniej kopii, pomija kluczowy aspekt zmienionych plików. Zmiany w plikach są istotnym elementem, który musi być uwzględniony, aby zapewnić pełne i aktualne odwzorowanie danych. Inna błędna koncepcja odnosi się do kopiowania tylko tej części plików, która została dopisana, co z kolei nie oddaje całej złożoności procesu różnicowego. Proces ten musi uwzględniać wszystkie zmiany, a nie tylko nowe fragmenty. W kontekście praktycznym, nieprawidłowe zrozumienie kopii różnicowej może prowadzić do sytuacji, w której użytkownik nie jest w stanie przywrócić pełnych danych po awarii, ponieważ nie uwzględnił wszystkich plików, które mogły ulec zmianie. Trudności te są częstym źródłem problemów w strategiach zarządzania danymi. Efektywne zarządzanie danymi wymaga zrozumienia i prawidłowego zastosowania technik kopii zapasowych, a ignorowanie istoty kopii różnicowej może prowadzić do nieodwracalnych strat.

Pytanie 39

Aby sprawdzić dysk twardy w systemie Linux na obecność uszkodzonych sektorów, użytkownik może zastosować program

A. fsck
B. defrag
C. scandisk
D. chkdisk
Program fsck, czyli "file system consistency check", jest narzędziem używanym w systemach Unix i Linux do sprawdzania integralności systemu plików oraz naprawy ewentualnych błędów. Główną funkcjonalnością fsck jest analiza dysku twardego w celu zidentyfikowania uszkodzonych sektorów, błędów w strukturze danych oraz problemów z metadanymi. Przykładem jego zastosowania może być uruchomienie polecenia 'fsck /dev/sda1', które sprawdzi system plików znajdujący się na partycji sda1. Warto pamiętać, że korzystanie z fsck w trakcie działania systemu lub z zamontowanymi systemami plików może prowadzić do dodatkowych problemów, dlatego zaleca się uruchamianie go w trybie ratunkowym lub po odmontowaniu partycji. Stosując fsck, użytkownicy mogą zapewnić stabilność i bezpieczeństwo danych na dysku twardym, co jest zgodne z najlepszymi praktykami zarządzania systemami IT.

Pytanie 40

Który układ mikroprocesora jest odpowiedzialny między innymi za pobieranie rozkazów z pamięci oraz generowanie sygnałów sterujących?

A. ALU
B. IU
C. EU
D. FPU
Na pierwszy rzut oka wybór ALU wydaje się logiczny, bo to bardzo znany element mikroprocesora i kojarzy się z wykonywaniem operacji. Jednak ALU – Arithmetic Logic Unit – odpowiada głównie za realizowanie operacji arytmetycznych i logicznych, takich jak dodawanie, odejmowanie czy porównania bitowe. To taki "kalkulator" mikroprocesora, ale nie zarządza pobieraniem rozkazów ani nie generuje sygnałów sterujących dla innych jednostek. FPU, czyli Floating Point Unit, to wyspecjalizowana jednostka do operacji na liczbach zmiennoprzecinkowych. Bez niej bardziej zaawansowane obliczenia matematyczne wykonywałyby się bardzo wolno, jednak FPU w ogóle nie zajmuje się cyklem rozkazowym czy sterowaniem procesorem. Z kolei EU (Execution Unit) to trochę ogólne pojęcie – czasem odnosi się do jednostek wykonawczych, które faktycznie realizują instrukcje, ale nie one decydują o tym, którą instrukcję pobrać i kiedy to nastąpi. Najczęstszym błędem przy tego typu pytaniach jest utożsamianie jednostki wykonawczej z jednostką sterującą, a to dwa zupełnie różne byty! W polskich materiałach edukacyjnych często spotyka się uproszczenie, że "procesor wykonuje rozkazy", przez co niektórzy myślą, że to właśnie ALU, FPU czy EU są "mózgiem" całej operacji. A to IU, jednostka sterująca, jest tym centrum decyzyjnym – to ona pobiera rozkazy z pamięci, dekoduje je i wydaje polecenia pozostałym układom. Moim zdaniem dobrze jest raz a porządnie rozróżnić te funkcje, bo potem – przy projektowaniu prostych układów w FPGA albo analizie wydajności procesora – łatwo się pogubić. W praktyce, gdybyśmy zabrali z CPU IU, procesor przestałby w ogóle działać, bo żaden inny układ nie przejąłby jej obowiązków sterowania cyklem rozkazowym. To taka trochę niewidzialna ręka całego systemu, o której niestety często się zapomina, skupiając uwagę na bardziej "medialnych" jednostkach jak ALU czy FPU.