Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 17 kwietnia 2026 19:37
  • Data zakończenia: 17 kwietnia 2026 20:10

Egzamin zdany!

Wynik: 24/40 punktów (60,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Protokół pakietów użytkownika, który zapewnia dostarczanie datagramów w trybie bezpołączeniowym, to

A. UDP
B. IP
C. ARP
D. TCP
Wybór IP, ARP lub TCP jako protokołów dostarczania datagramów w kontekście bezpołączeniowego przesyłania danych może prowadzić do nieporozumień dotyczących ich rzeczywistej funkcji i charakterystyki. Protokół IP (Internet Protocol) odpowiada za adresację oraz routing pakietów w sieci, ale nie jest protokołem transportowym, co oznacza, że nie zapewnia transportu danych pomiędzy aplikacjami. IP jest odpowiedzialne za dostarczenie pakietów do odpowiedniego adresu, ale nie gwarantuje, że pakiety dotrą w odpowiedniej kolejności, ani że nie zostaną utracone. ARP (Address Resolution Protocol) służy do mapowania adresów IP na adresy MAC i jest wykorzystywane na poziomie warstwy łącza danych, a nie transportu. Z kolei TCP (Transmission Control Protocol) to protokół transportowy, który zapewnia połączenie między aplikacjami, a także gwarantuje dostarczenie danych, ich poprawność oraz kolejność. TCP jest zatem protokołem połączeniowym, co stoi w sprzeczności z zasadą bezpołączeniowego dostarczania datagramów. Typowym błędem myślowym jest mylenie protokołów transportowych z protokołami sieciowymi oraz założenie, że wszystkie protokoły transportowe muszą gwarantować dostarczenie danych. W praktyce, wybór odpowiedniego protokołu jest kluczowy dla optymalizacji działania aplikacji i zrozumienie tych różnic jest fundamentem dla każdego specjalisty IT.

Pytanie 2

Profil użytkownika systemu Windows, który można wykorzystać do logowania na dowolnym komputerze w sieci, przechowywany na serwerze i mogący być edytowany przez użytkownika, to profil

A. lokalny
B. tymczasowy
C. mobilny
D. obowiązkowy
Profil mobilny to typ profilu użytkownika w systemie Windows, który jest przechowywany na serwerze i umożliwia użytkownikowi logowanie się na różnych komputerach w sieci. Dzięki temu rozwiązaniu użytkownicy mogą korzystać z tego samego środowiska pracy, niezależnie od tego, na jakim urządzeniu się logują. Profil mobilny synchronizuje ustawienia i pliki użytkownika między komputerami, co znacznie ułatwia pracę w środowiskach korporacyjnych, gdzie pracownicy mogą przemieszczać się między biurami lub korzystać z różnych urządzeń. W praktyce, profil mobilny pozwala na zachowanie spójności doświadczeń użytkownika, co jest zgodne z dobrymi praktykami w zarządzaniu infrastrukturą IT. Dodatkowo, w kontekście bezpieczeństwa, umożliwia centralne zarządzanie danymi i politykami bezpieczeństwa, co jest kluczowe w nowoczesnych organizacjach. Przykładem zastosowania profilu mobilnego mogą być scenariusze, w których pracownicy często podróżują lub pracują w różnych lokalizacjach, a dzięki temu rozwiązaniu mogą szybko dostosować się do nowego środowiska bez utraty dostępu do swoich istotnych danych.

Pytanie 3

W systemie Linux polecenie chown służy do

A. modyfikacji parametrów pliku
B. zmiany właściciela pliku
C. regeneracji systemu plików
D. przemieszczania pliku
Polecenie chown w systemie Linux jest kluczowym narzędziem do zarządzania uprawnieniami plików i katalogów, umożliwiającym zmianę właściciela pliku. Dzięki niemu administratorzy mogą przypisać plik lub katalog do innego użytkownika lub grupy, co jest istotne w kontekście bezpieczeństwa systemu. Na przykład, jeśli plik został stworzony przez jednego użytkownika, ale musi być dostępny dla innego, który ma wykonywać określone operacje, chown pozwala na taką zmianę. Przykład użycia: polecenie 'chown nowy_użytkownik plik.txt' zmienia właściciela pliku 'plik.txt' na 'nowy_użytkownik'. Dobrą praktyką jest regularna kontrola właścicieli plików, aby zapobiegać nieautoryzowanemu dostępowi i dbać o integralność systemu plików. Zmiana właściciela jest również istotna w kontekście grup użytkowników, gdzie można przypisać pliki do określonych grup, co ułatwia współpracę w zespołach.

Pytanie 4

Jakie urządzenie w warstwie łącza danych modelu OSI analizuje adresy MAC zawarte w ramkach Ethernet i na tej podstawie decyduje o przesyłaniu sygnału między segmentami sieci lub jego blokowaniu?

A. Most.
B. Punkt dostępowy.
C. Koncentrator.
D. Wzmacniak.
Wzmacniak, koncentrator oraz punkt dostępowy to urządzenia, które pełnią różne funkcje w strukturze sieci, ale nie są odpowiednie do analizy adresów MAC i podejmowania decyzji na ich podstawie. Wzmacniak, na przykład, jest używany do zwiększania sygnału w sieci, co jest przydatne w przypadku dużych odległości, ale nie ma zdolności do filtrowania ruchu na podstawie adresów MAC. Z tego powodu w sieciach, w których stosuje się wzmacniaki, może dochodzić do kolizji, ponieważ wszystkie dane są przesyłane do wszystkich portów, niezależnie od docelowego adresu. Koncentrator działa na podobnej zasadzie, przekazując sygnał do wszystkich podłączonych urządzeń, co także prowadzi do nieefektywnego zarządzania ruchem. Z kolei punkt dostępowy to urządzenie, które umożliwia bezprzewodowy dostęp do sieci, ale nie analizuje ramki Ethernet pod kątem adresów MAC, ponieważ działa na warstwie dostępu do sieci. Często użytkownicy mylą te urządzenia, co może prowadzić do niepoprawnych wniosków o ich funkcjonalności. Ważne jest zrozumienie, że choć wszystkie te urządzenia odgrywają kluczową rolę w kształtowaniu infrastruktury sieciowej, to tylko mosty mają zdolność do inteligentnego kierowania ruchem na podstawie analizy adresów MAC, co jest podstawą nowoczesnych praktyk w zarządzaniu siecią.

Pytanie 5

Na ilustracji przedstawiono konfigurację dostępu do sieci bezprzewodowej, która dotyczy

Ilustracja do pytania
A. ustawienia zabezpieczeń poprzez nadanie klucza dostępu do sieci Wi-Fi.
B. nadania SSID sieci i określenia ilości dostępnych kanałów.
C. podziału pasma przez funkcję QoS.
D. ustawienia zabezpieczeń przez wpisanie adresów MAC urządzeń mających dostęp do tej sieci.
Na zrzucie ekranu widać typowy panel konfiguracyjny routera w sekcji „Zabezpieczenia sieci bezprzewodowej”. Kluczowe elementy to wybór metody zabezpieczeń (Brak zabezpieczeń, WPA/WPA2-Personal, WPA/WPA2-Enterprise, WEP), wybór rodzaju szyfrowania (np. AES) oraz przede wszystkim pole „Hasło”, w którym definiuje się klucz dostępu do sieci Wi‑Fi. To właśnie ta konfiguracja decyduje, czy użytkownik, który widzi SSID sieci, będzie musiał podać poprawne hasło, żeby się połączyć. Dlatego poprawna odpowiedź mówi o ustawieniu zabezpieczeń poprzez nadanie klucza dostępu do sieci Wi‑Fi. W standardach Wi‑Fi (IEEE 802.11) przyjęło się, że najbezpieczniejszym rozwiązaniem dla użytkownika domowego i małego biura jest tryb WPA2-Personal (lub nowszy WPA3-Personal), z szyfrowaniem AES i silnym hasłem. Tutaj dokładnie to widzimy: wybrany jest WPA/WPA2-Personal, szyfrowanie AES i pole na hasło o długości od 8 do 63 znaków ASCII. To hasło jest w praktyce kluczem pre-shared key (PSK), z którego urządzenia wyliczają właściwe klucze kryptograficzne używane w transmisji radiowej. Z mojego doświadczenia warto stosować hasła długie, przypadkowe, z mieszanką liter, cyfr i znaków specjalnych, a unikać prostych fraz typu „12345678” czy „mojawifi”. W małych firmach i domach to jest absolutna podstawa bezpieczeństwa – bez poprawnie ustawionego klucza każdy sąsiad mógłby podłączyć się do sieci, wykorzystać nasze łącze, a nawet próbować ataków na inne urządzenia w LAN. Dobrą praktyką jest też okresowa zmiana hasła oraz wyłączenie przestarzałych metod, jak WEP, które są uznawane za złamane kryptograficznie. W środowiskach bardziej zaawansowanych stosuje się dodatkowo WPA2-Enterprise z serwerem RADIUS, ale tam również fundamentem jest poprawne zarządzanie kluczami i uwierzytelnianiem użytkowników. Patrząc na panel, widać też opcję częstotliwości aktualizacji klucza grupowego – to dodatkowy mechanizm bezpieczeństwa, który co jakiś czas zmienia klucz używany do ruchu broadcast/multicast. W praktyce w sieciach domowych rzadko się to rusza, ale w sieciach firmowych ma to znaczenie. Cały ten ekran jest więc klasycznym przykładem konfiguracji zabezpieczeń Wi‑Fi opartej właśnie na nadaniu i zarządzaniu kluczem dostępu.

Pytanie 6

W przypadku dysku twardego, w jakiej jednostce wyrażana jest wartość współczynnika MTBF (Mean Time Between Failure)?

A. w godzinach
B. w dniach
C. w minutach
D. w latach
Warto zauważyć, że w kontekście dysków twardych, podawanie współczynnika MTBF w jednostkach takich jak minuty, dni czy lata jest niewłaściwe i wprowadza w błąd. Minuty jako jednostka czasowa mogą sugerować, że awarie występują w bardzo krótkich odstępach czasu, co nie odpowiada rzeczywistości dla nowoczesnych dysków twardych, które są projektowane z myślą o długoterminowej niezawodności. Z kolei dni jako jednostka również nie oddaje pełnego obrazu, gdyż nowoczesne dyski mogą działać setki lub tysiące dni bez awarii, co czyni tę miarę nieadekwatną. Użycie lat w kontekście MTBF może być mylące, ponieważ w branży technologicznej standardem jest podawanie MTBF w godzinach, co umożliwia bardziej precyzyjne planowanie konserwacji i oceny ryzyka. Użytkownicy często mylą MTBF z inny wskaźnikami związanymi z żywotnością dysków, takimi jak MTTR (Mean Time To Repair), co może prowadzić do błędnych decyzji dotyczących zarządzania infrastrukturą IT. Aby uniknąć tych typowych błędów myślowych, ważne jest, aby zrozumieć definicje i koncepcje związane z MTBF oraz ich znaczenie w praktycznych zastosowaniach w inżynierii oprogramowania i zarządzaniu systemami informatycznymi.

Pytanie 7

Do utworzenia skompresowanego archiwum danych w systemie Linux można użyć polecenia

A. tar -tvf
B. tar -xvf
C. tar -zcvf
D. tar -jxvf
Wielu użytkowników tar myśli, że każda kombinacja opcji pozwoli osiągnąć upragniony efekt, czyli utworzenie skompresowanego archiwum. Jednak różnice są znaczące. Wariant z -jxvf wykorzystuje kompresję bzip2 (opcja -j), która jest nieco wydajniejsza kompresyjnie od gzipa, ale działa wolniej. W praktyce jednak, gdy oczekuje się domyślnej, szybkiej kompresji i szerokiej kompatybilności, branża poleca raczej gzip (-z), bo pliki .tar.gz są rozpoznawane w każdej dystrybucji Linuksa, a nawet na systemach Windows przez narzędzia takie jak 7-Zip. Bzip2 jest dobry przy archiwizacji większych danych, gdzie liczy się nieco lepszy stopień kompresji, ale na co dzień -z jest pewniejszy. Jeśli ktoś wybrał -tvf, to warto wiedzieć, że ta opcja wcale nie tworzy archiwum, tylko je przegląda (listuje zawartość). To często używany skrót do szybkiego podejrzenia, co siedzi w archiwum, ale nie do kompresowania. Z kolei -xvf wykorzystuje się do rozpakowywania archiwum – to bardzo częsty błąd początkujących: próbują użyć tej opcji do tworzenia archiwum, a dostają komunikat o błędzie lub efekt odwrotny do zamierzonego. Faktycznie, tar jest trochę specyficzny, bo te flagi są krótkie i łatwo je pomylić. W mojej opinii najwięcej problemów bierze się stąd, że ludzie zapamiętują tylko sekwencję liter, a nie faktyczne znaczenie opcji. Zawsze warto sięgać do man tar, żeby upewnić się, która opcja co robi. W środowisku zawodowym, niepoprawny wybór opcji może skutkować błędną automatyzacją backupów czy nawet utratą danych, więc dobrze kształtować nawyk świadomego korzystania z tych poleceń. Tar to potężne narzędzie, ale trzeba wiedzieć dokładnie, co się robi, bo potem konsekwencje mogą być bolesne.

Pytanie 8

Jakie oznaczenie na schematach sieci LAN przypisuje się punktom rozdzielczym dystrybucyjnym znajdującym się na różnych kondygnacjach budynku według normy PN-EN 50173?

A. CD (Campus Distribution)
B. BD (BuildingDistributor)
C. FD (Floor Distribution)
D. MDF (Main Distribution Frame)
Odpowiedzi BD (Building Distributor), CD (Campus Distribution) oraz MDF (Main Distribution Frame) są nieprawidłowe w kontekście oznaczeń punktów rozdzielczych dystrybucyjnych na poszczególnych piętrach budynku. BD odnosi się do głównego punktu dystrybucyjnego w obrębie całego budynku, który obsługuje kilka pięter lub stref, ale nie jest precyzyjnie związany z lokalizacją na każdym piętrze. CD dotyczy z kolei bardziej rozległych instalacji, takich jak kampusy uniwersyteckie, gdzie sieci rozciągają się na wiele budynków, a ich struktura jest zorganizowana na poziomie kampusu, co nie odpowiada lokalnym potrzebom pięter. MDF to główny punkt rozdzielczy, który zazwyczaj znajduje się w pomieszczeniach technicznych lub serwerowniach, a jego rola polega na agregacji sygnałów z różnych FD i BD, a nie na ich dystrybucji na poziomie piętra. Te błędne odpowiedzi mogą wynikać z mylnego pojmowania struktury sieci oraz funkcji poszczególnych punktów dystrybucyjnych. Właściwe rozumienie klasyfikacji i funkcji w sieciach LAN jest kluczowe do efektywnego projektowania oraz zarządzania infrastrukturą, co z kolei wpływa na wydajność oraz niezawodność całego systemu. Zrozumienie tych różnic jest niezbędne dla każdego specjalisty zajmującego się sieciami komputerowymi.

Pytanie 9

Aby zainstalować serwer FTP w systemach z rodziny Windows Server, konieczne jest dodanie roli serwera

A. DNS
B. sieci Web
C. aplikacji
D. DHCP
Aby zainstalować serwer plików FTP w systemach rodziny Windows Server, należy zainstalować rolę serwera sieci Web (IIS). FTP, czyli File Transfer Protocol, jest protokołem służącym do przesyłania plików między komputerami w sieci. Rola serwera sieci Web zawiera niezbędne komponenty do obsługi FTP oraz innych usług internetowych. Po zainstalowaniu roli IIS, administrator może skonfigurować FTP poprzez menedżera IIS, co pozwala na łatwe zarządzanie kontami użytkowników, uprawnieniami dostępu oraz konfiguracją połączeń. Przykładem zastosowania może być stworzenie serwera FTP dla firmy, który umożliwi pracownikom przesyłanie i pobieranie dokumentów projektowych z dowolnego miejsca. Warto również pamiętać o zapewnieniu odpowiednich zabezpieczeń, takich jak szyfrowanie SSL/TLS, aby chronić przesyłane dane. Dobrą praktyką jest również monitorowanie logów serwera, co pozwala na wykrywanie i analizowanie ewentualnych prób nieautoryzowanego dostępu.

Pytanie 10

Protokół stosowany do rozgłaszania w grupie, dzięki któremu hosty informują o swoim członkostwie, to

A. EIGRP
B. IGRP
C. IGMP
D. ICMP
IGMP, czyli Internet Group Management Protocol, jest protokołem odpowiedzialnym za zarządzanie członkostwem w grupach multicastowych w sieciach IP. Umożliwia hostom zgłaszanie swojej przynależności do grup multicastowych, co jest kluczowe dla efektywnego rozgłaszania danych do wielu odbiorców jednocześnie. W praktyce, IGMP jest wykorzystywany w aplikacjach takich jak streaming wideo czy transmisje audio, gdzie wysoka efektywność przesyłania danych do wielu użytkowników jest niezbędna. Zgodnie ze standardem RFC 1112, IGMP operuje na trzech poziomach, co pozwala na dynamiczne zarządzanie członkostwem grupy. Protokół ten jest integralną częścią zarządzania ruchem multicastowym w sieciach lokalnych, co zapewnia optymalizację wykorzystania pasma oraz redukcję przeciążeń. Dzięki IGMP, routery mogą skutecznie śledzić aktywność hostów w sieci i odpowiednio dostosowywać rozgłaszanie danych, co jest zgodne z najlepszymi praktykami w zakresie zarządzania ruchem sieciowym.

Pytanie 11

Wskaż błędny sposób podziału dysku MBR na partycje?

A. 1 partycja podstawowa oraz 1 rozszerzona
B. 2 partycje podstawowe oraz 1 rozszerzona
C. 1 partycja podstawowa oraz 2 rozszerzone
D. 3 partycje podstawowe oraz 1 rozszerzona
Wykorzystywanie nieprawidłowych kombinacji partycji na dysku MBR często prowadzi do nieporozumień i problemów z zarządzaniem przestrzenią dyskową. W przypadku wyboru połączenia jednej partycji podstawowej i dwóch rozszerzonych, istnieje fundamentalne nieporozumienie dotyczące architektury MBR. MBR, jako standardowy sposób zarządzania partycjami na tradycyjnych dyskach twardych, pozwala jedynie na jedną partycję rozszerzoną. Partycja rozszerzona jest specjalnym rodzajem partycji, która pełni rolę kontenera dla wielu partycji logicznych. Oznacza to, że nie można mieć dwóch partycji rozszerzonych na jednym dysku MBR, ponieważ naruszyłoby to podstawowe zasady dotyczące struktury partycji. Błędne podejście do liczby partycji może prowadzić do błędów przy próbie uruchomienia systemu operacyjnego, a także do trudności w alokacji i zarządzaniu przestrzenią dyskową. Ważne jest, aby zrozumieć, że efektywne zarządzanie partycjami nie tylko wpływa na prawidłowe działanie systemu operacyjnego, ale także na bezpieczeństwo i wydajność przechowywanych danych. Dobrą praktyką jest również monitorowanie i regularne przeglądanie struktury partycji oraz ich wykorzystania, co pozwala na lepsze planowanie przyszłych potrzeb w zakresie przechowywania danych.

Pytanie 12

Aby przekształcić zeskanowany obraz na tekst, należy użyć oprogramowania, które stosuje techniki

A. DTP
B. OMR
C. OCR
D. DPI
DPI, czyli dots per inch, to miara rozdzielczości obrazu, która wskazuje, ile punktów atramentu lub pikseli mieści się na cal. DPI jest kluczowe w kontekście jakości druku i wyświetlania obrazów, ale nie ma bezpośredniego związku z zamianą zeskanowanego obrazu na tekst. Wysoka rozdzielczość obrazu wpływa na jakość skanowania, lecz sama wartość DPI nie przekształca obrazu w tekst. Z kolei DTP, czyli desktop publishing, to proces tworzenia publikacji za pomocą komputerów, który może obejmować skład tekstu i grafiki, ale także nie jest odpowiedzialny za konwersję obrazów na tekst. DTP skupia się bardziej na estetyce i układzie materiałów drukowanych niż na ich zawartości tekstowej. OMR, czyli Optical Mark Recognition, to technologia służąca do rozpoznawania zaznaczeń, takich jak odpowiedzi na testach wielokrotnego wyboru. Choć OMR jest przydatna w określonych kontekstach, takich jak przetwarzanie formularzy, nie ma zastosowania w rozpoznawaniu tekstu, co czyni ją nieodpowiednią w kontekście tego pytania. Pojęcia te są często mylone, ponieważ wszystkie dotyczą przetwarzania informacji, ale ich zastosowania są różne, co prowadzi do błędnych wniosków i nieporozumień w zrozumieniu funkcji technologii.

Pytanie 13

Minimalna odległość toru nieekranowanego kabla sieciowego od instalacji elektrycznej oświetlenia powinna wynosić

A. 50 cm
B. 20 cm
C. 40 cm
D. 30 cm
Odpowiedzi takie jak 20 cm, 40 cm, czy 50 cm nie są zgodne z wymaganiami dotyczącymi instalacji kabli sieciowych w pobliżu instalacji elektrycznych. W przypadku podania zbyt małej odległości, jak 20 cm, ryzyko wystąpienia zakłóceń elektromagnetycznych znacząco wzrasta. Zakłócenia te mogą wpływać negatywnie na jakość przesyłanego sygnału, co prowadzi do problemów z komunikacją w sieci. Z kolei wybór większej odległości, jak 40 cm czy 50 cm, może być bezpieczny, ale nie jest zgodny z minimalnymi wymaganiami, co może prowadzić do niepotrzebnych komplikacji związanych z instalacją, jak zwiększona ilość używanego kabla czy trudności w umiejscowieniu gniazdek. W praktyce, wiele osób może sądzić, że większa odległość z automatu zapewnia lepszą jakość, jednak nie jest to zasada bezwzględna. Kluczowym błędem jest również myślenie, że różnice w długości kabli mają mniejsze znaczenie, co jest nieprawdziwe, bowiem każdy dodatkowy metr kabla zwiększa opór i potencjalne straty sygnału. Z tego powodu, kluczowe jest przestrzeganie określonych norm i standardów, aby zapewnić prawidłowe funkcjonowanie systemu i minimalizować ryzyko błędów w instalacji.

Pytanie 14

Rozkaz procesora, przetwarzający informację i zamieniający ją na wynik, należy do grupy rozkazów

A. bezwarunkowych i warunkowych.
B. przesłań.
C. sterujących.
D. arytmetyczno-logicznych.
W tym pytaniu kluczowe jest rozróżnienie, które instrukcje procesora rzeczywiście przetwarzają dane, a które tylko sterują ich przepływem albo przebiegiem programu. Bardzo łatwo się tu pomylić, bo wszystkie te rozkazy wyglądają na „ważne” i wszystkie są potrzebne do działania programu. Jednak z punktu widzenia architektury procesora to inne kategorie. Rozkazy przesłań służą przede wszystkim do przenoszenia danych między rejestrami, pamięcią operacyjną i czasem urządzeniami wejścia/wyjścia. Typowe instrukcje MOV, LOAD, STORE kopiują bajty z jednego miejsca w inne, ale same w sobie nie zmieniają znaczenia tych danych. One nie liczą, nie porównują, nie wykonują operacji logicznych. To jest tylko logistyka danych, nie ich przetwarzanie. Kolejna grupa to rozkazy sterujące. Różnego rodzaju skoki, wywołania procedur, powroty z funkcji, instrukcje zmiany segmentu czy przerwania – one modyfikują przepływ sterowania, czyli decydują, która instrukcja będzie wykonana jako następna. Z praktyki programistycznej wiemy, że bez nich nie da się zbudować instrukcji warunkowych, pętli czy wywołań funkcji, ale one wciąż nie „zamieniają informacji na wynik”, tylko mówią procesorowi: idź w inne miejsce w kodzie. Podobnie określenie „bezwarunkowe i warunkowe” dotyczy właśnie skoków i rozkazów sterujących, gdzie warunek jest oparty na flagach procesora, ustawionych wcześniej przez inne instrukcje. To jest opis sposobu sterowania, a nie typu przetwarzania danych. Typowy błąd myślowy polega na utożsamieniu „warunkowości” z „przetwarzaniem informacji”, bo skoro coś zależy od wyniku, to wydaje się, że to tam odbywa się najważniejsze działanie. W rzeczywistości surowe przetwarzanie, czyli matematyka i logika na bitach, jest realizowane w jednostce arytmetyczno‑logicznej przez rozkazy arytmetyczno‑logiczne. Wszystkie pozostałe grupy są bardziej pomocnicze: jedne przenoszą dane, inne sterują tym, co będzie wykonane dalej, ale nie wykonują faktycznych obliczeń. Dlatego poprawna kategoria to rozkazy arytmetyczno‑logiczne.

Pytanie 15

Protokół transportowy bezpołączeniowy to

A. SSH
B. TCP
C. ARP
D. UDP
ARP (Address Resolution Protocol) nie jest protokołem warstwy transportowej, lecz protokołem warstwy łącza danych, który służy do tłumaczenia adresów IP na adresy MAC w sieciach lokalnych. Jego głównym zadaniem jest umożliwienie komunikacji w sieciach Ethernet, co czyni go fundamentalnym dla prawidłowego działania sieci lokalnych, ale nie ma zastosowania w kontekście przesyłania danych na wyższych warstwach. TCP (Transmission Control Protocol) to z kolei protokół warstwy transportowej, który zapewnia połączeniowe przesyłanie danych, co oznacza, że przed wysłaniem danych nawiązywane jest połączenie. TCP oferuje niezawodność dzięki mechanizmom takim jak retransmisja utraconych pakietów i kontrola przepływu, ale te cechy sprawiają, że jest wolniejszy w porównaniu do UDP. SSH (Secure Shell) to protokół służący do bezpiecznego zdalnego logowania oraz zarządzania systemami, działający na warstwie aplikacji. Choć używa protokołu TCP do przesyłania danych, nie jest samodzielnym protokołem warstwy transportowej. Zrozumienie różnic między tymi protokołami jest kluczowe, by unikać pomyłek w ich zastosowaniach. Typowym błędem jest przypisywanie funkcji protokołów z różnych warstw do jednego kontekstu, co prowadzi do nieporozumień i niewłaściwego ich wykorzystania w praktyce. W kontekście wyboru protokołu do przesyłania danych, ważne jest, aby znać różnice między protokołami połączeniowymi a bezpołączeniowymi, oraz ich odpowiednie zastosowania w zależności od wymagań aplikacji.

Pytanie 16

Plik zajmuje 2KB. Jakie to jest?

A. 2048 bitów
B. 2000 bitów
C. 16384 bity
D. 16000 bitów
W przypadku odpowiedzi takich jak '2000 bitów', '2048 bitów' czy '16000 bitów', występują błędne interpretacje związane z konwersją rozmiaru plików. '2000 bitów' jest niewłaściwe, ponieważ nie uwzględnia właściwej konwersji bajtów na bity. Wartości te są zaniżone w porównaniu do rzeczywistych jednostek. Natomiast '2048 bitów' to błąd polegający na niepoprawnym przeliczeniu bajtów, gdzie zapomniano uwzględnić przelicznika 8 bitów na bajt. Odpowiedź '16000 bitów' również nie znajduje uzasadnienia, ponieważ nie istnieje bezpośredni związek z konwersjami jednostek w tym kontekście. Typowe błędy myślowe w takich sytuacjach obejmują pominięcie kluczowego kroku przeliczeniowego lub mylenie jednostek, co prowadzi do niepoprawnych wniosków. Aby unikać tych pomyłek, warto zaznajomić się z podstawowymi zasadami konwersji jednostek, które są fundamentalne w informatyce, w tym w programowaniu i administracji systemów, gdzie precyzyjne obliczenia są kluczowe dla działania oprogramowania oraz efektywności systemów komputerowych.

Pytanie 17

W trakcie instalacji systemu Windows, zaraz po rozpoczęciu instalatora w trybie graficznym, istnieje możliwość otwarcia Wiersza poleceń (konsoli) za pomocą kombinacji klawiszy

A. ALT+F4
B. CTRL+SHIFT
C. SHIFT+F10
D. CTRL+Z
Odpowiedź SHIFT+F10 jest prawidłowa, ponieważ ta kombinacja klawiszy uruchamia Wiersz poleceń w trakcie instalacji systemu Windows. Jest to przydatne w sytuacjach, gdy użytkownik potrzebuje dostępu do narzędzi diagnostycznych lub chce wprowadzić dodatkowe polecenia przed zakończeniem procesu instalacji. Umożliwia to również modyfikację ustawień systemowych oraz naprawę problemów, które mogą wystąpić podczas konfiguracji. Przykładem zastosowania może być sytuacja, w której użytkownik chce uruchomić narzędzie DISKPART do zarządzania partycjami dyskowymi, co pozwala na tworzenie, usuwanie lub formatowanie partycji przed zainstalowaniem systemu. Ta funkcjonalność jest zgodna z najlepszymi praktykami w zakresie instalacji systemów operacyjnych, gdzie dostęp do dodatkowych narzędzi może znacząco ułatwić proces oraz zwiększyć elastyczność konfiguracji. Warto również zaznaczyć, że ta kombinacja klawiszy jest standardem w różnych wersjach systemów Windows, co czyni ją zrozumiałą i uniwersalną dla użytkowników.

Pytanie 18

Uzyskanie przechowywania kopii często odwiedzanych witryn oraz zwiększenia bezpieczeństwa przez odfiltrowanie konkretnych treści w sieci Internet można osiągnąć dzięki

A. automatycznemu zablokowaniu plików cookies
B. zainstalowaniu oprogramowania antywirusowego oraz aktualnej bazy wirusów
C. użytkowaniu systemu z uprawnieniami administratora
D. konfiguracji serwera pośredniczącego proxy
Automatyczne wyłączenie plików cookies nie przyczynia się do poprawy bezpieczeństwa ani do efektywnego przechowywania kopii stron. Pliki cookies są małymi plikami danych przechowywanymi na urządzeniu użytkownika, które pomagają w personalizacji doświadczenia przeglądania. Ich wyłączenie może prowadzić do gorszej ergonomii korzystania z internetu, ponieważ strony nie będą mogły zapamiętywać preferencji użytkownika. Ponadto, wyłączenie cookies nie zapewnia ochrony przed zagrożeniami, a wręcz może zwiększyć ryzyko, gdyż użytkownicy mogą być bardziej narażeni na phishing i inne formy oszustw. Instalacja programu antywirusowego oraz aktualizacja bazy wirusów to kluczowe elementy zapewniania bezpieczeństwa, jednak te działania koncentrują się na ochronie przed złośliwym oprogramowaniem, a nie na przechowywaniu kopii stron. Sam program antywirusowy nie oferuje funkcji buforowania treści ani filtrowania stron, co jest kluczowe dla omawianego pytania. Korzystanie z systemu z uprawnieniami administratora również nie ma związku z tematem, ponieważ uprawnienia dotyczą zarządzania systemem operacyjnym, a nie poprawy wydajności czy bezpieczeństwa przeglądania sieci. Właściwe podejście wymaga umiejętności rozróżnienia między różnymi technologiami i metodami zabezpieczeń, co pozwala na skuteczniejszą ochronę oraz optymalizację doświadczenia użytkowników.

Pytanie 19

Urządzeniem peryferyjnym pokazanym na ilustracji jest skaner biometryczny, który wykorzystuje do identyfikacji

Ilustracja do pytania
A. rysunek twarzy
B. linie papilarne
C. kształt dłoni
D. brzmienie głosu
Skanery biometryczne oparte na liniach papilarnych są jednymi z najczęściej stosowanych urządzeń do autoryzacji użytkowników. Wykorzystują unikalne wzory linii papilarnych, które są niepowtarzalne dla każdej osoby. Proces autoryzacji polega na skanowaniu odcisku palca, a następnie porównaniu uzyskanego obrazu z zapisanym wzorcem w bazie danych. Ich popularność wynika z wysokiego poziomu bezpieczeństwa oraz łatwości użycia. W wielu firmach i instytucjach stosuje się te urządzenia do zabezpieczania dostępu do pomieszczeń lub systemów komputerowych. Skanery linii papilarnych są również powszechnie używane w smartfonach, co pokazuje ich skuteczność i wygodę w codziennym użytkowaniu. W standardach biometrycznych, takich jak ISO/IEC 19794, określa się wymagania dotyczące rejestrowania, przechowywania i przesyłania danych biometrycznych. Warto podkreślić, że skuteczność tych urządzeń zależy od jakości skanowanego obrazu oraz odporności na próby oszustw. Dlatego nowoczesne systemy często korzystają z dodatkowych technik, takich jak analiza żył czy temperatura odcisku palca, aby zwiększyć poziom bezpieczeństwa.

Pytanie 20

Do wykonania kopii danych na dysk USB w systemie Linux stosuje się polecenie

A. mv
B. su
C. cp
D. rm
Polecenie cp to w praktyce podstawowe narzędzie do kopiowania plików i katalogów w systemach Linux. Bez niego trudno sobie wyobrazić codzienną pracę administratora czy zwykłego użytkownika. Moim zdaniem cp jest jednym z tych poleceń, które po prostu trzeba znać, szczególnie jeśli chodzi o operacje na różnych nośnikach, na przykład na dyskach USB. Warto pamiętać, że cp pozwala na kopiowanie zarówno pojedynczych plików, jak i całych katalogów (z opcją -r lub --recursive). Gdy podłączasz dysk USB, najczęściej montujesz go w /media lub /mnt, a potem używasz cp do przekopiowania danych. Przykładowo: cp /home/user/dokument.txt /media/usb/. Warto też zerknąć na opcje takie jak -v (verbose), która pokazuje co jest kopiowane, czy -u (update), która pozwala kopiować tylko nowsze pliki. To ułatwia życie, zwłaszcza jak ktoś się boi nadpisać ważne dane. Standardy POSIX jasno określają składnię i zachowanie cp, więc na praktycznie każdej dystrybucji Linuxa działa to identycznie. No i taka ciekawostka – cp nie pyta o pozwolenie przy nadpisywaniu plików, chyba że użyjesz opcji -i. Warto więc być ostrożnym! Kopiowanie danych na dysk USB za pomocą cp to podstawowa, ale bardzo istotna umiejętność – często od niej zaczyna się nauka zarządzania plikami w systemie Linux.

Pytanie 21

System Windows 8, w którym wcześniej został utworzony punkt przywracania, doświadczył awarii. Jakie polecenie należy wydać, aby przywrócić ustawienia i pliki systemowe?

A. replace
B. reload
C. rstrui
D. rootkey
Wybór odpowiedzi innych niż 'rstrui' świadczy o niepełnym zrozumieniu funkcji przywracania systemu w Windows. Polecenie 'reload' nie jest znane w kontekście systemu Windows i nie odnosi się do żadnej czynności związanej z przywracaniem systemu. W systemach operacyjnych termin 'reload' często używany jest w kontekście przeładowania aplikacji lub modułów, ale nie ma zastosowania przy zarządzaniu punktami przywracania. Kolejną nieprawidłową odpowiedzią jest 'replace', co sugeruje, że użytkownik myli proces przywracania z procesem zastępowania plików, co nie ma miejsca w standardowej procedurze przywracania systemu. Przywracanie nie polega na zastępowaniu pojedynczych plików, lecz na przywracaniu całego stanu systemu, co jest znacznie bardziej złożonym procesem. Z kolei 'rootkey' to termin, który odnosi się do rejestru systemu Windows, a nie do przywracania systemu. Użytkownicy mogą mieć tendencję do mylenia pojęć związanych z rejestrem i punktami przywracania, co prowadzi do nieporozumień w kontekście zarządzania systemem. Ważne jest, aby zrozumieć odmienność tych terminów i ich zastosowanie w praktyce, aby skutecznie zarządzać systemem operacyjnym i unikać problemów w przyszłości.

Pytanie 22

Przedstawiony panel tylny płyty głównej jest wyposażony między innymi w interfejsy:

Ilustracja do pytania
A. 2 x USB 3.0; 2 x USB 2.0, 1.1; 2 x DP, 1 x DVI
B. 2 x PS2; 1 x RJ45; 6 x USB 2.0, 1.1
C. 2 x USB 3.0; 4 x USB 2.0, 1.1; 1 x D-SUB
D. 2 x HDMI, 1 x D-SUB, 1 x RJ-11, 6 x USB 2.0
To właśnie ta odpowiedź najlepiej odzwierciedla przedstawiony panel tylny płyty głównej. Widać tu dwa niebieskie porty USB 3.0 – są one wyraźnie oznaczone kolorem oraz charakterystycznym wnętrzem. Oprócz tego rozpoznasz cztery czarne porty USB, czyli standard 2.0 (kompatybilność wsteczna z 1.1 jest oczywista, bo tak projektuje się te porty praktycznie od lat). Jest też klasyczny port D-SUB do podłączenia monitora – to złącze VGA, które choć coraz rzadziej spotykane, wciąż pojawia się w biurowych płytach głównych i sprzęcie nastawionym na kompatybilność. Z mojego doświadczenia takie zestawienie portów umożliwia bardzo szerokie zastosowanie płyty w praktyce: można podłączyć starsze drukarki, myszy, klawiatury na USB 2.0, ale i szybkie dyski zewnętrzne czy pendrive na USB 3.0. Warto pamiętać, że praktyka branżowa wymaga zapewnienia maksymalnej kompatybilności, szczególnie w środowiskach biurowych czy edukacyjnych, gdzie sprzęt nie zawsze jest najnowszy. Odpowiedź ta jest zgodna też ze specyfikacjami większości płyt głównych z segmentu ekonomicznego do popularnych komputerów stacjonarnych. Dodatkowo obecność HDMI i D-SUB pokazuje, że płyta może obsłużyć zarówno nowoczesne, jak i starsze monitory – elastyczność zawsze na plus!

Pytanie 23

Komputer dysponuje adresem IP 192.168.0.1, a jego maska podsieci wynosi 255.255.255.0. Który adres stanowi adres rozgłoszeniowy dla podsieci, do której ten komputer przynależy?

A. 192.168.0.63
B. 192.168.0.127
C. 192.168.0.255
D. 192.168.0.31
Adres 192.168.0.255 to adres rozgłoszeniowy dla sieci, do której należy komputer z adresem 192.168.0.1 i maską 255.255.255.0. Tak naprawdę, przy tej masce, pierwsze trzy oktety (192.168.0) wskazują na sieć, a ostatni (czyli ten czwarty) służy do adresowania urządzeń w tej sieci. Warto pamiętać, że adres rozgłoszeniowy to ten ostatni adres w danej podsieci, co w tym przypadku to właśnie 192.168.0.255. Ta funkcjonalność jest mega ważna, bo pozwala na wysłanie pakietów do wszystkich urządzeń w sieci naraz. W praktyce, rozgłoszenia są wykorzystywane w takich protokołach jak ARP czy DHCP, co pozwala na automatyczne przydzielanie adresów IP. Moim zdaniem, zrozumienie tego, jak działają adresy rozgłoszeniowe, ma znaczenie dla każdego, kto chce ogarnąć sprawy związane z sieciami komputerowymi. Właściwe użycie tych adresów naprawdę wpływa na to, jak dobrze działa sieć.

Pytanie 24

Na podstawie oznaczenia pamięci DDR3 PC3-16000 można stwierdzić, że pamięć ta

A. ma przepustowość 160 GB/s
B. pracuje z częstotliwością 16000 MHz
C. pracuje z częstotliwością 160 MHz
D. ma przepustowość 16 GB/s
Oznaczenie DDR3 PC3-16000 jasno określa, że ta pamięć RAM ma przepustowość na poziomie 16 GB/s. Sposób kodowania tych wartości wynika ze standardów JEDEC, gdzie liczba po „PC3-” oznacza właśnie maksymalną teoretyczną przepustowość modułu, wyrażoną w MB/s (czyli 16000 MB/s, co daje 16 GB/s). W praktyce chodzi o to, ile danych pamięć jest w stanie przesłać w ciągu sekundy – im więcej, tym szybsze działanie komputera, zwłaszcza przy operacjach wymagających intensywnej komunikacji z RAM-em, jak np. edycja wideo, gry, czy praca na wielu aplikacjach jednocześnie. Jeśli ktoś składa komputer do bardziej wymagających zadań, patrzenie na parametry typu przepustowość jest kluczowe – co ciekawe, same taktowanie (częstotliwość) nie mówi wszystkiego o wydajności. Warto też pamiętać, że przepustowość zależy nie tylko od zegara, ale również od szerokości magistrali. Te 16 GB/s to wartość teoretyczna i w praktyce rzadko osiągana, ale daje dobre porównanie między modelami. Spotyka się też określenia typu PC3-12800 (12,8 GB/s) czy PC3-10600 (10,6 GB/s) – im wyższa liczba, tym wyższa potencjalna wydajność. Pamięć DDR3, mimo że dziś wypierana przez DDR4 i DDR5, nadal jest szeroko używana w starszych komputerach i serwerach. Moim zdaniem, umiejętność czytania takich oznaczeń naprawdę się przydaje, bo pozwala uniknąć nietrafionych zakupów lub niepotrzebnego przepłacania za parametry, które nie mają znaczenia w typowych zastosowaniach.

Pytanie 25

Jak nazywa się pamięć podręczną procesora?

A. EPROM
B. ROM
C. CACHE
D. NVRAM
Poprawna odpowiedź to CACHE, bo właśnie tak nazywa się pamięć podręczna procesora. Pamięć cache to bardzo szybka pamięć półprzewodnikowa, zbudowana zazwyczaj z komórek SRAM, umieszczona bezpośrednio w procesorze lub bardzo blisko niego. Jej głównym zadaniem jest przechowywanie najczęściej używanych danych i instrukcji, żeby procesor nie musiał za każdym razem odwoływać się do dużo wolniejszej pamięci RAM. W praktyce różnica w czasie dostępu między rejestrem CPU, cache, RAM a dyskiem jest ogromna, dlatego wszystkie współczesne procesory x86, ARM i inne mają wielopoziomową pamięć cache: L1, L2, a często także L3. L1 jest najszybsza i najmniejsza, L2 i L3 są trochę wolniejsze, ale pojemniejsze. Z mojego doświadczenia, przy analizie wydajności aplikacji systemowych i gier, bardzo często widać, że to właśnie efektywne wykorzystanie cache decyduje o realnej szybkości, a nie sama częstotliwość taktowania. Dobre praktyki programistyczne, takie jak lokalność odwołań do pamięci (sekwencyjny dostęp do danych, trzymanie struktur danych „obok siebie”), są projektowane właśnie pod działanie cache. W technice komputerowej przyjmuje się model pamięci hierarchicznej, gdzie cache jest kluczowym elementem między rejestrami procesora a pamięcią operacyjną RAM. W diagnostyce sprzętu i przy doborze procesora do konkretnego zastosowania (np. serwery, stacje robocze, komputery do gier) zwraca się uwagę nie tylko na liczbę rdzeni, ale też na wielkość i organizację pamięci cache. W skrócie: cache to taki „sprytny bufor” blisko CPU, który minimalizuje opóźnienia i pozwala maksymalnie wykorzystać możliwości procesora.

Pytanie 26

Czytnik w napędzie optycznym, który jest zanieczyszczony, należy wyczyścić

A. izopropanolem
B. spirytusem
C. benzyną ekstrakcyjną
D. rozpuszczalnikiem ftalowym
Izopropanol jest doskonałym środkiem czyszczącym do usuwania zanieczyszczeń z czytników w napędach optycznych, ponieważ ma doskonałe właściwości rozpuszczające i szybko odparowuje, co minimalizuje ryzyko pozostawienia resztek na powierzchni optycznej. Dzięki temu zmniejsza się ryzyko uszkodzenia elementów optycznych, takich jak soczewki, które są wrażliwe na skrajne substancje chemiczne. Izopropanol jest również bezpieczniejszy w użyciu niż wiele innych rozpuszczalników, ponieważ nie jest toksyczny w takich stężeniach, które są stosowane do czyszczenia. Dobrą praktyką jest stosowanie izopropanolu o stężeniu co najmniej 70%, co zapewnia skuteczne usunięcie zanieczyszczeń, jak kurz czy odciski palców. Warto również pamiętać, aby nie stosować nadmiaru środka czyszczącego, co mogłoby prowadzić do zalania elementów elektronicznych. Użycie izopropanolu, jako zgodne z obowiązującymi standardami czyszczenia sprzętu elektronicznego, jest rekomendowane przez producentów sprzętu oraz specjalistów w tej dziedzinie, co czyni go najlepszym wyborem do czyszczenia czytników w napędach optycznych.

Pytanie 27

W przedsiębiorstwie trzeba było zreperować 5 komputerów i serwer. Czas potrzebny na naprawę każdego z komputerów wyniósł 1,5 godziny, a serwera 2,5 godziny. Stawka za usługę to 100,00 zł za roboczogodzinę, a do tego doliczany jest podatek VAT w wysokości 23%. Jaka kwota brutto będzie należna za tę usługę?

A. 1023,00 zł
B. 2460,00 zł
C. 1230,00 zł
D. 2046,00 zł
Aby obliczyć całkowitą należność za usługę naprawy komputerów i serwera, należy najpierw ustalić całkowity czas pracy. Czas naprawy 5 komputerów wynosi 5 * 1,5 godziny = 7,5 godziny. Czas naprawy serwera wynosi 2,5 godziny. Łączny czas naprawy to 7,5 + 2,5 = 10 godzin. Stawka za roboczogodzinę wynosi 100,00 zł, więc koszt przed opodatkowaniem wynosi 10 * 100,00 zł = 1000,00 zł. Następnie obliczamy podatek VAT, który wynosi 23% z kwoty 1000,00 zł, co daje 230,00 zł. Całkowity koszt brutto to 1000,00 zł + 230,00 zł = 1230,00 zł. Takie obliczenia są zgodne z dobrymi praktykami w zakresie wyceny usług, gdzie zarówno czas pracy, jak i odpowiednie stawki muszą być uwzględnione w fakturowaniu. Prawidłowe obliczenia i znajomość przepisów podatkowych są kluczowe dla prawidłowego prowadzenia działalności.

Pytanie 28

Jakie będą łączne wydatki na wymianę karty graficznej w komputerze, jeżeli nowa karta kosztuje 250 zł, czas wymiany wynosi 80 minut, a każda rozpoczęta robocza godzina to koszt 50 zł?

A. 400 zł
B. 250 zł
C. 300 zł
D. 350 zł
Poprawna odpowiedź wynosi 350 zł, co można obliczyć sumując koszt nowej karty graficznej oraz koszt pracy serwisanta. Karta graficzna kosztuje 250 zł, a czas wymiany wynosi 80 minut, co odpowiada 1 godzinie i 20 minutom. W przypadku serwisów komputerowych, godziny pracy zazwyczaj zaokrąglane są do pełnych godzin, więc w tym przypadku 1 godzina i 20 minut oznacza, że serwisant rozlicza 2 godziny. Koszt robocizny wynosi 50 zł za godzinę, co daje nam 100 zł za 2 godziny. Dodając koszt karty graficznej (250 zł) do kosztu robocizny (100 zł), otrzymujemy całkowity koszt 350 zł. Takie podejście jest zgodne z powszechnie stosowanymi praktykami w branży IT, gdzie koszty napraw i wymiany sprzętu są zawsze rozliczane z uwzględnieniem zarówno części zamiennych, jak i robocizny. Zrozumienie tych zasad jest kluczowe dla efektywnego zarządzania kosztami w kontekście serwisowania komputerów.

Pytanie 29

Jeśli podczas podłączania stacji dysków elastycznych 1,44 MB kabel sygnałowy zostanie włożony odwrotnie, to

A. BIOS komputera rozpozna stację dysków jako 2,88 MB
B. BIOS komputera zgłosi błąd w podłączeniu stacji dysków
C. stacja dysków zostanie uszkodzona
D. BIOS komputera prawidłowo zidentyfikuje stację dysków
Odpowiedź wskazująca, że BIOS komputera zgłosi błąd podłączenia stacji dysków jest poprawna, ponieważ stacje dysków elastycznych, podobnie jak inne urządzenia peryferyjne, muszą być podłączone zgodnie z określonymi standardami złącz. W przypadku stacji dysków 1,44 MB, kabel danych ma określoną orientację, a odwrotne podłączenie spowoduje, że sygnały nie będą przesyłane prawidłowo. BIOS, jako oprogramowanie niskiego poziomu odpowiedzialne za inicjalizację sprzętu podczas uruchamiania komputera, wykonuje różne testy, w tym wykrywanie podłączonych urządzeń. W przypadku stacji dysków, jeśli sygnały są nieprawidłowe, BIOS nie jest w stanie ich zidentyfikować, co skutkuje błędem podłączenia. Praktyczny aspekt tej wiedzy odnosi się do codziennych czynności serwisowych, gdzie należy upewnić się, że wszystkie połączenia kablowe są przeprowadzone zgodnie z zaleceniami producenta. Wiedza ta jest kluczowa w kontekście napraw i konserwacji sprzętu komputerowego, gdzie błędne podłączenie urządzeń może prowadzić do nieprawidłowego działania systemu lub jego uszkodzenia.

Pytanie 30

Jakiego rodzaju fizycznej topologii sieci komputerowej dotyczy przedstawiony obrazek?

Ilustracja do pytania
A. Połączenia punkt-punkt
B. Wzór gwiazdy
C. Pełnej siatki
D. Częściowej siatki
Topologia pełnej siatki to aranżacja sieci, w której każdy węzeł jest bezpośrednio połączony z każdym innym węzłem. Taka struktura zapewnia wysoką redundancję i niezawodność, ponieważ awaria jednego połączenia nie wpływa na inne, a dane mogą być przesyłane różnymi ścieżkami. Jest to idealne rozwiązanie w sytuacjach, gdzie niezawodność i dostępność są kluczowe, na przykład w systemach finansowych czy komunikacji wojskowej. Koszty wdrożenia i utrzymania są jednak wysokie ze względu na dużą liczbę połączeń potrzebnych do pełnego pokrycia sieci. W praktyce, pełna siatka jest rzadko stosowana w fizycznej formie, ale jej koncepcja jest wykorzystywana w wirtualnych sieciach komputerowych, w których połączenia są realizowane za pomocą odpowiednich protokołów. Implementacja takiej topologii zgodna jest z dobrymi praktykami przemysłowymi w zakresie zapewnienia ciągłości działania i bezpieczeństwa transmisji danych.

Pytanie 31

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 16 GB.
B. 2 modułów, każdy po 8 GB.
C. 1 modułu 16 GB.
D. 1 modułu 32 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 32

Jakie jest główne zadanie programu Wireshark?

A. zapobieganie nieautoryzowanemu dostępowi do komputera przez sieć
B. ocena wydajności komponentów komputera
C. ochrona komputera przed złośliwym oprogramowaniem
D. monitorowanie aktywności użytkowników sieci
Wireshark to zaawansowane narzędzie do analizy i monitorowania ruchu sieciowego, które pozwala na szczegółowe badanie pakietów przesyłanych w sieci. Dzięki Wireshark użytkownicy mogą obserwować działania i interakcje w sieciach komputerowych, co jest niezwykle istotne w praktyce administracji sieciowej oraz w kontekście bezpieczeństwa IT. Przykłady zastosowania obejmują diagnozowanie problemów z wydajnością sieci, analizowanie ataków zewnętrznych, a także monitorowanie komunikacji między aplikacjami. Wireshark umożliwia filtrowanie i analizowanie specyficznych protokołów, co pozwala na lepsze zrozumienie, jakie dane są przesyłane oraz jakie są źródła potencjalnych problemów. Narzędzie to jest zgodne z dobrymi praktykami branżowymi, takimi jak audyty bezpieczeństwa i optymalizacja wydajności, co czyni je nieocenionym w arsenale specjalistów IT. Korzystanie z Wireshark wymaga jednak znajomości protokołów sieciowych oraz umiejętności analizy danych, co podkreśla jego rolę jako narzędzia dla profesjonalistów.

Pytanie 33

Aby w systemie Linux wykonać kopię zapasową określonych plików, należy wprowadzić w terminalu polecenie programu

A. tar
B. gdb
C. set
D. cal
Program tar (tape archive) jest szeroko stosowanym narzędziem w systemach Unix i Linux do tworzenia archiwów i kopii zapasowych. Jego główną funkcjonalnością jest możliwość zbierania wielu plików i katalogów w jeden plik archiwum, co ułatwia ich przechowywanie i przenoszenie. Tar umożliwia również kompresję archiwów, co pozwala na oszczędność miejsca na dysku. Przykładem użycia może być polecenie 'tar -czvf backup.tar.gz /ścieżka/do/katalogu', które tworzy skompresowane archiwum gzip z wybranego katalogu. Tar obsługuje wiele opcji, które pozwalają na precyzyjne zarządzanie kopiami zapasowymi, takie jak opcje do wykluczania plików, dodawania nowych plików do istniejącego archiwum czy wypakowywania plików. W branży IT standardem jest regularne tworzenie kopii zapasowych, co jest kluczowe dla ochrony danych przed ich utratą. Wykorzystanie tar w praktyce jest zgodne z najlepszymi praktykami w zakresie zarządzania danymi i ich zabezpieczania.

Pytanie 34

Najczęstszym powodem, dla którego toner rozmazuje się na wydrukach z drukarki laserowej, jest

A. zbyt niska temperatura utrwalacza
B. zacięcie papieru
C. uszkodzenie rolek
D. zanieczyszczenie wnętrza drukarki
Uszkodzenie rolek nie jest główną przyczyną rozmazywania się tonera, choć mogą one wpływać na jakość wydruku. Rolki w utrwalaczu mają kluczowe znaczenie dla transportu papieru oraz równomiernego podgrzewania tonera. Uszkodzenie rolek może prowadzić do problemów z podawaniem papieru, co w niektórych przypadkach może skutkować zacięciami, ale nie jest bezpośrednio związane z rozmazywaniem tonera. Zacięcie papieru, chociaż może powodować różne problemy z wydrukiem, zazwyczaj nie prowadzi do rozmazywania, a bardziej do nieprawidłowego drukowania lub przerw w procesie. Zanieczyszczenie wnętrza drukarki również nie jest głównym czynnikiem odpowiedzialnym za ten problem. Choć kurz i zanieczyszczenia mogą wpływać na jakość druku, to nie są one bezpośrednią przyczyną rozmazywania, które do dużej mierze zależy od procesów termicznych. Powszechnym błędem myślowym jest łączenie jakości wydruku z różnymi uszkodzeniami, podczas gdy kluczowym czynnikiem w przypadku rozmazywania jest właśnie temperatura utrwalacza, której niewłaściwe ustawienia są najczęstszą przyczyną tego zjawiska w praktyce biurowej.

Pytanie 35

Co oznacza kod BREAK odczytany przez układ elektroniczny klawiatury?

A. uruchomienie funkcji czyszczącej bufor
B. konieczność ustawienia wartości opóźnienia powtarzania znaków
C. awarię kontrolera klawiatury
D. zwolnienie klawisza
Wiele osób może mylić kod BREAK z innymi funkcjami klawiatury, co prowadzi do niewłaściwych wniosków. Awaria kontrolera klawiatury, jak sugeruje jedna z odpowiedzi, jest zupełnie inną kwestią. Oznacza to, że klawiatura nie funkcjonuje poprawnie, co może być spowodowane uszkodzeniem sprzętu lub nieprawidłową konfiguracją, a nie konkretnym sygnałem o zwolnieniu klawisza. Problem ten wymaga diagnostyki sprzętowej, a nie analizy kodów generowanych przez klawiaturę. Podobnie, konieczność ustawienia wartości opóźnienia powtarzania znaków dotyczy kwestii konfiguracyjnych, które mają wpływ na to, jak długo system czeka przed ponownym wysłaniem sygnału, gdy klawisz jest przytrzymywany, co także nie ma związku z kodem BREAK. Funkcja czyszcząca bufor, z drugiej strony, wiąże się z zarządzaniem danymi w pamięci operacyjnej systemu lub aplikacji, co również nie ma związku z odczytem zwolnienia klawisza. Wskazówki te sugerują typowe błędy myślowe, w których użytkownicy mogą nie rozumieć, jak działa komunikacja między klawiaturą a komputerem, oraz jakie konkretne kody są generowane w odpowiedzi na różne działania użytkownika. Kluczowe jest zrozumienie, że każdy z tych kodów pełni określoną rolę w systemie, a ich właściwa interpretacja jest niezbędna do zapewnienia prawidłowego działania aplikacji. Z tego względu ważne jest, aby użytkownicy mieli solidne podstawy w zakresie działania sprzętu i oprogramowania, co pozwala uniknąć fałszywych założeń i poprawia ogólną efektywność pracy z komputerem.

Pytanie 36

Usługa w systemie Windows Server, która umożliwia zdalną instalację systemów operacyjnych na komputerach zarządzanych przez serwer, to

A. FTP
B. DFS
C. GPO
D. WDS
FTP (File Transfer Protocol) to protokół sieciowy używany do przesyłania plików pomiędzy komputerami, ale nie jest to narzędzie do zdalnej instalacji systemów operacyjnych. Jego głównym zastosowaniem jest transfer danych, co czyni go nieodpowiednim rozwiązaniem do złożonych procesów instalacji. DFS (Distributed File System) z kolei jest technologią, która umożliwia zarządzanie danymi rozproszonymi w różnych lokalizacjach, ale nie ma funkcji zdalnego uruchamiania instalacji systemów operacyjnych. GPO (Group Policy Object) to mechanizm, który pozwala na centralne zarządzanie ustawieniami konfiguracji systemu i aplikacji w środowisku Active Directory, jednak również nie umożliwia instalacji systemu operacyjnego. Problem z tymi odpowiedziami wynika z nieporozumienia dotyczącego funkcji tych technologii. Użytkownicy mogą błędnie przypuszczać, że FTP, DFS lub GPO mają zastosowanie w kontekście zdalnej instalacji systemów, podczas gdy są to narzędzia przeznaczone do innych celów. Kluczowe przy określaniu odpowiedniego rozwiązania jest zrozumienie, które technologie są zaprojektowane do specyficznych zadań, takich jak WDS do zdalnej instalacji systemów operacyjnych. Dlatego ważne jest dokładne zapoznanie się z funkcjami poszczególnych narzędzi, aby uniknąć mylnych wyborów w zarządzaniu infrastrukturą IT.

Pytanie 37

Aby zweryfikować schemat połączeń kabla UTP Cat 5e w sieci lokalnej, należy zastosować

A. reflektometr kablowy TDR
B. analizatora protokołów sieciowych
C. testera okablowania
D. reflektometr optyczny OTDR
Tester okablowania jest narzędziem służącym do sprawdzania poprawności podłączeń kabli sieciowych, w tym kabla UTP Cat 5e. Działa na zasadzie pomiaru ciągłości przewodów, identyfikacji biegunów oraz pomiaru parametrów elektrycznych, takich jak tłumienie, impedancja czy przesłuch. Dzięki testerom okablowania można szybko zlokalizować błędy, takie jak zwarcia, przerwy w przewodach czy niewłaściwe podłączenia. W praktyce, zastosowanie testera okablowania jest kluczowe podczas instalacji i konserwacji sieci komputerowych, zapewniając, że każde połączenie jest zgodne z normami, takimi jak TIA/EIA-568. W przypadku sieci UTP Cat 5e, tester pozwala również na weryfikację, czy kabel spełnia wymagania dotyczące przepustowości do 1 Gbps oraz zapewnia odpowiednią jakość sygnału na odległości do 100 metrów. Dobrą praktyką jest przeprowadzanie testów po zakończeniu instalacji oraz okresowe sprawdzanie stanu kabli, co umożliwia wczesne wykrywanie potencjalnych problemów.

Pytanie 38

Wyższą efektywność aplikacji multimedialnych w systemach z rodziny Windows zapewnia technologia

A. GPU
B. jQuery
C. CUDA
D. DirectX
Technologia DirectX to zestaw aplikacji programistycznych (API) opracowanych przez firmę Microsoft, które umożliwiają wykorzystanie sprzętowej akceleracji w aplikacjach multimedialnych, szczególnie w grach i programach graficznych. DirectX zapewnia jednolitą platformę dla rozwoju gier i aplikacji 3D, co pozwala programistom na tworzenie bardziej zaawansowanych oraz wydajnych rozwiązań. Dzięki DirectX, programy mogą lepiej zarządzać zasobami sprzętowymi, co przekłada się na wyższą jakość grafiki oraz płynność działania. Przykładem mogą być gry komputerowe, które wykorzystują DirectX do renderowania trójwymiarowych światów, co pozwala na realizację złożonych efektów wizualnych, takich jak cienie, oświetlenie czy tekstury. Warto również zauważyć, że standardy DirectX są regularnie aktualizowane, co oznacza, że programiści mają dostęp do najnowszych technologii i funkcji, które poprawiają wydajność i jakość dźwięku oraz obrazu. Użycie DirectX w grach stało się niemalże normą, tworząc w ten sposób standardy branżowe, do których dostosowują się inne technologie multimedialne.

Pytanie 39

Jakie będą całkowite koszty materiałów potrzebnych do stworzenia sieci lokalnej dla 6 komputerów, jeśli do budowy sieci wymagane jest 100 m kabla UTP kat. 5e oraz 20 m kanału instalacyjnego? Ceny komponentów sieci przedstawiono w tabeli.

Elementy siecij.m.cena brutto
Kabel UTP kat. 5em1,00 zł
Kanał instalacyjnym8,00 zł
Gniazdo komputeroweszt.5,00 zł
A. 160,00 zł
B. 360,00 zł
C. 290,00 zł
D. 320,00 zł
Odpowiedź na 29000 zł jest całkiem dobra. Wynika to z dokładnego obliczenia kosztów potrzebnych do zbudowania sieci lokalnej dla 6 komputerów. Zdecydowanie potrzebujesz 100 m kabla UTP kat. 5e i 20 m kanału instalacyjnego. Cena kabla to 100 zł za metr, więc za 100 m wyjdzie 100 zł. Kanał instalacyjny kosztuje 8 zł za metr, więc 20 m to 160 zł. Jak to zsumujesz, dostaniesz 260 zł. Nie zapominaj też o 6 gniazdach komputerowych, które kosztują 5 zł za sztukę, co daje 30 zł. Cały koszt to więc 290 zł. Takie obliczenia to podstawa, gdy planujesz sieć, żeby mieć pewność, że wszystko jest w budżecie. Dobrze jest także myśleć o przyszłości, czyli o tym, jak możesz rozbudować sieć, i wybierać materiały, które spełniają dzisiejsze standardy. Na przykład kabel UTP kat. 5e to dobry wybór, bo daje szybki transfer danych.

Pytanie 40

Jakie informacje można uzyskać dzięki programowi Wireshark?

A. Połączenia par żył przewodów
B. Ruch pakietów sieciowych
C. Usterki w okablowaniu
D. Krótkie spięcia w przewodach
Wireshark to potężne narzędzie do analizy ruchu sieciowego, które umożliwia użytkownikom obserwację i analizę pakietów danych przesyłanych przez sieć. Poprawna odpowiedź odnosi się do zdolności Wiresharka do przechwytywania i prezentowania w czasie rzeczywistym ruchu pakietów, co jest kluczowe dla diagnozowania problemów z siecią, monitorowania wydajności oraz analizy bezpieczeństwa. Dzięki Wireshark użytkownicy mogą zrozumieć, jakie dane są przesyłane, kto je wysyła i odbiera, oraz jakie protokoły są używane. Na przykład, administratorzy sieci mogą używać Wiresharka do analizy ruchu HTTP, aby zidentyfikować nieautoryzowane połączenia lub zrozumieć, jak aplikacje korzystają z zasobów sieciowych. W kontekście dobrych praktyk, analiza pakietów powinna być przeprowadzana z poszanowaniem prywatności użytkowników oraz zgodnie z lokalnymi przepisami i regulacjami dotyczącymi ochrony danych. Wireshark jest również używany w edukacji do nauki o protokołach sieciowych, co przyczynia się do lepszego zrozumienia architektury sieciowej.