Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 11 maja 2026 11:24
  • Data zakończenia: 11 maja 2026 11:38

Egzamin zdany!

Wynik: 20/40 punktów (50,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W przypadku planowania wykorzystania przestrzeni dyskowej komputera do przechowywania oraz udostępniania danych, takich jak pliki oraz aplikacje dostępne w internecie, a także ich zarządzania, komputer powinien być skonfigurowany jako

A. serwer aplikacji
B. serwer terminali
C. serwer plików
D. serwer DHCP
Kiedy rozważamy inne typy serwerów, warto zrozumieć, na czym polegają ich funkcje oraz dlaczego nie są one odpowiednie do przechowywania i udostępniania plików. Serwer DHCP (Dynamic Host Configuration Protocol) jest odpowiedzialny za przydzielanie adresów IP urządzeniom w sieci. Jego głównym celem jest automatyzacja procesu konfiguracji sieci, co nie ma związku z przechowywaniem plików. Niewłaściwym podejściem jest myślenie, że serwer DHCP mógłby pełnić rolę serwera plików, ponieważ jego funkcjonalność jest zupełnie inna. Serwer aplikacji to platforma, która umożliwia uruchamianie aplikacji na zdalnych serwerach i nie zajmuje się przechowywaniem plików jako takich. Przyjęcie, że serwer aplikacji może zaspokoić potrzeby dotyczące plików, jest błędne, ponieważ jego głównym celem jest zarządzanie aplikacjami i ich zasobami. Serwer terminali, z kolei, to system, który umożliwia wielu użytkownikom dostęp do zdalnych desktopów i aplikacji, ale nie jest przeznaczony do udostępniania plików. Rozumienie tych różnic jest kluczowe, aby właściwie skonfigurować infrastrukturę IT w zależności od potrzeb organizacji. Właściwy wybór serwera jest fundamentalny dla efektywności operacyjnej i bezpieczeństwa danych.

Pytanie 2

W systemie Linux komenda ifconfig odnosi się do

A. określenia karty sieciowej
B. użycia protokołów TCP/IP do oceny stanu zdalnego hosta
C. narzędzia, które umożliwia wyświetlenie informacji o interfejsach sieciowych
D. narzędzia do weryfikacji znanych adresów MAC/IP
Odpowiedź wskazująca, że ifconfig to narzędzie umożliwiające wyświetlenie stanu interfejsów sieciowych jest jak najbardziej prawidłowa. W systemie Linux, ifconfig jest używane do konfigurowania, kontrolowania oraz wyświetlania informacji o interfejsach sieciowych. Dzięki temu narzędziu administratorzy mogą uzyskać szczegółowe dane dotyczące adresów IP, maski podsieci, a także statusu interfejsów (np. czy są one aktywne). Przykładowe użycie to polecenie 'ifconfig eth0', które wyświetli informacje o interfejsie o nazwie eth0. Dodatkowo, ifconfig może być używane do przypisywania adresów IP oraz aktywacji lub dezaktywacji interfejsów. Narzędzie to jest zgodne z najlepszymi praktykami zarządzania siecią i jest standardowym elementem wielu skryptów administracyjnych, co czyni je niezbędnym w codziennej pracy specjalistów IT. Warto również zaznaczyć, że ifconfig jest często zastępowane przez nowsze narzędzia, takie jak 'ip' z pakietu iproute2, które oferują bardziej rozbudowane możliwości konfiguracyjne i diagnostyczne.

Pytanie 3

AES (ang. Advanced Encryption Standard) to standard szyfrowania, który?

A. jest następcą DES (ang. Data Encryption Standard)
B. nie może być wdrożony w sprzęcie
C. wykorzystuje symetryczny algorytm szyfrujący
D. nie może być stosowany do szyfrowania plików
AES, czyli Advanced Encryption Standard, wykorzystuje symetryczny algorytm szyfrujący, co oznacza, że do szyfrowania i deszyfrowania danych używa się tego samego klucza. Jest to jedna z najważniejszych cech tego standardu, która zapewnia zarówno bezpieczeństwo, jak i szybkość operacji szyfrujących. AES został wprowadzony przez NIST w 2001 roku jako zamiennik dla DES, w odpowiedzi na rosnące wymagania dotyczące bezpieczeństwa danych. Przykładem zastosowania AES jest szyfrowanie danych w protokołach takich jak HTTPS, które zapewniają bezpieczną komunikację w Internecie. W praktyce, wiele systemów i aplikacji, od komunikatorów po bankowość internetową, korzysta z tego algorytmu, aby chronić dane przed nieautoryzowanym dostępem. Dodatkowo, zgodność z normami takimi jak FIPS 197, potwierdza, że AES spełnia wysokie standardy bezpieczeństwa, co czyni go zaufanym rozwiązaniem dla wielu zastosowań w branży IT.

Pytanie 4

Komputer powinien działać jako serwer w sieci lokalnej, umożliwiając innym komputerom dostęp do Internetu poprzez podłączenie do gniazda sieci rozległej za pomocą kabla UTP Cat 5e. Na chwilę obecną komputer jest jedynie połączony ze switchem sieci lokalnej również kablem UTP Cat 5e oraz nie dysponuje innymi portami 8P8C. Jakiego komponentu musi on koniecznie nabrać?

A. O większą pamięć RAM
B. O szybszy procesor
C. O drugą kartę sieciową
D. O dodatkowy dysk twardy
Komputer, żeby móc działać jako serwer i dzielić połączenie z Internetem, musi mieć dwie karty sieciowe. Jedna z nich służy do komunikacji w lokalnej sieci (LAN), a druga przydaje się do łączenia z Internetem (WAN). Dzięki temu można spokojnie zarządzać przesyłem danych w obie strony. Takie rozwiązanie jest super ważne, bo pozwala np. na utworzenie serwera, który działa jak brama między komputerami w domu a Internetem. Warto wiedzieć, że posiadanie dwóch kart sieciowych to dobra praktyka, zwiększa to bezpieczeństwo i wydajność. Jeżeli chodzi o standardy IT, to takie podejście pomaga też w segregowaniu ruchu lokalnego i zewnętrznego, co ma duże znaczenie dla ochrony danych i wykorzystania zasobów. Dodatkowo, sporo systemów operacyjnych i rozwiązań serwerowych, takich jak Windows Server czy Linux, wspiera konfiguracje z wieloma kartami.

Pytanie 5

Technik serwisowy, po przeprowadzeniu testu na serwerze NetWare, otrzymał informację, że obiekt dysponuje prawem

Ilustracja do pytania
A. odczytywania swoich atrybutów
B. dodawania lub usuwania swoich atrybutów
C. porównania swoich atrybutów
D. dodawania swoich atrybutów
Analizując dostępne opcje uprawnień, ważne jest zrozumienie różnic między nimi. Prawo porównania swoich właściwości odnosi się do możliwości sprawdzenia zgodności różnych atrybutów, co jest użyteczne w kontekście walidacji danych, ale nie pozwala na ich modyfikację. Czytanie swoich właściwości natomiast dotyczy uprawnienia do przeglądania danych, co jest podstawowym poziomem dostępu, umożliwiającym użytkownikowi wgląd w swoje ustawienia bez możliwości ich zmiany. Uprawnienie do dodawania swoich właściwości bez komponentu usuwania sugeruje jednostronne działanie, które może prowadzić do gromadzenia nadmiarowych, nieaktualnych danych, co stoi w sprzeczności z zasadami efektywnego zarządzania danymi w katalogu. Typowym błędem podczas wyboru uprawnień jest nieuwzględnianie pełnego cyklu zarządzania atrybutami, który obejmuje zarówno tworzenie, jak i usuwanie niepotrzebnych danych, co jest kluczowe dla utrzymania porządku i użyteczności systemów informatycznych. Właściwe zrozumienie różnorodności praw dostępu i ich zastosowań jest fundamentalne dla efektywnego zarządzania zasobami w środowisku IT, co wymaga nie tylko technicznej wiedzy, ale także strategicznego podejścia do administrowania danymi w organizacji.

Pytanie 6

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 32 GB.
B. 2 modułów, każdy po 16 GB.
C. 2 modułów, każdy po 8 GB.
D. 1 modułu 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 7

Rodzajem złośliwego oprogramowania będącego programem rezydentnym, który działa, wykonując konkretną operację, nie powiela się przez sieć, a jedną z jego metod jest samoreplikacja aż do wyczerpania pamięci komputera, jest

A. Stealware
B. Backdoor
C. Rootkit
D. Wabbit
Wielu osobom rootkit, stealware czy backdoor wydają się pasować do opisu złośliwego oprogramowania, ale każda z tych kategorii ma swoje charakterystyczne cechy i działa zupełnie inaczej niż wabbit. Rootkit to w rzeczywistości złośliwy zestaw narzędzi służących do ukrywania obecności atakującego na zainfekowanym systemie – nie chodzi tu o samoreplikację czy wyczerpywanie pamięci, tylko raczej o długofalowe utrzymanie się w systemie i maskowanie innych szkodliwych procesów. Stealware, jak sama nazwa sugeruje, jest projektowane głównie po to, by wykradać dane lub przekierowywać środki, najczęściej przy pomocy manipulowania ruchem internetowym użytkownika. To złośliwe oprogramowanie jest raczej ciche i nie powoduje skokowego zużycia pamięci RAM czy przeciążenia procesora. Jeśli chodzi o backdoora, to mamy do czynienia z funkcją umożliwiającą pominięcie standardowych mechanizmów uwierzytelniania – backdoor pozwala atakującemu na dostęp do systemu, ale nie opiera się na masowej samoreplikacji i wyczerpywaniu zasobów sprzętowych. Moim zdaniem często powtarzanym błędem jest utożsamianie wszelkich poważniejszych objawów infekcji z rootkitami lub backdoorami, bo te określenia są popularne w mediach. Jednak w praktyce, jeśli widzimy objawy typowego wyczerpywania pamięci wskutek masowego namnażania się procesu, to należy pomyśleć właśnie o takich przypadkach jak wabbit. Standardy bezpieczeństwa, jak ISO/IEC 27002, zalecają, by analizować symptomy ataku z kilku perspektyw – nie tylko przez pryzmat wykradania danych lub zdalnej kontroli, ale też pod kątem anomalii w zarządzaniu zasobami systemowymi. W tej sytuacji, żadne z wymienionych błędnych odpowiedzi nie trafia w sedno mechanizmu działania złośliwego programu opisanego w pytaniu.

Pytanie 8

Co oznacza oznaczenie kabla skrętkowego S/FTP?

A. Skrętka bez ekranu
B. Ekran wykonany z folii i siatki dla 4 par
C. Każda para osłonięta folią i 4 pary razem w ekranie z siatki
D. Każda para osłonięta folią
Wybór innych odpowiedzi wskazuje na nieporozumienia dotyczące struktury i funkcji kabli skrętkowych. Odpowiedzi sugerujące, że każda para jest ekranowana, ale nie uwzględniają wspólnego ekranu dla wszystkich par, są niekompletne. Kable S/FTP są zaprojektowane w taki sposób, aby zapewnić maksymalną ochronę przed zakłóceniami, co nie jest wystarczająco uwzględnione w opcjach, które mówią jedynie o pojedynczym ekranowaniu par. Ponadto, odpowiedzi, które nie uwzględniają folii jako materiału ekranującego (np. ekran z siatki na 4 parach), mogą prowadzić do nieporozumień co do zastosowania i efektywności tych technologii. Kable bez ekranowania (jak w przypadku skrętki nieekranowanej) są znacznie bardziej podatne na zakłócenia elektromagnetyczne, co sprawia, że ich zastosowanie w środowisku o wysokiej interferencji jest niewłaściwe. Typowym błędem jest założenie, że ekranowanie folią jest zbędne, podczas gdy w praktyce stanowi ono kluczowy element w zapewnieniu wysokiej jakości sygnału w sieciach komputerowych. Właściwe zrozumienie konstrukcji kabli i ich zastosowania jest niezbędne do efektywnego projektowania i implementacji systemów sieciowych.

Pytanie 9

Jakie polecenie należy wykorzystać w systemie Linux, aby zlokalizować wszystkie pliki z rozszerzeniem txt, które znajdują się w katalogu /home/user i mają w nazwie ciąg znaków abc?

A. ls /home/user/*abc*.txt
B. ls /home/user/[abc].txt
C. ls /home/user/[a-c].txt
D. ls /home/user/?abc?.txt
W przypadku poleceń przedstawionych w innych odpowiedziach pojawia się szereg błędnych koncepcji odnośnie do funkcji symboli wieloznacznych oraz sposobu, w jaki można wyszukiwać pliki w systemie Linux. Użycie '?abc?.txt' w pierwszej odpowiedzi jest niepoprawne, ponieważ '?' odpowiada za jeden pojedynczy znak, co oznacza, że będzie wyszukiwało pliki, które mają dokładnie jedną literę przed i jedną literę po ciągu 'abc', co jest zbyt restrykcyjne w kontekście poszukiwania plików. W drugiej odpowiedzi, '[abc].txt' również nie spełnia wymagań, ponieważ '[abc]' oznacza, że przed rozszerzeniem '.txt' musi być dokładnie jeden znak, który może być 'a', 'b' lub 'c'. Ostatnia odpowiedź, '[a-c].txt', jest równie myląca, jako że ogranicza wyszukiwanie do plików o nazwach, które zaczynają się od pojedynczego znaku z zakresu 'a' do 'c', co nie uwzględnia innych możliwości. Przy poszukiwaniu plików w systemie Linux kluczowe jest wykorzystywanie symboli wieloznacznych zgodnie z ich przeznaczeniem oraz zrozumienie ich działania, aby uniknąć nieprawidłowych wniosków. Dobrą praktyką jest także testowanie zapytań w bezpiecznym środowisku, aby upewnić się, że zwracane wyniki są zgodne z oczekiwaniami.

Pytanie 10

Wskaż symbol umieszczany na urządzeniach elektrycznych przeznaczonych do sprzedaży i obrotu w Unii Europejskiej?

Ilustracja do pytania
A. Rys. D
B. Rys. B
C. Rys. C
D. Rys. A
Oznaczenie CE umieszczane na urządzeniach elektrycznych jest świadectwem zgodności tych produktów z wymogami bezpieczeństwa zawartymi w dyrektywach Unii Europejskiej. Znak ten nie tylko oznacza, że produkt spełnia odpowiednie normy dotyczące zdrowia ochrony środowiska i bezpieczeństwa użytkowania ale także jest dowodem, że przeszedł on odpowiednie procedury oceny zgodności. W praktyce CE jest niezbędne dla producentów którzy chcą wprowadzić swoje produkty na rynek UE. Na przykład jeśli producent w Azji chce eksportować swoje urządzenia elektryczne do Europy musi upewnić się że spełniają one dyrektywy takie jak LVD (dyrektywa niskonapięciowa) czy EMC (dyrektywa kompatybilności elektromagnetycznej). Istotnym aspektem jest to że CE nie jest certyfikatem jakości ale raczej minimalnym wymogiem bezpieczeństwa. Od konsumentów CE oczekuje się aby ufać że produkt jest bezpieczny w użyciu. Dodatkowym atutem tego oznaczenia jest ułatwienie swobodnego przepływu towarów w obrębie rynku wspólnotowego co zwiększa konkurencyjność i innowacyjność produktów na rynku.

Pytanie 11

Do instalacji i usuwania oprogramowania w systemie Ubuntu wykorzystywany jest menedżer

A. tar
B. yast
C. ls
D. apt
Apt (Advanced Package Tool) to standardowy menedżer pakietów w systemie Ubuntu oraz wielu innych dystrybucjach opartych na Debianie. Umożliwia on zarówno instalację, aktualizację, jak i usuwanie oprogramowania. Apt korzysta z repozytoriów zawierających skompilowane pakiety, co zapewnia łatwy i szybki dostęp do oprogramowania. Aby zainstalować nowy program, wystarczy użyć polecenia 'sudo apt install nazwa_pakietu', co automatycznie pobiera odpowiednie pakiety oraz ich zależności z repozytoriów. Ponadto, apt oferuje funkcję zarządzania aktualizacjami systemu, co jest kluczowe z perspektywy bezpieczeństwa oraz wydajności. Przykładowo, polecenie 'sudo apt update' aktualizuje lokalną bazę danych dostępnych pakietów, a 'sudo apt upgrade' aktualizuje zainstalowane pakiety do najnowszych wersji. Praktyczne zastosowanie apt jest nieocenione, szczególnie w kontekście administracji systemami, gdzie regularne aktualizacje i instalacje nowych aplikacji są niezbędne do utrzymania stabilności i bezpieczeństwa systemu.

Pytanie 12

Jakie urządzenie powinno być użyte do podłączenia żył kablowych skrętki do gniazda Ethernet?

A. Zaciskarkę RJ-11
B. Zaciskarkę BNC
C. Zaciskarkę RJ-45
D. Wciskacz LSA
Wybór zaciskarki BNC, RJ-45 lub RJ-11 w kontekście podłączenia żył kablowych skrętki do gniazda Ethernet jest nieodpowiedni z kilku powodów. Zaciskarka BNC jest przeznaczona do pracy z kablami koncentrycznymi, które stosuje się głównie w systemach telewizyjnych i wideo, a nie w standardowych instalacjach sieci Ethernet. Dobór tego narzędzia do podłączenia skrętki prowadzi do nieprawidłowych połączeń i potencjalnych problemów z jakością sygnału. Zaciskarka RJ-45, pomimo że wydaje się być odpowiednia, jest używana do tworzenia kabli RJ-45, które już są zakończone przewodami, a nie do bezpośredniego podłączania typowych żył skrętki do gniazda. Właściwe przygotowanie kabli do podłączenia wymaga użycia wciskacza LSA, który zapewnia odpowiednie ciśnienie i kontakt między żyłami kabla a stykami gniazda. Zaciskarka RJ-11 jest narzędziem przeznaczonym do telefonii, umożliwiającym podłączenie przewodów do gniazd telefonicznych, co jest również nietrafione w kontekście sieci Ethernet. Decydując się na niewłaściwe narzędzie, możemy doprowadzić do zwiększonego poziomu błędów transmisji, zakłóceń sygnału oraz wpłynąć na ogólną wydajność sieci. Warto zatem korzystać z narzędzi dostosowanych do specyfikacji technicznych i standardów branżowych, aby zapewnić właściwe funkcjonowanie infrastruktury sieciowej.

Pytanie 13

Cechą charakterystyczną transmisji w interfejsie równoległym synchronicznym jest to, że

A. początek oraz koniec przesyłanych bit po bicie danych jest sygnalizowany przez bity startu i stopu
B. dane są przesyłane równocześnie całą szerokością magistrali, a początek oraz koniec transmisji oznaczają bity startu i stopu
C. dane są przesyłane bitami w wyznaczonych momentach czasowych, które są określane sygnałem zegarowym CLK
D. w ustalonych momentach czasowych, które są wyznaczane sygnałem zegarowym CLK, dane są jednocześnie przesyłane wieloma przewodami
W przypadku niepoprawnych odpowiedzi występuje szereg mylnych koncepcji dotyczących sposobu przesyłania danych. Równoległa transmisja synchroniczna różni się od transmisji szeregowej, w której dane są przesyłane bit po bicie. Odpowiedzi sugerujące, że dane są przesyłane bit po bicie, są niedokładne, gdyż w przypadku interfejsów równoległych kilka bitów jest przesyłanych jednocześnie, co znacząco przyspiesza proces komunikacji. Dodatkowo, niektóre odpowiedzi mogą mylić pojęcia związane z sygnałami startu i stopu, które są typowe dla transmisji szeregowej. W transmitującym interfejsie równoległym nie stosuje się bitów startu i stopu, ponieważ sygnał zegarowy CLK reguluje moment przesyłania danych, eliminując potrzebę takich bitów. Tego rodzaju nieporozumienia mogą pochodzić z nieznajomości różnic między różnymi metodami transmisji danych oraz ich zastosowaniami w praktyce. Kluczowe w nauce o przesyłaniu danych jest zrozumienie podstawowych mechanizmów, które rządzą tym procesem oraz znajomość koncepcji synchronizacji, co jest niezbędne w projektowaniu nowoczesnych systemów komputerowych.

Pytanie 14

Martwy piksel, będący defektem monitorów LCD, to punkt, który trwa niezmiennie w kolorze

A. żółtym
B. fioletowym
C. szarym
D. czarnym
Martwy piksel to problem, który dotyczy wyświetlaczy LCD i oznacza punkt na ekranie, który nie reaguje na sygnały z karty graficznej. W przypadku martwego piksela, najczęściej pozostaje on w jednym, niezmiennym kolorze, a najczęściej jest to kolor czarny. Oznacza to, że piksel nie emituje światła, co sprawia, że jest widoczny jako ciemny punkt na tle jaśniejszego obrazu. Martwe piksele mogą występować z różnych przyczyn, w tym uszkodzeń mechanicznych, błędów w produkcji lub problemów z oprogramowaniem. W branży standardem jest, że producenci monitorów klasyfikują martwe piksele jako defekty, jeżeli ich liczba przekracza określony próg, który zazwyczaj wynosi kilka pikseli na milion. Użytkownicy mogą spotkać się z tym problemem podczas codziennego użytku, np. w grach komputerowych czy podczas pracy z grafiką, gdzie jakość obrazu ma kluczowe znaczenie. Dobrą praktyką jest regularne sprawdzanie monitorów pod kątem martwych pikseli, aby zminimalizować wpływ takich defektów na doświadczenia użytkowników.

Pytanie 15

W systemie SI jednostką do mierzenia napięcia jest

A. amper
B. wolt
C. herc
D. wat
Amper (A) to jednostka miary natężenia prądu elektrycznego, a nie napięcia. Ustalając natężenie prądu, mierzysz ilość ładunku elektrycznego przepływającego przez przewodnik w jednostce czasu, co jest kluczowe w obwodach elektrycznych, ale zupełnie nie odnosi się do różnicy potencjałów między punktami. Z kolei wat (W) jest jednostką mocy, która jest określana jako iloczyn napięcia i natężenia prądu. Oznacza to, że zwiększając napięcie przy stałym natężeniu prądu, zwiększamy moc dostarczaną do urządzenia. W kontekście błędów myślowych, można zauważyć, że wiele osób myli jednostki, nie rozumiejąc ich fundamentalnych różnic. Użycie herca (Hz) jako jednostki miary napięcia również jest nietrafione, ponieważ herc mierzy częstotliwość, a nie napięcie. Częstotliwość odnosi się do liczby cykli, które występują w jednostce czasu, co jest istotne w kontekście sygnałów AC (prąd zmienny). W praktyce, te różnice są kluczowe dla analizy układów elektrycznych oraz projektowania systemów, gdzie poprawne zrozumienie jednostek i ich zastosowania ma kluczowe znaczenie dla bezpieczeństwa i efektywności energetycznej.

Pytanie 16

Która z poniższych informacji odnosi się do profilu tymczasowego użytkownika?

A. Jest zakładany przez administratora systemu i magazynowany na serwerze, zmiany mogą w nim wprowadzać jedynie administratorzy
B. Po wylogowaniu użytkownika, modyfikacje dokonane przez niego w ustawieniach pulpitu oraz plikach nie będą zachowane
C. Pozwala na dostęp do ustawień i danych użytkownika z dowolnego komputera w sieci, które są przechowywane na serwerze
D. Tworzy się go w trakcie pierwszego logowania do systemu i zapisuje na lokalnym dysku twardym komputera
Zrozumienie, jak działają profile użytkowników, to klucz do dobrego zarządzania systemami operacyjnymi. Odpowiedzi, które mówią, że profil tymczasowy tworzy się przy pierwszym logowaniu i jest przechowywany na lokalnym dysku, są błędne. To pomylenie z profilem lokalnym, który jest trwalszy i pozwala zapisać zmiany po wylogowaniu. Profil tymczasowy nie ma takiej trwałości. Mówiąc o korzystaniu z ustawień na różnych komputerach w sieci, mamy na myśli profil roamingowy, który jest na serwerze i synchronizuje się z różnymi urządzeniami. Tworzenie profilu przez admina i trzymanie go na serwerze dotyczy stałego profilu, który jest pod kontrolą polityk organizacji. Każda z tych rzeczy jest inna i ma swoje konkretne zastosowania. Często mylimy profil tymczasowy z innymi typami profili, co może prowadzić do wielu kłopotów przy zarządzaniu ustawieniami użytkowników i nieporozumień związanych z bezpieczeństwem. Te różnice są naprawdę ważne, szczególnie dla administratorów, którzy muszą podejmować przemyślane decyzje dotyczące zarządzania dostępem i konfiguracji profili.

Pytanie 17

Jakie informacje można uzyskać dzięki programowi Wireshark?

A. Ruch pakietów sieciowych
B. Usterki w okablowaniu
C. Połączenia par żył przewodów
D. Krótkie spięcia w przewodach
Wireshark to potężne narzędzie do analizy ruchu sieciowego, które umożliwia użytkownikom obserwację i analizę pakietów danych przesyłanych przez sieć. Poprawna odpowiedź odnosi się do zdolności Wiresharka do przechwytywania i prezentowania w czasie rzeczywistym ruchu pakietów, co jest kluczowe dla diagnozowania problemów z siecią, monitorowania wydajności oraz analizy bezpieczeństwa. Dzięki Wireshark użytkownicy mogą zrozumieć, jakie dane są przesyłane, kto je wysyła i odbiera, oraz jakie protokoły są używane. Na przykład, administratorzy sieci mogą używać Wiresharka do analizy ruchu HTTP, aby zidentyfikować nieautoryzowane połączenia lub zrozumieć, jak aplikacje korzystają z zasobów sieciowych. W kontekście dobrych praktyk, analiza pakietów powinna być przeprowadzana z poszanowaniem prywatności użytkowników oraz zgodnie z lokalnymi przepisami i regulacjami dotyczącymi ochrony danych. Wireshark jest również używany w edukacji do nauki o protokołach sieciowych, co przyczynia się do lepszego zrozumienia architektury sieciowej.

Pytanie 18

W serwisie komputerowym dokumentem zawierającym informacje o sprzęcie, opis usterki, datę zgłoszenia i dane klienta jest

A. WZ
B. PZ
C. karta naprawy
D. paragon
Prawidłowo – w realnym serwisie komputerowym takim dokumentem jest właśnie karta naprawy. To jest podstawowy dokument roboczy serwisu, coś w rodzaju „historii choroby” komputera. Zawiera dane klienta (imię, nazwisko/nazwa firmy, kontakt), dokładne informacje o sprzęcie (model, numer seryjny, czasem konfigurację: procesor, RAM, dysk), opis zgłaszanej usterki, datę przyjęcia sprzętu oraz często przewidywany termin realizacji. Bardzo często dopisuje się tam też uwagi serwisanta, wykonane czynności, użyte części, wyniki testów i końcową diagnozę. Dzięki temu w każdej chwili wiadomo, co się z danym urządzeniem działo, kto je przyjął, kto naprawiał i jakie działania były podjęte. W profesjonalnych serwisach karta naprawy jest też podstawą do rozliczeń – na jej podstawie wystawia się paragon albo fakturę oraz raportuje czas pracy. Moim zdaniem bez porządnie prowadzonej karty naprawy serwis szybko zamienia się w chaos: gubią się informacje, klient ma poczucie bałaganu, a w razie reklamacji nie ma się do czego odwołać. W wielu firmach karta naprawy ma formę elektroniczną w systemie serwisowym (CRM/Helpdesk), ale zasada jest ta sama – musi być przypisane zgłoszenie z dokładnym opisem sprzętu, usterki i przebiegu naprawy. To jest po prostu dobra praktyka branżowa i element podstawowej dokumentacji serwisowej.

Pytanie 19

Aby uzyskać listę procesów aktualnie działających w systemie Linux, należy użyć polecenia

A. ps
B. show
C. dir
D. who
Polecenie 'ps' w systemie Linux jest kluczowym narzędziem do monitorowania i zarządzania procesami działającymi w systemie. Jego pełna forma to 'process status', a jego zadaniem jest wyświetlenie informacji o aktualnie uruchomionych procesach, takich jak ich identyfikatory PID, wykorzystanie pamięci, stan oraz czas CPU. Dzięki możliwościom filtrowania i formatowania wyników, 'ps' jest niezwykle elastyczne, co czyni je niezastąpionym narzędziem w codziennej administracji systemami. Na przykład, użycie polecenia 'ps aux' pozwala uzyskać pełen widok na wszystkie procesy, w tym te uruchomione przez innych użytkowników. W praktyce, administratorzy często łączą 'ps' z innymi poleceniami, takimi jak 'grep', aby szybko zidentyfikować konkretne procesy, co jest zgodne z dobrymi praktykami zarządzania systemami. Zrozumienie i umiejętność korzystania z 'ps' jest fundamentem dla każdego, kto zajmuje się administracją systemów Linux, a jego znajomość jest kluczowym elementem w rozwiązywaniu problemów związanych z wydajnością czy zarządzaniem zasobami.

Pytanie 20

Oprogramowanie OEM (Original Equipment Manufacturer) jest przypisane do

A. wszystkich komputerów w danym domu.
B. komputera (lub podzespołu), na którym zostało zainstalowane.
C. systemu operacyjnego zamontowanego na danym komputerze.
D. właściciela lub kupującego komputer.
Rozważając inne odpowiedzi, można zauważyć liczne nieporozumienia dotyczące zasad licencjonowania oprogramowania OEM. Przypisanie oprogramowania do właściciela/nabywcy komputera sugeruje, że oprogramowanie jest własnością osoby, co jest mylne. Licencje OEM są związane ze sprzętem, a nie z osobą, co oznacza, że nawet jeśli nabywca sprzeda komputer, licencja na oprogramowanie nie przechodzi na nowego właściciela. W rezultacie, nowy użytkownik nie ma prawa do korzystania z tego oprogramowania, co może prowadzić do problemów prawnych. Inną koncepcją, która jest błędna, jest stwierdzenie, że oprogramowanie OEM przypisane jest do systemu operacyjnego zainstalowanego na danym komputerze. Oprogramowanie OEM to nie tylko system operacyjny, ale również wszelkie inne aplikacje, które mogą być preinstalowane na danym urządzeniu, a ich licencjonowanie również jest związane ze sprzętem. Mylenie tych pojęć może prowadzić do nieporozumień w zakresie zarządzania oprogramowaniem i użytkowania. Ostatnia odpowiedź sugerująca, że licencja dotyczy wszystkich komputerów w gospodarstwie domowym, jest również nieprawidłowa, ponieważ każda licencja OEM jest przypisana do konkretnego urządzenia, co wyklucza możliwość jej współdzielenia między różnymi komputerami w jednej lokalizacji. Problemy te mogą prowadzić do nielegalnego użytkowania oprogramowania oraz do ryzyka związanych z bezpieczeństwem i zgodnością, co jest niezgodne z najlepszymi praktykami w branży IT.

Pytanie 21

Na ilustracji ukazana jest karta

Ilustracja do pytania
A. sieciowa Token Ring
B. kontrolera RAID
C. sieciowa Fibre Channel
D. kontrolera SCSI
Kontrolery RAID są przeznaczone do zarządzania macierzami dyskowymi, zapewniając redundancję i poprawę wydajności w przechowywaniu danych. Działają na poziomie serwera lub urządzenia pamięci masowej, a ich główną funkcją jest ochrona danych przed awariami dysków. Z kolei kontroler SCSI obsługuje interfejs używany do podłączania i przesyłania danych między komputerami a urządzeniami peryferyjnymi, często stosowany w systemach serwerowych przed pojawieniem się nowszych technologii. Sieci Token Ring, choć niegdyś popularne, są obecnie rzadko spotykane, zostały zastąpione przez bardziej nowoczesne rozwiązania ethernetowe. Token Ring opierał się na przesyłaniu specjalnego sygnału zwanego tokenem, który regulował, kiedy urządzenie mogło przesyłać dane. Fibre Channel, natomiast, jest technologią dedykowaną do tworzenia wysokowydajnych sieci SAN, oferującą nieporównywalnie większe przepustowości w porównaniu do innych wymienionych opcji. Częstym błędem jest mylenie tych technologii z powodu historycznych podobieństw w zastosowaniach, jednak ich współczesne wykorzystanie znacząco się różni w kontekście wydajności i typów obsługiwanych operacji.

Pytanie 22

Do kategorii oprogramowania określanego mianem malware (ang. malicious software) nie zalicza się oprogramowania typu

A. exploit
B. keylogger
C. computer aided manufacturing
D. scumware
Każda z pozostałych opcji odnosi się do oprogramowania szkodliwego, co może prowadzić do nieporozumień w rozpoznawaniu zagrożeń w cyberprzestrzeni. Oprogramowanie scumware jest formą malware, która zbiera niechciane informacje od użytkowników, często bez ich wiedzy, co może prowadzić do naruszenia prywatności. Z kolei keylogger to rodzaj spyware, który rejestruje naciśnięcia klawiszy, umożliwiając hakerom kradzież haseł i innych poufnych danych. Exploit to technika wykorzystywana do atakowania luk w oprogramowaniu, co pozwala na zdobycie nieautoryzowanego dostępu do systemów. Wybór tych odpowiedzi może wynikać z nieznajomości klasyfikacji oprogramowania lub mylenia różnych typów aplikacji. Kluczowe jest zrozumienie, że malware jest narzędziem przestępczym, które ma na celu wyrządzenie szkody, podczas gdy oprogramowanie takie jak CAM działa w przeciwnym kierunku, wspierając rozwój i efektywność produkcji. Zrozumienie tej różnicy jest istotne dla skutecznego zarządzania bezpieczeństwem informatycznym oraz wdrażania odpowiednich środków ochrony w organizacjach.

Pytanie 23

Za pomocą taśmy 60-pinowej pokazanej na ilustracji łączy się z płytą główną komputera

Ilustracja do pytania
A. napędy ATAPI
B. jedynie dyski EIDE
C. tylko dyski SCSI
D. wszystkie wymienione urządzenia
Wybierając niepoprawne odpowiedzi często można spotkać się z błędnym rozumieniem roli i zastosowań różnych standardów interfejsów. ATAPI (ATA Packet Interface) jest rozszerzeniem dla standardu ATA i jest używane głównie do podłączania napędów optycznych jak CD-ROM czy DVD-ROM do systemów IDE. Standardy ATA lub IDE, w tym EIDE (Enhanced Integrated Drive Electronics), są przeznaczone do podłączania dysków twardych i nie korzystają z 60-pinowych taśm a ze złączy 40-pinowych. EIDE jest rozwinięciem IDE oferującym zwiększoną przepustowość i dodatkowe funkcje jak LBA (Logical Block Addressing). Ważnym aspektem w technologii dyskowej jest zrozumienie różnicy między tymi standardami oraz ich przeznaczeniem. Interfejsy ATA i ich warianty są powszechnie stosowane w komputerach osobistych ze względu na prostotę i niższe koszty produkcji. Natomiast SCSI z racji swojej wysokiej wydajności i możliwości podłączenia większej liczby urządzeń bezpośrednio do jednego kontrolera jest bardziej zaawansowanym rozwiązaniem stosowanym w serwerach i stacjach roboczych. Podsumowując wybór odpowiedniej technologii zależy od specyfiki zastosowania oraz wymagań wydajnościowych danego systemu komputerowego.

Pytanie 24

W specyfikacji głośników komputerowych producent mógł podać informację, że maksymalne pasmo przenoszenia wynosi

A. 20 dB
B. 20 kHz
C. 20%
D. 20 W
Maksymalne pasmo przenoszenia to bardzo ważny parametr w specyfikacjach głośników komputerowych i ogólnie każdego sprzętu audio. Odpowiedź 20 kHz jest tutaj właściwa, bo właśnie ta wartość określa górną granicę częstotliwości, jaką dany zestaw głośników potrafi odtworzyć. Większość ludzi słyszy dźwięki w zakresie od około 20 Hz do właśnie 20 000 Hz, czyli 20 kHz, więc producenci sprzętu audio często podają ten zakres jako standard. Moim zdaniem to ma duże znaczenie praktyczne – jeśli głośnik jest w stanie odtworzyć sygnał do 20 kHz, to usłyszysz zarówno niskie basy, jak i najwyższe soprany, chociaż nie każdy faktycznie rejestruje te najwyższe dźwięki, bo słuch się z wiekiem pogarsza. W praktyce dobre głośniki będą miały szerokie pasmo przenoszenia, a niektóre profesjonalne konstrukcje potrafią nawet przekraczać 20 kHz, ale dla odbiorników komputerowych to już raczej marketing. Gdy widzę w danych technicznych "pasmo przenoszenia: 20 Hz – 20 kHz", to od razu wiem, że sprzęt przynajmniej teoretycznie pokrywa pełne spektrum słyszalne. To jest taka branżowa podstawa, o której warto pamiętać – nie tylko w testach, ale i przy wyborze sprzętu do domu czy firmy.

Pytanie 25

Jaką kwotę trzeba będzie zapłacić za wymianę karty graficznej w komputerze, jeśli koszt karty wynosi 250 zł, czas wymiany to 80 minut, a cena za każdą rozpoczętą roboczogodzinę to 50 zł?

A. 300 zł
B. 250 zł
C. 350 zł
D. 400 zł
Odpowiedź 350 zł jest poprawna, ponieważ obejmuje zarówno koszt samej karty graficznej, jak i opłatę za robociznę. Karta graficzna kosztuje 250 zł. Wymiana karty zajmuje 80 minut, co w przeliczeniu na roboczogodziny wynosi 1,33 godziny (80 minut / 60 minut). Koszt robocizny wynosi 50 zł za każdą rozpoczętą roboczogodzinę, co oznacza, że za 1,33 godziny pracy serwisu zapłacimy 100 zł (50 zł x 2, ponieważ za 80 minut liczy się pełna godzina plus rozpoczęta druga godzina). Sumując koszt karty i robocizny, otrzymujemy 250 zł + 100 zł = 350 zł. To podejście do wyceny usług serwisowych jest zgodne z powszechnymi praktykami w branży, które zalecają uwzględnienie zarówno kosztów materiałów, jak i kosztów pracy przy kalkulacji całkowitych wydatków na serwis. Przykładem zastosowania tej wiedzy może być sytuacja, gdy przedsiębiorstwo planuje budżet na serwis komputerowy, gdzie precyzyjne oszacowanie kosztów jest kluczowe dla efektywnego zarządzania finansami.

Pytanie 26

Wypukłe kondensatory elektrolityczne w module zasilania monitora LCD mogą doprowadzić do uszkodzenia

A. układu odchylania poziomego
B. inwertera oraz podświetlania matrycy
C. przycisków umieszczonych na panelu monitora
D. przewodów sygnałowych
Spuchnięte kondensatory elektrolityczne w sekcji zasilania monitora LCD mogą prowadzić do uszkodzenia inwertera oraz podświetlania matrycy, ponieważ kondensatory te odgrywają kluczową rolę w filtracji napięcia oraz stabilizacji prądów. Kiedy kondensatory ulegają uszkodzeniu, ich zdolność do przechowywania ładunku i stabilizowania napięcia spada, co może skutkować niestabilnym zasilaniem układów zasilających, takich jak inwerter, który z kolei odpowiedzialny jest za generowanie wysokiego napięcia potrzebnego do podświetlenia matrycy LCD. W praktyce, uszkodzenie kondensatorów powoduje fluktuacje napięcia, które mogą prowadzić do uszkodzenia inwertera, co skutkuje brakiem podświetlenia ekranu. W standardach branżowych, takich jak IPC-A-610, wskazuje się na konieczność monitorowania stanu kondensatorów i ich regularnej konserwacji, aby zapobiegać tego typu problemom. Zrozumienie tego zagadnienia jest istotne, aby móc skutecznie diagnozować i naprawiać sprzęt elektroniczny, co przekłada się na dłuższą żywotność urządzeń oraz ich niezawodność.

Pytanie 27

Jaki adres IP w systemie dziesiętnym odpowiada adresowi IP 10101010.00001111.10100000.11111100 zapisanemu w systemie binarnym?

A. 170.14.160.252
B. 170.15.160.252
C. 171.14.159.252
D. 171.15.159.252
Adres IP zapisany w systemie binarnym 10101010.00001111.10100000.11111100 składa się z czterech oktetów. Aby przekształcić go na system dziesiętny, należy zinterpretować każdy z oktetów oddzielnie. Pierwszy oktet 10101010 to 128 + 32 + 8 = 170, drugi 00001111 to 0 + 0 + 8 + 4 + 2 + 1 = 15, trzeci 10100000 to 128 + 32 = 160, a czwarty 11111100 to 128 + 64 + 32 + 16 + 8 + 4 = 252. Łącząc te wartości, otrzymujemy adres IP w systemie dziesiętnym: 170.15.160.252. Zrozumienie konwersji między systemami liczbowymi jest kluczowe w pracy z sieciami komputerowymi, gdzie adresy IP mają fundamentalne znaczenie dla komunikacji. Przykładowo, w praktycznych zastosowaniach inżynierowie sieciowi często muszą konwertować adresy IP do różnych formatów podczas konfigurowania routerów czy serwerów. Warto również podkreślić, że poprawne zrozumienie adresacji IP jest zgodne z normami TCP/IP, co jest istotne w projektowaniu i wdrażaniu sieci komputerowych.

Pytanie 28

Który procesor jest kompatybilny z płytą główną o przedstawionej specyfikacji?

ASUS micro-ATX, socket 1150, VT-d, DDR3 `1333, 1600 MHz), ATI Radeon X1250, 3 x PCI-Express x1, 3 x PCI-Express x16, 2 x Serial ATA III, USB 3.0, VGA, HDMI, DVI-D

A. Procesor Podstawka Taktowanie AMD FX1150n AM3+ 3900 MHz
B. Procesor Podstawka Taktowanie Intel Celeron  1150 3000 MHz
C. Procesor Podstawka Taktowanie Athlon 64 FX AM2 160 MHz
D. Procesor Podstawka Taktowanie Intel Core i7 1151 1150 MHz
Wybór procesora Intel Celeron z podstawką 1150 i taktowaniem 3000 MHz jest poprawny, ponieważ płyta główna, której specyfikacja została podana, obsługuje procesory dedykowane dla gniazda LGA 1150. Standard gniazda 1150 zapewnia zgodność z różnymi modelami procesorów Intel, które są zaprojektowane z myślą o architekturze Haswell i Haswell Refresh. W praktyce oznacza to, że użytkownicy mogą czerpać korzyści z lepszej wydajności i efektywności energetycznej, co jest szczególnie istotne w przypadku zastosowań biurowych i domowych. Dodatkowo, pamięć RAM DDR3 o częstotliwości 1333 i 1600 MHz jest zgodna z tą płytą główną, co oznacza, że użytkownik może zbudować stabilny system, który będzie odpowiednio wykorzystywał dostępne zasoby. Warto zauważyć, że podczas wyboru procesora istotne jest również uwzględnienie takich parametrów jak liczba rdzeni, wątki oraz architektura, co wpływa na ogólną wydajność systemu.

Pytanie 29

Jaką maksymalną liczbę adresów można przypisać urządzeniom w sieci 10.0.0.0/22?

A. 1022 adresy
B. 510 adresów
C. 512 adresów
D. 1024 adresy
W analizie błędnych odpowiedzi warto zauważyć, że niektóre z nich wynikają z nieporozumień dotyczących zasad obliczania dostępnych adresów IP w danej sieci. Odpowiedzi, które sugerują liczbę 512 adresów, wynikają z błędnego zrozumienia maski podsieci. Maska /22 jest często mylona z maską /23, która rzeczywiście daje 512 adresów, co prowadzi do zamieszania w obliczeniach. Inna odpowiedź, która proponuje 510 adresów, również jest nieprawidłowa, ponieważ jest wynikiem pomyłki w obliczeniach, gdzie ktoś mógłby odjąć dodatkowy adres, nie uwzględniając prawidłowego schematu rezerwacji adresów. Warto pamiętać, że każda sieć wymaga zrozumienia, że dwa adresy są zawsze zarezerwowane, co jest kluczowe w kontekście tworzenia efektywnych i funkcjonalnych schematów adresowania. Wprowadzenie takiego myślenia w praktyce pozwala na lepsze zarządzanie IP oraz uniknięcie konfliktów, co jest istotne w dużych środowiskach sieciowych. Dlatego ważne jest, aby dobrze rozumieć podstawowe zasady adresacji IP i maskowania, aby uniknąć typowych błędów i nieporozumień, które mogą prowadzić do niskiej wydajności sieci lub problemów z komunikacją.

Pytanie 30

W tabeli przedstawiono pobór mocy poszczególnych podzespołów zestawu komputerowego. Zestaw składa się z:
- płyty głównej,
- procesora,
- 2 modułów pamięci DDR3,
- dysku twardego SSD,
- dysku twardego z prędkością obrotową 7200,
- karty graficznej,
- napędu optycznego,
- myszy i klawiatury,
- wentylatora.
Który zasilacz należy zastosować dla przedstawionego zestawu komputerowego, uwzględniając co najmniej 20% rezerwy poboru mocy?

PodzespółPobór mocy [W]PodzespółPobór mocy [W]
Procesor Intel i560Płyta główna35
Moduł pamięci DDR36Karta graficzna310
Moduł pamięci DDR23Dysk twardy SSD7
Monitor LCD80Dysk twardy 7200 obr./min16
Wentylator5Dysk twardy 5400 obr./min12
Mysz i klawiatura2Napęd optyczny30
A. Zalman ZM600-LX 600W BOX
B. be quiet! 500W System Power 8 BOX
C. Thermaltake 530W SMART SE Modular BOX
D. Corsair VS550 550W 80PLUS BOX
W tym przypadku wybór zasilacza o mocy mniejszej niż 600 W to dość typowy błąd, który spotyka się nawet u osób z pewnym doświadczeniem. Zwykle wynika to z niedoszacowania sumarycznego poboru mocy albo nieuwzględnienia koniecznego zapasu mocy, który według standardów branżowych powinien wynosić co najmniej 20%, a według niektórych producentów nawet więcej. Jeśli policzyć pobór wszystkich wylistowanych podzespołów (procesor, płyta główna, 2x DDR3, karta graficzna, SSD, HDD 7200 obr./min, napęd optyczny, wentylator, mysz z klawiaturą), dostajemy już 447 W. Po doliczeniu rezerwy bezpieczeństwa (447 W + 20% = ok. 536 W), żaden zasilacz o mocy 500, 530 czy nawet 550 W nie będzie prawidłowym wyborem, bo przy pełnym obciążeniu pracowałby praktycznie na limicie. To prowadzi do przegrzewania, niestabilności, a w skrajnych przypadkach nawet do uszkodzenia całego zestawu. Częsty błąd to także nieuwzględnienie możliwości przyszłej rozbudowy – dobierając zasilacz "na styk", nie zostawiamy miejsca choćby na zmianę karty graficznej czy dołożenie dysku. W branży IT i serwisowaniu komputerów mówi się, że najlepsze zasilacze to te, które mają trochę zapasu i są markowe, a nie "no-name". Takie podejście przekłada się na dłuższą żywotność komponentów, stabilność napięć i bezpieczeństwo użytkownika. Moim zdaniem nie warto oszczędzać na zasilaczu – często to on ratuje resztę sprzętu w razie awarii. Podsumowując, zasilacz poniżej 600 W w tym zestawie po prostu się nie sprawdzi, bo nie spełnia zasad poprawnego projektowania stanowiska komputerowego.

Pytanie 31

Jakie informacje można uzyskać za pomocą polecenia uname -s w systemie Linux?

A. stanu aktywnych interfejsów sieciowych.
B. ilości dostępnej pamięci.
C. nazwa jądra systemu operacyjnego.
D. wolnego miejsca na dyskach twardych.
Część z błędnych odpowiedzi wynika z mylnego rozumienia tego, co robi polecenie uname -s. Na przykład pierwsza odpowiedź, która mówi, że to sprawdza wolną pamięć, to pomyłka, bo takie informacje uzyskujemy z narzędzi jak free czy top. uname -s nie ma nic wspólnego z pamięcią RAM, tylko skupia się na identyfikacji jądra systemu. Druga błędna odpowiedź mówi o wolnym miejscu na dyskach, a tu powinno się używać polecenia df, które właśnie od tego jest. Ostatnia odpowiedź, która dotyczy aktywnych interfejsów sieciowych, też jest nietrafiona, bo do tego są polecenia ifconfig lub ip. Widocznie zrozumienie jak te narzędzia działają w systemie Linux jest dość kluczowe, żeby unikać takich błędów. No i tak w ogóle, warto wiedzieć, co każde z tych poleceń robi, żeby nie mieć nieporozumień.

Pytanie 32

Urządzenie elektryczne lub elektroniczne, które zostało zużyte i posiada znak widoczny na ilustracji, powinno być

Ilustracja do pytania
A. Przekazane do miejsca odbioru zużytej elektroniki
B. Przekazane do punktu skupującego złom
C. Wyrzucone do kontenerów na odpady komunalne
D. Wyrzucone do pojemników z tym oznaczeniem
Znak przekreślonego kosza na śmieci umieszczony na urządzeniach elektrycznych i elektronicznych oznacza, że nie wolno ich wyrzucać do zwykłych pojemników na odpady komunalne. Jest to zgodne z dyrektywą WEEE (Waste Electrical and Electronic Equipment Directive) obowiązującą w krajach Unii Europejskiej. Celem dyrektywy jest minimalizacja negatywnego wpływu e-odpadów na środowisko oraz promowanie ich recyklingu i odzysku. Zużyte urządzenia mogą zawierać substancje szkodliwe dla środowiska, takie jak ołów, rtęć czy kadm, które mogą przedostać się do gleby i wody. Oddawanie ich do punktów odbioru zużytej elektroniki gwarantuje, że zostaną odpowiednio przetworzone i poddane recyklingowi. Dzięki temu możliwe jest odzyskanie cennych surowców, takich jak metale szlachetne, i ograniczenie zużycia surowców pierwotnych. Oddawanie sprzętu do odpowiednich punktów jest także zgodne z zasadami gospodarki o obiegu zamkniętym, która dąży do minimalizacji odpadów i optymalizacji użycia zasobów.

Pytanie 33

Jakie jest znaczenie jednostki dpi, która występuje w specyfikacjach skanerów i drukarek?

A. Punkty na cal
B. Gęstość optyczna
C. Punkty na milimetr
D. Punkty na centymetr
Jednostka dpi (dots per inch), czyli punkty na cal, jest kluczowym parametrem w specyfikacjach skanerów i drukarek, który określa rozdzielczość urządzenia. Im wyższa wartość dpi, tym większa liczba punktów może być umieszczona na jednym calu obszaru druku lub skanowania, co przekłada się na wyższą jakość obrazu. Na przykład, drukarka o rozdzielczości 600 dpi potrafi nanieść 600 punktów na cal, co skutkuje ostrzejszymi i bardziej szczegółowymi obrazami w porównaniu do urządzenia z rozdzielczością 300 dpi. Zastosowanie wysokiej rozdzielczości jest szczególnie istotne w druku materiałów reklamowych, fotografii oraz wszędzie tam, gdzie wymagane są detale. W praktyce, przy wyborze urządzenia, warto zwrócić uwagę na jego rozdzielczość, aby dostosować ją do potrzeb – na przykład, do druku zdjęć zaleca się użycie urządzeń z rozdzielczością co najmniej 300 dpi, natomiast do wydruków tekstu wystarczające mogą być urządzenia z niższą rozdzielczością. W branży graficznej stosuje się również standardowe rozdzielczości, takie jak 300 dpi dla wydruków, które są używane w druku offsetowym oraz 600 dpi dla skanowania, co potwierdza znaczenie dpi jako standardu branżowego.

Pytanie 34

Zaprezentowany schemat ilustruje funkcjonowanie

Ilustracja do pytania
A. drukarki laserowej
B. drukarek 3D
C. skanera płaskiego
D. plotera grawerującego
Drukarki 3D działają na zupełnie innej zasadzie niż skanery płaskie, ponieważ zamiast digitalizować obrazy tworzą fizyczne obiekty poprzez nakładanie kolejnych warstw materiału. Wykorzystują pliki projektowe do tworzenia trójwymiarowych modeli, co jest niezgodne z przedstawionym schematem. Drukarki laserowe natomiast drukują obrazy i tekst na papierze za pomocą wiązki laserowej, która bębnowo przenosi toner na papier. Proces ten obejmuje elektrofotografię, co jest techniką całkowicie odmienną od skanowania. Ploter grawerujący jest urządzeniem, które graweruje wzory na powierzchniach płaskich używając do tego ostrza lub laseru, co nie ma związku z procesem skanowania dokumentów na płaszczyźnie. Typowy błąd myślowy polega na utożsamianiu wszystkich urządzeń wykorzystujących światło i optykę z podobnymi funkcjami, jednak każde z tych urządzeń ma odrębną funkcję i zastosowanie technologiczne. W przypadku schematu skanera płaskiego kluczowe jest zrozumienie procesu przetwarzania światła odbitego od dokumentu w dane cyfrowe za pomocą CCD, co jest unikalnym i charakterystycznym aspektem skanerów. Technologia skanowania płaskiego jest unikalna w swojej zdolności do uzyskiwania precyzyjnych kopii cyfrowych w wysokiej rozdzielczości, co odróżnia ją od technologii stosowanych w drukarkach i ploterach.

Pytanie 35

Jaką jednostką określa się szybkość przesyłania danych w sieciach komputerowych?

A. bps
B. mips
C. ips
D. dpi
Odpowiedź 'bps' oznacza 'bits per second', co jest jednostką używaną do pomiaru szybkości transmisji danych w sieciach komputerowych. Szybkość ta określa liczbę bitów, które mogą być przesyłane w ciągu jednej sekundy. W praktyce, bps jest kluczowym wskaźnikiem, pozwalającym ocenić wydajność sieci, na przykład w kontekście szerokopasmowego dostępu do internetu, gdzie operatorzy często podają prędkość łącza w megabitach na sekundę (Mbps). W kontekście protokołów sieciowych i technologii takich jak Ethernet, bps jest również używane do określenia maksymalnej przepustowości połączenia. Standardy takie jak IEEE 802.3 definiują różne prędkości transmisji, w tym 10, 100 i 1000 Mbps, które są fundamentem nowoczesnych sieci lokalnych. Oprócz bps, inne jednostki, takie jak Kbps (kilobits per second) czy Mbps, są również powszechnie używane, aby precyzyjnie określić szybkość transferu. Rozumienie tej jednostki jest niezbędne dla specjalistów IT oraz osób zajmujących się administracją sieci, aby móc efektywnie zarządzać infrastrukturą sieciową oraz optymalizować wydajność przesyłania danych.

Pytanie 36

W dokumentacji jednego z komponentów komputera zawarto informację, że urządzenie obsługuje OpenGL. Jakiego elementu dotyczy ta dokumentacja?

A. karty sieciowej
B. dysku twardego
C. karty graficznej
D. mikroprocesora
Wybierając mikroprocesor jako odpowiedź, można wprowadzić się w błąd, myląc jego funkcje z wymaganiami grafiki. Mikroprocesor jest centralnym elementem systemu komputerowego, odpowiedzialnym za wykonywanie instrukcji i zarządzanie operacjami, ale sam w sobie nie wspiera OpenGL. To nie mikroprocesor, lecz karta graficzna jest odpowiedzialna za rendering grafiki, co jest kluczowe w kontekście OpenGL. Z kolei karta sieciowa zajmuje się komunikacją z innymi urządzeniami w sieci i nie ma związku z renderowaniem grafiki. Problematyczne może być również myślenie o dysku twardym jako elemencie wspierającym OpenGL. Dyski twarde służą do przechowywania danych, a nie do ich przetwarzania graficznego. Typowym błędem myślowym jest założenie, że wszystkie komponenty komputerowe mają równorzędne zastosowanie w kontekście grafiki. Ważne jest zrozumienie, że różne elementy systemu pełnią specyficzne role i odpowiedzialności, dlatego kluczowe jest ich zrozumienie i umiejętność przyporządkowania ich do właściwych funkcji. W przypadku programowania grafiki, zrozumienie zasad działania i roli karty graficznej w ekosystemie komputerowym jest istotne dla tworzenia efektywnych aplikacji z wykorzystaniem OpenGL.

Pytanie 37

Który z poniższych protokołów służy do zarządzania urządzeniami w sieciach?

A. DNS
B. SMTP
C. SNMP
D. SFTP
SNMP, czyli Simple Network Management Protocol, to protokół komunikacyjny, który jest kluczowy w zarządzaniu i monitorowaniu urządzeń w sieciach komputerowych. SNMP pozwala administratorom na zbieranie informacji o statusie i wydajności urządzeń, takich jak routery, przełączniki, serwery oraz inne elementy infrastruktury sieciowej. Dzięki temu protokołowi możliwe jest m.in. zbieranie danych dotyczących obciążenia, błędów transmisyjnych, a także stanu interfejsów. W praktyce, administratorzy często korzystają z narzędzi SNMP do monitorowania sieci w czasie rzeczywistym, co pozwala na szybką reakcję na potencjalne problemy. Organizacje mogą wdrażać SNMP zgodnie z najlepszymi praktykami, stosując odpowiednie zabezpieczenia, takie jak autoryzacja i szyfrowanie komunikacji, co zwiększa bezpieczeństwo zarządzania urządzeniami. Protokół ten jest zgodny z różnymi standardami, takimi jak RFC 1157, co czyni go powszechnie akceptowanym rozwiązaniem w branży IT.

Pytanie 38

Jak określamy atak na sieć komputerową, który polega na łapaniu pakietów przesyłanych w sieci?

A. Skanowanie sieci
B. Spoofing
C. Nasłuchiwanie
D. ICMP echo
Skanowanie sieci to technika, która polega na analizowaniu dostępnych urządzeń i ich otwartych portów w celu zrozumienia struktury sieci. Choć skanowanie może być częścią większej strategii oceny bezpieczeństwa, nie jest to technika ataku na przechwytywanie danych. W rzeczywistości, skanowanie jest często wykorzystywane do identyfikacji potencjalnych luk w zabezpieczeniach, co różni się od nasłuchiwania, które koncentruje się na aktywnym odbiorze danych. ICMP echo, znany bardziej jako ping, to protokół używany do sprawdzania dostępności hostów w sieci, a nie do przechwytywania danych. Użycie ICMP echo w kontekście ataku jest mylące, ponieważ jego celem jest jedynie diagnostyka sieciowa, a nie monitorowanie ruchu. Spoofing natomiast odnosi się do techniki, w której atakujący podszywa się pod inny adres IP w celu oszukania systemów zabezpieczeń. Chociaż spoofing może być używany jako część ataku, nie jest bezpośrednio związany z przechwytywaniem pakietów. Bardzo ważne jest zrozumienie, że pomylenie tych pojęć może prowadzić do niewłaściwego projektowania strategii bezpieczeństwa, co zwiększa podatność na rzeczywiste ataki. Właściwe rozróżnienie terminów i technik jest kluczowe w budowaniu efektywnego systemu obrony przed zagrożeniami w sieciach komputerowych.

Pytanie 39

Który z interfejsów umożliwia transfer danych zarówno w formacie cyfrowym, jak i analogowym pomiędzy komputerem a wyświetlaczem?

A. DFP
B. DISPLAY PORT
C. DVI-I
D. HDMI
DVI-I (Digital Visual Interface Integrated) jest interfejsem, który umożliwia przesyłanie zarówno sygnałów cyfrowych, jak i analogowych między komputerem a monitorem. W odróżnieniu od innych standardów, DVI-I ma zdolność do konwersji sygnału cyfrowego do analogowego, co czyni go uniwersalnym rozwiązaniem dla różnych typów wyświetlaczy. Przykładowo, gdy podłączasz komputer do starszego monitora CRT, DVI-I może przesyłać sygnał w formacie analogowym, co jest niezbędne, ponieważ te monitory nie obsługują sygnałów cyfrowych. Możliwość użycia zarówno sygnału cyfrowego jak i analogowego sprawia, że DVI-I jest szczególnie przydatny w środowiskach, gdzie istnieje potrzeba elastyczności w wyborze sprzętu. Praktyczne zastosowanie DVI-I można również zauważyć w projektach, które wymagają połączenia nowoczesnych komputerów z starszymi systemami wyświetlania. DVI-I jest powszechnie stosowany w standardach branżowych, co zapewnia jego kompatybilność z wieloma urządzeniami.

Pytanie 40

Które wbudowane narzędzie systemu Windows pozwala rozwiązywać problemy z błędnymi sektorami i integralnością plików?

A. chkdsk
B. optymalizowanie dysków.
C. oczyszczanie dysku.
D. diskpart
W tym pytaniu łatwo się pomylić, bo wszystkie wymienione narzędzia kojarzą się z dyskiem, ale tylko jedno z nich faktycznie służy do sprawdzania integralności systemu plików i wykrywania błędnych sektorów. Wiele osób intuicyjnie wybiera programy kojarzone z zarządzaniem dyskami albo ich „porządkowaniem”, co jest zrozumiałe, ale technicznie nietrafione. Diskpart to narzędzie typowo do zarządzania partycjami i woluminami. Używa się go do tworzenia, usuwania i modyfikowania partycji, zmiany liter dysków, przygotowania nośników pod instalację systemu itp. Jest bardzo mocne i często używane przez administratorów, jednak jego zadaniem nie jest analiza spójności systemu plików ani skanowanie powierzchni pod kątem bad sektorów. Ono operuje bardziej na strukturze logicznego podziału dysku niż na integralności danych. Oczyszczanie dysku z kolei to narzędzie nastawione na zwalnianie miejsca: kasuje pliki tymczasowe, stare punkty przywracania, zawartość kosza i różne śmieci systemowe. Może poprawić wydajność przez zwolnienie przestrzeni, ale nie ma żadnych mechanizmów weryfikacji poprawności struktury plików, nie wykryje też uszkodzonych sektorów. Typowym błędem myślowym jest założenie, że skoro coś „naprawia” lub „porządkuje” dysk, to automatycznie sprawdza też jego fizyczny stan i integralność danych. Optymalizowanie dysków (dawna defragmentacja) znowu dotyczy głównie uporządkowania rozmieszczenia plików na nośniku, tak aby odczyt był szybszy. W przypadku klasycznych HDD polega to na scalaniu pofragmentowanych plików w bardziej ciągłe obszary. To wpływa na wydajność, ale nie służy do wykrywania błędnych sektorów ani naprawy logicznych błędów systemu plików. Co więcej, defragmentacja na dyskach SSD jest wręcz niewskazana, bo zużywa komórki pamięci bez realnego zysku. Sedno sprawy jest takie, że jedynym narzędziem z tej listy, które faktycznie sprawdza integralność systemu plików i może oznaczać uszkodzone sektory, jest chkdsk. Pozostałe programy są przydatne administracyjnie, ale realizują zupełnie inne zadania niż diagnostyka logiczna i częściowo fizyczna nośnika, co w profesjonalnej obsłudze systemu Windows trzeba jasno rozróżniać.