Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 4 maja 2026 21:54
  • Data zakończenia: 4 maja 2026 22:06

Egzamin zdany!

Wynik: 25/40 punktów (62,5%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Składnikiem systemu Windows 10, który zapewnia ochronę użytkownikom przed zagrożeniami ze strony złośliwego oprogramowania, jest program

A. Microsoft Hyper-V
B. Windows Defender
C. Windows PowerShell
D. Microsoft Security Essentials
Windows Defender to taki wbudowany program antywirusowy w Windows 10. Jego główną rolą jest ochrona w czasie rzeczywistym, co oznacza, że ciągle sprawdza system i pliki, żeby wykrywać jakieś zagrożenia jak wirusy czy trojany. Używa fajnych technologii, takich jak analiza heurystyczna i chmura, żeby szybko rozpoznać nowe zagrożenia. Na przykład, Windows Defender automatycznie skanuje system, gdy uruchamiamy komputer, a także regularnie aktualizuje definicje wirusów, co zapewnia stałą ochronę. Można też dostosować ustawienia skanowania, żeby przeprowadzać pełne skanowania wybranych folderów czy dysków. To całkiem w porządku, bo pomaga w bezpieczeństwie, a takie aktywne rozwiązania to najlepsza obrona przed zagrożeniami. Dodatkowo, Windows Defender współpracuje z innymi funkcjami w systemie, jak kontrola aplikacji czy zapora sieciowa, tworząc spójną ochronę.

Pytanie 2

W systemie Windows do przeprowadzania aktualizacji oraz przywracania sterowników sprzętowych należy wykorzystać narzędzie

A. certmgr.msc
B. wmimgmt.msc
C. devmgmt.msc
D. fsmgmt.msc
Devmgmt.msc to narzędzie, które otwiera Menedżera urządzeń w systemie Windows. Jest to kluczowa przystawka do zarządzania sprzętem zainstalowanym w komputerze, umożliwiająca użytkownikom instalację, aktualizację, a także przywracanie sterowników urządzeń. W praktyce, Menedżer urządzeń pozwala na identyfikację problemów ze sprzętem, takich jak nieprawidłowo działające urządzenia czy brakujące sterowniki. Na przykład, jeśli zainstalujesz nową drukarkę, ale nie działa ona poprawnie, możesz użyć devmgmt.msc do zaktualizowania sterownika lub przywrócenia go do wcześniejszej wersji. Dobrą praktyką jest regularne sprawdzanie stanu urządzeń oraz aktualizowanie sterowników, aby zapewnić optymalną wydajność sprzętu. W kontekście standardów branżowych, zarządzanie sterownikami z wykorzystaniem Menedżera urządzeń jest zgodne z zaleceniami dotyczącymi utrzymania systemu operacyjnego, co wpływa na stabilność i bezpieczeństwo całego środowiska komputerowego.

Pytanie 3

Czym jest kopia różnicowa?

A. polega na kopiowaniu jedynie tej części plików, która została dodana od czasu utworzenia ostatniej kopii pełnej
B. polega na kopiowaniu jedynie plików, które zostały stworzone lub zmienione od momentu utworzenia ostatniej kopii pełnej
C. polega na kopiowaniu jedynie plików, które zostały zmodyfikowane od chwili utworzenia ostatniej kopii pełnej
D. polega na kopiowaniu jedynie plików, które zostały stworzone od momentu ostatniej kopii pełnej
Odpowiedzi, które skupiają się na kopiowaniu tylko plików stworzonych lub zmienionych, często mylnie identyfikują istotę kopii różnicowej. Niepoprawne odpowiedzi sugerują różne interpretacje tego procesu. Na przykład, stwierdzenie, że kopia różnicowa polega na kopiowaniu wyłącznie plików, które zostały utworzone od czasu ostatniej kopii, pomija kluczowy aspekt zmienionych plików. Zmiany w plikach są istotnym elementem, który musi być uwzględniony, aby zapewnić pełne i aktualne odwzorowanie danych. Inna błędna koncepcja odnosi się do kopiowania tylko tej części plików, która została dopisana, co z kolei nie oddaje całej złożoności procesu różnicowego. Proces ten musi uwzględniać wszystkie zmiany, a nie tylko nowe fragmenty. W kontekście praktycznym, nieprawidłowe zrozumienie kopii różnicowej może prowadzić do sytuacji, w której użytkownik nie jest w stanie przywrócić pełnych danych po awarii, ponieważ nie uwzględnił wszystkich plików, które mogły ulec zmianie. Trudności te są częstym źródłem problemów w strategiach zarządzania danymi. Efektywne zarządzanie danymi wymaga zrozumienia i prawidłowego zastosowania technik kopii zapasowych, a ignorowanie istoty kopii różnicowej może prowadzić do nieodwracalnych strat.

Pytanie 4

Podczas uruchamiania komputera wyświetla się komunikat "CMOS checksum error press F1 to continue press DEL to setup". Naciśnięcie klawisza DEL spowoduje

A. wymazanie danych z pamięci CMOS.
B. usunięcie pliku konfiguracji.
C. przejście do ustawień BIOS-u komputera.
D. otwarcie konfiguracji systemu Windows.
Wciśnięcie klawisza DEL podczas pojawienia się komunikatu 'CMOS checksum error' pozwala na wejście do ustawień BIOS-u komputera. BIOS (Basic Input/Output System) jest oprogramowaniem umieszczonym na płycie głównej, które uruchamia system operacyjny i zarządza podstawowymi funkcjami sprzętowymi. Komunikat o błędzie CMOS wskazuje na problem z pamięcią CMOS, która przechowuje ustawienia systemowe, takie jak data, godzina oraz konfiguracja sprzętowa. Wejście do BIOS-u umożliwia użytkownikowi przeglądanie i ewentualne modyfikowanie tych ustawień, co jest kluczowe dla prawidłowego uruchomienia systemu. Na przykład, jeśli bateria CMOS jest rozładowana, ustawienia mogą zostać zresetowane do wartości domyślnych, co może prowadzić do problemów z uruchamianiem systemu. W takiej sytuacji użytkownik powinien sprawdzić oraz zaktualizować ustawienia BIOS-u, co może obejmować ponowne ustawienie daty i godziny, czy też konfigurację urządzeń startowych. Wiedza na temat BIOS-u i umiejętność dostosowywania ustawień jest niezbędna dla każdego, kto chce utrzymać swój komputer w dobrym stanie operacyjnym.

Pytanie 5

Wykonanie polecenia fsck w systemie Linux spowoduje

A. znalezienie pliku
B. zweryfikowanie integralności systemu plików
C. prezentację parametrów plików
D. zmianę uprawnień dostępu do plików
Polecenie fsck (file system consistency check) jest narzędziem używanym w systemach Linux i Unix do sprawdzania integralności systemu plików. Jego głównym zadaniem jest identyfikacja i naprawa błędów w systemach plików, co jest kluczowe dla zapewnienia stabilności i bezpieczeństwa danych. Gdy system plików jest narażony na uszkodzenia, na przykład po awarii zasilania lub błędach w oprogramowaniu, fsck przychodzi z pomocą, analizując strukturę plików i metadanych, a następnie podejmuje odpowiednie kroki w celu ich naprawy. Przykładowo, administratorzy systemów regularnie uruchamiają fsck podczas startu systemu lub w trybie awaryjnym, aby upewnić się, że wszystkie systemy plików są w dobrym stanie przed kontynuowaniem pracy. Zgodnie z najlepszymi praktykami branżowymi, zaleca się również wykonywanie regularnych kopii zapasowych danych przed przeprowadzeniem operacji naprawczych, aby zminimalizować ryzyko utraty danych. Dodatkowo, fsck może być używany w połączeniu z różnymi systemami plików, takimi jak ext4, xfs, czy btrfs, co czyni go wszechstronnym narzędziem w administracji systemami Linux.

Pytanie 6

ile bajtów odpowiada jednemu terabajtowi?

A. 10^12 bajtów
B. 10^8 bajtów
C. 10^14 bajtów
D. 10^10 bajtów
Jeden terabajt (TB) jest równy 10^12 bajtów, co oznacza, że w systemach komputerowych, które często używają pojęcia terabajta, odniesieniem są jednostki oparte na potęgach dziesięciu. Ta definicja opiera się na standardzie SI, gdzie terabajt jest uznawany jako 1 000 000 000 000 bajtów. Przykładem praktycznego zastosowania tej wiedzy jest obliczanie pojemności dysków twardych oraz pamięci masowej. W obliczeniach dotyczących pamięci komputerowej, istotne jest, aby rozumieć różnice między terabajtem a tebibajtem (TiB), które wynosi 2^40 bajtów (około 1,1 TB). W kontekście rozwoju technologii, znajomość tych jednostek jest kluczowa przy doborze odpowiednich rozwiązań do przechowywania danych, co jest szczególnie istotne w branży IT, analizie dużych zbiorów danych oraz przy projektowaniu systemów informatycznych.

Pytanie 7

Standard IEEE 802.11 określa typy sieci

A. Gigabit Ethernet
B. światłowodowe LAN
C. Fast Ethernet
D. bezprzewodowe LAN
Wybrałeś odpowiedzi związane z Fast Ethernet, Gigabit Ethernet oraz światłowodowymi LAN, co może wskazywać na pewne nieporozumienia jeśli chodzi o technologie sieciowe. Fast Ethernet i Gigabit Ethernet to standardy dla przewodowych sieci lokalnych, które korzystają z kabli, jak skrętka czy światłowody, żeby przesyłać dane. Te technologie sprawdzają się tam, gdzie stabilność, prędkość i bezpieczeństwo połączeń są kluczowe. A w przeciwieństwie do tego, standard IEEE 802.11 dotyczy komunikacji bezprzewodowej i naprawdę chodzi o to, żeby zlikwidować potrzebę kabli. Można przez to dojść do błędnych wniosków, jeśli nie rozumie się podstawowych różnic. Warto też zauważyć, że światłowodowe LAN są świetne w sytuacjach, kiedy potrzebne są bardzo duże prędkości na dłuższych dystansach. Użytkownicy mogą myśleć, że te technologie są porównywalne z bezprzewodowymi, a to błąd. Ważne jest, żeby dobrze zrozumieć, że każda z tych technologii ma swoje zastosowania i ograniczenia, co wpływa na to, jakie rozwiązanie będzie najlepsze w danej sytuacji. Dlatego podczas projektowania sieci dobrze jest zrozumieć te różnice i to, jak się sprawdzają w praktyce.

Pytanie 8

Co oznacza zapis 192.168.1/24 w kontekście maski podsieci?

A. 255.255.240.0
B. 255.255.255.0
C. 255.255.255.024
D. 255.255.255.240
Odpowiedź 255.255.255.0 jest poprawna, ponieważ odpowiada ona zapisie CIDR 192.168.1/24. W systemie CIDR /24 oznacza, że pierwsze 24 bity adresu IP są używane do identyfikacji sieci, a pozostałe 8 bitów do identyfikacji hostów w tej sieci. W przypadku maski 255.255.255.0, pierwsze trzy oktety (255.255.255) ustawione są na wartość maksymalną, co oznacza, że są one częścią identyfikatora sieci. Czwarty oktet (0) wskazuje, że wszystkie adresy IP od 192.168.1.1 do 192.168.1.254 mogą być używane jako adresy hostów. Taka konfiguracja jest powszechnie stosowana w małych sieciach lokalnych, co czyni ją idealną do zastosowań domowych oraz w małych biurach. Dzięki zastosowaniu odpowiedniej maski podsieci, administratorzy sieci mogą skutecznie zarządzać adresacją IP, unikając konfliktów adresów oraz optymalizując wykorzystanie zasobów sieciowych. Przykład zastosowania to np. sieć domowa, w której router rozdziela adresy IP w podanej puli na różne urządzenia, zapewniając dostęp do Internetu oraz umożliwiając komunikację między nimi.

Pytanie 9

W topologii gwiazdy każde urządzenie działające w sieci jest

A. podłączone do węzła sieci.
B. spojone ze sobą przewodami, tworząc zamknięty pierścień.
C. połączone z jedną magistralą.
D. skonfigurowane z dwoma sąsiadującymi komputerami
Topologia gwiazdy to jeden z najpopularniejszych układów sieciowych, w którym wszystkie urządzenia (komputery, drukarki, itp.) są podłączone do centralnego węzła, którym najczęściej jest switch lub hub. Dzięki temu, w przypadku awarii jednego z urządzeń, pozostałe nadal mogą funkcjonować. Taka architektura ułatwia również zarządzanie siecią, ponieważ wszelkie operacje, takie jak dodawanie nowych urządzeń czy diagnozowanie problemów, można przeprowadzać w centralnym punkcie. Przykładem zastosowania topologii gwiazdy jest typowa sieć lokalna (LAN) w biurach, gdzie wiele komputerów łączy się z jednym centralnym przełącznikiem, co zapewnia wysoką wydajność oraz minimalizuje ryzyko kolizji danych. Topologia ta jest również zgodna z najlepszymi praktykami branżowymi, które zalecają użycie centralnych urządzeń do zarządzania ruchem w sieci, co zwiększa jej efektywność i bezpieczeństwo.

Pytanie 10

Który z systemów operacyjnych przeznaczonych do sieci jest dostępny na zasadach licencji GNU?

A. Unix
B. Windows Server 2012
C. OS X Server
D. Linux
Linux jest systemem operacyjnym, który jest udostępniony na licencji GNU General Public License (GPL), co oznacza, że jego kod źródłowy jest publicznie dostępny i może być modyfikowany oraz rozpowszechniany. Licencja ta umożliwia każdemu użytkownikowi na używanie, modyfikowanie oraz dystrybucję oprogramowania, co sprzyja innowacjom i rozwojowi technologii. Dzięki temu Linux stał się podstawą dla wielu dystrybucji, takich jak Ubuntu, Fedora czy Debian, które są szeroko stosowane w różnych środowiskach, od komputerów osobistych, przez serwery, aż po urządzenia wbudowane. Przykładem zastosowania Linuxa w praktyce jest jego dominacja w środowiskach serwerowych, gdzie zapewnia stabilność, bezpieczeństwo oraz elastyczność. Wiele dużych firm oraz organizacji wybiera Linux ze względu na niski koszt licencji i możliwość dostosowania systemu do swoich specyficznych potrzeb, co czyni go idealnym wyborem w kontekście rozwoju technologii open-source.

Pytanie 11

Na rysunkach technicznych dotyczących instalacji sieci komputerowej oraz dedykowanej instalacji elektrycznej, symbolem pokazanym na rysunku oznaczane jest gniazdo

Ilustracja do pytania
A. elektryczne bez styku ochronnego
B. komputerowe
C. elektryczne ze stykiem ochronnym
D. telefoniczne
Symbol na rysunku przedstawia gniazdo elektryczne ze stykiem ochronnym co jest zgodne z normami bezpieczeństwa obowiązującymi w instalacjach elektrycznych. Styk ochronny znany również jako uziemienie to dodatkowy przewód w gniazdku który ma na celu ochronę przed porażeniem elektrycznym. Jego obecność jest kluczowa w urządzeniach elektrycznych które mogą mieć części przewodzące dostępne dla użytkownika. W praktyce takie gniazda stosowane są powszechnie w gospodarstwach domowych i budynkach komercyjnych zapewniając dodatkowe zabezpieczenie przed przepięciami czy błędami w instalacji. Zgodnie z normą PN-IEC 60364 instalacje elektryczne powinny być projektowane i wykonane w sposób zapewniający ochronę podstawową i ochronę przy uszkodzeniu. Dodatkowo symbol ten jest powszechnie rozpoznawany w dokumentacji technicznej co ułatwia identyfikację typu gniazda w projektach i schematach instalacji.

Pytanie 12

Lokalny komputer dysponuje adresem 192.168.0.5. Po otwarciu strony internetowej z tego urządzenia, która identyfikuje adresy w sieci, uzyskano informację, że adresem komputera jest 195.182.130.24. Co to oznacza?

A. inny komputer podszył się pod adres naszego urządzenia
B. adres został przetłumaczony przez translację NAT
C. serwer WWW dostrzega inny komputer w sieci
D. serwer DHCP zmienił nasz adres w czasie przesyłania żądania
Adres 195.182.130.24, widoczny dla serwera WWW, jest wynikiem procesu translacji adresów (NAT), który jest powszechnie stosowany w sieciach lokalnych oraz w routerach. NAT pozwala na przetłumaczenie prywatnych adresów IP, takich jak 192.168.0.5, na publiczny adres IP, dzięki czemu komputery w sieci lokalnej mogą komunikować się z Internetem. W praktyce każdy komputer w sieci lokalnej ma przypisany adres IP z zakresu prywatnych adresów (10.0.0.0/8, 172.16.0.0/12, 192.168.0.0/16), a router wykonuje translację, aby umożliwić dostęp do zasobów globalnej sieci. Przy tym, NAT pomaga również w zabezpieczaniu sieci, ponieważ chroni rzeczywiste adresy IP w sieci lokalnej przed bezpośrednim dostępem z Internetu. Oprócz tego, NAT umożliwia wiele komputerom korzystanie z jednego publicznego adresu IP, co jest nie tylko oszczędnością, ale także praktycznym rozwiązaniem w dobie ograniczonej liczby publicznych adresów IPv4.

Pytanie 13

W sieciach komputerowych miarą prędkości przesyłu danych jest

A. byte
B. bps
C. dpi
D. ips
Odpowiedzi 'byte', 'dpi' oraz 'ips' są niepoprawne, ponieważ nie odnoszą się do jednostki używanej do pomiaru szybkości transmisji danych w sieciach komputerowych. Byte to jednostka miary danych, która odpowiada 8 bitom, lecz sama w sobie nie wskazuje na szybkość transmisji. Często używa się jej do określania wielkości plików, co może prowadzić do mylnej interpretacji w kontekście prędkości przesyłu, gdyż nie określa, jak szybko dane mogą być przesyłane. DPI (dots per inch) to jednostka miary stosowana głównie w kontekście rozdzielczości obrazów i wydruków, a nie w transmisji danych. Z kolei IPS (inches per second) jest miarą prędkości, której używa się w kontekście ruchu fizycznego, np. w skanerach optycznych. Takie pomyłki mogą wynikać z braku zrozumienia, że różne dziedziny technologii używają swoich specyficznych jednostek miar, które nie są zamienne. Kluczowe jest zrozumienie, że bps jako jednostka szybkiej transmisji danych jest fundamentalna w projektowaniu i ocenie wydajności sieci komputerowych, a nie wszystkie jednostki są ze sobą powiązane w tym kontekście. Zrozumienie różnic między tymi jednostkami jest niezbędne dla każdego, kto zajmuje się technologią sieciową lub informatyką.

Pytanie 14

Urządzenie, które łączy różne segmenty sieci i przekazuje ramki pomiędzy nimi, wybierając odpowiedni port docelowy dla przesyłanych ramek, to

A. koncentrator
B. zasilacz awaryjny
C. przełącznik
D. rejestrator
Przełącznik, znany również jako switch, to kluczowe urządzenie w nowoczesnych sieciach komputerowych, które efektywnie zarządza komunikacją między różnymi segmentami sieci. Przełączniki działają na poziomie drugiego poziomu modelu OSI (warstwa łącza danych), co oznacza, że są odpowiedzialne za przesyłanie ramki na podstawie adresów MAC. Gdy urządzenie wysyła ramkę, przełącznik analizuje adres MAC źródła i docelowego, a następnie decyduje, na który port przekazać tę ramkę, co znacząco zwiększa wydajność sieci. Przykładem zastosowania przełącznika mogą być sieci lokalne w biurach, gdzie różne urządzenia, takie jak komputery, drukarki i serwery, komunikują się ze sobą. W praktyce, standardy takie jak IEEE 802.1Q dotyczące VLAN-u (virtual local area network) oraz IEEE 802.3 dla Ethernetu są kluczowe w kontekście przełączników, umożliwiając izolację ruchu i zwiększenie bezpieczeństwa w sieciach.

Pytanie 15

Na przedstawionym rysunku znajduje się fragment dokumentacji technicznej płyty głównej GA-K8NF-9-RH rev. 2.x. Z tego wynika, że maksymalna liczba kart rozszerzeń, które można zamontować (pomijając interfejs USB), wynosi

Ilustracja do pytania
A. 3
B. 2
C. 5
D. 6
Poprawna odpowiedź to 6 ponieważ na płycie głównej GA-K8NF-9-RH rev. 2.x dostępne są złącza rozszerzeń umożliwiające zamontowanie do sześciu kart rozszerzeń. Dokumentacja techniczna wskazuje na obecność jednego złącza PCI Express x16 które jest typowo wykorzystywane do instalacji kart graficznych co w praktyce umożliwia korzystanie z najnowszych technologii związanych z wyświetlaniem obrazu i obsługą multimediów. Dodatkowo dostępne są dwa złącza PCI Express x1 oraz trzy złącza PCI co daje łącznie sześć miejsc na różne karty rozszerzeń takie jak karty dźwiękowe sieciowe czy kontrolery pamięci masowej. Ważne jest aby zwrócić uwagę na standardy jak PCI Express który oferuje szybsze przesyłanie danych w porównaniu do starszego standardu PCI co jest korzystne dla wydajności systemu. W praktyce takie możliwości rozbudowy pozwalają na znaczną elastyczność w dostosowywaniu komputera do indywidualnych potrzeb użytkownika jak również na przyszłe modernizacje sprzętu co jest zgodne z najlepszymi praktykami w branży IT.

Pytanie 16

Maksymalna długość łącza światłowodowego używanego do przesyłania danych w standardzie 10GBASE-SR wynosi

A. 2 km
B. 200 m
C. 4 km
D. 400 m
Wybór odpowiedzi 2 km, 4 km oraz 200 m jest niepoprawny z kilku powodów. Standard 10GBASE-SR został zaprojektowany z myślą o transmisji na krótszych dystansach, co czyni wartości 2 km i 4 km niewłaściwymi. Te odległości są typowe dla innych standardów, takich jak 10GBASE-LR, które używają światłowodów jednomodowych i są w stanie osiągnąć transmisję na znacznie większych dystansach - do 10 km. Odpowiedź 200 m, chociaż bliższa rzeczywistości, również nie oddaje maksymalnej długości dla 10GBASE-SR, która wynosi 400 m. Typowe błędy myślowe prowadzące do takich wniosków mogą obejmować nieznajomość specyfikacji technicznych poszczególnych standardów Ethernet oraz mylenie parametrów dla różnych typów światłowodów. Wiedza o tym, jakie standardy i kable są odpowiednie dla danego zastosowania, jest kluczowa w projektowaniu i wdrażaniu sieci. Aby skutecznie operować w środowisku sieciowym, istotne jest, aby mieć świadomość różnorodności standardów i ich zastosowań, co wpływa na wydajność i niezawodność systemu.

Pytanie 17

Jakim poleceniem w systemie Linux można ustawić powłokę domyślną użytkownika egzamin na sh?

A. groupmod /users/egzamin /bin/sh
B. vi /etc/passwd -sh egzamin
C. usermod -s /bin/sh egzamin
D. chmod egzamin /etc/shadow sh
Odpowiedzi, które nie prowadzą do prawidłowego rozwiązania, wynikają z nieporozumień dotyczących obsługi użytkowników i powłok w Linuxie. Na przykład polecenie vi /etc/passwd -sh egzamin sugeruje, że edytujemy plik passwd, co może być dość niebezpieczne i grozić uszkodzeniem systemu. Ręczne edytowanie pliku passwd przez edytor tekstowy może prowadzić do błędów, które uniemożliwią logowanie się użytkowników. Takie zmiany powinny być dokonywane tylko przy użyciu narzędzi jak usermod, które zapewniają bezpieczeństwo. Co do kolejnej odpowiedzi, chmod egzamin /etc/shadow sh, to jest kompletnie mylne, bo chmod zmienia uprawnienia plików, a nie powłokę użytkownika. Używanie go w tym kontekście na pewno nie przyniesie oczekiwanych efektów i pokazuje, że istnieje spore nieporozumienie między zarządzaniem użytkownikami a uprawnieniami plików. Ostatnie polecenie, groupmod /users/egzamin /bin/sh, także jest błędne, bo groupmod służy do modyfikowania grup, a nie pojedynczych użytkowników. Poza tym nie zmienia powłoki, co jest kluczowe w tym pytaniu. Rozumienie narzędzi i ich zastosowań w Linuxie jest naprawdę ważne dla bezpieczeństwa i stabilności systemu.

Pytanie 18

SuperPi to aplikacja używana do oceniania

A. obciążenia oraz efektywności kart graficznych
B. wydajności procesorów o podwyższonej częstotliwości
C. sprawności dysków twardych
D. poziomu niewykorzystanej pamięci operacyjnej RAM
Wydajność dysków twardych, obciążenie i wydajność kart graficznych oraz ilość niewykorzystanej pamięci operacyjnej RAM to obszary, które mogą być analizowane za pomocą innych narzędzi, jednak nie mają one zastosowania w kontekście programu SuperPi. Analiza wydajności dysków twardych zazwyczaj wiąże się z testami odczytu i zapisu danych, co można zrealizować przez programy takie jak CrystalDiskMark. W przypadku kart graficznych, wykorzystywane są benchmarki takie jak 3DMark, które mierzą wydajność w renderowaniu grafiki oraz obliczeniach związanych z grafiką 3D. Ilość niewykorzystanej pamięci RAM może być monitorowana za pomocą menedżerów zadań lub narzędzi systemowych, które pokazują aktualne zużycie pamięci przez różne procesy. Program SuperPi, skupiając się wyłącznie na obliczeniach matematycznych i wydajności procesora, nie jest w stanie dostarczyć informacji na temat tych innych kategorii wydajności. Warto także zauważyć, że błędem jest mylenie różnych typów benchmarków, co może prowadzić do nieporozumień co do ich funkcji oraz zastosowania w praktyce. Każdy benchmark ma swoje specyficzne zastosowanie i odpowiednie narzędzia, które powinny być używane w zależności od obszaru, który chcemy ocenić.

Pytanie 19

W wierszu poleceń systemu Windows polecenie md jest używane do

A. tworzenia pliku
B. zmiany nazwy pliku
C. tworzenia katalogu
D. przechodzenia do katalogu nadrzędnego
Wybór odpowiedzi dotyczących zmiany nazwy pliku, tworzenia pliku lub przejścia do katalogu nadrzędnego wskazuje na pewne nieporozumienie dotyczące podstawowych funkcji dostępnych w wierszu poleceń systemu Windows. Polecenie 'ren' (rename) jest właściwym narzędziem do zmiany nazw plików, a polecenie 'copy con' lub 'echo' może być użyte do tworzenia nowych plików, co nie ma nic wspólnego z poleceniem 'md'. Ponadto, aby przejść do katalogu nadrzędnego, używa się polecenia 'cd ..', które umożliwia nawigację w hierarchii folderów. Istotne jest zrozumienie, że każde z tych poleceń ma swoje specyficzne zastosowanie i nie są one zamienne. Mylenie tych komend może prowadzić do chaosu w organizacji plików lub błędów w skryptach. Użytkownicy mogą również nie zdawać sobie sprawy, że programy, które zarządzają plikami (np. menedżery plików) oferują podobne funkcje, ale w bardziej wizualny sposób. Konsekwentne korzystanie z odpowiednich poleceń zgodnie z ich przeznaczeniem jest kluczowe dla sprawnego operowania w systemie operacyjnym oraz unikania frustracji związanej z brakiem organizacji danych.

Pytanie 20

W tabeli zaprezentowano parametry trzech dysków twardych w standardzie Ultra320 SCSI. Te dyski są w stanie osiągnąć maksymalny transfer wewnętrzny

Rotational Speed10,025 rpm
Capacity (Formatted)73.5GB147GB300GB
Number of Heads258
Number of Disks134
Internal Transfer RateUp to 132 MB/s
Interface Transfer RateNP/NC = 320MB/s, FC = 200MB/s
Buffer Size
Average Seek (Read/Write)4.5/5.0 ms
Track-to-Track Seek/Read/Write0.2ms/0.4ms
Maximum Seek (Read/Write)10/11 ms
Average Latency2.99 ms
Power Consumption (Idle)NP/NC = 9.5W, FC = 10.5W
Acoustic Noise3.4 bels
Shock - Operating/Non-Operating65G/225G 2ms
A. 132 MB/s
B. 200MB/S
C. 320 GB/s
D. 320MB/S
Niepoprawne odpowiedzi wynikają z niezrozumienia różnicy pomiędzy transferem wewnętrznym a interfejsowym oraz mylenia jednostek miary. 200MB/S, choć jest możliwym transferem dla niektórych dysków, odnosi się zazwyczaj do innego kontekstu lub standardu, jak np. Fibre Channel, a nie wewnętrznego transferu dysków SCSI. 320 GB/s jest fizycznie niemożliwe dla dysków twardych obecnej generacji i wynika z błędnej interpretacji jednostek miary, gdzie MB/s oznacza megabajty na sekundę, a GB/s oznacza gigabajty na sekundę. Takie pomylenie jednostek prowadzi do zawyżenia oczekiwań dotyczących wydajności sprzętu. 320MB/S to transfer interfejsowy dla Ultra320 SCSI, co oznacza maksymalną przepustowość interfejsu między dyskiem a kontrolerem, który jednak nie przekłada się na rzeczywistą szybkość odczytu lub zapisu danych z talerzy dysku, która jest ograniczona przez transfer wewnętrzny. Rozróżnienie tych parametrów jest kluczowe dla zrozumienia specyfikacji sprzętowych i właściwego doboru komponentów w systemach komputerowych, gdzie wydajność jest kluczowa dla efektywności operacyjnej. Właściwa interpretacja danych technicznych umożliwia bardziej świadome decyzje zakupowe oraz optymalizację wydajności w środowiskach komputerowych, gdzie prędkość dostępu do danych jest kluczowym czynnikiem sukcesu operacyjnego.

Pytanie 21

Nowe komponenty komputerowe, takie jak dyski twarde czy karty graficzne, są umieszczane w metalizowanych opakowaniach foliowych, których głównym celem jest zabezpieczenie

A. elementów elektronicznych przed promieniowaniem słonecznym
B. elementów elektronicznych przed ładunkami elektrostatycznymi
C. komponentów przed wilgocią
D. komponentów przed nagłymi zmianami temperatur w trakcie transportu
Pakowanie podzespołów komputerowych w metalizowane opakowania foliowe to naprawdę ważna sprawa. Te opakowania chronią elementy elektroniczne przed ładunkami elektrostatycznymi, które mogą powstawać, gdy coś się z nimi styka, i to może skończyć się tragicznie, bo może uszkodzić delikatne układy. Metalizowane opakowania działają jak ekran, który zmniejsza pole elektryczne w środku. W praktyce, normy takie jak IEC 61340-5-1 mówią, jak powinno to wyglądać, a firmy coraz częściej korzystają z takich opakowań, bo to zapewnia, że ich produkty są bezpieczniejsze. Na przykład w branży półprzewodnikowej, gdzie wszystko jest na wagę złota, metalizowane folie są używane do transportowania i przechowywania chipów, co znacznie zmniejsza ryzyko uszkodzenia. Więc widzisz, odpowiednia ochrona przed ESD to nie tylko nowinki technologiczne, ale też klucz do lepszego zarządzania logistyką i magazynowaniem. Warto o tym pamiętać, bo stosując dobre materiały, można naprawdę wydłużyć życie podzespołów.

Pytanie 22

W systemie operacyjnym pojawił się problem z driverem TWAIN, który może uniemożliwiać prawidłowe funkcjonowanie

A. drukarki
B. klawiatury
C. skanera
D. plotera
Można zauważyć, że wiele osób mylnie łączy błędy sterowników TWAIN z innymi urządzeniami, takimi jak drukarki, klawiatury czy plotery. Sterowniki TWAIN są specyficznie zaprojektowane do współpracy z urządzeniami skanującymi, co oznacza, że błędy związane z tym interfejsem nie mają wpływu na funkcjonowanie drukarek, które korzystają z zupełnie innych protokołów i sterowników, takich jak PCL lub PostScript. W przypadku klawiatur, są one zarządzane przez system operacyjny poprzez inne mechanizmy, a ich problemy najczęściej wynikają z błędów sprzętowych lub konfliktów z oprogramowaniem, a nie z błędów sterownika TWAIN. Plotery z kolei, choć również mogą potrzebować sterowników, różnią się w swojej funkcji i nie wymagają interfejsu TWAIN do działania. Typowe błędy myślowe, które mogą prowadzić do takich niepoprawnych wniosków, to brak zrozumienia, jak różne typy urządzeń komunikują się z systemem operacyjnym oraz jakie są zasady działania poszczególnych sterowników. Edukacja w zakresie funkcji i zastosowań różnych standardów, takich jak TWAIN, a także umiejętność rozróżniania ich zastosowania, jest kluczowa dla efektywnej pracy z urządzeniami peryferyjnymi.

Pytanie 23

Liczba 129 w systemie dziesiętnym będzie przedstawiona w formacie binarnym na

A. 5 bitach
B. 6 bitach
C. 8 bitach
D. 7 bitach
Liczba dziesiętna 129 w systemie binarnym jest reprezentowana jako 10000001. Aby przeliczyć liczbę dziesiętną na system binarny, należy podzielić ją przez 2, zapisując reszty z każdego dzielenia, co w praktyce tworzy ciąg bitów. W przypadku 129 podzielimy ją przez 2, uzyskując 64 (reszta 1), następnie 64 przez 2 daje 32 (reszta 0), 32 przez 2 daje 16 (reszta 0), 16 przez 2 daje 8 (reszta 0), 8 przez 2 daje 4 (reszta 0), 4 przez 2 daje 2 (reszta 0), a 2 przez 2 daje 1 (reszta 0). Ostateczne dzielenie 1 przez 2 daje 0 (reszta 1). Zbierając wszystkie reszty od końca otrzymujemy 10000001, co wymaga 8 bitów. W praktyce, w inżynierii oprogramowania i systemów komputerowych, znajomość konwersji między systemami liczbowymi jest kluczowa, zwłaszcza przy programowaniu, gdzie operacje bitowe są powszechnie stosowane w optymalizacji kodu oraz w reprezentacji danych. Ponadto, 8 bitów odpowiada maksymalnie wartości 255 w systemie dziesiętnym, co jest zgodne z konwencjami kodowania, takie jak ASCII, gdzie każdy znak jest reprezentowany przez 8-bitowy kod.

Pytanie 24

Który z protokołów będzie wykorzystany przez administratora do przesyłania plików na serwer?

A. DHCP (Domain Host Configuration Protocol)
B. DNS (DomainName System)
C. HTTP (Hyper Text Transfer Protocol)
D. FTP (File Transfer Protocol)
FTP, czyli File Transfer Protocol, to taki standardowy sposób przesyłania plików między komputerami w sieci. Fajnie sprawdza się, gdy trzeba wrzucać, pobierać lub zarządzać plikami na serwerach. Dzięki FTP transfer plików jest szybki i w miarę bezpieczny, co czyni go istotnym narzędziem dla administratorów. Działa to w systemie klient-serwer, gdzie komputer z klientem FTP łączy się z serwerem, by przesłać pliki. Można go używać do wrzucania aktualizacji oprogramowania, przesyłania danych między serwerami czy ułatwiania zdalnym użytkownikom dostępu do plików. Warto też pamiętać o FTPS lub SFTP, które dodają szyfrowanie, co chroni transfer danych. FTP jest dość powszechny w IT i trzyma się różnych standardów bezpieczeństwa, co jest ważne w codziennej pracy z danymi.

Pytanie 25

W sieci komputerowej działającej pod systemem Linux do udostępniania drukarek można zastosować serwer

A. Samba
B. Firebird
C. Coda
D. Nginx
Samba to oprogramowanie, które umożliwia współdzielenie zasobów między systemami operacyjnymi rodziny Unix (w tym Linux) a systemami Windows. Jest to implementacja protokołu SMB (Server Message Block), który pozwala na udostępnianie plików i drukarek w sieciach heterogenicznych. Dzięki Samba, użytkownicy systemów Linux mogą łatwo dzielić się drukarkami z komputerami działającymi w systemie Windows, co jest niezwykle praktyczne w środowiskach biurowych, gdzie różne systemy operacyjne współistnieją. Przykładem zastosowania Samba jest konfiguracja serwera druku, gdzie administratorzy mogą zdalnie zarządzać drukarkami oraz uprawnieniami użytkowników do korzystania z tych zasobów. W kontekście dobrych praktyk, Samba jest często używana w ramach infrastruktury sieciowej, aby zapewnić bezpieczne i efektywne zarządzanie zasobami, wspierając protokoły autoryzacji i szyfrowania. Dodatkowo, wprowadzenie Samba do środowiska IT może przyczynić się do redukcji kosztów operacyjnych, eliminując potrzebę posiadania osobnych serwerów druku dla różnych systemów operacyjnych, co w praktyce prowadzi do uproszczenia zarządzania systemami i zwiększenia efektywności pracy zespołów.

Pytanie 26

Oblicz koszt realizacji okablowania strukturalnego od 5 punktów abonenckich do panelu krosowego, wliczając wykonanie kabli łączących dla stacji roboczych. Użyto przy tym 50 m skrętki UTP. Każdy punkt abonencki posiada 2 gniazda typu RJ45.

MateriałJednostkaCena
Gniazdo podtynkowe 45x45, bez ramki, UTP 2xRJ45 kat.5eszt.17 zł
UTP kabel kat.5e PVC 4PR 305mkarton305 zł
RJ wtyk UTP kat.5e beznarzędziowyszt.6 zł
A. 350,00 zł
B. 345,00 zł
C. 152,00 zł
D. 255,00 zł
Poprawna odpowiedź 255,00 zł wynika z dokładnej analizy kosztów materiałów użytych do wykonania okablowania strukturalnego. Zaczynając od 5 punktów abonenckich każdy z nich wymaga jednej jednostki gniazda podtynkowego w cenie 17 zł za sztukę co daje łączny koszt 85 zł. Następnie użyto 50 m skrętki UTP kat. 5e. Cena kartonu 305 m wynosi 305 zł co oznacza że cena za metr wynosi 1 zł dlatego koszt zakupu 50 m to 50 zł. Do każdego z 5 punktów abonenckich należy zamontować dwa wtyki RJ45 co daje łącznie 10 wtyków w cenie 6 zł za sztukę co sumuje się do 60 zł. Również wykonanie kabli połączeniowych z panelu krosowego do stacji roboczych wymaga dodatkowych wtyków RJ45. Przyjmując że każdy kabel połączeniowy używa dwóch wtyków a łączna liczba stacji roboczych wynosi 5 należy dodać 10 wtyków co daje dodatkowe 60 zł. Łączny koszt wszystkich komponentów to 85 zł za gniazda 50 zł za kabel oraz 120 zł za wtyki RJ45 co razem daje poprawną odpowiedź 255 zł. Takie podejście do kalkulacji kosztów jest zgodne z normami i dobrymi praktykami w branży IT zapewniając dokładne i efektywne planowanie infrastruktury sieciowej.

Pytanie 27

Zaprezentowany diagram ilustruje zasadę funkcjonowania

Ilustracja do pytania
A. skanera płaskiego
B. myszy optycznej
C. cyfrowego aparatu fotograficznego
D. drukarki termosublimacyjnej
Mysz optyczna korzysta z zaawansowanej technologii optycznej bazującej na diodach LED i czujnikach obrazowych takich jak matryce CMOS lub CCD aby precyzyjnie śledzić ruch. Podstawową zasadą działania myszy optycznej jest emitowanie światła przez diodę LED które odbija się od powierzchni i wraca przez soczewki do sensora optycznego. Sensor przetwarza odbite światło na obraz który następnie jest analizowany przez układ DSP w celu określenia kierunku i prędkości ruchu myszy. Cały proces odbywa się w czasie rzeczywistym co zapewnia płynność i precyzję działania. Praktyczne zastosowanie tej technologii można zaobserwować w szerokim wachlarzu urządzeń od komputerów osobistych po specjalistyczne zastosowania w grach komputerowych gdzie precyzja i szybkość reakcji są kluczowe. Standardowe praktyki branżowe obejmują stosowanie matryc o wyższej rozdzielczości aby zwiększyć precyzję śledzenia oraz wykorzystywanie bardziej zaawansowanych algorytmów do poprawy dokładności działania co jest szczególnie ważne na powierzchniach o niskiej jakości optycznej. Dzięki temu mysz optyczna jest niezawodnym narzędziem w codziennej pracy i rozrywce.

Pytanie 28

Urządzenie peryferyjne, które jest kontrolowane przez komputer i wykorzystywane do obsługi dużych, płaskich powierzchni, a do produkcji druków odpornych na czynniki zewnętrzne używa farb rozpuszczalnikowych, to ploter

A. solwentowy
B. kreślący
C. piaskowy
D. tnący
Odpowiedź 'solwentowy' jest prawidłowa, ponieważ plotery solwentowe są specjalistycznymi urządzeniami przeznaczonymi do druku na różnych powierzchniach, w tym na materiałach wielkoformatowych. Te urządzenia wykorzystują farby na bazie rozpuszczalników, które zapewniają wysoką odporność na czynniki zewnętrzne, takie jak promieniowanie UV, woda czy różne substancje chemiczne. Dzięki temu, wydruki wykonane przy użyciu ploterów solwentowych są idealne do zastosowań zewnętrznych, na przykład w reklamie, gdzie wytrzymałość i żywotność wydruków są kluczowe. Plotery te oferują również szeroki wachlarz kolorów oraz możliwość uzyskiwania intensywnych barw, co czyni je popularnym wyborem w branży graficznej. Warto również zwrócić uwagę na standardy ekologiczne, które dotyczą tych technologii, takie jak wdrażanie rozwiązań mających na celu ograniczenie emisji lotnych związków organicznych (VOC). Przykładowe zastosowania to produkcja banerów, naklejek czy billboardów, które muszą być odporne na różne warunki atmosferyczne. W związku z tym, wybór plotera solwentowego jest często decyzją strategiczną w kontekście zapewnienia jakości i trwałości wydruków.

Pytanie 29

Zaprezentowany tylny panel płyty głównej zawiera następujące interfejsy:

Ilustracja do pytania
A. 2 x USB 3.0; 2 x USB 2.0, 1.1; 2 x DP, 1 x DVI
B. 2 x PS2; 1 x RJ45; 6 x USB 2.0, 1.1
C. 2 x HDMI, 1 x D-SUB, 1 x RJ11, 6 x USB 2.0
D. 2 x USB 3.0; 4 x USB 2.0, 1.1, 1 x D-SUB
Odpowiedź 3 jest prawidłowa, ponieważ przedstawiony panel tylny płyty głównej rzeczywiście posiada 2 porty USB 3.0, które charakteryzują się niebieskim wnętrzem, oraz 4 porty USB 2.0, 1.1, których wnętrza są zazwyczaj czarne lub białe. Dodatkowo znajduje się tam port D-SUB, znany również jako VGA, który jest używany do przesyłania analogowego sygnału wideo do monitorów lub projektorów. USB 3.0 to standard, który zapewnia prędkość przesyłania danych do 5 Gb/s, co jest około dziesięciokrotnie szybsze niż USB 2.0. Jest to istotne w przypadku przesyłania dużych plików lub korzystania z szybkich urządzeń zewnętrznych, takich jak dyski SSD na USB. Porty USB 2.0, choć wolniejsze, są nadal powszechnie używane do podłączania urządzeń peryferyjnych takich jak klawiatury, myszy, czy drukarki. Użycie portów D-SUB jest coraz rzadsze, ale nadal występuje w starszych monitorach i projektorach. Poprawne rozpoznanie i wykorzystanie tych interfejsów jest kluczowe dla efektywnej obsługi urządzeń komputerowych, zapewniając kompatybilność i optymalną wydajność.

Pytanie 30

Problemy z laptopem, objawiające się zmienionymi barwami lub brakiem określonego koloru na ekranie, mogą być spowodowane uszkodzeniem

A. taśmy matrycy
B. interfejsu HDMI
C. portu D-SUB
D. pamięci RAM
Taśma matrycy jest kluczowym elementem łączącym ekran laptopa z jego płytą główną. Uszkodzenie taśmy matrycy może prowadzić do problemów z wyświetlaniem obrazu, takich jak zmienione kolory czy całkowity brak koloru. W przypadku uszkodzenia taśmy, sygnały video mogą nie być prawidłowo przesyłane z karty graficznej do matrycy, co skutkuje zniekształceniem obrazu. Przykładem zastosowania tej wiedzy może być diagnozowanie problemów w laptopach podczas serwisowania; technicy najpierw sprawdzają połączenia taśmy matrycy, zanim przejdą do bardziej skomplikowanych testów związanych z innymi komponentami. Dobre praktyki wskazują, że przy wymianie lub naprawie taśmy matrycy warto zwrócić uwagę na jakość używanych komponentów, ponieważ taśmy niskiej jakości mogą szybko ulegać awariom, co wpływa na długowieczność sprzętu.

Pytanie 31

Jaką liczbę punktów abonenckich (2 x RJ45) zgodnie z wytycznymi normy PN-EN 50167 powinno się zainstalować w biurze o powierzchni 49 m2?

A. 1
B. 5
C. 4
D. 9
Rozważając odpowiedzi, które nie wskazują na pięć punktów abonenckich, często pojawiają się błędne założenia dotyczące potrzeb biurowych oraz norm dotyczących infrastruktury teleinformatycznej. Odpowiedzi, które sugerują zbyt małą liczbę punktów, takie jak 1 czy 4, mogą wynikać z niepełnego zrozumienia wymagań dotyczących nowoczesnych biur. W obecnych realiach, gdzie praca zdalna i biurowa często się przeplatają, kluczowe jest, aby każdy pracownik miał dostęp do odpowiedniej infrastruktury sieciowej. Odpowiedź sugerująca 9 punktów, z kolei, może wynikać z nadmiernej ostrożności lub niewłaściwego oszacowania przestrzeni potrzebnej dla współczesnych zastosowań technologicznych. Typowe błędy myślowe obejmują niedoszacowanie liczby urządzeń, które mogą być używane w biurze, oraz nieprzemyślenie wygody użytkowników, która wymaga odpowiedniego dostępu do sieci. Aby zagwarantować efektywną i wydajną pracę, warto stosować się do norm takich jak PN-EN 50167, które zapewniają nie tylko zgodność ze standardami, ale także optymalizację przestrzeni biurowej, co jest kluczowe dla współczesnych organizacji.

Pytanie 32

Jakie urządzenie jest używane do pomiaru napięcia w zasilaczu?

A. pirometr
B. impulsator
C. multimetr
D. amperomierz
Impulsator to urządzenie stosowane do generowania sygnałów impulsowych, które mogą być używane w różnych aplikacjach, ale nie służy do pomiaru wartości napięcia. Jego zastosowanie jest bardziej związane z automatyzacją czy sterowaniem procesami, a nie z bezpośrednim pomiarem parametrów elektrycznych. Amperomierz, z kolei, to przyrząd zaprojektowany do pomiaru natężenia prądu, a nie napięcia. W związku z tym, użycie amperomierza w celu sprawdzenia napięcia byłoby nieodpowiednie i mogłoby prowadzić do nieprawidłowych wyników oraz potencjalnie do uszkodzenia urządzenia. Pirometr to zupełnie inny typ urządzenia, które mierzy temperaturę obiektów na podstawie promieniowania cieplnego, więc nie ma zastosowania w kontekście pomiaru napięcia elektrycznego. Typowe błędy w myśleniu, które mogą prowadzić do takich niepoprawnych wniosków, obejmują mylenie funkcji poszczególnych urządzeń pomiarowych oraz brak zrozumienia ich zasad działania. W kontekście pomiarów elektrycznych, kluczem jest stosowanie odpowiednich narzędzi, takich jak multimetr, który jest przystosowany do pomiaru różnych parametrów elektrycznych, w tym napięcia.

Pytanie 33

Sprzęt, na którym można skonfigurować sieć VLAN, to

A. most przezroczysty (transparent bridge)
B. firewall
C. regenerator (repeater)
D. switch
Switch to urządzenie, które odgrywa kluczową rolę w tworzeniu i zarządzaniu sieciami VLAN (Virtual Local Area Network). Pozwala na segmentację ruchu sieciowego, co zwiększa bezpieczeństwo i wydajność. VLAN-y umożliwiają grupowanie urządzeń w logiczne sieci, niezależnie od ich fizycznej lokalizacji, co jest szczególnie przydatne w dużych organizacjach. Na przykład, w biurze, gdzie różne działy, takie jak IT, HR i finanse, mogą być odseparowane, co zwiększa bezpieczeństwo danych. Dobrą praktyką jest przypisanie różnych VLAN-ów dla poszczególnych działów, co ogranicza dostęp do wrażliwych informacji tylko do uprawnionych użytkowników. Standardy takie jak IEEE 802.1Q definiują, jak VLAN-y są implementowane w sieciach Ethernet, co jest powszechnie stosowane w branży. Dzięki switchom zarządzanym możliwe jest dynamiczne przypisywanie portów do różnych VLAN-ów, co zapewnia elastyczność w zarządzaniu siecią.

Pytanie 34

Chusteczki nasączone substancją o właściwościach antystatycznych służą do czyszczenia

A. rolek prowadzących papier w drukarkach atramentowych
B. wyświetlaczy monitorów CRT
C. wałków olejowych w drukarkach laserowych
D. wyświetlaczy monitorów LCD
Ekrany monitorów CRT, zwane także monitorami kineskopowymi, są szczególnie wrażliwe na zjawiska elektrostatyczne, co czyni je odpowiednimi do czyszczenia za pomocą chusteczek nasączonych płynem antystatycznym. Te płyny skutecznie eliminują ładunki elektrostatyczne, które mogą przyciągać kurz i zanieczyszczenia, co wpływa na jakość obrazu. Używając chusteczek antystatycznych, można nie tylko oczyścić ekran z zanieczyszczeń, ale także zredukować ryzyko osadzania się kurzu w przyszłości. W praktyce, chusteczki te są często stosowane w biurach, serwisach komputerowych oraz w domowych warunkach, gdzie użytkownicy monitorów CRT mogą odczuwać potrzebę utrzymania czystości swoich urządzeń. Warto również zauważyć, że zgodnie z zaleceniami producentów sprzętu, stosowanie specjalistycznych środków czyszczących jest kluczowe, aby nie uszkodzić powłoki ekranu i zachować jego właściwości optyczne przez dłużej.

Pytanie 35

Planując prace modernizacyjne komputera przenośnego, związane z wymianą procesora, należy w pierwszej kolejności

A. rozkręcić obudowę laptopa i rozpocząć montaż.
B. sprawdzić typ gniazda procesora oraz specyfikację techniczną płyty głównej.
C. zdemontować kartę graficzną, kartę Wi-Fi oraz moduły pamięci RAM.
D. zakupić znacząco wydajniejszy procesor pasujący do gniazda na płycie głównej.
Wymiana procesora w laptopie to zadanie wymagające nie tylko zdolności manualnych, ale też pewnej wiedzy technicznej. Najważniejsza jest weryfikacja typu gniazda procesora (socket) oraz dokładne sprawdzenie specyfikacji technicznej płyty głównej. To właśnie od tego powinno się zacząć, bo nie każdy procesor pasuje do każdej płyty – nawet jeśli gniazdo wygląda podobnie, mogą występować różnice w obsługiwanych generacjach CPU, TDP czy wersji BIOS-u. Z mojego doświadczenia wynika, że wielu ludzi nieświadomie kupuje procesor pasujący tylko fizycznie, a potem pojawia się problem z kompatybilnością, cichym brakiem wsparcia lub ograniczeniami zasilania. Branżowe standardy, jak np. zalecenia producentów płyt głównych, zawsze podkreślają konieczność sprawdzenia listy wspieranych CPU („CPU support list”). Dopiero po analizie specyfikacji ma sens rozważać demontaż czy zakupy nowych podzespołów. Praktycznym przykładem jest sytuacja, gdy laptop obsługuje procesory do max 35W TDP – jeśli wybierzesz mocniejszy, urządzenie może nawet nie wystartować. Zawsze warto też spojrzeć na fora techniczne czy dokumentacje serwisowe, bo czasem nawet ten sam model płyty w różnych rewizjach ma inne ograniczenia. Takie podejście oszczędza czas, pieniądze, a często i nerwy. Bez tego kroku każda dalsza modernizacja to trochę jazda "na ślepo".

Pytanie 36

Które cechy ma licencja bezpłatnego oprogramowania zwana freemium?

A. Regularnie emituje prośby o wniesienie dobrowolnego datku na określony cel charytatywny.
B. Daje możliwość zyskania dodatkowych funkcjonalności po wykupieniu wersji premium.
C. Okresowo lub przy każdym uruchomieniu programu wyświetla komunikat zachęcający do dokonania dobrowolnej opłaty na rzecz instytucji edukacyjnych.
D. Daje nieograniczone prawo do użytkowania i rozpowszechniania oryginalnego lub zmodyfikowanego programu, pod warunkiem podania informacji o autorze.
Model licencjonowania typu freemium to obecnie jeden z najpopularniejszych sposobów udostępniania oprogramowania na rynku, szczególnie w aplikacjach mobilnych, platformach SaaS czy nawet w grach komputerowych. Kluczową cechą freemium jest to, że użytkownik może korzystać z podstawowej wersji programu za darmo, bez żadnych zobowiązań i ograniczeń czasowych. Jednak dostęp do bardziej zaawansowanych funkcjonalności, rozszerzeń czy nawet usunięcia reklam wymaga już opłacenia tzw. wersji premium. Moim zdaniem to fajne rozwiązanie, bo pozwala każdemu najpierw sprawdzić, czy dane narzędzie faktycznie jest przydatne, zanim zdecyduje się na wydanie pieniędzy. Przykłady? Spotify, Dropbox, czy nawet Trello – wszystkie te aplikacje działają właśnie w modelu freemium. Z perspektywy branży IT to uczciwa praktyka, bo zachęca twórców do rozwijania narzędzi i odpowiadania na realne potrzeby użytkowników. Co ciekawe, model ten nie jest jednoznacznie utożsamiany z open source czy licencjami wolnego oprogramowania – tu użytkownik często nie dostaje prawa do modyfikowania kodu źródłowego. Z mojego doświadczenia wynika, że freemium świetnie sprawdza się tam, gdzie część użytkowników realnie potrzebuje tylko podstawowych funkcji, a bardziej wymagający chętnie zapłacą za coś więcej. Taki balans między darmowym a płatnym dostępem przyczynia się też do większej innowacyjności w branży.

Pytanie 37

Po wykonaniu eksportu klucza HKCU zostanie zapisana kopia rejestru zawierająca informacje, dotyczące konfiguracji

A. sprzętowej komputera dla wszystkich użytkowników systemu.
B. aktualnie zalogowanego użytkownika.
C. wszystkich aktywnie ładowanych profili użytkowników systemu.
D. procedur uruchamiających system operacyjny.
Wiele osób zakłada, że eksportując klucz rejestru HKCU, zapiszą konfigurację dotyczącą wszystkich użytkowników systemu albo nawet ustawienia sprzętowe czy startowe systemu operacyjnego. To moim zdaniem całkiem częsty błąd wynikający z nie do końca jasnej struktury Windowsowego rejestru, szczególnie dla osób, które dopiero zaczynają swoją przygodę z administracją. Klucz HKEY_CURRENT_USER (HKCU) zawsze odnosi się wyłącznie do profilu bieżącego, zalogowanego użytkownika. Nie zapiszesz tutaj w żaden sposób konfiguracji innych użytkowników, nawet jeśli są oni obecni na tym samym komputerze – bo ich dane znajdują się w osobnych plikach i kluczach np. HKEY_USERS z odpowiednimi SID-ami. Podobnie, nie znajdziesz tu informacji o sprzęcie – za to odpowiada HKEY_LOCAL_MACHINE, zwłaszcza gałąź SYSTEM i HARDWARE, które przechowują np. sterowniki, identyfikatory urządzeń czy ustawienia BIOS/UEFI. Jeśli chodzi o procedury uruchamiania systemu, to one są osadzone głównie w HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet oraz HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\CurrentVersion\Run, natomiast HKCU zawiera jedynie indywidualne programy startowe wyłącznie dla danego użytkownika, nie całą logikę bootowania Windowsa. W praktyce, błędne rozumienie tych zależności może prowadzić do poważnych niedopatrzeń przy backupach czy migracjach – przykładowo można utracić ustawienia innych użytkowników sądząc, że jeden eksport HKCU załatwia sprawę. Najlepszą praktyką jest zawsze dokładne określenie, które gałęzie rejestru odpowiadają za konkretne aspekty systemu i użytkownika – to podstawa skutecznego zarządzania środowiskiem Windows.

Pytanie 38

Zgodnie ze specyfikacją JEDEC typowe napięcie zasilania modułów niskonapięciowych pamięci RAM DDR3L wynosi

A. 1,65 V
B. 1,50 V
C. 1,35 V
D. 1,20 V
Wiele osób myli specyfikację napięciową różnych generacji pamięci RAM albo kieruje się intuicją opartą o wcześniejsze doświadczenia z innymi typami modułów. Częstym błędem jest założenie, że każda kolejna generacja RAM zużywa jednakowo niskie napięcie, co nie zawsze jest prawdą. Przykładowo, 1,20 V jest typowe dla modułów DDR4L, a nie DDR3L. W praktyce DDR3L wymaga wyższego napięcia niż DDR4, ale niższego niż zwykłe DDR3, co właśnie plasuje je na poziomie 1,35 V zgodnie ze specyfikacją JEDEC. Wskazanie wartości 1,50 V może wynikać z przyzwyczajenia do standardowych modułów DDR3, które faktycznie wymagają takiego napięcia, ale nie jest to wartość charakterystyczna dla wersji 'L', czyli low-voltage. Z kolei 1,65 V spotyka się czasem w podkręcanych pamięciach lub specjalnych modułach, jednak to nie jest wartość typowa ani zalecana przez JEDEC dla DDR3L – taki poziom napięcia raczej skróciłby żywotność tych modułów, a nawet mógłby prowadzić do ich uszkodzenia. Z punktu widzenia praktyka, zawsze warto zwracać uwagę na dokumentację techniczną płyty głównej i pamięci RAM, bo różnice między napięciami są kluczowe dla kompatybilności i stabilności pracy całego systemu. Zbyt niskie napięcie spowoduje, że moduły mogą się nie uruchomić, zbyt wysokie – realnie grozi ich przegrzaniem i uszkodzeniem. Dlatego właśnie specyfikacja JEDEC jest takim drogowskazem, do którego trzeba się stosować nie tylko teoretycznie, ale i praktycznie.

Pytanie 39

Funkcja failover usługi DHCP umożliwia

A. konfigurację zapasowego serwera DHCP.
B. konfigurację rezerwacji adresów IP.
C. filtrowanie adresów MAC.
D. wyświetlanie statystyk serwera DHCP.
W pytaniu chodzi konkretnie o mechanizm failover w usłudze DHCP, czyli o rozwiązanie wysokiej dostępności, a nie o zwykłe funkcje administracyjne serwera. Łatwo tu się pomylić, bo wiele osób kojarzy DHCP ogólnie z zarządzaniem adresami, filtrowaniem czy podglądem statystyk i wrzuca wszystko do jednego worka. Warto to sobie uporządkować. Filtrowanie adresów MAC to osobny moduł w serwerach DHCP. Pozwala definiować listy dozwolonych lub blokowanych klientów na podstawie ich adresu fizycznego karty sieciowej. To mechanizm bardziej z pogranicza prostego bezpieczeństwa i kontroli dostępu, ale nie ma nic wspólnego z redundancją czy przejmowaniem pracy serwera. Nawet jeśli MAC filtering jest konfigurowany na więcej niż jednym serwerze, to nadal nie jest to failover – to po prostu identyczna konfiguracja filtrów w kilku miejscach. Rezerwacje adresów IP to kolejny, odrębny temat. Dzięki nim można przypisać konkretny adres IP do określonego klienta (najczęściej właśnie po MAC), tak aby zawsze dostawał ten sam adres. To jest bardzo przydatne np. dla drukarek sieciowych, serwerów plików czy urządzeń IoT, ale celem jest przewidywalność adresacji, a nie zapewnienie ciągłości działania w razie awarii samego serwera DHCP. Nawet idealnie ustawione rezerwacje nie spowodują, że drugi serwer automatycznie przejmie obsługę, jeśli pierwszy padnie. Wyświetlanie statystyk serwera DHCP to typowa funkcja monitorująca. Administrator może sprawdzić, ile dzierżaw jest aktywnych, ile adresów zostało wolnych w danym zakresie, jakie są błędy, itp. To ważne z punktu widzenia diagnostyki i planowania pojemności puli adresów, ale nadal nie ma to charakteru mechanizmu HA. Typowy błąd myślowy polega na tym, że skoro coś „pomaga adminowi”, to ludzie uznają to za funkcję krytyczną jak failover – a to tylko narzędzie podglądowe. Sam failover DHCP polega na współpracy dwóch serwerów nad tą samą pulą adresów i wymianie informacji o dzierżawach, tak aby w razie awarii jednego klient dalej mógł pobierać lub odnawiać adres na drugim. Czyli jego sednem jest konfiguracja zapasowego serwera DHCP oraz mechanizmów synchronizacji, a nie filtrowanie, rezerwacje czy statystyki. Z mojego doświadczenia dobrze jest te pojęcia rozdzielać, bo w praktyce sieciowej mieszanie ich prowadzi do błędnych konfiguracji i złudnego poczucia bezpieczeństwa.

Pytanie 40

Program testujący wydajność sprzętu komputerowego to

A. benchmark.
B. sniffer.
C. chkdsk.
D. exploit.
W tym pytaniu łatwo dać się złapać na skojarzenia z innymi narzędziami systemowymi i pojęciami bezpieczeństwa. Program testujący wydajność sprzętu to benchmark, natomiast pozostałe odpowiedzi dotyczą zupełnie innych obszarów. Dobrym przykładem jest chkdsk, który wielu osobom kojarzy się z „testowaniem dysku”. To polecenie w systemach Windows służy głównie do sprawdzania integralności systemu plików oraz ewentualnego naprawiania błędów logicznych na partycji. Chkdsk może wykrywać uszkodzone sektory i oznaczać je jako niedostępne, ale to nadal nie jest narzędzie do pomiaru wydajności. Ono nie mierzy realnej szybkości odczytu i zapisu, nie porównuje wyników z innymi konfiguracjami, tylko dba o spójność danych. Mylenie diagnostyki integralności z diagnostyką wydajności to bardzo typowy błąd. Kolejne pojęcie, które potrafi zmylić, to exploit. Exploit to fragment kodu lub gotowe narzędzie wykorzystujące podatność w oprogramowaniu lub systemie operacyjnym, aby uzyskać nieautoryzowany dostęp, podnieść uprawnienia albo wykonać szkodliwe operacje. To jest kategoria narzędzi z obszaru bezpieczeństwa i testów penetracyjnych, a nie narzędzi do pomiaru wydajności. Co prawda specjaliści od bezpieczeństwa też „testują” system, ale ich celem jest znalezienie luk, a nie sprawdzenie, jak szybko działa procesor czy dysk. Podobnie ze snifferem – jest to narzędzie do przechwytywania i analizy ruchu sieciowego, takie jak Wireshark czy tcpdump. Umożliwia podgląd pakietów, analizę protokołów, diagnozowanie problemów w sieci, czasem wykrywanie nieprawidłowej konfiguracji lub prób ataków. Sniffer może pośrednio pomóc w ocenie obciążenia sieci, ale nie jest benchmarkiem sprzętowym. Nie testuje on wydajności CPU, RAM czy GPU, tylko obserwuje to, co „płynie” po sieci. W tle wszystkich tych pomyłek stoi jedno: mieszanie pojęcia „testowanie” z „monitorowaniem” albo „atakowaniem”. Benchmark to narzędzie ukierunkowane na mierzalną, powtarzalną ocenę wydajności sprzętu, zgodnie z dobrą praktyką porównywania wyników w identycznych warunkach. Chkdsk, exploit i sniffer mają swoje ważne zastosowania, ale po prostu nie służą do testowania wydajności podzespołów komputera.