Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 5 kwietnia 2026 18:48
  • Data zakończenia: 5 kwietnia 2026 19:18

Egzamin niezdany

Wynik: 16/40 punktów (40,0%)

Wymagane minimum: 20 punktów (50%)

Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Główną czynnością serwisową w drukarce igłowej jest zmiana pojemnika

A. z tonerem
B. z taśmą
C. z atramentem
D. z fluidem
Wybór odpowiedzi związanych z atramentem, tonerem czy fluidem jest błędny, ponieważ nie odpowiadają one podstawowemu mechanizmowi pracy drukarek igłowych. Drukarki atramentowe używają wkładów z atramentem, które nanoszą kolor za pomocą mikroskopijnych dysz. W przypadku tonerów, są one stosowane w drukarkach laserowych, gdzie obraz jest tworzony na zasadzie elektrostatycznej. Wykorzystywanie fluidów jest bardziej typowe w kontekście niektórych urządzeń do druku sublimacyjnego czy specjalistycznych procesów druku, które są całkowicie różne od technologii igłowej. Typowym błędem myślowym jest mylenie technologii drukowania z różnymi rodzajami drukarek. Każda technologia ma swoje charakterystyczne cechy i zastosowania, a zrozumienie ich różnic jest kluczowe dla prawidłowego doboru sprzętu do zadania. W praktyce, dla osób pracujących z drukarkami, ważne jest, aby znały one rodzaj posiadanego sprzętu i odpowiednie materiały eksploatacyjne, co pozwala uniknąć nieporozumień i zapewnić efektywność pracy. Dlatego fundamentalne jest prawidłowe rozumienie, że igły w drukarkach igłowych nie współpracują z atramentem ani tonerami, lecz z taśmami barwiącymi.

Pytanie 2

Aby podłączyć 6 komputerów do sieci przy użyciu światłowodu, potrzebny jest kabel z co najmniej taką ilością włókien:

A. 6
B. 3
C. 12
D. 24
Aby podłączyć 6 komputerów za pomocą światłowodu, konieczne jest posiadanie kabla z co najmniej 12 włóknami. Każdy komputer wymaga jednego włókna na transmisję i jednego na odbiór, co daje łącznie 12 włókien, by umożliwić pełne duplexowe połączenie. W praktyce, w przypadku większych instalacji, często stosuje się więcej włókien, aby zapewnić przyszłą rozbudowę lub dodatkowe połączenia. Standardy branżowe, takie jak IEEE 802.3, sugerują, aby w projektach sieciowych uwzględniać zapasowe włókna na wypadek awarii lub konieczności rozbudowy. Użycie włókien wielomodowych lub jednomodowych również ma znaczenie, w zależności od odległości, jaką sygnał musi pokonać. Na przykład, w przypadku dużych odległości, zastosowanie włókien jednomodowych jest bardziej opłacalne z uwagi na mniejsze straty sygnału. Takie praktyki zwiększają niezawodność i elastyczność sieci, co jest kluczowe w nowoczesnych środowiskach pracy.

Pytanie 3

Usterka przedstawiona na ilustracji, widoczna na monitorze komputera, nie może być spowodowana przez

Ilustracja do pytania
A. przegrzanie karty graficznej
B. nieprawidłowe napięcie zasilacza
C. spalenie rdzenia lub pamięci karty graficznej po overclockingu
D. uszkodzenie modułów pamięci operacyjnej
Przegrzewanie się karty graficznej może powodować różne dziwne artefakty na ekranie, bo generowanie grafiki 3D wymaga sporo mocy i ciepła. Jeśli chłodzenie karty jest za słabe albo powietrze krąży źle, to temperatura może wzrosnąć, co prowadzi do kłopotów z działaniem chipów graficznych i problemów z obrazem. Zasilacz to też sprawa kluczowa, bo jak napięcie jest złe, to może to wpłynąć na stabilność karty. Zasilacz z niewystarczającą mocą lub z uszkodzeniem może spowodować przeciążenia i wizualne problemy. Jak ktoś kręci rdzeń czy pamięć karty graficznej po overclockingu, to może dojść do błędów w wyświetlaniu, bo przekraczanie fabrycznych ograniczeń mocno obciąża komponenty i może je uszkodzić termicznie. Podsumowując, wszystkie te przyczyny, poza problemami z pamięcią RAM, są związane z kartą graficzną i jej działaniem, co skutkuje zakłóceniami w obrazie.

Pytanie 4

Który zakres adresów IPv4 jest poprawnie przypisany do danej klasy?

Zakres adresów IPv4Klasa adresu IPv4
A.1.0.0.0 ÷ 127.255.255.255A
B.128.0.0.0 ÷ 191.255.255.255B
C.192.0.0.0 ÷ 232.255.255.255C
D.233.0.0.0 ÷ 239.255.255.255D
A. D
B. A
C. B
D. C
Zrozumienie klas adresów IP jest fundamentalne dla projektowania i zarządzania sieciami komputerowymi. Klasa A obejmuje adresy od 1.0.0.0 do 127.255.255.255, z czego pierwszy oktet jest używany do identyfikacji sieci, a pozostałe trzy dla hostów, co pozwala na 126 sieci z ogromną liczbą hostów, jednak adres 127.0.0.0 jest zarezerwowany dla pętli zwrotnej. Klasa C, od 192.0.0.0 do 223.255.255.255, jest przeznaczona dla małych sieci, oferując dużą liczbę sieci, ale z ograniczoną liczbą hostów – maksymalnie 254 hosty na sieć. Klasa D, zaczynająca się od 224.0.0.0 do 239.255.255.255, jest zarezerwowana dla multicastingu i nie jest używana do adresacji hostów. Często błędnym założeniem jest przypisywanie klasy D do standardowej komunikacji między hostami, co nie jest zgodne z rzeczywistą funkcją tej klasy. Błędy w rozpoznawaniu klas mogą prowadzić do nieefektywnego wykorzystania zasobów adresowych i problemów z routingiem, dlatego ważne jest, aby dobrze rozumieć specyfikacje definiowane przez standardy takie jak RFC 791, które opisują struktury i użycie adresów IP w sieciach komputerowych.

Pytanie 5

Na zdjęciu widać płytę główną komputera. Strzałka wskazuje na

Ilustracja do pytania
A. gniazdo zasilające do płyty ATX
B. łącze do dysku IDE
C. gniazdo zasilające do płyty AT
D. łącze do dysku SCSI
Gniazdo zasilania ATX na płycie głównej to kluczowy element nowoczesnych komputerów osobistych. Zostało zaprojektowane do dostarczania zasilania do różnych komponentów płyty głównej w sposób wydajny i zrównoważony. Standard ATX, który jest obecnie najczęściej używany w komputerach stacjonarnych, zapewnia nie tylko zasilanie, ale również zarządzanie energią, co pozwala na bardziej efektywne działanie systemu. Gniazdo ATX charakteryzuje się specyficznym kształtem i liczbą pinów, zwykle 20 lub 24, co pozwala na podłączenie zasilacza komputerowego. Dzięki temu standardowi użytkownicy mogą łatwo wymieniać komponenty sprzętowe, gdyż zachowuje on kompatybilność przez wiele generacji komponentów. Warto zauważyć, że gniazdo ATX obsługuje funkcje takie jak Power Good Signal, które zapewniają prawidłowe uruchomienie komputera tylko przy odpowiednich poziomach napięcia. Standard ATX jest także podstawą dla zaawansowanych funkcji zarządzania energią, takich jak tryby uśpienia i hibernacji, które przyczyniają się do oszczędności energii i ochrony środowiska. Wybór tego gniazda jako odpowiedzi wskazuje na zrozumienie nowoczesnych standardów zasilania w architekturze komputerowej.

Pytanie 6

Jakie urządzenie powinno być użyte w sieci Ethernet, aby zredukować liczbę kolizji pakietów?

A. Regenerator
B. Koncentrator
C. Bramkę VoIP
D. Przełącznik
Regenerator, koncentrator i bramka VoIP to różne sprzęty w sieci, ale nie mają na celu ograniczania kolizji w taki sposób jak przełącznik. Regenerator po prostu wzmacnia sygnał, gdy mamy długie odcinki kabla, ale nie ogarnia problemu kolizji, bo nie kontroluje ruchu. Koncentrator działa trochę jak przełącznik, ale rozsyła sygnał do wszystkich portów, co zwiększa ryzyko kolizji w sieci. Jak dużo urządzeń korzysta z jednego medium, to większe szanse na kolizję, bo nie ma żadnego mechanizmu segregacji ruchu. A bramka VoIP? No to ona zamienia dźwięki na dane, żeby można było gadać przez Internet, ale z kolizjami w Ethernetem nie ma nic wspólnego. Ważne, żeby przy wyborze urządzeń sieciowych rozumieć, jak one działają i do czego służą. W końcu mylenie koncentratora z przełącznikiem to typowy błąd. Zrozumienie tych różnic to klucz do skutecznego projektowania i zarządzania sieciami komputerowymi.

Pytanie 7

Czym wyróżniają się procesory CISC?

A. ograniczoną wymianą danych pomiędzy pamięcią a procesorem
B. prostą i szybką jednostką kontrolną
C. wysoką liczbą instrukcji
D. niewielką ilością trybów adresowania
Wybór odpowiedzi, które sugerują, że procesory CISC mają prostą i szybką jednostkę sterującą, jest mylący. W rzeczywistości, procesory CISC są zaprojektowane z myślą o złożoności zestawu instrukcji, co często prowadzi do bardziej skomplikowanej jednostki sterującej. Złożoność ta wynika z konieczności dekodowania wielu różnych instrukcji, co może wprowadzać opóźnienia w wykonaniu. W kontekście architektury CISC, jednostka sterująca jest znacznie bardziej złożona niż w architekturze RISC (Reduced Instruction Set Computing), gdzie skupia się na prostocie i szybkości. Ponadto, stwierdzenie o niewielkiej liczbie trybów adresowania nie odnosi się do rzeczywistości, gdyż procesory CISC często oferują wiele trybów adresowania, co zwiększa ich elastyczność w operacjach na danych. Ograniczona komunikacja pomiędzy pamięcią a procesorem jest również niepoprawnym założeniem, ponieważ w architekturze CISC, ilość danych przesyłanych pomiędzy pamięcią a procesorem może być znacząca, biorąc pod uwagę złożoność instrukcji. Zrozumienie tych różnic jest kluczowe dla prawidłowego rozpoznawania zalet i wad różnych architektur procesorów oraz ich zastosowań w praktyce, co jest istotne w kontekście projektowania systemów komputerowych.

Pytanie 8

Jakie narzędzie służy do delikatnego wygięcia blachy obudowy komputera i przykręcenia śruby montażowej w trudno dostępnych miejscach?

Ilustracja do pytania
A. Rys. C
B. Rys. B
C. Rys. D
D. Rys. A
Szczypce przedstawione na rysunku D są idealnym narzędziem do manipulacji blachą i śrubami w trudno dostępnych miejscach. Ich długi, wąski zakończenie pozwala na precyzyjne działanie, co jest kluczowe w przypadku montażu komponentów komputerowych, gdzie przestrzeń operacyjna jest często ograniczona. Szczypce te są zaprojektowane tak, aby zapewniać pewny chwyt i umożliwiać operacje w wąskich szczelinach, co jest szczególnie przydatne, gdy chcemy lekko odgiąć blachę obudowy, nie ryzykując jej uszkodzenia, oraz gdy musimy zamocować śrubę w miejscu, do którego inne narzędzia nie mają dostępu. W branży IT i serwisowaniu sprzętu komputerowego używanie szczypiec o cienkich końcówkach jest standardem ze względu na ich wszechstronność i precyzję. Ponadto, w kontekście standardów bezpieczeństwa, tego rodzaju narzędzia minimalizują ryzyko uszkodzenia delikatnych komponentów elektronicznych, co czyni je nieocenionymi w codziennej pracy techników i inżynierów sprzętu komputerowego. Dbałość o użycie odpowiednich narzędzi to dobra praktyka w każdej profesji technicznej, zwłaszcza gdy mamy do czynienia z wrażliwym sprzętem komputerowym.

Pytanie 9

Aby zasilić najbardziej wydajne karty graficzne, konieczne jest dodatkowe 6-pinowe gniazdo zasilacza PCI-E, które dostarcza napięcia

A. +12 V na 3 liniach
B. +5 V na 3 liniach
C. +3,3 V oraz +5 V
D. +3,3 V, +5 V, +12 V
Wszystkie błędne odpowiedzi zawierają nieprawidłowe informacje dotyczące napięć oraz ich zastosowania w kontekście zasilania kart graficznych. Na przykład opcje dotyczące +3,3 V oraz +5 V są mylące, ponieważ te napięcia są typowe dla komponentów takich jak płyty główne, dyski twarde czy inne urządzenia peryferyjne, ale nie są wykorzystywane w kontekście zasilania kart graficznych. Karty graficzne, w szczególności te o wysokiej wydajności, wymagają wyższego napięcia, aby efektywnie zarządzać energią potrzebną do przetwarzania grafiki 3D oraz renderowania obrazów. Typowym błędem myślowym jest zakładanie, że wszystkie komponenty komputerowe mogą być zasilane tymi samymi napięciami, co prowadzi do nieporozumień w zakresie zasilania. W kontekście standardów, złącza PCI-E zaprojektowane są z myślą o dostarczaniu napięcia +12 V, co można znaleźć w dokumentacji technicznej, a ich ignorowanie może prowadzić do niewłaściwego doboru zasilaczy, co w efekcie może skutkować niestabilnością systemu czy nawet uszkodzeniem sprzętu. To kluczowe, aby użytkownicy mieli świadomość różnorodnych napięć i ich zastosowania, aby móc prawidłowo dobierać komponenty do swoich systemów komputerowych.

Pytanie 10

Element trwale zainstalowany, w którym znajduje się zakończenie poziomego okablowania strukturalnego abonenta, to

A. punkt rozdzielczy
B. gniazdo teleinformatyczne
C. gniazdo energetyczne
D. punkt konsolidacyjny
Punkt rozdzielczy jest elementem, który pełni rolę centralnej jednostki w systemach okablowania, jednak jego zadaniem jest rozdzielenie sygnałów na różne kierunki, a nie kończenie okablowania. W praktyce oznacza to, że choć punkt rozdzielczy jest istotny dla zarządzania sygnałami w sieci, to nie jest on odpowiednim rozwiązaniem dla zakończenia okablowania strukturalnego, co sprawia, że nie może być uznawany za poprawną odpowiedź w tym kontekście. Punkt konsolidacyjny działa jako połączenie pomiędzy okablowaniem pionowym a poziomym, ale również nie jest jego końcowym elementem. Jego rola polega na ułatwieniu zarządzania i organizacji kabli, co może prowadzić do pomyłek w interpretacji jego funkcji. Gniazdo energetyczne, choć ważne w kontekście zasilania urządzeń, nie ma nic wspólnego z okablowaniem strukturalnym i nie obsługuje sygnałów teleinformatycznych. Często możemy spotkać się z mylnym rozumieniem tych terminów, co prowadzi do nieprawidłowego doboru komponentów w instalacji. Kluczowe jest zrozumienie, że każdy z tych elementów ma swoją określoną funkcję, a ich zamiana może skutkować poważnymi problemami w działaniu infrastruktury sieciowej.

Pytanie 11

W serwisie komputerowym dokumentem zawierającym informacje o sprzęcie, opis usterki, datę zgłoszenia i dane klienta jest

A. karta naprawy
B. paragon
C. PZ
D. WZ
W serwisie komputerowym kluczowe jest odróżnianie różnych typów dokumentów, bo każdy z nich pełni inną funkcję w obiegu sprzętu i informacji. Bardzo często uczniowie mieszają dokumenty magazynowe, sprzedażowe i serwisowe, bo z zewnątrz wszystko wygląda jak „papierek z podpisem”. Tymczasem dokument, którego szukamy w tym pytaniu, musi jednocześnie zawierać opis sprzętu, opis usterki, datę zgłoszenia i dane klienta. To nie jest ani typowy dokument magazynowy, ani dokument sprzedaży. PZ, czyli przyjęcie zewnętrzne, to klasyczny dokument magazynowy. Służy do wprowadzenia towaru na magazyn, np. gdy przyjeżdża dostawa komputerów od hurtowni. Tam zapisuje się ilości, symbole katalogowe, czasem numery seryjne, ale nie opisuje się usterek ani zgłoszeń serwisowych klientów. Mylenie PZ z dokumentem serwisowym wynika często z tego, że w niektórych firmach naprawiany sprzęt „przechodzi” przez magazyn, ale formalnie to zupełnie inny obieg dokumentów. Podobnie WZ, czyli wydanie zewnętrzne, to dokument potwierdzający wydanie towaru z magazynu na zewnątrz firmy, np. do klienta. Może dotyczyć komputera, ale dotyczy ruchu magazynowego, a nie opisu naprawy. Nie ma tam standardowo miejsca na opis usterki czy czynności serwisowych, bo to nie jest jego rola. Paragon z kolei to zwykły dowód sprzedaży, potwierdzenie zapłaty za usługę lub towar. Na paragonie fiskalnym nie ma pola na szczegółowy opis sprzętu ani rozpiski diagnostyki, to jest dokument wymagany przez prawo podatkowe, a nie przez procedury serwisowe. Typowym błędem jest myślenie: „skoro klient dostaje paragon, to pewnie tam jest wszystko”, ale w praktyce paragon tylko potwierdza kwotę i rodzaj usługi, a cała techniczna treść znajduje się właśnie w karcie naprawy. Dobrą praktyką w serwisach jest łączenie tych dokumentów: karta naprawy opisuje technikalia i przebieg zgłoszenia, a PZ/WZ i dokument sprzedaży obsługują magazyn i księgowość. Dopiero takie rozdzielenie ról sprawia, że system działa przejrzyście i zgodnie z normami organizacji pracy serwisu.

Pytanie 12

Jakie materiały eksploatacyjne wykorzystuje się w drukarce laserowej?

A. laser
B. pojemnik z tuszem
C. kaseta z tonerem
D. taśma barwiąca
Odpowiedzi takie jak taśma barwiąca, laser czy pojemnik z tuszem nie są odpowiednie dla drukarek laserowych, ponieważ każdy z tych elementów odnosi się do innych technologii druku. Taśma barwiąca jest używana w drukarkach igłowych oraz matrycowych, gdzie proces drukowania polega na uderzaniu igły w taśmę, która następnie przenosi atrament na papier. W przypadku drukarek laserowych taki mechanizm nie istnieje. Laser, mimo że jest kluczowym elementem w technologii druku laserowego, nie jest materiałem eksploatacyjnym, lecz częścią procesu tworzenia obrazu na bębnie. Z kolei pojemnik z tuszem odnosi się do drukarek atramentowych, a nie laserowych. Tusz jest płynny i działa na innej zasadzie, co sprawia, że jest nieodpowiedni dla technologii laserowej. Często zdarza się, że użytkownicy mylą te różne systemy i ich komponenty, co prowadzi do błędnych wniosków. Ważne jest, aby zrozumieć, jak każdy rodzaj drukarki działa, aby właściwie dobierać materiały eksploatacyjne, co przekłada się na efektywność druku oraz długość życia urządzenia.

Pytanie 13

Obudowa oraz wyświetlacz drukarki fotograficznej są mocno zabrudzone. Jakie środki należy zastosować, aby je oczyścić bez ryzyka uszkodzenia?

A. wilgotną ściereczkę oraz piankę do czyszczenia plastiku
B. ściereczkę nasączoną IPA oraz środek smarujący
C. mokrą chusteczkę oraz sprężone powietrze z rurką wydłużającą
D. suche chusteczki oraz patyczki do czyszczenia
Czyszczenie obudowy i wyświetlacza drukarki fotograficznej wymaga szczególnej ostrożności i zastosowania odpowiednich materiałów. Użycie suchej chusteczki i patyczków do czyszczenia może prowadzić do zarysowania delikatnych powierzchni, co jest szczególnie problematyczne w przypadku ekranów, które są podatne na uszkodzenia. Chusteczki suche nie mają zdolności do efektywnego usuwania zabrudzeń, co może prowadzić do ich rozprzestrzenienia lub wnikania w szczeliny. Ponadto, stosowanie ściereczki nasączonej IPA i środka smarującego jest niewłaściwe, ponieważ alkohol izopropylowy, choć skuteczny w czyszczeniu niektórych powierzchni, może uszkodzić wiele materiałów stosowanych w obudowach elektronicznych oraz może wpływać na wykończenie plastiku. Środek smarujący wprowadza dodatkowy problem, gdyż może zanieczyścić powierzchnię i przyciągnąć kurz. Użycie mokrej chusteczki i sprężonego powietrza z rurką również nie jest zalecane, ponieważ może to prowadzić do wnikania wilgoci do wnętrza urządzenia, co może spowodować uszkodzenia elektroniczne. Kluczowe jest zrozumienie, że wybór metod czyszczenia powinien opierać się na właściwościach materiałów, z jakich wykonane są poszczególne elementy, a także na ich specyfice użytkowania w kontekście danej branży.

Pytanie 14

Licencja Windows OEM nie umożliwia wymiany

A. sprawnego dysku twardego na model o wyższych parametrach
B. sprawnej płyty głównej na model o wyższych parametrach
C. sprawnej karty sieciowej na model o wyższych parametrach
D. sprawnego zasilacza na model o wyższych parametrach
Licencja Windows OEM (Original Equipment Manufacturer) jest związana z konkretnym sprzętem, na którym system operacyjny został zainstalowany. W przypadku wymiany płyty głównej, licencja przestaje być ważna, ponieważ system operacyjny uznaje nowy sprzęt za inny komputer. W praktyce oznacza to, że zmiana płyty głównej wiąże się z koniecznością zakupu nowej licencji na Windows, co jest istotnym ograniczeniem dla użytkowników korzystających z OEM. Zrozumienie tej zasady jest kluczowe dla zarządzania licencjami w środowiskach komputerowych. W przypadku innych komponentów, takich jak zasilacz, karta sieciowa czy dysk twardy, wymiany można dokonywać bez wpływu na licencję, ponieważ nie zmieniają one identyfikacji sprzętowej komputera. Przykładami praktycznymi mogą być aktualizacje karty graficznej lub dysku SSD, które są powszechnie stosowane w celu zwiększenia wydajności bez obaw o legalność oprogramowania.

Pytanie 15

Które medium transmisyjne umożliwia izolację galwaniczną pomiędzy systemami przesyłu danych?

A. Światłowód
B. Skrętka nieekranowana
C. Przewód koncentryczny
D. Skrętka ekranowana
Światłowód jako medium transmisyjne zapewnia separację galwaniczną dzięki zastosowaniu zasadniczo różnych technologii przesyłania sygnału. W przeciwieństwie do przewodów miedzianych, które mogą prowadzić prąd elektryczny i są podatne na zakłócenia elektromagnetyczne, światłowody przesyłają informacje w postaci światła. To oznacza, że nie ma fizycznego połączenia elektrycznego pomiędzy nadajnikiem a odbiornikiem, co eliminuje ryzyko wystąpienia problemów związanych z różnicami potencjałów elektrycznych. Przykładem zastosowania światłowodów są sieci telekomunikacyjne, gdzie używane są do łączenia różnych lokalizacji, szczególnie w sytuacjach, gdzie wymagane są długie dystanse i duże prędkości transmisji danych. Standardy takie jak ITU-T G.652 definiują parametry techniczne dla światłowodów, co zapewnia ich niezawodność i kompatybilność w różnych aplikacjach. Dzięki temu, światłowody znajdują zastosowanie nie tylko w telekomunikacji, ale również w systemach monitoringu oraz w technologii łączności w centrach danych.

Pytanie 16

Podczas uruchamiania (krótko po zakończeniu testu POST) komputer się zawiesza. Jakie mogą być możliwe przyczyny tej awarii?

A. Nieprawidłowe napięcie zasilania procesora
B. Niepoprawnie skonfigurowana drukarka
C. Brak podłączonej myszki komputerowej
D. Zbyt wiele ikon na pulpicie
Zasilanie procesora to naprawdę ważna sprawa, bo złe napięcie może namieszać w działaniu komputera. Procesor to jeden z kluczowych elementów i jeśli napięcie jest zbyt niskie, to po prostu może się zawiesić. Z drugiej strony, jak napięcie jest za wysokie, to może się przegrzać i uszkodzić. Dlatego warto używać zasilaczy, które spełniają normy ATX i mają dobre certyfikaty, żeby mieć pewność, że wszystko działa tak jak powinno. Dobrze jest też monitorować, jak pracują nasze podzespoły - programy takie jak HWMonitor czy CPU-Z mogą być w tym bardzo pomocne. Troska o prawidłowe napięcie zasilania to klucz do sprawnego działania komputera, zarówno dla tych, co budują sprzęt, jak i dla tych, co zajmują się konserwacją.

Pytanie 17

Pamięć RAM ukazana na grafice jest instalowana w płycie głównej z gniazdem

Ilustracja do pytania
A. DDR4
B. DDR2
C. DDR
D. DDR3
Pamięć RAM typu DDR2 jest stosowana w starszych komputerach osobistych i serwerach które wymagają tego konkretnego standardu. DDR2 oznacza Double Data Rate 2 i jest następcą pamięci DDR. Charakteryzuje się ona wyższą prędkością transferu danych oraz niższym napięciem zasilania w porównaniu do poprzedniej generacji co pozwala na bardziej efektywną pracę i mniejsze zużycie energii. DDR2 wykorzystuje technologię podwójnego transferu czyli przesyła dane zarówno na zboczu opadającym jak i narastającym sygnału zegara co podwaja efektywną przepustowość pamięci. Typowe zastosowania DDR2 to komputery stacjonarne laptopy i serwery które nie wymagają najnowszych technologii pamięciowych. Instalacja pamięci DDR2 na płycie głównej wymaga odpowiedniego gniazda które jest zaprojektowane specjalnie do tego typu modułów z typowym kluczem pozwalającym na prawidłowe zamontowanie tylko w jednym kierunku co eliminuje ryzyko nieprawidłowej instalacji. Przy wyborze pamięci DDR2 ważne jest także dopasowanie częstotliwości pracy i pojemności do specyfikacji płyty głównej aby zapewnić optymalną wydajność systemu. W ten sposób DDR2 pozostaje ważnym elementem w starszych systemach wymagających konkretnego wsparcia technologicznego.

Pytanie 18

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. wybraniem pliku z obrazem dysku.
B. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
C. dodaniem drugiego dysku twardego.
D. konfigurowaniem adresu karty sieciowej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 19

Aby skonfigurować wolumin RAID 5 w serwerze, wymagane jest co najmniej

A. 3 dyski
B. 4 dyski
C. 2 dyski
D. 5 dysków
Twierdzenie, że do utworzenia woluminu RAID 5 potrzeba mniejszej liczby dysków, takich jak dwa, jest błędne z powodu fundamentalnych zasad działania macierzy RAID. RAID 5 polega na rozpraszaniu danych oraz informacji parzystości między co najmniej trzema dyskami, co jest kluczowe dla zapewnienia odporności na awarie. Użycie dwóch dysków nie tylko uniemożliwia realizację parzystości, ale również naraża system na większe ryzyko utraty danych, gdyż w przypadku awarii jednego z dysków, wszystkie dane mogą zostać utracone. Kolejnym błędnym założeniem jest myślenie o RAID jako o prostym rozwiązaniu, które można łatwo wdrożyć bez pełnego zrozumienia jego architektury. Użytkownicy często nie zdają sobie sprawy, że RAID 5 wymaga dodatkowych zasobów obliczeniowych do obliczenia parzystości, co w przypadku niewłaściwej konfiguracji może prowadzić do spadku wydajności. Ostatecznie, wybór liczby dysków w RAID powinien być podyktowany nie tylko wymaganiami dotyczącymi wydajności, ale także potrzebami w zakresie bezpieczeństwa danych oraz architekturą systemu. Myślenie o RAID jako o sposobie na minimalizację kosztów poprzez użycie mniejszej liczby dysków może prowadzić do błędnych decyzji i zwiększonego ryzyka awarii systemu.

Pytanie 20

Wskaż znak umieszczany na urządzeniach elektrycznych przeznaczonych do obrotu i sprzedaży w Unii Europejskiej.

A. Znak 4
Ilustracja do odpowiedzi A
B. Znak 2
Ilustracja do odpowiedzi B
C. Znak 1
Ilustracja do odpowiedzi C
D. Znak 3
Ilustracja do odpowiedzi D
Wybierając inne oznaczenia niż znak CE w kontekście urządzeń elektrycznych sprzedawanych na terenie Unii Europejskiej, można łatwo wpaść w pułapkę myślenia, że każde znane logo czy certyfikat świadczy o zgodności z europejskimi standardami. Niestety, nie tak to działa. Znak B czy inne typowe certyfikaty krajowe mogą oznaczać zgodność z normami danego państwa, jak np. dawny polski znak bezpieczeństwa B, ale nie są one wymagane ani rozpoznawane na poziomie całej UE. To są raczej relikty systemów krajowych lub certyfikaty dobrowolne, które dziś mają znaczenie głównie historyczne lub lokalne. Z kolei znak TCO Certified odnosi się do ekologii i ergonomii, głównie w kontekście monitorów i sprzętu komputerowego, a jego obecność świadczy o dodatkowych zaletach produktu, ale nie jest podstawą dopuszczenia do obrotu na rynku UE. Typowym błędem jest też mylenie różnych oznaczeń jakości, bezpieczeństwa czy ekologii z wymaganiami formalnymi prawa europejskiego. W rzeczywistości tylko znak CE daje możliwość legalnej sprzedaży urządzenia elektrycznego w krajach UE i jest wymagany przez dyrektywy Nowego Podejścia. To trochę jak z dowodem osobistym – różne uprawnienia czy zaświadczenia są fajne, ale bez dowodu nie załatwisz spraw w urzędzie. Z mojego doświadczenia wynika, że producenci często chcą się wyróżnić dodatkowymi certyfikatami, ale dla organów nadzoru liczy się przede wszystkim obecność CE, za którą idzie cała procedura oceny zgodności, deklaracja zgodności oraz dostępna dokumentacja techniczna. Sugerowanie, że inne znaki mogą być obowiązkowe w ramach prawa UE, to spore uproszczenie i raczej niepotrzebne zamieszanie.

Pytanie 21

Wskaż właściwą formę maski podsieci?

A. 0.0.0.0
B. 255.255.255.255
C. 255.255.0.128
D. 255.252.252.255
Masy podsieci są kluczowym elementem architektury sieci komputerowych, a zrozumienie ich znaczenia jest niezbędne dla każdego specjalisty IT. Odpowiedzi takie jak 0.0.0.0, 255.252.252.255 oraz 255.255.0.128 nie są poprawnymi maskami podsieci. Maska 0.0.0.0 jest używana głównie do oznaczenia braku dostępnych adresów, co czyni ją nieprzydatną w kontekście klasycznych masek podsieci. Z kolei 255.252.252.255, pomimo że wydaje się być maską użyteczną, nie jest standardowo uznaną maską podsieci, ponieważ nie spełnia kryteriów dla podsieci, które wymagają, aby liczba bitów ustawionych na 1 była ciągła od lewej strony maski. 255.255.0.128 również jest błędna, ponieważ prowadzi do podziału w sieci, który nie jest zgodny z praktykami przydzielania adresów IP. W konwencji CIDR (Classless Inter-Domain Routing), maski podsieci powinny mieć formę zdefiniowanych długości prefiksów, co sprawia, że odpowiedzi te są źle zinterpretowane jako maski podsieci. Typowe błędy myślowe, które mogą prowadzić do tych niepoprawnych odpowiedzi, obejmują brak znajomości zasad działania masek podsieci oraz zrozumienia, jak działają adresy IP w kontekście komunikacji w sieci. W związku z tym, kluczowe jest, aby każdy, kto pracuje z sieciami, zrozumiał różne typy masek, ich zastosowania oraz znaczenie poprawnej konfiguracji dla zapewnienia efektywności i bezpieczeństwa sieci.

Pytanie 22

Jakie urządzenie ma za zadanie utrwalenie tonera na papierze w trakcie drukowania z drukarki laserowej?

A. bęben światłoczuły
B. listwa czyszcząca
C. elektroda ładująca
D. wałek grzewczy
W kontekście analizy procesu druku laserowego, ważne jest zrozumienie roli poszczególnych elementów drukarki. Bęben światłoczuły jest odpowiedzialny za generowanie obrazu poprzez naświetlanie i przyciąganie tonera, ale nie ma on zastosowania w samym procesie utrwalania, co czyni go niewłaściwym wyborem. Z kolei elektroda ładująca występuje na początku cyklu druku, gdzie jej zadaniem jest naładowanie bębna elektrycznie, aby toner mógł się do niego przylepić. Listwa czyszcząca, choć istotna dla usuwania nadmiaru tonera z bębna po zakończeniu druku, nie jest elementem służącym do utrwalania obrazu na papierze. Użytkownicy często mylą te komponenty, nie zdając sobie sprawy, że utrwalenie tonera jest krytycznym etapem koniecznym do osiągnięcia wysokiej jakości wydruków. Takie nieprawidłowe myślenie może prowadzić do błędnych wniosków o procesie druku i jego efektywności, co w konsekwencji wpływa na jakość finalnych produktów. Zrozumienie funkcji każdego z tych elementów pomaga w optymalizacji procesu druku i osiągnięciu lepszych wyników w codziennej pracy z drukarkami laserowymi.

Pytanie 23

Aby aktywować funkcję S.M.A.R.T. dysku twardego, która odpowiada za monitorowanie i wczesne ostrzeganie przed awariami, należy skorzystać z

A. rejestru systemowego
B. BIOS-u płyty głównej
C. opcji polecenia chkdsk
D. ustawień panelu sterowania
Odpowiedź 'BIOS płyty głównej' jest poprawna, ponieważ funkcja S.M.A.R.T. (Self-Monitoring, Analysis, and Reporting Technology) jest zintegrowanym systemem monitorowania, który pozwala na wczesne wykrywanie problemów z dyskiem twardym. Aktywacja tej funkcji odbywa się na poziomie BIOS-u, ponieważ to tam można skonfigurować ustawienia urządzeń pamięci masowej. W BIOS-ie użytkownicy mogą włączyć lub wyłączyć funkcje monitorowania, co jest kluczowe dla ochrony danych. Przykładem zastosowania może być sytuacja, w której administrator systemu włącza S.M.A.R.T. w BIOS-ie serwera, aby monitorować stan dysków twardych, co pozwala na podjęcie działań zapobiegawczych przed utratą danych. Dobre praktyki wskazują, że regularna kontrola stanu dysków twardych oraz odpowiednia konfiguracja S.M.A.R.T. to podstawowe działania zapewniające niezawodność systemów informatycznych. Oprócz tego, znajomość i umiejętność korzystania z funkcji S.M.A.R.T. mogą pomóc w analizie wyników testów diagnostycznych, co jest istotne dla utrzymania zdrowia sprzętu.

Pytanie 24

Które z zaleceń jest nieodpowiednie dla konserwacji skanera płaskiego?

A. Sprawdzać, czy na powierzchni tacy dokumentów zebrał się kurz.
B. Używać do czyszczenia szyby acetonu lub alkoholu etylowego wylewając bezpośrednio na szybę.
C. Uważać, aby podczas prac nie rozlać płynu na mechanizm skanera oraz na elementy elektroniczne.
D. Uważać, aby podczas prac nie zarysować szklanej powierzchni tacy dokumentów.
Wybrałeś odpowiedź, która rzeczywiście jest nieodpowiednia dla konserwacji skanera płaskiego. Stosowanie acetonu lub alkoholu etylowego, a szczególnie wylewanie tych substancji bezpośrednio na szybę skanera, to bardzo ryzykowna praktyka. Moim zdaniem to jeden z najczęstszych błędów, które widuję u osób początkujących w tej branży – wydaje im się, że im silniejszy środek, tym lepiej. Tymczasem aceton może uszkodzić delikatne powłoki ochronne na szkle, powodować matowienie czy nawet odbarwienia. Alkohol etylowy, zwłaszcza w dużych ilościach, może natomiast dostać się do wewnątrz urządzenia i uszkodzić elektronikę albo mechanikę. Branżowe instrukcje i normy serwisowe wręcz zabraniają zalewania szyby dowolnym płynem – profesjonalnie używa się specjalnych, antystatycznych ściereczek lekko zwilżonych odpowiednim preparatem. Ja zawsze polecam zwracać uwagę na instrukcję producenta, bo niektóre skanery mają wyjątkowo czułe powierzchnie. W praktyce sprawdza się po prostu lekko wilgotna szmatka z mikrofibry i delikatny środek do szyb, bez rozpuszczalników. Nawet jak się bardzo śpieszy, to lepiej dwa razy przetrzeć, niż raz zalać. Z mojego doświadczenia wynika, że regularne delikatne czyszczenie daje najlepsze efekty, a gwałtowna chemia tylko szkodzi.

Pytanie 25

Która z macierzy RAID opiera się na replikacji dwóch lub więcej dysków twardych?

A. RAID 1
B. RAID 5
C. RAID 3
D. RAID 0
RAID 0, RAID 3 i RAID 5 to różne konfiguracje macierzy, które nie zapewniają replikacji danych w sposób, w jaki robi to RAID 1. RAID 0 jest skoncentrowany na zwiększeniu wydajności poprzez rozdzielenie danych pomiędzy co najmniej dwa dyski, co w efekcie prowadzi do braku redundancji. Oznacza to, że w przypadku uszkodzenia jednego z dysków, wszystkie dane zostaną utracone. Z kolei RAID 3 wykorzystuje dysk parzystości, co oznacza, że dane są dzielone, a dodatkowy dysk przechowuje informacje o parzystości, co poprawia bezpieczeństwo tylko w pewnym zakresie. Jednakże nie jest to rozwiązanie oparte na pełnej replikacji. RAID 5, podobnie jak RAID 3, wykorzystuje parzystość, lecz rozkłada ją na wszystkie dyski, co z kolei zwiększa wydajność odczytu, ale nie zapewnia pełnej kopii danych. Powoduje to, że w przypadku awarii jednego dysku system może kontynuować działanie, ale nie ma pełnej replikacji, jak w RAID 1. Typowym błędem w rozumieniu tych systemów jest mylenie zwiększonej wydajności z bezpieczeństwem, co może prowadzić do poważnych konsekwencji w przypadku awarii sprzętowej.

Pytanie 26

Jakie będą łączne wydatki na wymianę karty graficznej w komputerze, jeżeli nowa karta kosztuje 250 zł, czas wymiany wynosi 80 minut, a każda rozpoczęta robocza godzina to koszt 50 zł?

A. 250 zł
B. 300 zł
C. 400 zł
D. 350 zł
Niepoprawne odpowiedzi wynikają z niepełnego zrozumienia zasad obliczania kosztów wymiany sprzętu komputerowego. W przypadku, gdy ktoś wskazuje na koszt samej karty graficznej, 250 zł, ignoruje istotny element, jakim jest koszt pracy, co prowadzi do mylnego wniosku, że wymiana jest jedynie kosztowna w aspekcie zakupu części. Z kolei podawanie kwoty 300 zł nie uwzględnia pełnego czasu pracy serwisanta; co więcej, opiera się na niewłaściwym rozrachunku godzinowym. Wiele osób może pomylić czas trwania usługi z wymiarem kosztów, co jest częstym błędem myślowym w branży. Ostatecznie, koszt 400 zł również jest błędny, ponieważ nie odzwierciedla rzeczywistego kosztu pracy i części zamiennych, a może wynikać z nadmiernego szacowania czasu lub kosztów. Aby prawidłowo podejść do kalkulacji kosztów serwisowych, należy zawsze uwzględniać zarówno koszt części, jak i robocizny, co jest zgodne z najlepszymi praktykami w obliczeniach finansowych w branży technologii informacyjnej.

Pytanie 27

Klient przyniósł do serwisu uszkodzony sprzęt komputerowy. W trakcie procedury odbioru sprzętu, przed rozpoczęciem jego naprawy, serwisant powinien

A. przygotować rewers serwisowy i opieczętowany przedłożyć do podpisania
B. przeprowadzić ogólną inspekcję sprzętu oraz zrealizować wywiad z klientem
C. zrealizować testy powykonawcze sprzętu
D. sporządzić rachunek za naprawę w dwóch kopiach
Wykonanie przeglądu ogólnego sprzętu oraz przeprowadzenie wywiadu z klientem to kluczowy krok w procesie przyjęcia sprzętu do serwisu. Przegląd ogólny pozwala na szybkie zidentyfikowanie widocznych uszkodzeń oraz problemów, które mogą nie być od razu oczywiste. Na przykład, serwisant może zauważyć uszkodzenie wtyczek, pęknięcia w obudowie czy inne anomalie, które mogą wpływać na działanie urządzenia. Przeprowadzenie wywiadu z klientem jest równie istotne, ponieważ pozwala na zebranie informacji o objawach problemu, historii użytkowania sprzętu oraz ewentualnych wcześniejszych naprawach. Dobrą praktyką jest zadawanie pytań otwartych, które skłonią klienta do szczegółowego opisania problemu. Obie te czynności są zgodne z zasadami dobrego zarządzania serwisem i zwiększają efektywność procesu naprawy, co w efekcie prowadzi do wyższej satysfakcji klienta oraz lepszej jakości usług serwisowych.

Pytanie 28

Do wykonania końcówek kabla UTP wykorzystuje się wtyczkę

A. BNC
B. DVI
C. RS232
D. 8P8C
Wtyki DVI, BNC i RS232 nie są odpowiednie do kończenia kabli UTP, ponieważ służą do zupełnie innych zastosowań w dziedzinie technologii komunikacyjnej. Wtyk DVI (Digital Visual Interface) jest przeznaczony do przesyłania sygnałów wideo i nie jest kompatybilny z kablami UTP, które są wykorzystywane głównie do transmisji danych. Jego konstrukcja i protokoły są dostosowane do połączeń między komputerami a monitorami, co czyni go nieodpowiednim w kontekście sieci komputerowych. Wtyk BNC (Bayonet Neill-Concelman) jest używany głównie w systemach telewizyjnych i kamerach CCTV, które wymagają sygnału wideo. Jego zastosowanie w kablach UTP jest niemożliwe, ponieważ nie obsługuje on danych cyfrowych w sposób, który jest wymagany w komunikacji sieciowej. RS232 to standard komunikacji szeregowej, który służy do przesyłania danych między urządzeniami, ale również nie jest związany z okablowaniem UTP. Często mylone jest z danymi przesyłanymi w sieciach Ethernet, przez co użytkownicy mogą sądzić, że można je wykorzystać w podobny sposób. Wniosek jest jasny: tylko wtyk 8P8C jest właściwy do wykorzystania w kablach UTP, ponieważ spełnia wymagania techniczne sieci lokalnych, podczas gdy pozostałe wtyki są przeznaczone do odrębnych zastosowań, co często prowadzi do błędnych założeń i nieefektywnych rozwiązań w infrastrukturze sieciowej.

Pytanie 29

Do akumulatora w jednostce ALU wprowadzono liczbę dziesiętną 253. Jak wygląda jej reprezentacja binarna?

A. 11111001
B. 11111101
C. 11111011
D. 11110111
Liczba dziesiętna 253 w systemie binarnym jest reprezentowana jako 11111101. Aby uzyskać tę reprezentację, należy wykonać konwersję liczby dziesiętnej na binarną. Proces ten polega na dzieleniu liczby przez 2 i zapisywaniu reszt z tych dzielenia. Gdy 253 dzielimy przez 2, otrzymujemy 126 z resztą 1. Następnie dzielimy 126 przez 2, co daje 63 z resztą 0, i kontynuujemy ten proces, aż dotrzemy do zera. Zbierając reszty w odwrotnej kolejności, otrzymujemy 11111101. Takie konwersje są kluczowe w informatyce, szczególnie w kontekście programowania niskopoziomowego oraz w systemach wbudowanych, gdzie operacje na liczbach binarnych są powszechne i niezbędne do implementacji algorytmów. Warto również zaznaczyć, że każda liczba całkowita w systemie komputerowym jest ostatecznie reprezentowana w postaci binarnej, co czyni tę umiejętność fundamentalną dla każdego programisty.

Pytanie 30

Na płycie głównej wyposażonej w gniazdo przedstawione na zdjęciu można zainstalować procesor

Ilustracja do pytania
A. Intel Xeon E3-1240V5, 3.9GHz, s-1151
B. AMD FX-6300, s-AM3+, 3.5GHz, 14MB
C. AMD Sempron 2800+, 1600 MHz, s-754
D. Intel i9-7940X, s-2066 3.10GHz 19.25MB
Analizując możliwe odpowiedzi, łatwo zauważyć, że tylko jeden z wymienionych procesorów faktycznie pasuje do gniazda AM3+, które widać na zdjęciu. Wybór procesora Intel i9-7940X czy Intel Xeon E3-1240V5 to klasyczny błąd polegający na nieuwzględnieniu różnic pomiędzy standardami gniazd stosowanymi przez Intela i AMD. Gniazda LGA (np. s-2066 albo s-1151) nie są kompatybilne z procesorami AMD i odwrotnie, bo zarówno rozkład pinów, jak i mechanizm montażowy zupełnie się różnią. Te dwa procesory Intela wymagają zupełnie innych płyt głównych, opartych na dedykowanych chipsetach i specyficznych dla Intela standardach. Również wybór AMD Sempron 2800+ jest nietrafiony – mimo że to procesor AMD, to jego socket (s-754) znacząco różni się od AM3+. W praktyce często widzę, że mylone są różne generacje i typy socketów AMD przez wzgląd na pewne podobieństwo nazewnictwa (AM2, AM2+, AM3, AM3+), ale między nimi są istotne różnice, np. w liczbie i układzie pinów oraz wsparciu dla różnych typów pamięci RAM. Warto pamiętać, żeby przy doborze CPU do płyty głównej zawsze dokładnie sprawdzać nie tylko fizyczną zgodność socketu, lecz także wersję BIOS-u i listę wspieranych modeli. Takie błędy wynikają najczęściej z pośpiechu lub nieuwagi, ale w branży IT precyzja jest podstawą. Porównując praktycznie, zamontowanie niekompatybilnego procesora zwykle kończy się brakiem reakcji płyty przy starcie lub, w najgorszym razie, uszkodzeniem pinów bądź samego CPU – i to już nie są tanie pomyłki. Dlatego zawsze warto korzystać z oficjalnych list kompatybilności udostępnianych przez producentów płyt głównych.

Pytanie 31

Grafik komputerowy sygnalizuje bardzo wolną pracę komputera. Z ilustracji przedstawiającej okno wydajności komputera wynika, że przyczyną tego może być

Ilustracja do pytania
A. niska wydajność procesora graficznego.
B. zbyt mała ilości pamięci RAM.
C. wolne łącze internetowe.
D. wolna praca dysku twardego.
Tutaj kluczowa jest obserwacja z okna „Wydajność” w Menedżerze zadań: pamięć RAM jest zajęta w 97%. To bardzo wyraźny sygnał, że komputer po prostu „dusi się” z powodu zbyt małej ilości dostępnej pamięci operacyjnej. System nie ma gdzie trzymać danych potrzebnych programom (tu: aplikacjom graficznym), więc zaczyna intensywnie korzystać z pliku stronicowania na dysku. A dostęp do dysku – nawet SSD – jest o rząd wielkości wolniejszy niż dostęp do RAM. Efekt użytkownik widzi jako przycinki, lagi przy przełączaniu okien, wolne renderowanie podglądu, opóźnienia przy zapisywaniu dużych projektów. Z mojego doświadczenia, przy pracy grafika komputerowego RAM jest często ważniejszy niż sam procesor graficzny, szczególnie przy wielu otwartych aplikacjach: Photoshop, Illustrator, przeglądarka z kilkoma kartami, komunikator, czasem jeszcze wirtualna maszyna. Standardem branżowym jest dziś co najmniej 16 GB RAM do wygodnej pracy z grafiką 2D, a przy dużych plikach, wysokich rozdzielczościach, plikach PSD z wieloma warstwami – nawet 32 GB lub więcej. Dobre praktyki mówią też, żeby podczas diagnozowania wydajności patrzeć nie tylko na chwilowe obciążenie CPU czy GPU, ale właśnie na procent zajętości pamięci i ilość pamięci „zarezerwowanej” przez system. Gdy widzisz wartości rzędu 90–100%, pierwszym krokiem jest zamknięcie zbędnych aplikacji, a długofalowo – rozbudowa RAM. Na screenie widać, że CPU jest obciążony umiarkowanie, GPU praktycznie się nudzi, dysk SSD pracuje, ale nie jest „przyklejony” do 100%. Natomiast pamięć RAM jest praktycznie pełna. To klasyczny przypadek, gdy ograniczeniem jest właśnie jej ilość. W praktyce, po dołożeniu pamięci komputer nagle „odżywa”, programy graficzne przestają się zacinać, a przełączanie między projektami staje się płynne – i to bez żadnych innych zmian sprzętowych.

Pytanie 32

Jakie urządzenie wskazujące działa na podstawie zmian pojemności elektrycznej?

A. joystick
B. wskaźnik
C. touchpad
D. trackpoint
Touchpad to taki fajny wynalazek, który działa na zasadzie wykrywania zmian w pojemności elektrycznej. Kiedy dotykasz jego powierzchni, to w zasadzie dzięki temu pomiarowi można precyzyjnie określić, gdzie go dotykasz. To świetne rozwiązanie, zwłaszcza w laptopach i tabletach, gdzie miejsca na tradycyjne urządzenia wskazujące jest mało. Możesz zobaczyć touchpady w różnych sprzętach, gdzie służą np. do sterowania grafiką czy po prostu do przeglądania systemu. W branży komputerowej touchpady stały się standardem, bo są wygodne i proste w użyciu. Co więcej, nowoczesne touchpady często obsługują gesty, co zwiększa ich funkcjonalność. Z mojego doświadczenia, warto znać te różnice, bo pomaga to w lepszym korzystaniu z urządzeń.

Pytanie 33

Wyjście audio dla słuchawek lub głośników minijack na karcie dźwiękowej oznaczone jest jakim kolorem?

A. niebieski
B. różowy
C. żółty
D. zielony
Wyjście słuchawek lub głośników minijack na karcie dźwiękowej oznaczone jest kolorem zielonym, co jest zgodne z międzynarodowym standardem audio. Kolor ten wskazuje na wyjście audio, które jest przeznaczone do podłączenia słuchawek lub głośników. Praktycznie oznacza to, że podłączając urządzenie audio do złącza oznaczonego na zielono, otrzymujemy dźwięk stereo, co jest kluczowe dla użytkowników, którzy korzystają z multimediów, takich jak filmy, gry czy muzyka. Ważne jest, aby użytkownicy pamiętali o tym oznaczeniu, ponieważ niewłaściwe podłączenie do innych złączy (jak np. różowe, które jest przeznaczone na mikrofon) może prowadzić do braku dźwięku lub niepoprawnego działania sprzętu audio. Dobrą praktyką jest również zwracanie uwagi na symbolikę kolorów w różnych systemach, aby prawidłowo konfigurować urządzenia audio w różnych środowiskach, takich jak komputery stacjonarne, laptopy czy konsole do gier.

Pytanie 34

Który z elementów szafy krosowniczej został pokazany na ilustracji?

Ilustracja do pytania
A. Panel krosowy 1U
B. Maskownica 1U
C. Wieszak do kabli 2U
D. Przepust kablowy 2U
Wybór maskownicy 1U jako odpowiedzi może wynikać z mylnego rozpoznania elementów konstrukcyjnych szafy krosowniczej. Maskownica 1U pełni rolę estetyczną i mechanicznego zabezpieczenia, kryjąc nieużywane przestrzenie i chroniąc wnętrze szafy przed kurzem i uszkodzeniami mechanicznymi. Nie posiada jednak funkcji zarządzania okablowaniem ani portów sieciowych, co wyraźnie odróżnia ją od panelu krosowego. Z kolei wieszak do kabli 2U jest elementem, który służy do organizacji kabli wewnątrz szafy, ale jego głównym zadaniem jest podtrzymywanie i prowadzenie kabli, a nie ich krosowanie. Wybór przepustu kablowego 2U mógł być spowodowany jego fizyczną obecnością w szafie krosowniczej, lecz jego funkcja ogranicza się do umożliwienia przeprowadzania kabli między różnymi sekcjami szafy. W żadnym z tych przypadków nie mamy do czynienia z elementem, który pełniłby funkcję krosowania czy zarządzania portami sieciowymi. Zrozumienie różnic funkcjonalnych pomiędzy tymi komponentami jest kluczowe w efektywnym projektowaniu i zarządzaniu infrastrukturą sieciową w nowoczesnych instalacjach IT. Właściwy wybór i zastosowanie każdego z tych elementów jest kluczowe dla zapewnienia spójności i wydajności sieci. Pomaga to nie tylko w organizacji okablowania, ale także w zapewnieniu łatwego dostępu do sprzętu w celu konserwacji i rozbudowy systemu sieciowego.

Pytanie 35

Na zdjęciu ukazano złącze zasilające

Ilustracja do pytania
A. dysków wewnętrznych SATA
B. ATX12V zasilania procesora
C. Molex do dysków twardych
D. stacji dyskietek
Złącze ATX12V jest kluczowym elementem w zasilaniu nowoczesnych komputerów PC szczególnie odpowiadając za dostarczenie stabilnej mocy do procesora. Standard ATX12V został wprowadzony przez firmę Intel w celu zapewnienia większej wydajności energetycznej oraz obsługi nowoczesnych procesorów które wymagają większej mocy niż mogłyby dostarczyć starsze złącza. Złącze to zwykle posiada 4 lub 8 pinów i jest bezpośrednio podłączane do płyty głównej w okolicach gniazda procesora zapewniając dostarczenie napięcia 12V. Jego charakterystyczna budowa z wyraźnie oddzielonymi stykami pozwala na łatwe rozpoznanie i prawidłowe podłączenie zapobiegając błędnym instalacjom które mogłyby prowadzić do niestabilności systemu. Złącze ATX12V jest standardem branżowym wspieranym przez większość nowoczesnych płyt głównych i zasilaczy co czyni go niezbędnym elementem w procesie budowy i konfiguracji systemu komputerowego. Zrozumienie jego funkcji i poprawnego zastosowania jest istotne dla każdego profesjonalisty zajmującego się montażem i serwisem komputerów.

Pytanie 36

Rysunek obrazuje zasadę działania drukarki

Ilustracja do pytania
A. igłowej.
B. atramentowej.
C. sublimacyjnej.
D. laserowej.
Rysunek ten przedstawia głowicę drukującą, w której kluczowym elementem jest podgrzewanie niewielkiej ilości atramentu, prowadzące do powstania pęcherzyka i wyrzutu kropli na papier. Błąd w interpretacji może wynikać z mylenia różnych technologii drukowania, które opierają się na zupełnie innych zasadach fizycznych. Drukarka sublimacyjna wykorzystuje proces zmiany stanu skupienia barwnika (z ciała stałego w gaz) bez przechodzenia przez fazę ciekłą, co jest typowe np. w drukarkach do zdjęć czy profesjonalnych wydrukach fotograficznych, ale tam nie ma żadnych mikroskopijnych grzałek zanurzonych bezpośrednio w płynie. Z kolei drukarka laserowa bazuje na elektrostatycznym przyciąganiu tonera do naładowanego światłem bębna światłoczułego, a następnie utrwaleniu go na papierze za pomocą wysokiej temperatury, lecz zupełnie nie występuje tutaj zjawisko tworzenia pęcherzyka w cieczy. Igłowa natomiast, działa na zasadzie uderzania stalowymi igłami o taśmę barwiącą, co generuje znaki na papierze – to mechanizm czysto mechaniczny, zupełnie inny niż widoczny na rysunku. Bardzo często popełnianym błędem jest utożsamianie wszystkich drukarek z obecnością tuszu lub barwnika, bez uwzględnienia sposobu ich transportu na papier. W tym przypadku decydujące znaczenie ma właśnie podgrzewanie atramentu, tworzenie pęcherzyka i dynamiczne wypychanie kropli, co jest unikalne dla drukarek atramentowych typu thermal inkjet. Rozpoznanie tych różnic jest kluczowe nie tylko na egzaminie, ale i podczas wyboru sprzętu do konkretnego zastosowania.

Pytanie 37

Diagnozowanie uszkodzonych komponentów komputera przez sprawdzenie stanu wyjściowego układu cyfrowego umożliwia

A. impulsator.
B. sonometr.
C. kalibrator.
D. sonda logiczna.
W świecie serwisu komputerowego i elektroniki bardzo łatwo pomylić narzędzia o zbliżonych nazwach albo podobnym sposobie użycia, ale zupełnie innej funkcji. Sonometr jest narzędziem do pomiaru natężenia dźwięku, wykorzystywany raczej przez akustyków czy inżynierów od środowiska, a nie przez elektroników naprawiających układy cyfrowe. Kalibrator natomiast służy do ustawiania, weryfikacji i regulacji dokładności urządzeń pomiarowych, na przykład multimetrów czy przetworników, ale nie pozwala diagnozować stanu linii logicznych ani wyjść układów cyfrowych. Impulsator, choć brzmi nieco komputerowo, to narzędzie generujące impulsy elektryczne o określonych parametrach – faktycznie czasem bywa przydatny do testowania reakcji układów cyfrowych na sygnały wejściowe, ale sam z siebie nie umożliwia bezpośredniego sprawdzenia, jaki jest stan logiczny na wyjściu układu. W praktyce, typowym błędem jest myślenie, że każdy sprzęt generujący sygnały wystarczy do diagnozy – a to tak nie działa. Sonda logiczna jest wyjątkowa, bo nie ingeruje w badany układ, tylko „podgląda” i daje jednoznaczną informację o stanie logicznym (0, 1, czasem stan nieustalony). To właśnie ta zdolność pasywnej obserwacji odróżnia ją od innych narzędzi. Moim zdaniem, wiele nieporozumień bierze się z nieprecyzyjnego rozumienia nazw – impulsator i sonda logiczna to zupełnie inne instrumenty, choć oba pojawiają się w laboratoriach elektroniki. Dla pełnej diagnozy układów cyfrowych nie wystarczy głośność dźwięku ani precyzja kalibracji urządzeń, tylko możliwość śledzenia sygnałów logicznych w czasie rzeczywistym. Takie możliwości daje wyłącznie sonda logiczna.

Pytanie 38

Oblicz całkowity koszt za realizację poniższych czynności serwisowych, przy założeniu, że stawka za jedną roboczogodzinę wynosi 120,00 zł netto, a podatek VAT wynosi 23%.

LPZrealizowane czynności serwisoweIlość roboczogodzin
1.Diagnozowanie usterki0,2
2.Wymiana zasilacza0,5
3.Przygotowanie drukarki do eksploatacji0,6
4.Konserwacja urządzenia drukującego1,0
5.Sprawdzanie po zakończeniu naprawy0,2
A. 369,00 zł
B. 231,00 zł
C. 300,00 zł
D. 480,00 zł
Jedną z najczęstszych pomyłek podczas obliczania kosztów serwisowych jest pomijanie różnych elementów składających się na całkowity koszt. Często zdarza się, że osoby przystępujące do obliczeń koncentrują się jedynie na stawce roboczogodziny, nie uwzględniając pełnej liczby roboczogodzin. Przykładowo, w sytuacji, gdy błędnie zsumuje się roboczogodziny, można dojść do nieprawidłowych wyników, takich jak 300,00 zł czy 480,00 zł, które pomijają rzeczywisty koszt pracy. Ponadto, niektórzy mogą nie zdawać sobie sprawy, że do kosztu netto należy doliczyć podatek VAT, co również prowadzi do błędnych obliczeń. Użytkownicy mogą mylnie przyjmować, iż koszt brutto jest równy kosztowi netto, co jest fundamentalnym błędem w finansach. Zrozumienie mechanizmu naliczania VAT oraz poprawne zsumowanie roboczogodzin to kluczowe umiejętności, które są istotne w kontekście zarządzania budżetem i kosztami serwisowymi. Wobec tego, ignorowanie tych elementów może prowadzić do poważnych błędów finansowych, które w rezultacie mogą negatywnie wpłynąć na wyniki przedsiębiorstwa oraz jego relacje z klientami. Dlatego zawsze należy podchodzić do takich obliczeń z należytą starannością oraz litością dla szczegółów.

Pytanie 39

Jakie urządzenie aktywne pozwoli na podłączenie do sieci lokalnej za pomocą kabla UTP 15 komputerów, drukarki sieciowej oraz rutera?

A. Panel krosowniczy 16-portowy
B. Switch 24-portowy
C. Panel krosowniczy 24-portowy
D. Switch 16-portowy
Panel krosowniczy, zarówno w wersji 16-portowej, jak i 24-portowej, nie jest urządzeniem aktywnym, lecz pasywnym. Jego główną funkcją jest organizowanie i zarządzanie kablami sieciowymi, a nie aktywne przetwarzanie lub przesyłanie danych. Panele krosownicze służą jako punkt centralny, gdzie kabel UTP z różnych urządzeń jest podłączany do odpowiednich portów, ale same w sobie nie umożliwiają bezpośredniego połączenia urządzeń w sieci. Kiedy mówimy o połączeniu 15 komputerów, drukarki oraz rutera, niezbędne jest użycie przełącznika, który dysponuje portami do aktywnego przesyłania danych. Typowe błędy myślowe prowadzące do wyboru panelu krosowniczego zamiast przełącznika mogą wynikać z mylenia rol i funkcji tych urządzeń; panel krosowniczy można porównać do skrzynki, w której organizujemy kable, podczas gdy przełącznik to urządzenie, które zarządza ruchem danych w sieci. W przypadku rozbudowy sieci, kluczowe jest zrozumienie, że przełączniki są nieodłącznym elementem architektury sieci, umożliwiającym aktywne łączenie i segmentację ruchu, co jest nieosiągalne dla pasywnych urządzeń takich jak panele krosownicze.

Pytanie 40

Aby połączyć dwa przełączniki oddalone o 200 m i osiągnąć minimalną przepustowość 200 Mbit/s, jakie rozwiązanie należy zastosować?

A. kabel koncentryczny 50 Ω
B. światłowód
C. skrętkę STP
D. skrętkę UTP
Skrętka UTP, STP i kabel koncentryczny 50 Ω mają sporo ograniczeń, przez co nie nadają się do łączenia dwóch przełączników na 200 m przy wymaganiu 200 Mbit/s. Skrętka UTP jest popularna w sieciach, ale jej maksymalny zasięg to 100 m. Kiedy wyjdzie się poza ten limit, jakość sygnału się pogarsza, co może prowadzić do utraty danych i opóźnień. Skrętka STP, która trochę lepiej znosi zakłócenia, też nie da rady, bo ma podobne ograniczenia. Użycie tych kabli w takiej sytuacji na pewno spowoduje problemy z niezawodnością połączenia. A kabel koncentryczny 50 Ω to już trochę staroć. Używa się go głównie w telekomunikacji, a w nowoczesnych sieciach LAN nie sprawdzi się, bo potrzebujemy dużo większych prędkości. Wybierając złe medium do transmisji, można się naprawdę zdenerwować i ponieść dodatkowe koszty związane z utrzymaniem sieci. Ważne jest, żeby zrozumieć, że obecne aplikacje potrzebują nie tylko odpowiedniej przepustowości, ale także stabilności i jakości połączenia, a to najlepiej zapewnia światłowód.