Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 3 maja 2026 09:53
  • Data zakończenia: 3 maja 2026 10:06

Egzamin zdany!

Wynik: 26/40 punktów (65,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W systemie SI jednostką do mierzenia napięcia jest

A. wat
B. wolt
C. amper
D. herc
Wolt (V) jest jednostką miary napięcia w układzie SI, która mierzy różnicę potencjałów elektrycznych między dwoma punktami. Został zdefiniowany na podstawie pracy wykonywanej przez jednostkę ładunku elektrycznego, gdy przechodzi przez element obwodu. Na przykład, gdy napięcie wynosi 5 woltów, oznacza to, że pomiędzy dwoma punktami jest ustalona różnica potencjału, która pozwala na przepływ prądu. W praktyce, wolt jest kluczowym parametrem w elektrotechnice i elektronice, wpływając na projektowanie urządzeń elektrycznych, takich jak zasilacze, akumulatory, a także w systemach telekomunikacyjnych. Dobrą praktyką jest mierzenie napięcia w obwodach za pomocą multimetru, co pozwala na monitorowanie i diagnostykę układów elektronicznych. Przykłady zastosowania napięcia to różne urządzenia domowe, takie jak żarówki, które działają na napięciu 230 V, czy systemy fotowoltaiczne, w których napięcie generowane przez ogniwa słoneczne ma kluczowe znaczenie dla efektywności zbierania energii.

Pytanie 2

Zewnętrzny dysk 3,5 cala o pojemności 5 TB, przeznaczony do archiwizacji lub tworzenia kopii zapasowych, dysponuje obudową z czterema różnymi interfejsami komunikacyjnymi. Który z tych interfejsów powinno się użyć do podłączenia do komputera, aby uzyskać najwyższą prędkość transferu?

A. WiFi 802.11n
B. USB 3.1 gen 2
C. FireWire80
D. eSATA 6G
USB 3.1 gen 2 to najnowszy standard z rodziny USB, oferujący prędkości transmisji danych do 10 Gbps, co czyni go najszybszym dostępnym interfejsem w porównaniu z innymi wymienionymi opcjami. W praktyce oznacza to, że przy użyciu USB 3.1 gen 2 można szybko przesyłać duże pliki, co jest szczególnie przydatne przy tworzeniu kopii zapasowych dużych zbiorów danych, takich jak zdjęcia, filmy, czy projekty graficzne. Dodatkowo, USB 3.1 gen 2 jest wstecznie kompatybilne z wcześniejszymi wersjami USB, co pozwala na łatwe podłączenie do starszych urządzeń, choć z niższymi prędkościami. Standard ten jest szeroko stosowany w branży, co przekłada się na dostępność wielu urządzeń i akcesoriów z tym interfejsem. Warto również zwrócić uwagę na powszechne rekomendacje branżowe, które sugerują korzystanie z USB 3.1 gen 2 do wszelkich zastosowań wymagających wysokiej wydajności transferu danych.

Pytanie 3

Industry Standard Architecture to standard magistrali, który określa, że szerokość szyny danych wynosi:

A. 16 bitów
B. 32 bitów
C. 64 bitów
D. 128 bitów
Odpowiedź z 16 bitami jest jak najbardziej trafna. To właśnie Industry Standard Architecture (ISA) określa architekturę komputerów, w której szerokość magistrali danych wynosi 16 bitów. Ten standard wymyślił Intel w latach 80., co było mega ważne dla rozwoju komputerów osobistych. Dzięki temu można było lepiej przetwarzać dane. Architektura 16-bitowa pozwalała na przechowywanie większej ilości informacji w jednym cyklu, a to naprawdę zwiększało moc obliczeniową. Dobrym przykładem są komputery PC bazujące na procesorach Intel 8086 i 80286, które były w tamtych czasach bardzo popularne. W porównaniu do starszych, 8-bitowych mikroprocesorów, 16-bitowa architektura dawała radę z większą pamięcią i bardziej skomplikowanymi aplikacjami. No i w końcu, rozwój ISA doprowadził do tego, że powstały nowsze standardy jak EISA czy PCI, które jeszcze bardziej podkręciły możliwości komputerów.

Pytanie 4

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 32 GB.
B. 2 modułów, każdy po 8 GB.
C. 2 modułów, każdy po 16 GB.
D. 1 modułu 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 5

Do realizacji iloczynu logicznego z negacją należy użyć funktora

A. NOT
B. EX-OR
C. NAND
D. AND
Dobrze to ująłeś — funktor NAND rzeczywiście pozwala zrealizować iloczyn logiczny wraz z negacją w jednym układzie, co jest wręcz podstawą w projektowaniu cyfrowym. Moim zdaniem bramka NAND to taki trochę „kombajn” w logice cyfrowej, bo można na niej zbudować praktycznie dowolną inną funkcję logiczną, jeśli się trochę pokombinuje. Standardy przemysłowe, jak TTL czy CMOS, opierają całą masę struktur właśnie na bramkach NAND i NOR, bo są one proste do realizacji fizycznej i bardzo uniwersalne. W praktyce wiele podzespołów, np. rejestry, sumatory, a nawet przerzutniki, projektuje się, korzystając z układów tylko z bramek NAND, żeby uprościć produkcję i oszczędzić miejsce na płytce. Co ciekawe, wystarczy odpowiednio połączyć kilka NAND-ów i można uzyskać zarówno NOT, jak i AND, OR czy NOR — takie układy nazywamy uniwersalnymi. Z mojego doświadczenia wynika też, że osoby, które sprawnie używają NAND-a, szybciej ogarniają złożone schematy logiczne i łatwiej im optymalizować układy pod względem liczby elementów. W świecie elektroniki cyfrowej to naprawdę praktyka warta zapamiętania, bo przekłada się na niższe koszty, mniejsze zużycie energii i prostszy serwis. Tak w skrócie — wybór NAND-a jako realizatora iloczynu logicznego z negacją to nie tylko formalna poprawność, ale i praktyczny standard.

Pytanie 6

Karta sieciowa przedstawiona na ilustracji ma zdolność przesyłania danych z maksymalną prędkością

Ilustracja do pytania
A. 11 Mb/s
B. 300 Mb/s
C. 54 Mb/s
D. 108 Mb/s
Wybór nieprawidłowych odpowiedzi często wynika z mylnego zrozumienia standardów bezprzewodowych. Standard 802.11b oferuje prędkość maksymalną 11 Mb/s co odpowiada początkowym wersjom Wi-Fi wprowadzonym na rynek gdy technologia bezprzewodowa dopiero zaczynała zdobywać popularność. Był to przełomowy krok w rozwoju sieci bezprzewodowych ale obecnie jego prędkość jest niewystarczająca do nowoczesnych zastosowań multimedialnych czy biznesowych. Z kolei prędkość 108 Mb/s jest często kojarzona z technologiami typu Super G które wykorzystywały podwójne kanały w standardzie 802.11g co pozwalało na podwojenie przepustowości. Jednakże nie jest to standard IEEE i nie każdy sprzęt obsługuje takie funkcje co ogranicza kompatybilność i praktyczne zastosowanie. Natomiast 300 Mb/s to wartość charakterystyczna dla standardu 802.11n który wprowadził wiele ulepszeń takich jak MIMO co pozwoliło na znaczne zwiększenie przepustowości i zasięgu sieci bezprzewodowych. Wybór tej wartości jako maksymalnej prędkości dla karty sieciowej 802.11g wskazuje na brak zrozumienia różnic między tymi standardami i ich możliwościami. Dlatego kluczowe jest właściwe identyfikowanie technologii i ich ograniczeń co jest niezbędne podczas planowania i wdrażania infrastruktury sieciowej.

Pytanie 7

Klient dostarczył niesprawny sprzęt komputerowy do serwisu. Serwisant w trakcie procedury przyjęcia sprzętu, lecz przed przystąpieniem do jego naprawy, powinien

A. sporządzić rachunek naprawy w dwóch egzemplarzach.
B. wykonać przegląd ogólny sprzętu oraz przeprowadzić wywiad z klientem.
C. sporządzić rewers serwisowy i opieczętowany przedłożyć do podpisu.
D. wykonać testowanie powykonawcze sprzętu.
Wybrałeś najbardziej sensowną odpowiedź pod względem praktycznym i zgodną z tym, jak wygląda profesjonalna obsługa serwisowa w branży IT. Przegląd ogólny sprzętu oraz przeprowadzenie wywiadu z klientem to podstawa – zarówno jeśli chodzi o standardy ISO, jak i codzienną praktykę w serwisach. W końcu zanim cokolwiek zacznie się naprawiać, trzeba wiedzieć, co dokładnie nie działa, kiedy zaczęło się psuć, czy klient już coś próbował samemu naprawić, no i czy przypadkiem nie doszło do jakiegoś zalania czy upadku, o czym czasami wstyd nawet wspomnieć. Moim zdaniem bez dobrego wywiadu ani rusz – to właśnie tu często wychodzą na jaw szczegóły, których nie widać na pierwszy rzut oka. Ogólny przegląd sprzętu pozwala z kolei szybko zweryfikować, czy nie ma widocznych uszkodzeń mechanicznych, śladów przepięć, braku plomb gwarancyjnych czy brakujących elementów. Te dwie czynności razem są nie do przecenienia: minimalizują ryzyko pomyłek, a także zwiększają szanse na szybką diagnozę i skracają czas naprawy. Z mojego doświadczenia wynika, że klienci doceniają profesjonalne podejście i jasną komunikację – wiedzą, że ktoś naprawdę interesuje się ich problemem, a nie wrzuca komputer gdzieś do magazynu bez słowa. Takie podejście to również ochrona interesów serwisu: wyklucza ryzyko nieporozumień, np. oskarżeń o dodatkowe uszkodzenia. Warto przy okazji wspomnieć, że zgodnie z praktyką branżową, dokumentacja i ewentualny rewers są uzupełniane dopiero po tym wstępnym etapie. Wywiad i przegląd to po prostu podstawa w każdym profesjonalnym serwisie.

Pytanie 8

Czym jest układ RAMDAC?

A. stanowi wyjście końcowe karty graficznej
B. zawiera przetwornik analogowo-cyfrowy
C. jest specyficzny dla standardu ATA
D. jest typowy dla standardu S-ATA
Błędne odpowiedzi na to pytanie, takie jak związki RAMDAC z standardem S-ATA czy ATA, wskazują na nieporozumienia dotyczące funkcji i zastosowania różnych komponentów komputerowych. Standardy S-ATA oraz ATA odnoszą się do interfejsów komunikacyjnych używanych głównie do podłączania dysków twardych i innych urządzeń magazynujących, a nie do przetwarzania sygnałów graficznych. Różnica w tych technologiach opiera się na ich zastosowaniu; ATA (Advanced Technology Attachment) to starszy standard, który był szeroko stosowany, natomiast S-ATA (Serial ATA) to nowocześniejsza wersja, która oferuje wyższe prędkości transferu danych oraz prostsze połączenie. Zrozumienie, jak funkcjonują te interfejsy, jest kluczowe, jednak nie mają one nic wspólnego z wyjściem wideo, za które odpowiada RAMDAC. Dodatkowo, odpowiedzi sugerujące, że RAMDAC zawiera konwerter analogowo-cyfrowy, są mylące; w rzeczywistości RAMDAC wykonuje odwrotną funkcję, czyli konwersję sygnałów cyfrowych na analogowe. W konsekwencji, mylenie tych terminów może prowadzić do nieporozumień w dziedzinie technologii komputerowej i grafiki, dlatego kluczowe jest precyzyjne zrozumienie roli każdego z tych komponentów w systemie.

Pytanie 9

Jaką najwyższą liczbę urządzeń można przypisać w sieci z adresacją IPv4 klasy C?

A. 65534
B. 2024
C. 126
D. 254
Odpowiedź 254 jest poprawna, ponieważ w sieci IPv4 klasy C możliwe jest zaadresowanie 256 adresów IP. Klasa C ma zakres adresów od 192.0.0.0 do 223.255.255.255, co oznacza, że ostatni bajt adresu jest używany do identyfikacji hostów. Z tych 256 adresów, jeden jest zarezerwowany jako adres sieci (w przypadku np. 192.168.1.0) i jeden jako adres rozgłoszeniowy (np. 192.168.1.255). To pozostawia 254 dostępne adresy do użycia dla urządzeń, takich jak komputery, drukarki czy routery. W praktyce, znajomość tej liczby jest istotna przy projektowaniu małych sieci lokalnych, gdzie klasy C są często wykorzystywane, szczególnie w biurach czy domowych sieciach. Dobrą praktyką jest również korzystanie z DHCP, co umożliwia dynamiczne przydzielanie adresów IP, a tym samym efektywne zarządzanie dostępnością adresów. Warto także zwrócić uwagę na możliwość korzystania z NAT, co pozwala na wykorzystanie prywatnych adresów IP w sieciach lokalnych, zapewniając jednocześnie komunikację z internetem.

Pytanie 10

Aby umożliwić transfer danych między siecią w pracowni a siecią ogólnoszkolną o innej adresacji IP, należy zastosować

A. hub
B. switch
C. router
D. access point
Przełącznik, koncentrator i punkt dostępowy to urządzenia, które pełnią różne funkcje w sieciach komputerowych, ale nie są one odpowiednie do rozwiązywania problemu wymiany danych pomiędzy sieciami o różnych adresacjach IP. Przełącznik działa na poziomie warstwy 2 modelu OSI i jest odpowiedzialny za przesyłanie ramek w obrębie jednej sieci lokalnej (LAN). Nie zapewnia jednak możliwości routingu między różnymi sieciami, co jest kluczowe w przypadku wymaganej wymiany danych między sieciami o odmiennych adresacjach IP. Koncentrator, będący urządzeniem pasywnym, po prostu przesyła sygnały do wszystkich podłączonych urządzeń, ale nie potrafi zrozumieć i zarządzać adresacją IP. Natomiast punkt dostępowy, chociaż umożliwia bezprzewodowy dostęp do sieci lokalnej, również nie ma funkcji routingu, a jedynie łączy urządzenia w obrębie tej samej sieci. Typowym błędem w myśleniu jest przekonanie, że każde urządzenie sieciowe może pełnić funkcję rutera, podczas gdy każde z nich ma swoją ściśle określoną rolę. Bezpośrednia wymiana danych wymaga zaawansowanego zarządzania trasami, co jest możliwe tylko dzięki ruterom, które są zaprojektowane do pracy w złożonych środowiskach wielosesyjnych i wieloadresowych.

Pytanie 11

Jaka usługa musi być aktywna na serwerze, aby stacja robocza mogła automatycznie uzyskać adres IP?

A. DHCP
B. WINS
C. PROXY
D. DNS
Usługa DHCP (Dynamic Host Configuration Protocol) jest kluczowym elementem w zarządzaniu adresami IP w sieciach komputerowych. Jej głównym zadaniem jest automatyczne przydzielanie dynamicznych adresów IP stacjom roboczym oraz innym urządzeniom podłączonym do sieci. Gdy stacja robocza łączy się z siecią, wysyła zapytanie DHCPDISCOVER w celu identyfikacji dostępnych serwerów DHCP. Serwer odpowiada, wysyłając ofertę DHCPOFFER, która zawiera adres IP oraz inne istotne informacje konfiguracyjne, takie jak maska podsieci, brama domyślna i serwery DNS. Po otrzymaniu oferty stacja robocza wysyła żądanie DHCPREQUEST, co finalizuje proces poprzez potwierdzenie przyznania adresu IP. Praktyczne zastosowanie DHCP znacznie upraszcza zarządzanie dużymi sieciami, eliminując potrzebę ręcznego przypisywania adresów IP oraz minimalizując ryzyko konfliktów adresów. Standardy związane z DHCP są określone w dokumentach IETF RFC 2131 i RFC 2132, które definiują sposób działania tego protokołu oraz jego parametry.

Pytanie 12

Na wskazanej płycie głównej możliwe jest zainstalowanie procesora w obudowie typu

Ilustracja do pytania
A. PGA
B. SPGA
C. SECC
D. LGA
Wybierając niepoprawny typ gniazda można łatwo wpaść w pułapki niewłaściwego rozumienia architektury płyty głównej i procesora. PGA czyli Pin Grid Array to typ gniazda w którym piny znajdują się na procesorze a nie na płycie głównej jak w przypadku LGA. Procesory AMD często wykorzystują ten typ gniazda co może prowadzić do błędnych skojarzeń że każdy procesor może pasować do dowolnego gniazda. SECC czyli Single Edge Contact Cartridge to starszy typ obudowy procesora używany w procesorach Intel Pentium II i III gdzie procesor znajdował się w specjalnej kasecie co jest już rzadkością we współczesnych systemach i nie jest kompatybilne z nowoczesnymi płytami głównymi. SPGA czyli Staggered Pin Grid Array jest wariantem PGA z pinami ułożonymi w nieco inny sposób w celu zwiększenia ich liczby. Każda z tych opcji ma swoje specyficzne zastosowania i ograniczenia w zależności od producenta i modelu procesora. Zrozumienie różnic w konstrukcji gniazd procesorów jest kluczowe do prawidłowego doboru komponentów komputerowych co wpływa na ogólną wydajność stabilność i możliwości rozbudowy systemu komputerowego. Niezależnie od wyboru kluczowe jest aby zawsze dopasować procesor do odpowiedniego gniazda co zapewnia kompatybilność i optymalną pracę całego systemu komputerowego. Dlatego znajomość budowy i specyfikacji technicznych płyt głównych oraz procesorów jest niezbędna dla każdego technika IT.

Pytanie 13

Jaką inną formą można zapisać 2^32 bajtów?

A. 1 GiB
B. 4 GiB
C. 2 GB
D. 8 GB
Równoważny zapis 2^32 bajtów to 4 GiB. W celu zrozumienia tego przeliczenia, warto zwrócić uwagę na różnice między jednostkami miary. GiB (gibibajt) i GB (gigabajt) to różne jednostki, które są często mylone. 1 GiB odpowiada 2^30 bajtom, podczas gdy 1 GB to 10^9 bajtów (1 000 000 000 bajtów). Dlatego, przeliczając 2^32 bajtów na GiB, wykonujemy obliczenie: 2^32 / 2^30 = 2^2 = 4 GiB. Przykładem praktycznego zastosowania tej wiedzy jest zarządzanie pamięcią w systemach komputerowych, gdzie precyzyjne określenie wielkości pamięci RAM oraz przestrzeni dyskowej ma kluczowe znaczenie dla wydajności systemu operacyjnego. W branży IT, stosowanie jednostek zgodnych z danymi standardami, takimi jak IEC 60027-2, jest istotne, aby uniknąć nieporozumień.

Pytanie 14

Procesem nieodwracalnym, całkowicie uniemożliwiającym odzyskanie danych z dysku twardego, jest

A. przypadkowe usunięcie plików.
B. zerowanie dysku.
C. zalanie dysku.
D. zatarcie łożyska dysku.
Zerowanie dysku, znane też jako nadpisywanie zerami albo low-level format, to dziś jedna z najskuteczniejszych i najbardziej rekomendowanych metod trwałego usuwania danych z nośników magnetycznych (czyli typowych talerzowych dysków twardych). Polega na tym, że specjalne narzędzia – np. programy typu DBAN, Blancco czy nawet komendy systemowe jak 'dd' w Linuksie – nadpisują całą powierzchnię dysku ciągami zer (czasem też innymi wzorcami). Po wykonaniu takiej operacji odzyskanie jakichkolwiek plików staje się praktycznie niemożliwe, nawet z użyciem zaawansowanej elektroniki i laboratoriów informatyki śledczej. W standardach branżowych, np. amerykańskiego Departamentu Obrony (DoD 5220.22-M), takie metody są wskazane jako zgodne z wymogami bezpiecznego usuwania danych. W praktyce firmowej i w administracji publicznej taki sposób niszczenia informacji jest stosowany przed utylizacją czy sprzedażą sprzętu. Moim zdaniem to w ogóle podstawowa rzecz, którą powinien znać każdy, kto pracuje z danymi wrażliwymi – bo przypadkowe kasowanie czy nawet fizyczna awaria mechaniki wcale nie gwarantuje, że ktoś nie dostanie się do naszych danych. Swoją drogą, na nowoczesnych dyskach SSD rekomenduje się raczej używanie dedykowanej funkcji Secure Erase, bo zwykłe zerowanie nie zawsze działa w 100%. Ale dla klasycznych HDD – nie ma lepszej metody niż gruntowne zerowanie.

Pytanie 15

Graficzny symbol ukazany na ilustracji oznacza

Ilustracja do pytania
A. most
B. przełącznik
C. bramę
D. koncentrator
Symbol graficzny przedstawiony na rysunku rzeczywiście oznacza przełącznik sieciowy co jest zgodne z odpowiedzią numer trzy Przełącznik jest kluczowym urządzeniem w infrastrukturze sieci komputerowych odpowiadającym za efektywne kierowanie ruchem sieciowym w ramach lokalnej sieci komputerowej LAN Działa na poziomie drugiego modelu ISO/OSI czyli warstwie łącza danych Jego podstawową funkcją jest przekazywanie pakietów pomiędzy urządzeniami w ramach tej samej sieci lokalnej poprzez analizę adresów MAC Dzięki temu przełączniki potrafią znacząco zwiększać wydajność sieci poprzez redukcję kolizji danych i efektywne zarządzanie pasmem sieciowym W praktyce przełączniki są wykorzystywane w wielu zastosowaniach od małych sieci domowych po zaawansowane sieci korporacyjne W środowiskach korporacyjnych przełączniki mogą obsługiwać zaawansowane funkcje takie jak VLAN wirtualne sieci LAN zapewniające segregację ruchu sieciowego oraz Quality of Service QoS umożliwiające priorytetyzację ruchu Odpowiednie zarządzanie i konfiguracja przełączników są kluczowe dla zachowania bezpieczeństwa i wydajności całej infrastruktury sieciowej Współczesne przełączniki często integrują technologię Power over Ethernet PoE co umożliwia zasilanie urządzeń sieciowych takich jak telefony VoIP czy kamery IP bezpośrednio przez kabel sieciowy co upraszcza instalację i obniża koszty eksploatacji

Pytanie 16

Transmisję danych bezprzewodowo realizuje interfejs

A. IrDA
B. DVI
C. LFH60
D. HDMI
IrDA (Infrared Data Association) to standard bezprzewodowej transmisji danych wykorzystujący podczerwień. Jego główną zaletą jest możliwość wymiany informacji między urządzeniami, takimi jak telefony komórkowe, laptopy czy drukarki, w odległości do kilku metrów. IrDA jest szczególnie ceniona za niskie zużycie energii oraz prostotę wdrożenia, co czyni ją idealnym rozwiązaniem w urządzeniach mobilnych. W praktyce, standard ten był szeroko stosowany w urządzeniach osobistych do przesyłania plików, jak zdjęcia czy kontakty, bez potrzeby stosowania kabli. Jednakże, z biegiem lat, technologia ta została w dużej mierze zastąpiona przez inne metody przesyłania danych, takie jak Bluetooth czy Wi-Fi. Warto zaznaczyć, że IrDA wymaga bezpośredniej linii wzroku między urządzeniami, co może ograniczać jej zastosowanie w niektórych sytuacjach. Mimo to, ze względu na swoją prostotę i efektywność w określonych warunkach, IrDA pozostaje ważnym standardem w historii technologii komunikacyjnej.

Pytanie 17

PCI\VEN_10EC&DEV_8168&SUBSYS_05FB1028&REV_12
Przedstawiony zapis jest

A. identyfikatorem sprzętowym urządzenia zawierającym id producenta i urządzenia.
B. identyfikatorem i numerem wersji sterownika dla urządzenia.
C. kluczem aktywującym płatny sterownik do urządzenia.
D. nazwą pliku sterownika dla urządzenia.
Ten zapis to klasyczny identyfikator sprzętowy urządzenia PCI, dokładniej tzw. Hardware ID, używany przez system operacyjny do rozpoznawania, jaki dokładnie układ jest zainstalowany w komputerze. Fragment PCI\VEN_10EC oznacza magistralę PCI oraz identyfikator producenta (VEN – vendor). Kod 10EC to producent Realtek. Dalej DEV_8168 to identyfikator urządzenia (device), czyli konkretny model układu – w tym przypadku popularna karta sieciowa Realtek PCIe GBE Family Controller. SUBSYS_05FB1028 wskazuje na konkretną wersję tego urządzenia przygotowaną dla danego producenta sprzętu, tutaj dla Della (1028 to ID producenta OEM). REV_12 to rewizja sprzętowa układu, czyli wersja danej serii chipa. System Windows (i Linux też, tylko trochę inaczej to pokazuje) wykorzystuje te identyfikatory do dopasowania właściwego sterownika z bazy sterowników. To właśnie na ich podstawie działa automatyczna instalacja sterowników po podłączeniu nowego urządzenia. W Menedżerze urządzeń w Windows można podejrzeć ten ciąg w zakładce Szczegóły → Identyfikatory sprzętu i ręcznie sprawdzić, jaki sterownik będzie pasował, np. szukając po VEN_ i DEV_ w internecie lub w dokumentacji producenta. Moim zdaniem znajomość tych oznaczeń to bardzo praktyczna rzecz przy diagnozowaniu problemów typu „brak sterownika”, „nieznane urządzenie” czy przy ręcznym pobieraniu sterowników ze strony producenta płyty głównej lub laptopa. To jest standardowa, ustandaryzowana forma identyfikacji w świecie PCI/PCIe, a nie żadna nazwa pliku ani klucz licencyjny.

Pytanie 18

Narzędzie System Image Recovery dostępne w zaawansowanych opcjach uruchamiania systemu Windows 7 pozwala na

A. naprawę uszkodzonych plików startowych
B. uruchomienie systemu w specjalnym trybie naprawy
C. naprawę systemu za pomocą punktów przywracania
D. przywrócenie funkcjonowania systemu przy użyciu jego kopii zapasowej
Odpowiedzi dotyczące naprawy działania systemu poprzez punkty przywracania oraz naprawy uszkodzonych plików startowych są mylące, ponieważ dotyczą zupełnie innych rodzajów operacji. Punkty przywracania w systemie Windows 7 służą do cofania systemu do wcześniejszego stanu w przypadku problemów z oprogramowaniem, natomiast nie są one związane z pełnym przywracaniem obrazu systemu. To podejście ma swoje ograniczenia, gdyż nie uwzględnia zmian dokonanych w plikach osobistych i aplikacjach zainstalowanych po utworzeniu punktu przywracania. Naprawa uszkodzonych plików startowych również nie jest tożsama z przywracaniem obrazu systemu; jest to proces, który koncentruje się na naprawie konkretnego problemu z uruchomieniem, a nie na pełnym przywróceniu wszystko do wcześniejszego stanu. Użytkownik może być skłonny do wyboru tych metod w przekonaniu, że są one wystarczające, jednak w sytuacji poważnych uszkodzeń systemowych, takich jak awaria dysku twardego lub poważne uszkodzenia systemowe, może to prowadzić do niewłaściwego podejścia do rozwiązania problemu. Zatem, wybór właściwego narzędzia i podejścia do przywracania systemu jest kluczowy dla zapewnienia bezpieczeństwa danych i efektywności procesu odzyskiwania.

Pytanie 19

Minimalną wartość długości hasła użytkownika w systemie Windows można ustawić poprzez komendę

A. net computer
B. net user
C. net accounts
D. net config
Inne wymienione polecenia, takie jak 'net user', 'net config' i 'net computer', nie są przeznaczone do ustawiania polityki haseł w systemie Windows. Polecenie 'net user' służy do zarządzania kontami użytkowników, w tym do dodawania, usuwania czy zmiany informacji o użytkownikach, ale nie umożliwia bezpośredniego ustawienia minimalnej długości hasła. Chociaż może być użyte w kontekście zarządzania użytkownikami, jego funkcjonalność w zakresie zabezpieczeń haseł jest ograniczona. 'Net config' to polecenie służące do konfiguracji różnych usług sieciowych, a nie do zarządzania polityką haseł. W przypadku 'net computer', jego zastosowanie dotyczy zarządzania kontami komputerów w sieci, co również nie ma związku z politykami haseł. Użytkownicy mogą mylnie sądzić, że wszystkie polecenia związane z 'net' mają podobne zastosowania, jednak każde z nich ma specyficzne funkcje i ograniczenia. Zrozumienie tych różnic jest kluczowe w celu prawidłowego zarządzania systemem i jego bezpieczeństwem.

Pytanie 20

Tworzenie zaszyfrowanych połączeń pomiędzy hostami przez publiczną sieć Internet, wykorzystywane w rozwiązaniach VPN (Virtual Private Network), to

A. mapowanie
B. mostkowanie
C. tunelowanie
D. trasowanie
Trasowanie, mapowanie i mostkowanie to techniki związane z zarządzaniem ruchem w sieciach komputerowych, ale nie są one odpowiednie dla opisanego kontekstu. Trasowanie odnosi się do procesu określania najlepszego ścieżki, jaką pakiety danych powinny podążać przez sieć. Jako strategia zarządzania ruchem, trasowanie nie zapewnia jednak bezpieczeństwa ani prywatności, co czyni je niewłaściwym rozwiązaniem do tworzenia zaszyfrowanych połączeń VPN. Mapowanie natomiast odnosi się do procesu przypisywania jednego zestawu wartości do innego, co jest użyteczne w kontekście baz danych lub geolokalizacji, ale nie ma zastosowania w kontekście zabezpieczania komunikacji sieciowej. Mostkowanie z kolei umożliwia połączenie dwóch segmentów sieci w celu zwiększenia rozmiarów sieci lokalnej, ale nie implementuje mechanizmów szyfrowania ani ochrony danych. W rzeczywistości te techniki mogą wprowadzać w błąd, sugerując, że zapewniają one bezpieczeństwo w komunikacji. Powszechnym błędem myślowym jest uznawanie trasowania za wystarczające dla ochrony danych, podczas gdy w rzeczywistości nie zapewnia ono żadnych zabezpieczeń przed podsłuchiwaniem lub atakami. Zrozumienie różnic między tymi technikami a tunelowaniem jest kluczowe dla skutecznej ochrony informacji przesyłanych w sieciach publicznych.

Pytanie 21

Głowica drukująca, składająca się z wielu dysz zintegrowanych z mechanizmem drukarki, wykorzystywana jest w drukarce

A. termosublimacyjnej.
B. atramentowej.
C. igłowej.
D. laserowej.
Głowica drukująca z wieloma dyszami to absolutny fundament działania drukarki atramentowej. W praktyce każda nowoczesna drukarka tego typu posiada głowicę wyposażoną w dziesiątki, czasem setki mikroskopijnych otworków – to przez nie precyzyjnie dozowany jest tusz bezpośrednio na papier. Cały proces pozwala na uzyskanie bardzo wysokiej rozdzielczości wydruków, co jest szczególnie cenione w zastosowaniach domowych i biurowych, a także w grafice czy fotografii. Moim zdaniem właśnie możliwość takiej kontroli nad dozowaniem atramentu sprawia, że drukarki atramentowe są nadal popularne mimo postępu w technologii laserowej. Branżowe standardy, takie jak normy ISO/IEC 24711 (pomiar wydajności wkładów atramentowych), uwzględniają te cechy technologii. Warto też wiedzieć, że konstrukcja głowic ma znaczenie dla kosztów eksploatacji – w niektórych modelach jest ona na stałe zintegrowana z urządzeniem, w innych wymieniana razem z wkładem. To bardzo praktyczny aspekt, bo od tego zależy długowieczność i jakość wydruków. Osobiście często spotykałem się z opinią, że drukarki atramentowe są najlepsze do druku kolorowych zdjęć właśnie dzięki tej technologii dysz. Dla mnie to taki złoty środek między jakością a ceną. Zdecydowanie, jeśli chodzi o wykorzystanie głowicy z wieloma dyszami, drukarka atramentowa nie ma sobie równych.

Pytanie 22

Aby na Pasku zadań pojawiły się ikony z załączonego obrazu, trzeba w systemie Windows ustawić

Ilustracja do pytania
A. funkcję Snap i Peek
B. obszar Action Center
C. obszar powiadomień
D. funkcję Pokaż pulpit
Obszar powiadomień w systemie Windows, znany również jako zasobnik systemowy, znajduje się na pasku zadań i umożliwia szybki dostęp do ikonek programów uruchomionych w tle. Jest to kluczowy element interfejsu użytkownika, pozwalający na monitorowanie stanu systemu, powiadomienia od aplikacji oraz szybki dostęp do funkcji takich jak połączenia sieciowe czy ustawienia dźwięku. Konfiguracja obszaru powiadomień obejmuje dostosowanie widoczności ikon, co pozwala użytkownikowi na ukrywanie mniej istotnych elementów, aby zachować porządek. W praktyce oznacza to, że użytkownik może skonfigurować, które ikony będą widoczne zawsze, a które będą ukryte, co jest zgodne z dobrymi praktykami zarządzania środowiskiem pracy. Dzięki temu użytkownik ma szybki i wygodny dostęp do najczęściej używanych funkcji bez potrzeby przeszukiwania całego systemu. Zasobnik systemowy jest integralną częścią doświadczenia użytkownika, wpływającą na efektywność pracy z komputerem, dlatego też jego prawidłowa konfiguracja jest kluczowa dla optymalnego wykorzystania możliwości systemu operacyjnego.

Pytanie 23

Ustawienia przedstawione na diagramie dotyczą

Ilustracja do pytania
A. skanera
B. modemu
C. karty sieciowej
D. drukarki
Karty sieciowe, drukarki i skanery nie wykorzystują portów COM do komunikacji, co jest kluczowym elementem w rozpoznaniu poprawnej odpowiedzi dotyczącej modemów. Karty sieciowe operują zazwyczaj w warstwie sieciowej modelu OSI, korzystając z protokołów takich jak Ethernet, które nie wymagają portów szeregowych COM, lecz raczej interfejsów typu RJ-45 dla połączeń kablowych. Drukarki, szczególnie nowoczesne, łączą się głównie przez USB, Ethernet lub bezprzewodowo, a starsze modele mogą korzystać z portów równoległych, co różni się od portów szeregowych. Skanery także w większości przypadków używają interfejsów USB lub bezprzewodowych. Typowym błędem może być mylenie interfejsów komunikacyjnych, co prowadzi do błędnych wniosków o sposobie połączenia urządzenia. Porty COM są historycznie związane z starszymi technologiami komunikacji, takimi jak modemy, które wykorzystują transmisję szeregową zgodną z protokołami UART. Współczesne urządzenia peryferyjne zazwyczaj nie wymagają takich interfejsów, co czyni ich użycie w kontekście networkingu lub druku nieadekwatnym. Zrozumienie specyfiki każdego typu urządzenia i jego standardowych metod komunikacji jest kluczowe dla poprawnego rozpoznawania i konfiguracji sprzętu w środowiskach IT. Praktyczna wiedza na temat właściwego przypisywania urządzeń do odpowiednich portów i protokołów pozwala uniknąć podstawowych błędów konfiguracyjnych oraz zapewnia optymalną wydajność i zgodność systemów komunikacyjnych i peryferyjnych w sieciach komputerowych. Właściwa identyfikacja i konfiguracja takich ustawień jest istotna dla efektywnego zarządzania infrastrukturą IT, gdzie wiedza o zastosowaniach portów szeregowych jest nieocenionym narzędziem w arsenale specjalisty IT.

Pytanie 24

Aby serwer z systemem Linux mógł udostępniać pliki i drukarki komputerom klienckim z systemem Windows, należy zainstalować na nim

A. usługę IIS.
B. serwer Apache.
C. protokół SSH.
D. usługę Samba.
Poprawna odpowiedź to Samba, bo jest to dedykowana usługa w systemach Linux/Unix do udostępniania zasobów w sieciach z komputerami z systemem Windows. Samba implementuje protokoły SMB/CIFS, czyli dokładnie ten sam mechanizm, z którego korzysta Windows przy udostępnianiu folderów sieciowych i drukarek. Dzięki temu stacja z Linuksem może „udawać” serwer plików Windows, do którego użytkownik podłącza się normalnie przez Eksplorator Windows (np. wpisując \\serwer\udział). Z mojego doświadczenia, w małych firmach i szkołach Samba bardzo często pracuje jako główny serwer plików, domeny lub prosty kontroler logowania, bo jest darmowa, stabilna i dobrze udokumentowana. W praktyce administrator konfiguruje plik smb.conf, definiuje udziały (tzw. shares), ustawia uprawnienia, mapowanie użytkowników i ewentualnie integrację z usługą katalogową (np. Active Directory). Użytkownicy Windows widzą wtedy zasoby linuksowego serwera tak, jakby to był zwykły serwer Windows – mogą podłączać dyski sieciowe, zapisywać dokumenty, korzystać z drukarek sieciowych, stosować uprawnienia oparte o konta domenowe. Dobrą praktyką jest łączenie Samby z systemem uprawnień Linuksa (UID, GID, prawa dostępu) oraz stosowanie szyfrowania połączeń, silnych haseł i aktualnych wersji protokołu SMB (np. wyłączenie starych, dziurawych wersji SMB1). W wielu środowiskach stosuje się też rozdzielenie ról: Samba jako serwer plików i wydruku, a inne serwisy (WWW, SSH) na osobnych maszynach lub kontenerach, co zwiększa bezpieczeństwo i ułatwia administrację. Moim zdaniem znajomość podstaw konfiguracji Samby to absolutny must-have dla każdego, kto myśli poważnie o administracji mieszanymi sieciami Windows/Linux.

Pytanie 25

Jaki system plików powinien być wybrany przy instalacji systemu Linux?

A. ext3
B. NTFS
C. FAT32
D. FAT
Wybór systemu plików ext3 podczas instalacji systemu Linux jest zdecydowanie uzasadniony, ponieważ ext3 to jeden z najpopularniejszych i najstabilniejszych systemów plików, który oferuje wiele zaawansowanych funkcji, takich jak dziennikowanie. Dziennikowanie pozwala na szybkie przywracanie systemu plików do poprawnego stanu po awarii, co zwiększa niezawodność i bezpieczeństwo przechowywanych danych. ext3 jest również w pełni kompatybilny z wcześniejszym systemem ext2, co sprawia, że migracja jest stosunkowo prosta. W praktyce, ext3 jest często stosowany w serwerach oraz stacjach roboczych, które wymagają stabilności i odporności na awarie. Dodatkowo, wspiera on dużą liczbę plików oraz duże rozmiary dysków, co czyni go wszechstronnym rozwiązaniem w różnych zastosowaniach. W kontekście dobrych praktyk, korzystanie z ext3 jest zalecane dla użytkowników Linuxa, którzy potrzebują solidnego i sprawdzonego systemu plików.

Pytanie 26

Która z licencji ma charakter grupowy i pozwala instytucjom komercyjnym oraz organizacjom edukacyjnym, państwowym i charytatywnym na zakup większej ilości oprogramowania firmy Microsoft na korzystnych zasadach?

A. MPL
B. OEM
C. APSL
D. MOLP
Licencja MOLP (Microsoft Open License Program) jest stworzona z myślą o instytucjach komercyjnych, edukacyjnych, państwowych oraz charytatywnych, umożliwiając im zakup oprogramowania Microsoft w korzystniejszych warunkach. MOLP pozwala na elastyczne zarządzanie licencjami, co jest kluczowe dla organizacji, które potrzebują większej liczby stanowisk roboczych. Program ten oferuje znaczne oszczędności w porównaniu z zakupem pojedynczych licencji, a także ułatwia aktualizację oprogramowania i zarządzanie nim. Na przykład, szkoły i uczelnie mogą nabyć licencje na Microsoft Office w pakiecie, co pozwala na zredukowanie kosztów i uproszczenie procesu zakupu. Dodatkowo, MOLP oferuje możliwość dostępu do nowych wersji oprogramowania, co jest zgodne z polityką ciągłego doskonalenia i innowacji, jaką promuje Microsoft. Program ten jest zgodny z zasadami licencjonowania opartymi na urządzeniach i użytkownikach, co daje dodatkową elastyczność i dostosowanie do potrzeb organizacji.

Pytanie 27

Na jakich nośnikach pamięci masowej jednym z najczęstszych powodów uszkodzeń jest zniszczenie powierzchni?

A. W kartach pamięci SD
B. W pamięci zewnętrznej Flash
C. W dyskach HDD
D. W dyskach SSD
Dyski HDD (Hard Disk Drive) są nośnikami pamięci masowej, których konstrukcja opiera się na mechanicznym zapisie i odczycie danych przy użyciu wirujących talerzy pokrytych materiałem magnetycznym. Jedną z najczęstszych przyczyn uszkodzeń w dyskach HDD jest uszkodzenie powierzchni talerzy, które może być efektem fizycznych uderzeń, wstrząsów czy nieprawidłowego użytkowania. W przypadku dysków HDD, powierzchnia talerzy jest bardzo wrażliwa na zarysowania i inne uszkodzenia, co może prowadzić do utraty danych. Przykładem może być sytuacja, gdy użytkownik przenosi działający dysk HDD, co może spowodować przesunięcie głowic odczytujących i zapisujących, prowadząc do uszkodzenia powierzchni. W standardach i najlepszych praktykach branżowych zaleca się również regularne tworzenie kopii zapasowych danych z dysków HDD, aby zminimalizować skutki potencjalnych awarii. Zrozumienie działania dysków HDD i ich ograniczeń pozwala na lepsze wykorzystanie tej technologii w praktyce.

Pytanie 28

Jak nazywa się topologia fizyczna, w której wszystkie urządzenia końcowe są bezpośrednio połączone z jednym punktem centralnym, takim jak koncentrator lub przełącznik?

A. siatki
B. gwiazdy
C. pierścienia
D. magistrali
Topologia gwiazdy jest jedną z najpopularniejszych architektur sieciowych, w której wszystkie urządzenia końcowe, takie jak komputery, drukarki czy serwery, są bezpośrednio podłączone do centralnego urządzenia, którym zazwyczaj jest koncentrator (hub) lub przełącznik (switch). Taka konfiguracja pozwala na łatwe zarządzanie i diagnostykę sieci, ponieważ w przypadku awarii jednego z urządzeń końcowych nie wpływa to na działanie pozostałych. Przykładem zastosowania topologii gwiazdy może być biuro, gdzie wszystkie komputery są podłączone do jednego przełącznika, co umożliwia szybkie przesyłanie danych i współpracę między pracownikami. Ponadto, w sytuacji awarii centralnego urządzenia, cała sieć może przestać działać, co jest jej główną wadą, ale w praktyce nowoczesne przełączniki oferują wyspecjalizowane funkcje redundancji, które mogą zminimalizować ten problem. Zgodnie z najlepszymi praktykami branżowymi, topologia gwiazdy jest preferowana w wielu instalacjach, ze względu na swoją elastyczność i łatwość w rozbudowie oraz konserwacji.

Pytanie 29

Partycja w systemie Linux, która tymczasowo przechowuje dane w przypadku niedoboru pamięci RAM, to

A. tmp
B. var
C. sys
D. swap
Odpowiedzi var, sys oraz tmp są niepoprawne w kontekście pytania o partycję systemu Linux przechowującą tymczasowo dane w przypadku braku wolnej pamięci RAM. Warto zacząć od partycji var, która typowo przechowuje zmienne pliki danych, takie jak logi, bazy danych lub pliki tymczasowe. Nie jest ona przeznaczona do działania jako rozszerzenie pamięci RAM, co czyni ją nietrafnym wyborem w tym kontekście. Z kolei partycja sys jest używana przez system do interakcji z jądrem oraz do dostępu do informacji o sprzęcie i systemie operacyjnym. Nie ma funkcji przechowywania danych tymczasowych w sytuacji braku pamięci. Odpowiedź tmp odnosi się do katalogu, który może być używany do przechowywania plików tymczasowych, ale nie jest to partycja ani przestrzeń dedykowana do zarządzania pamięcią. W rzeczywistości pliki w tmp mogą być usuwane w trakcie pracy systemu, co nie ma związku z zarządzaniem pamięcią RAM. W kontekście zarządzania pamięcią, swap jest jedyną opcją, która umożliwia przenoszenie danych z pamięci RAM, co czyni go kluczowym elementem infrastruktury systemu operacyjnego. Nieprawidłowe odpowiedzi mogą wynikać z mylenia ról i funkcji różnych partycji oraz niewłaściwego zrozumienia, jak system Linux zarządza pamięcią. Zrozumienie tych różnic jest fundamentalne dla prawidłowego administrowania systemem i wykorzystania jego zasobów.

Pytanie 30

Który zakres adresów IPv4 jest poprawnie przypisany do danej klasy?

Zakres adresów IPv4Klasa adresu IPv4
A.1.0.0.0 ÷ 127.255.255.255A
B.128.0.0.0 ÷ 191.255.255.255B
C.192.0.0.0 ÷ 232.255.255.255C
D.233.0.0.0 ÷ 239.255.255.255D
A. B
B. A
C. C
D. D
Klasa B adresów IPv4 obejmuje zakres od 128.0.0.0 do 191.255.255.255. Adresy w tej klasie są często używane w średnich i dużych sieciach, ponieważ oferują większą liczbę dostępnych adresów hostów w porównaniu z klasą C. Każdy adres klasy B ma pierwszy oktet w zakresie od 128 do 191, a następne dwa oktety są używane do identyfikacji sieci, co daje możliwość utworzenia 16 384 sieci, każda z maksymalnie 65 534 hostami. W praktyce, oznacza to, że klasa B jest idealna dla organizacji z dużym zapotrzebowaniem na liczby hostów. Współczesne sieci korzystają z maski podsieci, aby elastyczniej zarządzać adresacją, jednak klasyczne podejście jest nadal istotne w kontekście zrozumienia podstaw działania protokołu IPv4. Standardy takie jak RFC 791 i późniejsze uaktualnienia precyzują sposób użycia tej klasy adresów, co jest ważne dla administratorów sieciowych, którzy muszą projektować wydajne i niezawodne struktury sieciowe.

Pytanie 31

Na ilustracji zaprezentowano schemat blokowy karty

Ilustracja do pytania
A. sieciowej
B. graficznej
C. dźwiękowej
D. telewizyjnej
Schemat blokowy przedstawia kartę telewizyjną, co można zidentyfikować na podstawie kilku kluczowych elementów. Karty telewizyjne są zaprojektowane do odbioru sygnałów telewizyjnych z anteny i ich przetwarzania na formaty cyfrowe, które mogą być odtwarzane na komputerze. Na schemacie widoczne są takie komponenty jak tuner, który odbiera sygnał RF z anteny, a także dekoder wideo, który przetwarza sygnał na format cyfrowy, często w standardzie MPEG-2. Obecność przetwornika analogowo-cyfrowego (A/C) dla sygnałów wideo i audio wskazuje na funkcję konwersji sygnałów analogowych na cyfrowe. Dodatkowe elementy, takie jak EEPROM i DRAM, wspierają przetwarzanie i przechowywanie danych, co jest typowe dla bardziej zaawansowanych funkcji kart TV, takich jak timeshifting czy nagrywanie programów. Interfejs magistrali umożliwia komunikację karty z resztą systemu komputerowego, co jest niezbędne do przesyłania przetworzonych danych wideo i audio do dalszego odtwarzania. Karty telewizyjne znajdują zastosowanie w systemach multimedialnych, umożliwiając odbiór i nagrywanie telewizji oraz integrację z innymi funkcjami komputerowymi.

Pytanie 32

Jakie urządzenie należy zastosować do pomiaru mocy zużywanej przez komputer?

A. tester zasilaczy
B. amperomierz
C. woltomierz
D. watomierz
No więc, woltomierz, amperomierz i tester zasilaczy to różne przyrządy, ale niestety nie wystarczą do dokładnego pomiaru mocy, którą bierze komputer. Woltomierz pokazuje tylko napięcie, a to nie mówi nic o zużyciu energii samo w sobie. Amperomierz z kolei mierzy tylko natężenie prądu, a żeby uzyskać pełny obraz mocy, trzeba brać pod uwagę również napięcie i współczynnik mocy, który pokazuje, jak efektywnie energia jest wykorzystywana. Tester zasilaczy, mimo że potrafi sprawdzić stan zasilania, też nie da pełnego obrazu mocy. Dlatego wiele osób myśli, że pomiar jednego z tych parametrów jest wystarczający do oceny mocy, ale to nieprawda. Musisz mieć watomierz, który łączy te wszystkie dane, żeby dostać pełny obraz wydajności energetycznej. Zrozumienie tej różnicy jest naprawdę ważne, zwłaszcza dla osób zajmujących się elektroniką czy chcących mądrze gospodarować energią w komputerach.

Pytanie 33

Aby podczas prac montażowych zabezpieczyć szczególnie wrażliwe podzespoły elektroniczne komputera przed wyładowaniem elektrostatycznym, należy stosować

A. matę izolacji termicznej.
B. opaskę antystatyczną.
C. buty ochronne.
D. rękawice ochronne.
Poprawnie – w ochronie wrażliwej elektroniki przed wyładowaniami elektrostatycznymi (ESD) kluczowa jest właśnie opaska antystatyczna. Jej zadanie jest bardzo konkretne: wyrównać potencjał elektryczny między ciałem człowieka a masą urządzenia, tak aby ładunek nie rozładował się nagle przez delikatne podzespoły komputera. W praktyce wygląda to tak, że opaska jest założona na nadgarstek, a przewód z niej podłączony jest do uziemienia (np. specjalnego punktu ESD na stanowisku serwisowym albo do obudowy komputera połączonej z przewodem ochronnym PE). Dzięki temu ładunki gromadzące się na ciele są bezpiecznie i stopniowo odprowadzane. Moim zdaniem to jest absolutna podstawa pracy serwisanta sprzętu komputerowego – dokładnie tak uczą dobre procedury serwisowe producentów płyt głównych, kart graficznych czy modułów RAM. W wielu instrukcjach serwisowych i w normach z serii IEC/EN 61340 dotyczących kontroli ESD wyraźnie zaleca się stosowanie systemu nadgarstek–uziemienie jako główny środek ochrony. Bez tego nawet zwykłe przejście po dywanie może naładować ciało człowieka do kilku kilkunastu kilowoltów, czego w ogóle nie czuć, a co potrafi uszkodzić tranzystory MOSFET czy układy scalone w pamięciach. W praktyce, przy montażu komputera, wymianie RAM-u, procesora, dysku SSD czy karty graficznej, dobrą praktyką jest połączenie opaski antystatycznej z uziemioną obudową i praca dodatkowo na macie antystatycznej (nie mylić z termiczną). W profesjonalnych serwisach stosuje się całe stanowiska ESD: opaska, mata, uziemione narzędzia, czasem nawet odzież ESD. Ale takim absolutnym minimum, które naprawdę robi różnicę, jest właśnie opaska antystatyczna. To mały i tani element, a potrafi oszczędzić mnóstwo kłopotów z „niewyjaśnionymi” uszkodzeniami elektroniki.

Pytanie 34

Transmisja danych typu półduplex to transmisja

A. dwukierunkowa naprzemienna
B. jednokierunkowa z kontrolą parzystości
C. dwukierunkowa równoczesna
D. jednokierunkowa z trybem bezpołączeniowym
Wybór odpowiedzi, która wskazuje na transmisję dwukierunkową jednoczesną, jest błędny, ponieważ taki typ komunikacji określany jest jako full-duplex. W systemach full-duplex oba urządzenia mogą jednocześnie wysyłać i odbierać dane, co prowadzi do efektywniejszej komunikacji, ale nie odpowiada to charakterystyce półduplexu. W przypadku półduplexu jedno z urządzeń zawsze musi czekać na zakończenie transmisji drugiego. Z kolei odpowiedź wskazująca na jednokierunkową transmisję z kontrolą parzystości również jest myląca. Kontrola parzystości to technika wykrywania błędów w danych, ale nie ma związku z kierunkiem transmisji, który w przypadku półduplexu jest dwukierunkowy. Kolejnym błędem jest wskazanie na jednokierunkową transmisję z trybem bezpołączeniowym, która sugeruje, że dane mogą być przesyłane w jednym kierunku bez ustalania połączenia, co również nie odnosi się do półduplexu. Półduplex wymaga pewnej formy synchronizacji między urządzeniami, co oznacza, że nie jest to ani jednokierunkowy, ani bezpołączeniowy tryb komunikacji. W praktyce, aby poprawnie zrozumieć pojęcie półduplexu, ważne jest, by rozróżniać go od innych form transmisji, takich jak full-duplex i simplex, co jest kluczowe w projektowaniu i implementacji systemów komunikacyjnych.

Pytanie 35

Wykonanie polecenia attrib +h +s +r przykład.txt w terminalu systemu Windows spowoduje

A. zapisanie tekstu hsr w pliku przykład.txt
B. przypisanie do pliku przykład.txt atrybutów: ukryty, systemowy, tylko do odczytu
C. ochronę pliku przykład.txt hasłem hsr
D. przypisanie do pliku przykład.txt atrybutów: ukryty, skompresowany, tylko do odczytu
Polecenie attrib +h +s +r w systemie Windows służy do nadawania atrybutów plików. W przypadku pliku przykład.txt, użycie tego polecenia nadje mu atrybuty: ukryty (h), systemowy (s) oraz tylko do odczytu (r). Atrybut 'ukryty' sprawia, że plik nie będzie widoczny w standardowych widokach eksploratora, co jest przydatne w zarządzaniu danymi, które nie powinny być modyfikowane przez użytkowników. Atrybut 'systemowy' oznacza, że plik jest istotny dla działania systemu operacyjnego, co również może zniechęcić do przypadkowych zmian. Natomiast atrybut 'tylko do odczytu' chroni zawartość pliku przed przypadkowym usunięciem lub modyfikacją. Praktyczne zastosowanie tych atrybutów można zauważyć w sytuacjach, gdy chcemy zabezpieczyć pliki konfiguracyjne lub systemowe, aby użytkownicy nie ingerowali w ich zawartość. Dobrą praktyką jest zawsze stosowanie odpowiednich atrybutów, aby chronić istotne dane w systemie oraz zapewnić ich prawidłowe działanie.

Pytanie 36

Wskaź na błędny układ dysku z użyciem tablicy partycji MBR?

A. 1 partycja podstawowa oraz 1 rozszerzona
B. 3 partycje podstawowe oraz 1 rozszerzona
C. 2 partycje podstawowe i 1 rozszerzona
D. 1 partycja podstawowa oraz 2 rozszerzone
W przypadku tablicy partycji MBR (Master Boot Record), maksymalna liczba partycji podstawowych, które można utworzyć, wynosi cztery. Można jednak tworzyć partycje rozszerzone, które pozwalają na dalsze tworzenie partycji logicznych. W scenariuszu, w którym mamy jedną partycję podstawową i dwie partycje rozszerzone, nie spełnia to wymogów MBR, ponieważ jedna partycja rozszerzona może zawierać wiele partycji logicznych, ale nie może być więcej niż jedna partycja rozszerzona. W praktyce oznacza to, że w scenariuszu MBR można mieć do trzech partycji podstawowych i jedną rozszerzoną, co pozwala na utworzenie wielu partycji logicznych w ramach tej partycji rozszerzonej. Standard MBR ogranicza się do 2 TB dla dysków, co w większości przypadków nie jest już wystarczające, dlatego obecnie częściej korzysta się z GPT (GUID Partition Table), która obsługuje większe dyski oraz większą liczbę partycji. Zrozumienie ograniczeń MBR jest kluczowe dla prawidłowego zarządzania przestrzenią dyskową w systemach operacyjnych.

Pytanie 37

Shareware to typ licencji, która polega na

A. korzystaniu z programu bez żadnych opłat i ograniczeń
B. nieodpłatnym rozpowszechnianiu programu na czas próbny przed zakupem
C. użytkowaniu programu przez ustalony czas, po którym program przestaje działać
D. nieodpłatnym dystrybucji aplikacji bez ujawniania kodu źródłowego
Wiele osób myli pojęcie shareware z innymi modelami licencjonowania, co prowadzi do nieporozumień. Przykładowo, stwierdzenie, że shareware to korzystanie z programu przez określony czas, po którym program przestaje działać, jest mylące. Ten opis bardziej pasuje do modeli trial, gdzie użytkownik korzysta z pełnej funkcjonalności, ale z ograniczonym czasem. Z kolei twierdzenie, że shareware pozwala na używanie programu bezpłatnie i bez żadnych ograniczeń, jest nieprecyzyjne, ponieważ shareware oferuje jedynie ograniczoną wersję programu z zamiarem skłonienia użytkowników do zakupu. Opis jako bezpłatne rozprowadzanie aplikacji bez ujawniania kodu źródłowego również jest błędny, ponieważ shareware niekoniecznie dotyczy publikacji kodu źródłowego, a raczej możliwości przetestowania oprogramowania przed zakupem. Typowe błędy myślowe, które prowadzą do takich wniosków, to nieporozumienia dotyczące różnic między modelami licencyjnymi, a także mylenie koncepcji freeware z shareware. Freeware odnosi się do oprogramowania, które jest całkowicie darmowe, bez ograniczeń czasowych, podczas gdy shareware zawsze nastawia się na możliwość zakupu, co jest kluczowe w jego definicji. W związku z tym, zrozumienie tych różnic jest istotne dla właściwego korzystania z oprogramowania i przestrzegania zasad licencjonowania.

Pytanie 38

Najskuteczniejszym sposobem na wykonanie codziennego archiwizowania pojedynczego pliku o wielkości 4,8 GB, na jednym komputerze bez dostępu do Internetu jest

A. skompresowanie i zapisanie w lokalizacji sieciowej
B. zapisanie na płycie DVD-5 w formacie ISO
C. korzystanie z pamięci USB z systemem plików NTFS
D. korzystanie z pamięci USB z systemem plików FAT32
Użycie pamięci USB z systemem plików NTFS jest najbardziej efektywnym sposobem archiwizacji pliku o rozmiarze 4,8 GB na pojedynczym stanowisku komputerowym bez dostępu do sieci. System plików NTFS (New Technology File System) obsługuje pliki o rozmiarze większym niż 4 GB, co jest kluczowe w przypadku archiwizacji dużych plików, jak ten o wielkości 4,8 GB. NTFS zapewnia również lepszą efektywność zarządzania przestrzenią dyskową, co jest istotne przy długoterminowym przechowywaniu danych. Oferuje dodatkowe funkcje, takie jak kompresja plików, szyfrowanie oraz możliwość przydzielania uprawnień do plików, co zwiększa zabezpieczenia danych. W praktyce, pamięci USB formatowane w NTFS są powszechnie używane do przenoszenia dużych plików lub ich archiwizacji, dzięki czemu można uniknąć problemów związanych z ograniczeniami rozmiaru, które występują w innych systemach plików, jak FAT32. Zastosowanie NTFS stanowi więc najlepszy wybór, zwłaszcza w kontekście profesjonalnego przechowywania i archiwizacji danych.

Pytanie 39

Oblicz koszt wykonania okablowania strukturalnego od 5 punktów abonenckich do panelu krosowego wraz z wykonaniem kabli połączeniowych dla stacji roboczych. W tym celu wykorzystano 50 m skrętki UTP. Punkt abonencki składa się z 2 gniazd typu RJ

MateriałJednostkaCena
Gniazdo podtynkowe 45x45, bez ramki, UTP 2xRJ45 kat.5eszt.17 zł
UTP kabel kat.5e PVC 4PR 305mkarton305 zł
RJ wtyk UTP kat.5e beznarzędziowyszt.6 zł
A. 345,00 zł
B. 350,00 zł
C. 152,00 zł
D. 255,00 zł
Jak się przyjrzyjmy tym błędnym odpowiedziom, to często wątpliwości są związane z kosztami materiałów do okablowania, co bywa kluczowe w pracy inżyniera. Na przykład, jeżeli ktoś wskazał 152,00 zł lub 345,00 zł, to często wynika to z nieprawidłowego zrozumienia ilości lub cen poszczególnych elementów. To się zdarza, gdy użytkownicy nie biorą pod uwagę, ile gniazd potrzebują albo jak obliczyć koszt kabla, co prowadzi do takich błędnych wyników. Ważne, żeby wiedzieć, że każdy punkt abonencki wymaga dokładnego przemyślenia liczby gniazd i jakości materiałów, które powinny pasować do norm, takich jak PN-EN 50173. Jeszcze jedno – sporo błędów może wynikać z pominięcia kosztu wtyków RJ45, co zmienia całkowitą kwotę. Zrozumienie tego jest strasznie istotne, bo jak pomylisz się w obliczeniach, to możesz mieć problem z projektem sieci i budżetem, a to nie jest najlepsza sytuacja w pracy. Lepiej zwracać uwagę na to, co jest potrzebne i ile to kosztuje, żeby uniknąć takich wpadek w przyszłości.

Pytanie 40

Użytkownik dysponuje komputerem o podanej konfiguracji i systemie Windows 7 Professional 32bit. Która z opcji modernizacji komputera NIE przyczyni się do zwiększenia wydajności?

Płyta głównaASRock Z97 Anniversary Z97 DualDDR3-1600 SATA3 RAID HDMI ATX z czterema slotami DDR3 i obsługą RAID poziomu 0,1
Procesori3
Pamięć1 x 4 GB DDR3
HDD2 x 1 TB
A. Ustawienie dysków do działania w trybie RAID 1
B. Ustawienie dysków do działania w trybie RAID 0
C. Wymiana pamięci na 2x2GB DDR3 Dual Channel
D. Zwiększenie pamięci RAM do 8GB pamięci DDR3
Konfiguracja dysków do pracy w trybach RAID 0 lub RAID 1 może przynieść wymierne korzyści w zakresie wydajności i bezpieczeństwa danych. RAID 0 dzieli dane na segmenty, które są zapisywane na kilku dyskach jednocześnie. To zwiększa prędkość odczytu i zapisu, ponieważ dane mogą być przetwarzane równolegle. Jest to szczególnie korzystne w zastosowaniach wymagających dużej przepustowości, takich jak edycja wideo. Z drugiej strony RAID 1, polegający na dublowaniu danych na dwóch dyskach, nie zwiększa wydajności, ale zapewnia redundancję, chroniąc przed utratą danych w przypadku awarii jednego z dysków. Przy trybie RAID 0, mimo że przyspieszona zostaje praca dysków, nie ma żadnego zabezpieczenia danych, co czyni ten system mniej bezpiecznym. Wymiana pamięci na 2x2GB DDR3 w trybie Dual Channel może zwiększyć przepustowość pamięci i tym samym wydajność systemu, ponieważ pamięć może pracować równolegle. Ostatecznie, wybór RAID 0 lub Dual Channel jako metod modernizacji zależy od konkretnego zastosowania komputera i priorytetów użytkownika między wydajnością a bezpieczeństwem danych. Należy jednak pamiętać, że bez odpowiedniego oprogramowania oraz konfiguracji sprzętowej, zmiany te mogą nie być odczuwalne, dlatego zawsze warto dobrze przemyśleć każdą decyzję modernizacyjną, szczególnie w kontekście systemów operacyjnych i ich ograniczeń.