Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 23 kwietnia 2026 12:35
  • Data zakończenia: 23 kwietnia 2026 12:53

Egzamin niezdany

Wynik: 18/40 punktów (45,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

W drukarce laserowej do stabilizacji druku na papierze używane są

A. głowice piezoelektryczne
B. rozgrzane wałki
C. promienie lasera
D. bęben transferowy
Promienie lasera, bęben transferowy oraz głowice piezoelektryczne to technologie, które mogą być mylone z procesem utrwalania w drukarkach laserowych, jednak nie mają one kluczowego wpływu na ten etap. Promienie lasera są używane do naświetlania bębna światłoczułego, co jest pierwszym krokiem w procesie tworzenia obrazu na papierze, ale nie mają one bezpośredniego związku z utrwalaniem wydruku. Proces ten opiera się na zastosowaniu toneru, który następnie musi zostać utrwalony. Bęben transferowy również nie jest odpowiedzialny za utrwalanie, a raczej za przenoszenie obrazu z bębna światłoczułego na papier. Głowice piezoelektryczne są stosowane w drukarkach atramentowych i nie mają zastosowania w drukarkach laserowych. Często błędnie zakłada się, że wszystkie technologie związane z drukiem są ze sobą powiązane, co prowadzi do nieporozumień. Kluczowe jest zrozumienie, że każda z tych technologii pełni swoją rolę na różnych etapach procesu druku, a nie można ich mylić z fazą utrwalania. Dla efektywnego działania drukarki laserowej konieczne jest zrozumienie specyfiki pracy tych urządzeń oraz umiejętność identyfikacji ich poszczególnych elementów i procesów.

Pytanie 2

Złośliwe oprogramowanie, które może umożliwić atak na zainfekowany komputer, np. poprzez otwarcie jednego z portów, to

A. wabbit
B. trojan
C. exploit
D. keylogger
Mówiąc o złośliwym oprogramowaniu, termin 'exploit' to techniki albo kawałki kodu, które wykorzystują luki w oprogramowaniu, żeby przejąć kontrolę nad systemem. Exploit działa trochę inaczej niż trojan, bo nie jest zamaskowane jako coś legalnego. Zwykle trzeba coś zrobić, na przykład wejść na zainfekowaną stronę, albo otworzyć złośliwy plik. Natomiast 'wabbit' to specyficzny typ wirusa, który sam się klonuje i rozprzestrzenia, ale nie otwiera portów. A 'keylogger' to program, który rejestruje twoje kliknięcia, także to coś innego, bo on nie otwiera portów. Często mylimy te pojęcia, bo klasifikacja złośliwego oprogramowania bywa trudna. Ważne jest, żeby rozumieć, że każdy rodzaj malware działa na swój sposób i ma różne funkcje, a to ma znaczenie, kiedy mówimy o ochronie przed zagrożeniami w sieci.

Pytanie 3

Jeżeli w konfiguracji karty graficznej zostanie wybrane odświeżanie obrazu większe od zalecanego, monitor CRT spełniający normy TCO 99

A. nie wyłączy się, jedynie wyświetli fragment obrazu
B. przejdzie w tryb uśpienia lub wyświetli okno z powiadomieniem
C. może ulec uszkodzeniu
D. nie wyłączy się, wyświetli czarny ekran
Użytkownicy często mylą skutki ustawienia nieodpowiedniego odświeżania z bardziej dramatycznymi konsekwencjami, takimi jak uszkodzenie sprzętu. W rzeczywistości, kiedy odświeżanie obrazu przewyższa możliwości monitora, sprzęt najczęściej nie wyłącza się, a zamiast tego nie jest w stanie zinterpretować sygnału, co prowadzi do utraty obrazu. Wyświetlanie części obrazu lub czarnego ekranu również nie jest typowe, ponieważ monitory CRT mają wbudowane mechanizmy ochronne, które zapobiegają uszkodzeniom. Pojawienie się czarnego obrazu nie oznacza, że monitor działa w sposób prawidłowy — to raczej symptom braku synchronizacji między urządzeniami. Użytkownicy mogą również zakładać, że monitor zgaśnie w momencie wykrycia problemu, jednak tak się nie dzieje. Ostatecznie, powód, dla którego monitory CRT przechodzą w stan uśpienia, jest związany z ich konstrukcją i systemami zabezpieczeń, które mają na celu ochronę przed trwałymi uszkodzeniami. Mylne przekonania co do działania sprzętu mogą prowadzić do niepotrzebnego strachu przed uszkodzeniem, co jest nieuzasadnione, gdyż odpowiednie monitorowanie i dostosowywanie ustawień zapewnia bezpieczne użytkowanie. Ważne jest, aby podczas konfiguracji sprzętu kierować się zaleceniami producentów i stosować się do standardów, co zminimalizuje ryzyko problemów z wyświetlaniem.

Pytanie 4

Osoba korzystająca z systemu Linux, która chce odnaleźć pliki o konkretnej nazwie przy użyciu polecenia systemowego, może wykorzystać komendę

A. pwd
B. pine
C. find
D. search
Polecenie 'find' jest jednym z najpotężniejszych narzędzi w systemie Linux, które służy do wyszukiwania plików i katalogów na podstawie różnych kryteriów. Umożliwia użytkownikom przeszukiwanie hierarchii katalogów, a także zastosowanie filtrów, takich jak nazwa pliku, typ, rozmiar czy data modyfikacji. Na przykład, aby znaleźć plik o nazwie 'dokument.txt' w bieżącym katalogu i wszystkich podkatalogach, można użyć polecenia 'find . -name "dokument.txt"'. Ponadto, 'find' wspiera różnorodne opcje, które pozwalają na wykonywanie akcji na znalezionych plikach, co zwiększa jego przydatność w zautomatyzowanych skryptach. Użycie tego narzędzia jest zgodne z dobrymi praktykami administracji systemami, gdzie efektywne zarządzanie zasobami i szybkie wyszukiwanie plików są kluczowe dla utrzymania wydajności i porządku w systemie.

Pytanie 5

Adresy IPv6 są reprezentowane jako liczby

A. 32 bitowe, wyrażane w postaci ciągów binarnych
B. 128 bitowe, wyrażane w postaci ciągów szesnastkowych
C. 64 bitowe, wyrażane w postaci ciągów binarnych
D. 256 bitowe, wyrażane w postaci ciągów szesnastkowych
Zrozumienie struktury adresów IPv6 jest kluczowe dla prawidłowego ich wykorzystania w nowoczesnych sieciach. Adresy IPv6 nie są 32-bitowe, jak sugeruje jedna z opcji odpowiedzi. Takie podejście jest typowe dla adresowania IPv4, które ogranicza się do około 4 miliardów unikalnych adresów. Z kolei 256-bitowe adresy byłyby niezwykle rozbudowane i praktycznie niepotrzebne, biorąc pod uwagę, że liczba adresów IPv6 wynosi 2^128, co przekłada się na ilość rzędu 340 undecylionów. Taki nadmiar adresów nie jest potrzebny w obecnych zastosowaniach. Inna błędna koncepcja dotyczy podawania adresów w postaci napisów binarnych. Chociaż technicznie możliwe jest przedstawienie adresów IPv6 w formie binarnej, byłoby to niewygodne i niepraktyczne dla ludzi, dlatego przyjęto konwencję szesnastkową. Format szesnastkowy jest znacznie bardziej kompaktowy i łatwiejszy do zrozumienia i zapamiętania. Z tego powodu, aby uniknąć zamieszania, ważne jest, aby przyzwyczaić się do odpowiednich formatów i standardów, takich jak RFC 5952, który promuje sposób zapisywania adresów IPv6. Zrozumienie tych różnic jest kluczowe dla prawidłowego zarządzania sieciami oraz ich bezpieczeństwem, co jest podstawowym wymaganiem w projektach IT.

Pytanie 6

Po wykonaniu eksportu klucza HKCU zostanie zapisana kopia rejestru zawierająca informacje, dotyczące konfiguracji

A. procedur uruchamiających system operacyjny.
B. wszystkich aktywnie ładowanych profili użytkowników systemu.
C. sprzętowej komputera dla wszystkich użytkowników systemu.
D. aktualnie zalogowanego użytkownika.
Wiele osób zakłada, że eksportując klucz rejestru HKCU, zapiszą konfigurację dotyczącą wszystkich użytkowników systemu albo nawet ustawienia sprzętowe czy startowe systemu operacyjnego. To moim zdaniem całkiem częsty błąd wynikający z nie do końca jasnej struktury Windowsowego rejestru, szczególnie dla osób, które dopiero zaczynają swoją przygodę z administracją. Klucz HKEY_CURRENT_USER (HKCU) zawsze odnosi się wyłącznie do profilu bieżącego, zalogowanego użytkownika. Nie zapiszesz tutaj w żaden sposób konfiguracji innych użytkowników, nawet jeśli są oni obecni na tym samym komputerze – bo ich dane znajdują się w osobnych plikach i kluczach np. HKEY_USERS z odpowiednimi SID-ami. Podobnie, nie znajdziesz tu informacji o sprzęcie – za to odpowiada HKEY_LOCAL_MACHINE, zwłaszcza gałąź SYSTEM i HARDWARE, które przechowują np. sterowniki, identyfikatory urządzeń czy ustawienia BIOS/UEFI. Jeśli chodzi o procedury uruchamiania systemu, to one są osadzone głównie w HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet oraz HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\CurrentVersion\Run, natomiast HKCU zawiera jedynie indywidualne programy startowe wyłącznie dla danego użytkownika, nie całą logikę bootowania Windowsa. W praktyce, błędne rozumienie tych zależności może prowadzić do poważnych niedopatrzeń przy backupach czy migracjach – przykładowo można utracić ustawienia innych użytkowników sądząc, że jeden eksport HKCU załatwia sprawę. Najlepszą praktyką jest zawsze dokładne określenie, które gałęzie rejestru odpowiadają za konkretne aspekty systemu i użytkownika – to podstawa skutecznego zarządzania środowiskiem Windows.

Pytanie 7

Brak informacji o parzystości liczby lub o znaku wyniku operacji w ALU może sugerować problemy z funkcjonowaniem

A. tablicy rozkazów
B. wskaźnika stosu
C. rejestru flagowego
D. pamięci cache
Odpowiedzi takie jak pamięć cache, wskaźnik stosu oraz tablica rozkazów są nieodpowiednie w kontekście braku informacji o parzystości liczby czy znaku wyniku operacji w ALU. Pamięć cache jest technologią, która optymalizuje dostęp do danych, przechowując często używane informacje, ale nie ma wpływu na operacje arytmetyczne czy logiczne wykonywane przez ALU. Jej rola polega na zwiększeniu wydajności systemu przez minimalizowanie opóźnień w dostępie do pamięci głównej. Wskaźnik stosu z kolei zarządza strukturą danych zwaną stosem, która jest używana do przechowywania adresów powrotu oraz lokalnych zmiennych, a nie do zarządzania wynikami operacji arytmetycznych. Z perspektywy działania ALU, wskaźnik stosu nie ma nic wspólnego z informacjami o parzystości czy znaku. Tablica rozkazów to z kolei strona architektury procesora, która przechowuje instrukcje do wykonania; jednak odpowiedzialność za zarządzanie wynikami leży w rejestrach, a nie w tablicy rozkazów. Właściwe zrozumienie ról tych komponentów jest kluczowe dla efektywnego projektowania systemów komputerowych. Często mylenie tych terminów prowadzi do nieporozumień dotyczących działania architektury komputerowej i jej elementów składowych. Ważne jest, aby w kontekście programowania i architektury komputerowej, mieć jasność co do funkcji każdego z komponentów, aby unikać błędów w projektowaniu oraz implementacji.

Pytanie 8

Jaki adres IP należy do grupy A?

A. 129.10.0.17
B. 239.0.255.15
C. 217.12.45.1
D. 125.11.0.7
Adres IP 125.11.0.7 należy do klasy A, co oznacza, że jego pierwszy oktet mieści się w zakresie od 1 do 126. Klasa A jest przeznaczona dla dużych organizacji i oferuje największą liczbę dostępnych adresów IP, co czyni ją idealną dla instytucji, które potrzebują dużych pul adresowych. W przypadku tej klasy, maska podsieci to zwykle 255.0.0.0, co pozwala na wiele możliwości segmentacji sieci. Przykładem zastosowania adresów klasy A mogą być duże firmy międzynarodowe, które posiadają rozbudowaną infrastrukturę sieciową i potrzebują wielu adresów IP do zarządzania różnymi oddziałami. Warto również zaznaczyć, że adresy IP z klasy A są często używane w systemach, które wymagają rozległych sieci lokalnych (LAN) z wieloma urządzeniami, takimi jak serwery, komputery oraz urządzenia mobilne. Dzięki temu, rozumienie klas adresacji IP oraz ich zastosowania jest kluczowe w zarządzaniu nowoczesnymi sieciami komputerowymi.

Pytanie 9

Który z standardów Gigabit Ethernet pozwala na stworzenie segmentów sieci o długości 550 m/5000 m przy szybkości przesyłu danych 1 Gb/s?

A. 1000Base-SX
B. 1000Base-FX
C. 1000Base-LX
D. 1000Base-T
Wybór innych odpowiedzi, takich jak 1000Base-FX, 1000Base-SX czy 1000Base-T, opiera się na niepełnym zrozumieniu specyfikacji i właściwości tych standardów. 1000Base-T, na przykład, jest standardem zaprojektowanym do pracy w sieciach miedzianych i obsługuje długości do 100 m, co czyni go niewłaściwym rozwiązaniem dla wymagań dotyczących większych odległości. Jego zastosowanie jest ograniczone do lokalnych sieci, gdzie nie można osiągnąć długości przekraczających 100 m, co znacznie ogranicza jego funkcjonalność w kontekście budowy segmentów o długościach 550 m lub więcej. 1000Base-SX, z kolei, jest przeznaczony głównie do zastosowań w światłowodach wielomodowych, oferując maksymalną długość transmisji do 550 m, jednak nie spełnia wymogów dla dłuższych połączeń. Ostatecznie, 1000Base-FX, mimo że jest kompatybilny z mniejszymi odległościami w technologii światłowodowej, nie oferuje na tyle dużych zasięgów, aby konkurować z 1000Base-LX w kontekście wielodystansowych wdrożeń sieciowych. Warto więc dążyć do pełniejszego zrozumienia różnic między poszczególnymi standardami, aby podejmować trafne decyzje w projektowaniu i implementacji sieci.

Pytanie 10

W dokumentacji technicznej procesora producent umieścił wyniki testu, który został wykonany przy użyciu programu CPU-Z. Z tych danych wynika, że procesor dysponuje

Ilustracja do pytania
A. 4 rdzenie
B. 6 rdzeni
C. 5 rdzeni
D. 2 rdzenie
Procesor o 2 rdzeniach, jak wynika z opisu, jest odpowiedni dla podstawowych zastosowań, takich jak przeglądanie internetu, praca biurowa czy oglądanie multimediów. Takie procesory charakteryzują się mniejszym poborem mocy i niższą emisją ciepła, co jest korzystne dla dłuższej pracy na baterii w laptopach. W kontekście standardów i praktyk branżowych, procesory dwurdzeniowe są często stosowane w urządzeniach, które nie wymagają wysokiej wydajności, ale potrzebują niezawodności i stabilności pracy. Warto dodać, że technologie stosowane w nowoczesnych procesorach, takie jak Intel Hyper-Threading, mogą wirtualnie zwiększać liczbę rdzeni, co poprawia wydajność w aplikacjach wielowątkowych. Jednak fizycznie nadal mamy do czynienia z dwoma rdzeniami. Dla aplikacji zoptymalizowanych do pracy wielowątkowej, liczba rdzeni jest kluczowym parametrem, wpływającym na efektywność przetwarzania danych. Właściwy dobór procesora do konkretnych zadań jest istotny w branży IT, aby zapewnić optymalną wydajność przy jednoczesnym zachowaniu efektywności energetycznej.

Pytanie 11

Kable łączące dystrybucyjne punkty kondygnacyjne z głównym punktem dystrybucji są określane jako

A. okablowaniem pionowym
B. okablowaniem poziomym
C. połączeniami telekomunikacyjnymi
D. połączeniami systemowymi
Okablowanie poziome odnosi się do kabli, które łączą urządzenia końcowe, takie jak komputery i telefony, z punktami dystrybucji w danym piętrze, co jest odmiennym zagadnieniem. W kontekście architektury sieci, okablowanie poziome jest zorganizowane w ramach kondygnacji budynku i nie obejmuje połączeń między kondygnacjami, co jest kluczowe w definicji okablowania pionowego. Połączenia systemowe czy telekomunikacyjne są terminami szerszymi, które mogą obejmować różne formy komunikacji, ale nie identyfikują jednoznacznie specyficznych typów okablowania. Typowym błędem myślowym przy wyborze tych odpowiedzi jest mylenie lokalizacji i funkcji kabli. Każde okablowanie ma swoje specyficzne zadania, a zrozumienie ich ról w systemie telekomunikacyjnym jest kluczowe. Na przykład, projektując sieć w budynku, inżynierowie muszą precyzyjnie określić, które połączenia są pionowe, aby zainstalować odpowiednie komponenty, takie jak serwery czy routery, w głównych punktach dystrybucyjnych, a nie na poziomie pięter. Dlatego poprawne zrozumienie koncepcji okablowania pionowego jest niezbędne dla prawidłowego projektowania infrastruktury sieciowej.

Pytanie 12

Protokół Datagramów Użytkownika (UDP) należy do kategorii

A. połączeniowych warstwy transportowej modelu TCP/IP
B. bezpołączeniowych warstwy łącza danych modelu ISO/OSI
C. bezpołączeniowych warstwy transportowej modelu TCP/IP
D. połączeniowych warstwy łącza danych ISO/OSI
Wybór odpowiedzi, która sugeruje, że UDP jest protokołem połączeniowym, jest błędny, ponieważ w rzeczywistości UDP działa na zasadzie bezpołączeniowej. Protokół połączeniowy, jak TCP (Transmission Control Protocol), wymaga nawiązania sesji przed przesyłaniem danych oraz zapewnia mechanizmy kontroli błędów i retransmisji, co pozwala na zapewnienie integralności przesyłanych informacji. W przeciwieństwie do tego, UDP nie gwarantuje dostarczenia pakietów ani ich kolejności, co wynika z braku mechanizmów potwierdzania odbioru. Stosowanie protokołów warstwy łącza danych modelu ISO/OSI, które są związane z fizycznym przesyłaniem danych, jest również nieprawidłowe w kontekście UDP, który funkcjonuje na wyższej warstwie transportowej. Użytkownicy mogą błędnie sądzić, że protokoły warstwy łącza mogą zapewnić te same funkcjonalności co warstwa transportowa, co prowadzi do nieporozumień na temat architektury sieci. Kluczowym błędem jest niezdolność do zrozumienia, że warstwa transportowa jest odpowiedzialna za komunikację między procesami w różnych hostach, a warstwa łącza dotyczy jedynie komunikacji na poziomie fizycznym między urządzeniami w obrębie tej samej sieci. Zrozumienie różnicy między tymi warstwami jest niezbędne dla prawidłowego projektowania i zarządzania sieciami komputerowymi.

Pytanie 13

Licencja Windows OEM nie umożliwia wymiany

A. sprawnej karty sieciowej na model o wyższych parametrach
B. sprawnego dysku twardego na model o wyższych parametrach
C. sprawnej płyty głównej na model o wyższych parametrach
D. sprawnego zasilacza na model o wyższych parametrach
Wybór odpowiedzi dotyczących wymiany sprawnych komponentów, takich jak zasilacz, karta sieciowa czy dysk twardy, wskazuje na niepełne zrozumienie zasad licencjonowania Windows OEM. Licencja ta jest zaprojektowana z myślą o konkretnym sprzęcie, co oznacza, że pozwala na wymianę niektórych elementów komputera, o ile nie naruszają one tożsamości systemu. Na przykład, wymiana zasilacza na model o lepszych parametrach nie wpływa na identyfikację komputera, a tym samym nie wymaga nowej licencji. Podobnie, modernizacja karty sieciowej czy dysku twardego nie wiąże się z koniecznością zmiany licencji, ponieważ te komponenty nie są kluczowe dla identyfikacji sprzętowej maszyny. Błędne rozumienie tego zagadnienia może prowadzić do niepotrzebnych wydatków na nowe licencje lub niepewności w zakresie legalności oprogramowania. Zastosowanie praktycznych zasad dotyczących licencjonowania i aktualizacji sprzętu jest istotnym elementem efektywnego zarządzania zasobami IT w organizacji oraz zapewnienia zgodności z regulacjami prawnymi.

Pytanie 14

Lokalny komputer dysponuje adresem 192.168.0.5. Po otwarciu strony internetowej z tego urządzenia, która identyfikuje adresy w sieci, uzyskano informację, że adresem komputera jest 195.182.130.24. Co to oznacza?

A. serwer DHCP zmienił nasz adres w czasie przesyłania żądania
B. inny komputer podszył się pod adres naszego urządzenia
C. adres został przetłumaczony przez translację NAT
D. serwer WWW dostrzega inny komputer w sieci
Adres 195.182.130.24, widoczny dla serwera WWW, jest wynikiem procesu translacji adresów (NAT), który jest powszechnie stosowany w sieciach lokalnych oraz w routerach. NAT pozwala na przetłumaczenie prywatnych adresów IP, takich jak 192.168.0.5, na publiczny adres IP, dzięki czemu komputery w sieci lokalnej mogą komunikować się z Internetem. W praktyce każdy komputer w sieci lokalnej ma przypisany adres IP z zakresu prywatnych adresów (10.0.0.0/8, 172.16.0.0/12, 192.168.0.0/16), a router wykonuje translację, aby umożliwić dostęp do zasobów globalnej sieci. Przy tym, NAT pomaga również w zabezpieczaniu sieci, ponieważ chroni rzeczywiste adresy IP w sieci lokalnej przed bezpośrednim dostępem z Internetu. Oprócz tego, NAT umożliwia wiele komputerom korzystanie z jednego publicznego adresu IP, co jest nie tylko oszczędnością, ale także praktycznym rozwiązaniem w dobie ograniczonej liczby publicznych adresów IPv4.

Pytanie 15

Przerywając działalność na komputerze, możemy szybko wrócić do pracy, wybierając w systemie Windows opcję:

A. zamknięcia systemu
B. ponownego uruchomienia
C. stanu wstrzymania
D. wylogowania
Wybór opcji stanu wstrzymania jest prawidłowy, ponieważ pozwala na szybkie wznowienie pracy na komputerze bez potrzeby uruchamiania systemu od nowa. Stan wstrzymania, znany również jako tryb uśpienia, przechowuje aktualny stan systemu oraz otwarte aplikacje w pamięci RAM, co umożliwia natychmiastowy powrót do pracy po wznowieniu. Przykładem zastosowania stanu wstrzymania jest sytuacja, gdy użytkownik wykonuje kilka zadań i musi na chwilę odejść od komputera; zamiast wyłączać system, co zajmie więcej czasu, może po prostu wprowadzić go w stan wstrzymania. Z perspektywy dobrych praktyk zarządzania energią, przejście w stan wstrzymania jest bardziej efektywne energetycznie niż pełne wyłączenie komputera, a także przeciwdziała nadmiernemu zużyciu podzespołów. Warto również zauważyć, że wiele nowoczesnych systemów operacyjnych wspiera automatyczne przejście w stan wstrzymania po określonym czasie bezczynności, co jest korzystne zarówno dla wydajności, jak i oszczędności energii.

Pytanie 16

Układ na karcie graficznej, którego zadaniem jest zamiana cyfrowego sygnału generowanego poprzez kartę na sygnał analogowy, który może być wyświetlony poprzez monitor to

A. głowica FM
B. multiplekser
C. RAMBUS
D. RAMDAC
Odpowiedzi takie jak RAMBUS, głowica FM czy multiplekser wydają się na pierwszy rzut oka techniczne, ale ich zastosowanie w kontekście wyjścia sygnału na monitor jest zupełnie inne lub wręcz nieadekwatne. RAMBUS to nazwa typu pamięci komputerowej, stosowanej głównie w pamięciach RAM (czyli np. w komputerach PC), która charakteryzowała się wysoką przepustowością, ale nigdy nie była używana do konwersji sygnałów graficznych. Częsty błąd myślowy wynika z podobieństwa brzmienia słów lub z przekonania, że skrót RAM w nazwie urządzenia zawsze dotyczy grafiki czy wyjścia obrazu, ale to nie jest prawda. Głowica FM natomiast, to element wykorzystywany najczęściej w urządzeniach do transmisji i odbioru fal radiowych, np. w starych magnetofonach lub tunerach radiowych. Technologia ta odpowiada za odbiór lub zapis informacji w postaci modulacji częstotliwości, co w ogóle nie ma zastosowania przy przetwarzaniu sygnałów graficznych. Wybór tej odpowiedzi wynika często z mylenia różnych dziedzin elektroniki – radiofonii i komputerów. Multiplekser z kolei jest układem cyfrowym umożliwiającym wybór jednego z wielu sygnałów wejściowych i przekazanie go na wyjście, co faktycznie znajduje zastosowanie w wielu projektach elektronicznych, jednak nie realizuje samej konwersji sygnału cyfrowego na analogowy. Często osoby uczące się elektroniki kojarzą multipleksery z ogólną „zmianą sygnału”, ale to nie jest prawidłowy tok rozumowania w przypadku kart graficznych. W tym zagadnieniu kluczowe są właśnie układy typu DAC (Digital-to-Analog Converter), a ich specjalizowaną wersję dla grafiki stanowi RAMDAC. To on pozwalał komputerom lat 90. i początku XXI wieku korzystać z monitorów analogowych bez problemów z kompatybilnością. Dobrze jest zatem znać różnice pomiędzy ogólnymi pojęciami elektroniki a specyficznymi rozwiązaniami stosowanymi w branży komputerowej.

Pytanie 17

Licencja obejmująca oprogramowanie układowe, umieszczone na stałe w sprzętowej części systemu komputerowego, to

A. Freeware
B. GPL
C. GNU
D. Firmware
Poprawnie – w tym pytaniu chodzi właśnie o pojęcie „firmware”. Firmware to specjalny rodzaj oprogramowania układowego, które jest na stałe zapisane w pamięci nieulotnej urządzenia, najczęściej w pamięci flash, EEPROM albo dawniej w ROM. Jest ono ściśle powiązane ze sprzętem i odpowiada za jego podstawowe działanie: inicjalizację podzespołów, obsługę prostych funkcji, komunikację z systemem operacyjnym. Przykładowo BIOS/UEFI w komputerze, oprogramowanie w routerze, w drukarce, w dysku SSD, w karcie sieciowej czy w kontrolerze RAID – to wszystko typowe przykłady firmware. Z mojego doświadczenia w serwisie komputerowym, aktualizacja firmware’u potrafi rozwiązać bardzo dziwne problemy: np. dysk SSD przestaje się zawieszać, płyta główna zaczyna obsługiwać nowe procesory, a router działa stabilniej pod obciążeniem. Ważne jest, że mówimy o licencji obejmującej właśnie ten rodzaj oprogramowania, czyli producent określa, na jakich warunkach wolno ci używać, aktualizować lub modyfikować firmware. W praktyce w środowisku IT przyjmuje się, że firmware jest integralną częścią sprzętu, ale prawnie nadal pozostaje oprogramowaniem, które podlega ochronie praw autorskich i licencjonowaniu. Dlatego np. w dokumentacji serwisowej czy specyfikacjach technicznych spotkasz osobne zapisy typu „licencja na firmware urządzenia”, „warunki użytkowania oprogramowania układowego” itp. Dobrą praktyką jest zawsze sprawdzanie, czy producent dopuszcza modyfikacje lub alternatywne firmware (np. OpenWrt w routerach), bo naruszenie licencji może być problematyczne, nawet jeśli technicznie da się to zrobić bez problemu.

Pytanie 18

Tryb działania portu równoległego, oparty na magistrali ISA, który umożliwia transfer danych do 2,4 MB/s, przeznaczony dla skanerów oraz urządzeń wielofunkcyjnych, to

A. ECP
B. Nibble Mode
C. SPP
D. Bi-directional
Wybór trybu SPP (Standard Parallel Port) jest częstym błędem w rozumieniu różnorodności portów równoległych. SPP ogranicza transfer do 150 KB/s, co zdecydowanie nie spełnia wymagań nowoczesnych urządzeń, takich jak skanery czy wielofunkcyjne drukarki, które potrzebują szybszego transferu danych. Nibble Mode, z kolei, to metoda, która pozwala przesyłać dane w blokach po 4 bity, co również jest mało efektywne w kontekście nowoczesnych aplikacji. Zastosowanie tej metody może prowadzić do znacznych opóźnień oraz obniżonej wydajności, co jest nieakceptowalne w środowiskach wymagających wysokiej przepustowości. Bi-directional oznacza komunikację w obu kierunkach, co teoretycznie zwiększa możliwości interakcji z urządzeniami, jednak nie jest on dedykowany do osiągnięcia tak wysokich prędkości transferu danych jak ECP. Zrozumienie różnic między tymi trybami jest kluczowe dla efektywnej konfiguracji sprzętu. Użytkownicy często myślą, że różnice są marginalne, podczas gdy w praktyce mogą one znacznie wpłynąć na wydajność systemu oraz czas realizacji zadań. Tego rodzaju błędy w ocenie mogą prowadzić do wyboru niewłaściwego sprzętu, co w dłuższej perspektywie skutkuje dużymi stratami czasowymi i finansowymi.

Pytanie 19

Wymianę uszkodzonych kondensatorów karty graficznej umożliwi

A. wkrętak krzyżowy i opaska zaciskowa.
B. klej cyjanoakrylowy.
C. żywica epoksydowa.
D. lutownica z cyną i kalafonią.
W świecie elektroniki zdarzają się pomysły, które choć mogą wydawać się logiczne na pierwszy rzut oka, w praktyce mogą przynieść więcej szkody niż pożytku. Przykładowo, żywica epoksydowa czy klej cyjanoakrylowy rzeczywiście świetnie sprawdzają się jako środki mocujące, ale są kompletnie nieprzydatne przy wymianie kondensatorów w układach elektronicznych. Te substancje nie przewodzą prądu i nie służą do łączenia elementów przewodzących, a nawet mogą uszkodzić delikatne ścieżki PCB poprzez swoje właściwości izolujące lub przez trudność w późniejszym usunięciu. To trochę jak próba przyklejenia przewodu do kontaktu zamiast go wkręcić lub przylutować – po prostu nie zadziała. Jeśli chodzi o wkrętak krzyżowy i opaski zaciskowe, to są one wykorzystywane przy montażu mechanicznych części komputera, np. przykręcaniu dysków twardych czy organizacji kabli, ale nie mają żadnej roli w połączeniach elektrycznych na płytkach drukowanych. Z mojego doświadczenia wynika, że wiele osób myli mechaniczne mocowanie komponentów z ich elektrycznym połączeniem. Stąd często pojawia się przekonanie, że do wymiany kondensatora wystarczy „coś, czym go przymocujemy na płytce”. Jednak w elektronice stosuje się metody lutowane, bo tylko one zapewniają niską rezystancję i trwałość połączenia, zgodnie z branżowymi normami IPC oraz zasadami BHP. Próby używania niewłaściwych materiałów mogą się skończyć niestabilnością pracy sprzętu, a nawet uszkodzeniem innych elementów. Dlatego tak ważne jest rozróżnianie narzędzi typowo elektronicznych od tych ogólnomechanicznych czy chemicznych. Bez lutownicy, cyny i kalafonii nie da się wymienić kondensatora w sposób prawidłowy i bezpieczny – i to jest wiedza, którą każdy technik powinien mieć w małym palcu.

Pytanie 20

Jakie narzędzie w systemie Windows pozwala na ocenę wpływu poszczególnych procesów i usług na wydajność procesora oraz na obciążenie pamięci i dysku?

A. resmon
B. cleanmgr
C. dcomcnfg
D. credwiz
Odpowiedzi typu "credwiz", "cleanmgr" czy "dcomcnfg" nie są dobre, bo nie spełniają roli monitorowania wydajności systemu. Na przykład credwiz, czyli Kreator zarządzania poświadczeniami, jest używany do innych celów – zarządza poświadczeniami, a nie wydajnością. Cleanmgr, ten Oczyszczacz dysku, ma za zadanie zwolnić miejsce na dysku przez usuwanie niepotrzebnych plików, a nie monitorowanie procesów. Dcomcnfg to narzędzie do ustawień DCOM i też nie ma nic wspólnego z monitorowaniem. Wybierając te opcje, można się pogubić, bo każde z nich ma zupełnie inną funkcję. Ważne jest, żeby wiedzieć, które narzędzia są do czego, bo jak się ich pomiesza, to można nie tak optymalizować system. Z mojego doświadczenia, lepiej się skupić na narzędziach, które naprawdę służą do monitorowania wydajności, jak Monitor zasobów.

Pytanie 21

Przyglądając się przedstawionemu obrazkowi, można dostrzec, że deklarowany limit pamięci wynosi 620976 KB. Zauważamy również, że zainstalowana pamięć fizyczna w badanym systemie jest mniejsza niż pamięć zadeklarowana. Który typ pamięci wpływa na podniesienie limitu pamięci zadeklarowanej powyżej rozmiaru zainstalowanej pamięci fizycznej?

Ilustracja do pytania
A. Pamięć jądra
B. Pamięć RAM
C. Pamięć pliku stron
D. Pamięć cache procesora
Pamięć RAM jest podstawowym rodzajem pamięci, w której przechowywane są dane i programy będące aktualnie w użyciu. Choć jest szybka, jej rozmiar jest ograniczony do fizycznie zainstalowanej ilości, co może prowadzić do problemów, gdy wymagania systemowe przewyższają dostępne zasoby pamięci. Pamięć jądra odnosi się do tej części pamięci operacyjnej, która jest wykorzystywana przez system operacyjny do zarządzania sprzętem i wykonywania podstawowych funkcji systemowych. Choć jest kluczowa dla działania systemu, jej rozmiar i zarządzanie nie wpływają bezpośrednio na zwiększenie limitu pamięci zadeklarowanej. Pamięć cache procesora jest szybkim rodzajem pamięci umieszczonym blisko procesora, co pozwala na szybki dostęp do często używanych danych. Nie wpływa jednak na całkowity limit pamięci zadeklarowanej w systemie. Błędne przypisanie roli którejkolwiek z tych pamięci do zwiększenia dostępnej pamięci wynika z nieporozumienia co do ich funkcji. Pamięć pliku stron jest w rzeczywistości jedynym mechanizmem, który pozwala na rozszerzenie pamięci operacyjnej poza fizyczne ograniczenia, dzięki wykorzystaniu przestrzeni dyskowej jako rozszerzenia pamięci RAM. Zrozumienie różnic i specyfiki każdej z tych pamięci pozwala na efektywne zarządzanie zasobami systemowymi i unikanie typowych błędów w rozumieniu architektury komputerowej. Doświadczenie wskazuje, że znajomość podstaw działania pamięci wirtualnej jest niezbędna dla każdego specjalisty IT, szczególnie przy optymalizacji systemów o ograniczonych zasobach sprzętowych.

Pytanie 22

Komputer z BIOS-em firmy Award wyświetlił komunikat o treści Primary/Secondary master/slave hard disk fail. Co taki komunikat może sugerować w kontekście konieczności wymiany?

A. dysku twardego
B. pamięci operacyjnej
C. klawiatury
D. karty graficznej
Komunikat "Primary/Secondary master/slave hard disk fail" wskazuje na problem z dyskiem twardym, co może oznaczać, że BIOS nie jest w stanie rozpoznać podłączonego nośnika pamięci. Zwykle jest to spowodowane uszkodzeniem dysku, jego niewłaściwym podłączeniem lub problemem z zasilaniem. W praktyce, jeśli wystąpi ten komunikat, pierwszym krokiem diagnostycznym powinno być sprawdzenie fizycznego połączenia dysku: upewnij się, że kable SATA oraz zasilające są prawidłowo wpięte. W przypadku braku poprawy, należy przetestować dysk na innym komputerze lub użyć dysku diagnostycznego, aby ocenić jego stan. Dobre praktyki w zakresie zarządzania urządzeniami pamięci masowej zalecają regularne tworzenie kopii zapasowych danych, co może zapobiec utracie informacji w przypadku awarii sprzętu. Ponadto, w przypadku potrzeby wymiany dysku, warto rozważyć zakup nowoczesnych dysków SSD, które oferują lepszą wydajność i niezawodność w porównaniu z tradycyjnymi HDD.

Pytanie 23

Jakie urządzenie ilustruje zamieszczony rysunek?

Ilustracja do pytania
A. Przełącznik
B. Most sieciowy
C. Punkt dostępowy
D. Koncentrator
Punkt dostępowy, znany również jako access point, to urządzenie umożliwiające bezprzewodowy dostęp do sieci lokalnej (LAN). W praktyce, punkty dostępowe są kluczowym elementem infrastruktury sieci bezprzewodowych, takich jak Wi-Fi, gdzie służą jako most pomiędzy siecią przewodową a urządzeniami bezprzewodowymi, jak laptopy, smartfony, czy tablety. Warto zauważyć, że punkty dostępowe często stosowane są w miejscach o dużym natężeniu ruchu, takich jak biura, szkoły, czy lotniska, gdzie umożliwiają wielu użytkownikom jednoczesne połączenie się z internetem zgodnie z odpowiednimi standardami, np. IEEE 802.11. Dobrym przykładem zastosowania punktu dostępowego jest jego integracja z siecią w celu rozszerzenia zasięgu sygnału, co pozwala na lepsze pokrycie i minimalizację martwych stref. Kluczowe aspekty konfiguracji punktów dostępowych obejmują zarządzanie kanałami i częstotliwościami w celu zminimalizowania interferencji oraz zapewnienie odpowiedniego poziomu bezpieczeństwa, np. poprzez zastosowanie szyfrowania WPA3. Dzięki tym cechom, punkty dostępowe stanowią fundament nowoczesnych, elastycznych sieci bezprzewodowych, wspierając mobilność i łączność użytkowników w różnych środowiskach.

Pytanie 24

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. wybraniem pliku z obrazem dysku.
B. konfigurowaniem adresu karty sieciowej.
C. dodaniem drugiego dysku twardego.
D. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 25

Impulsator pozwala na diagnozowanie uszkodzonych układów logicznych komputera między innymi poprzez

A. analizę stanów logicznych obwodów cyfrowych
B. wprowadzenie na wejście układu stanu wysokiego
C. sprawdzenie stanu wyjściowego układu
D. kalibrację mierzonych parametrów elektrycznych
Odczytanie stanu wyjściowego układu nie jest funkcją impulsatora, lecz jest zadaniem narzędzi pomiarowych, takich jak multimetru lub oscyloskopu. Te urządzenia pozwalają na bezpośredni pomiar napięcia na wyjściu układów logicznych, jednak nie są skonstruowane do wprowadzania sygnałów na wejście. Podawanie na wejście układu stanu wysokiego jest kluczowe dla testów, ale samo odczytanie stanu wyjściowego nie dostarcza informacji o wydajności układu w reakcji na zmiany sygnałów. Kalibracja mierzonych wielkości elektrycznych dotyczy raczej precyzyjnych pomiarów parametrów elektrycznych, a nie testowania logiki układów. Kalibracja jest procesem dostosowywania urządzenia pomiarowego, by uzyskać dokładne wyniki, ale nie ma związku z bezpośrednim testowaniem układów logicznych. Badanie stanów logicznych obwodów cyfrowych jest ogólnym określeniem działań związanych z analizą, lecz nie odnosi się bezpośrednio do funkcji impulsatora. Typowym błędem jest mylenie funkcji testowania z pomiarem, co prowadzi do nieprawidłowych wniosków dotyczących zastosowania impulsatorów. W rzeczywistości, impulsator koncentruje się na wprowadzaniu sygnałów, a nie na pasywnym obserwowaniu wyjść układów.

Pytanie 26

Symbol graficzny przedstawiony na rysunku wskazuje na opakowanie

Ilustracja do pytania
A. wykonane z materiałów wtórnych
B. odpowiednie do recyklingu
C. zgodne z normą TCO
D. do ponownego użycia
Błędne odpowiedzi wynikają z nieprawidłowej interpretacji symbolu który faktycznie oznacza możliwość recyklingu a nie inne właściwości opakowania Oznaczenie zgodnie z normą TCO zwykle odnosi się do standardów związanych z ergonomią oraz przyjaznością dla użytkownika w kontekście sprzętu elektronicznego a nie do opakowań Symbol mówiący o wielokrotnym użyciu różni się od symbolu recyklingu i ma formę trzech strzałek tworzących trójkąt co jasno informuje użytkownika o możliwości ponownego użycia danego opakowania lub produktu Wyprodukowanie z surowców wtórnych oznacza że materiał pochodzi z przetworzonego surowca co jest równie ważne w kontekście ochrony środowiska ale nie jest tym samym co recykling Recykling obejmuje proces przetwarzania zużytych materiałów na nowe produkty co różni się od samego wykorzystania surowców wtórnych Różnorodne symbole ekologiczne mają na celu edukację konsumentów i promowanie zrównoważonego rozwoju dlatego istotne jest aby prawidłowo je rozpoznawać i rozumieć ich znaczenie co pomaga w codziennym podejmowaniu bardziej świadomych i ekologicznych decyzji

Pytanie 27

Schemat ilustruje ustawienia urządzenia WiFi. Wskaż, które z poniższych stwierdzeń na temat tej konfiguracji jest prawdziwe?

Ilustracja do pytania
A. Filtrowanie adresów MAC jest wyłączone
B. Obecnie w sieci WiFi działa 7 urządzeń
C. Urządzenia w sieci posiadają adresy klasy A
D. Dostęp do sieci bezprzewodowej jest ograniczony tylko do siedmiu urządzeń
Filtrowanie adresów MAC w sieciach WiFi jest techniką zabezpieczającą polegającą na ograniczaniu dostępu do sieci tylko dla urządzeń o określonych adresach MAC. W przypadku przedstawionej konfiguracji opcja filtrowania adresów MAC jest ustawiona na 'Disable', co oznacza, że filtrowanie adresów MAC jest wyłączone. Oznacza to, że wszystkie urządzenia mogą łączyć się z siecią, niezależnie od ich adresu MAC. W praktyce, wyłączenie filtrowania adresów MAC może być użyteczne w środowiskach, gdzie konieczne jest zapewnienie szerokiego dostępu do sieci bez konieczności ręcznego dodawania adresów MAC urządzeń do listy dozwolonych. Jednakże, z perspektywy bezpieczeństwa, wyłączenie filtrowania MAC może zwiększać ryzyko nieautoryzowanego dostępu do sieci, dlatego w środowiskach o wysokim stopniu bezpieczeństwa zaleca się jego włączenie i regularną aktualizację listy dozwolonych adresów. Dobre praktyki branżowe wskazują na konieczność stosowania dodatkowych mechanizmów zabezpieczeń, takich jak WPA2 lub WPA3, aby zapewnić odpowiedni poziom ochrony sieci bezprzewodowej.

Pytanie 28

Której funkcji należy użyć do wykonania kopii zapasowej rejestru systemowego w edytorze regedit?

A. Importuj.
B. Załaduj gałąź rejestru.
C. Kopiuj nazwę klucza.
D. Eksportuj.
Prawidłowa odpowiedź to „Eksportuj” i właśnie tej funkcji należy użyć, gdy chcemy wykonać kopię zapasową danego fragmentu lub nawet całego rejestru systemu Windows w edytorze regedit. Eksportowanie polega na zapisaniu wybranych kluczy (lub całej gałęzi) do pliku o rozszerzeniu .reg, który potem można zaimportować, żeby przywrócić poprzedni stan. To rozwiązanie jest podstawowym narzędziem administratorów i techników – zarówno przy zabezpieczaniu się przed nieprzewidzianymi zmianami, jak i podczas migracji ustawień między komputerami. Moim zdaniem, bardzo często niedoceniana jest prostota tego rozwiązania: kilka kliknięć pozwala uniknąć naprawdę poważnych problemów przy nieudanych modyfikacjach rejestru. Eksport jest zgodny z zaleceniami Microsoftu dotyczącymi pracy z rejestrem – zawsze, zanim coś zmienisz, warto zrobić kopię zapasową przez eksport. W praktyce, nawet doświadczonym specjalistom czasem zdarza się niechcący coś popsuć w rejestrze, a wtedy taki eksport ratuje skórę. Co ciekawe, plik .reg można też edytować zwykłym notatnikiem, więc możliwe jest ręczne poprawienie ustawień przed importem. Szczerze polecam tę dobrą praktykę – backup przed każdą poważniejszą zmianą w rejestrze to podstawa bezpieczeństwa systemu.

Pytanie 29

Po zainstalowaniu systemu Linux, użytkownik pragnie skonfigurować kartę sieciową poprzez wprowadzenie ustawień dotyczących sieci. Jakie działanie należy podjąć, aby to osiągnąć?

A. /etc/network/interfaces
B. /etc/resolv.configuration
C. /etc/shadow
D. /etc/profile
Poprawna odpowiedź to /etc/network/interfaces, ponieważ jest to główny plik konfiguracyjny używany w wielu dystrybucjach systemu Linux do zarządzania ustawieniami sieciowymi. W tym pliku użytkownik może definiować różne interfejsy sieciowe, przypisywać im adresy IP, maski podsieci oraz inne istotne parametry, takie jak brama domyślna i serwery DNS. Na przykład, aby skonfigurować interfejs eth0 z adresem IP 192.168.1.10, użytkownik wpisze: 'iface eth0 inet static' oraz 'address 192.168.1.10'. Warto zaznaczyć, że w zależności od wybranej dystrybucji, dostępne są różne narzędzia do edytowania tego pliku, takie jak nano czy vim. Praktyczna znajomość edycji pliku /etc/network/interfaces jest kluczowa dla administratorów systemu, którzy muszą zarządzać połączeniami sieciowymi w sposób wydajny i zgodny z najlepszymi praktykami branżowymi. Użytkowanie tego pliku wpisuje się w standardy konfiguracji systemów Unix/Linux, co czyni go niezbędnym narzędziem do zrozumienia i zarządzania infrastrukturą sieciową.

Pytanie 30

Jakie środowisko powinien wybrać administrator sieci, aby zainstalować serwer dla stron WWW w systemie Linux?

A. MySQL
B. vsftpd
C. Apache
D. proftpd
Apache to jeden z najpopularniejszych serwerów stron WWW, który jest szeroko stosowany w środowisku Linux. Jego wybór jako środowiska do instalacji serwera WWW wynika z jego wszechstronności, wydajności oraz obsługi wielu dodatkowych modułów, które znacznie rozszerzają jego funkcjonalność. Apache jest zgodny z wieloma standardami webowymi, co czyni go idealnym rozwiązaniem dla różnorodnych aplikacji internetowych. Dzięki architekturze modułowej, administratorzy mogą łatwo dodawać funkcje, takie jak obsługa PHP, SSL, a także integrację z bazami danych. Przykładem zastosowania Apache jest hostowanie dynamicznych stron internetowych, takich jak blogi, sklepy internetowe, czy portale informacyjne. Ponadto, Apache jest znany z solidnej dokumentacji oraz aktywnej społeczności, co ułatwia rozwiązywanie problemów i wdrażanie najlepszych praktyk w zarządzaniu serwerami WWW. Warto również zwrócić uwagę na narzędzia do monitorowania i zarządzania, takie jak mod_status, które pozwala na śledzenie wydajności serwera w czasie rzeczywistym oraz optymalizację jego ustawień.

Pytanie 31

Wskaż nazwę modelu przechowywania i przetwarzania danych opartego na użytkowaniu zasobów dyskowych, obliczeniowych i programowych, udostępnionych przez usługodawcę za pomocą sieci komputerowej.

A. Serwer FTP.
B. Peer to peer.
C. Chmura obliczeniowa.
D. Internet rzeczy.
Poprawną odpowiedzią jest chmura obliczeniowa, bo opis w pytaniu dokładnie pasuje do modelu cloud computingu: korzystasz z zasobów dyskowych (przestrzeń na dane), obliczeniowych (moc procesora, pamięć RAM, GPU) i programowych (aplikacje, usługi, platformy), które fizycznie należą do dostawcy i są udostępniane przez sieć – najczęściej przez Internet. Z punktu widzenia użytkownika nie interesuje go, gdzie stoją serwery, ile jest macierzy dyskowych, jak są chłodzone centra danych. Ważne jest to, że może się zalogować i skorzystać z usługi na żądanie. W praktyce masz trzy główne modele: IaaS (np. maszyna wirtualna na Azure czy AWS – dostajesz zasoby obliczeniowe i sam instalujesz system i aplikacje), PaaS (np. platforma do uruchamiania aplikacji webowych bez martwienia się o system operacyjny) i SaaS (np. Microsoft 365, Google Workspace – gotowa aplikacja dostępna przez przeglądarkę). Dobra praktyka w branży to wykorzystywanie chmury tam, gdzie liczy się skalowalność, elastyczność i rozliczanie „pay as you go” – płacisz za realne użycie CPU, RAM, przestrzeni dyskowej czy transferu. Z mojego doświadczenia chmura bardzo ułatwia testowanie, backupy, uruchamianie środowisk developerskich i serwerów aplikacyjnych bez kupowania fizycznego sprzętu. W standardach bezpieczeństwa, takich jak ISO/IEC 27001, coraz częściej zakłada się, że część infrastruktury jest w chmurze, a rolą administratora jest poprawna konfiguracja usług, kontrola dostępu, szyfrowanie danych i monitorowanie logów, a nie fizyczne zarządzanie serwerownią. W technikum czy pracy zawodowej warto kojarzyć, że „chmura obliczeniowa” to nie jedno konkretne urządzenie, tylko cały model dostarczania usług IT przez sieć.

Pytanie 32

Uruchomienie systemu Windows jest niemożliwe z powodu awarii oprogramowania. W celu przeprowadzenia jak najmniej inwazyjnej diagnostyki i usunięcia tej usterki, zaleca się

A. uruchomienie komputera w trybie awaryjnym
B. wykonanie reinstalacji systemu Windows
C. przeprowadzenie diagnostyki komponentów
D. przeprowadzenie wymiany komponentów
Wykonanie diagnostyki podzespołów, wymiana podzespołów oraz reinstalacja systemu Windows to podejścia, które mogą być stosowane w przypadku problemów z działaniem komputera, ale nie są najlepszymi pierwszymi krokami w sytuacji, gdy system operacyjny Windows nie uruchamia się z powodu usterki programowej. Diagnostyka podzespołów, mimo że może pomóc w identyfikacji problemów sprzętowych, nie odnosi się bezpośrednio do kwestii awarii systemu operacyjnego. Jeśli problem leży w oprogramowaniu, sprawdzanie sprzętu może prowadzić do marnowania czasu oraz zasobów, a co gorsza, może zniekształcić obraz sytuacji. Wymiana podzespołów jest działaniem radykalnym, które powinno być stosowane tylko wówczas, gdy istnieje pewność, że uszkodzenie dotyczy hardware'u. Reinstalacja systemu Windows, chociaż skuteczna w przywracaniu funkcjonalności, jest metodą inwazyjną, która prowadzi do utraty danych oraz wymaga ponownej konfiguracji systemu. Takie podejścia mogą być szkodliwe, zwłaszcza w kontekście standardów zarządzania awariami, które zalecają najpierw zminimalizowanie ryzyka poprzez diagnostykę i naprawę oprogramowania, zanim przystąpi się do bardziej drastycznych działań. Kluczowym błędem myślowym jest przypuszczenie, że problemy z systemem operacyjnym zawsze wymagają interwencji sprzętowej lub radykalnej reinstalacji, co nie tylko jest nieefektywne, ale może również prowadzić do dalszych komplikacji.

Pytanie 33

Która topologia fizyczna umożliwia nadmiarowe połączenia pomiędzy urządzeniami w sieci?

A. Magistrali
B. Pierścienia
C. Gwiazdy
D. Siatki
Topologia siatki zapewnia połączenia nadmiarowe pomiędzy urządzeniami sieci, co oznacza, że każde urządzenie może być połączone z wieloma innymi. W przypadku awarii jednego z połączeń, sieć nadal może funkcjonować dzięki alternatywnym ścieżkom. Tego typu topologia jest często stosowana w dużych organizacjach oraz w środowiskach wymagających wysokiej dostępności i niezawodności, takich jak centra danych czy sieci telekomunikacyjne. Przykładem zastosowania topologii siatki może być sieć rozległa (WAN), gdzie zapewnia się połączenia między różnymi lokalizacjami firmy, umożliwiając jednocześnie równoległe przesyłanie danych. Z punktu widzenia standardów branżowych, takie podejście jest zgodne z zasadami projektowania sieci, które podkreślają znaczenie redundancji w architekturze sieciowej. W praktyce, implementacja topologii siatki może wiązać się z wyższymi kosztami ze względu na większą liczbę wymaganych połączeń i urządzeń, jednak korzyści w postaci większej odporności na awarie są nieocenione.

Pytanie 34

W systemie Windows 7 konfigurację interfejsu sieciowego można przeprowadzić, używając rozwinięcia polecenia

A. tracert
B. nslookup
C. netsh
D. telnet
Odpowiedzi, które nie obejmują polecenia 'netsh', wskazują na nieporozumienie dotyczące narzędzi do zarządzania interfejsem sieciowym w systemie Windows. 'Telnet' to protokół umożliwiający zdalne logowanie do innych urządzeń w sieci, ale nie jest przeznaczony do konfigurowania interfejsów sieciowych. Może być używany do testowania połączeń z serwerami, ale nie pozwala na modyfikację ustawień sieciowych. 'Tracert' jest narzędziem do diagnostyki, które śledzi trasę pakietów do określonego adresu IP, pomagając w identyfikacji problemów z trasowaniem, lecz również nie służy do konfiguracji interfejsów. Z kolei 'nslookup' to narzędzie do zapytań DNS, które pozwala na sprawdzanie informacji związanych z nazwami domen, co ma zastosowanie w kontekście rozwiązywania problemów z DNS, ale nie ma zastosowania przy konfiguracji interfejsów sieciowych. Typowe błędy myślowe, które mogą prowadzić do wyboru tych odpowiedzi, obejmują mylenie różnych typów narzędzi – można na przykład błędnie sądzić, że każde narzędzie związane z siecią może służyć do konfiguracji, co jest nieprawdziwe. Właściwe zrozumienie ról poszczególnych narzędzi jest kluczowe dla efektywnego zarządzania infrastrukturą sieciową.

Pytanie 35

Złącze IrDA służy do bezprzewodowej komunikacji i jest

A. złączem umożliwiającym przesył danych na odległość 100m
B. rozszerzeniem technologii BlueTooth
C. złączem szeregowym
D. złączem radiowym
Złącza radiowe, jak Wi-Fi czy Zigbee, bardzo różnią się od IrDA, bo to ostatnie używa podczerwieni do komunikacji. Te złącza radiowe mogą działać na znacznie większych odległościach niż te standardowe 1-2 metry, dlatego są wykorzystywane w różnych zastosowaniach, od domowych sieci internetowych po smart home. Kolejna kiepska koncepcja to mówienie o przesyłaniu danych na 100 m – z jednej strony, standardy radiowe mogą to umożliwiać, ale IrDA nie ma takich możliwości zasięgowych. No i pomylenie IrDA z Bluetooth to dość powszechny błąd, bo Bluetooth ma większy zasięg i działa całkiem inaczej niż IrDA, która jest raczej do punktu do punktu, a Bluetooth potrafi łączyć więcej urządzeń naraz. Warto też pamiętać, że IrDA to złącze szeregowe, więc dane lecą w kolejności. Można w łatwy sposób się pomylić, myląc te technologie, co prowadzi do błędnych wniosków o ich funkcjonalności i zastosowaniu.

Pytanie 36

Na fotografii ukazana jest pamięć o 168 stykach

Ilustracja do pytania
A. SIPP
B. RIMM
C. SDRAM
D. SIMM
SDRAM czyli Synchronous Dynamic Random Access Memory to typ pamięci RAM, który jest zsynchronizowany z zegarem systemowym co pozwala na bardziej efektywną i szybszą komunikację z procesorem. Pamięć SDRAM jest powszechnie stosowana w komputerach osobistych od końca lat 90-tych ze względu na swoje zalety w zakresie wydajności. Typowo SDRAM jest podzielona na wiersze i kolumny co umożliwia jednoczesny dostęp do wielu miejsc w pamięci co znacznie przyspiesza procesy odczytu i zapisu danych. 168-stykowe moduły SDRAM są zazwyczaj używane w standardowych komputerach typu PC. Moduły te oferują przepustowość wystarczającą do obsługi większości aplikacji biurowych i multimedialnych z tamtych lat. Zgodność ze standardami SDRAM jest również kluczowa ponieważ zapewnia współdziałanie z różnymi platformami sprzętowymi. Warto również zauważyć że pamięci SDRAM były kluczowym elementem w przejściu na szybsze technologie takie jak DDR pamięci RAM co z kolei wpłynęło na ogólną poprawę wydajności komputerów.

Pytanie 37

Rodzaje ataków mających na celu zakłócenie funkcjonowania aplikacji oraz procesów w urządzeniach sieciowych to ataki klasy

A. zero-day
B. DoS
C. smurf
D. spoofing
Ataki typu DoS (Denial of Service) mają na celu zakłócenie normalnego działania usług, aplikacji i procesów w sieciach komputerowych. Celem tych ataków jest uniemożliwienie użytkownikom dostępu do systemu poprzez przeciążenie serwera lub infrastruktury sieciowej. W praktyce, atakujący wysyła ogromne ilości ruchu do docelowego serwera, co prowadzi do jego przeciążenia. Przykładem może być atak SYN flood, który eksploitując proces nawiązywania połączenia TCP, generuje wiele niekompletnych połączeń, co finalnie prowadzi do wyczerpania zasobów serwera. Standardy i najlepsze praktyki w zakresie zabezpieczeń sieciowych zalecają stosowanie mechanizmów ochrony, takich jak firewall, systemy wykrywania i zapobiegania włamaniom (IDS/IPS) oraz usługi DDoS mitigation, które mogą pomóc w minimalizacji skutków takiego ataku. Wiedza na temat ataków DoS jest kluczowa dla specjalistów z zakresu bezpieczeństwa IT, aby opracować skuteczne strategie obronne i zapewnić ciągłość działania usług.

Pytanie 38

Jakiego typu rozbudowa serwera wymaga zainstalowania dodatkowych sterowników?

A. Montaż kolejnej karty sieciowej
B. Instalacja kolejnego procesora
C. Dodanie dysków fizycznych
D. Dodanie pamięci RAM
Wybór odpowiedzi dotyczący dodania pamięci RAM, montażu kolejnego procesora czy dodania dysków fizycznych nie wymaga zainstalowania dodatkowych sterowników, co często prowadzi do nieporozumień dotyczących rozbudowy sprzętu. Pamięć RAM jest komponentem, który działa bezpośrednio z płytą główną i nie potrzebuje zewnętrznych sterowników, ponieważ jest zarządzana przez system operacyjny oraz BIOS. W przypadku montażu procesora, również nie ma potrzeby dodatkowej instalacji sterowników, ponieważ większość nowoczesnych płyt głównych automatycznie rozpoznaje nowy procesor i wykorzystuje istniejące już w systemie sterowniki. Podobnie rzecz ma się z dyskami fizycznymi – chociaż mogą wymagać konfiguracji w BIOS-ie, sterowniki do dysków (np. SATA) są zazwyczaj już wbudowane w system operacyjny, co czyni proces ich instalacji prostszym. Wybierając te odpowiedzi, można popełnić błąd myślowy polegający na przypuszczeniu, że każdy nowy komponent wymaga nowych sterowników. Kluczowe jest zrozumienie, że tylko niektóre urządzenia, zwłaszcza te, które są złożone lub specjalistyczne, jak karty sieciowe czy graficzne, wymagają dedykowanych sterowników. Również zrozumienie specyfiki działania poszczególnych komponentów jest niezbędne, aby unikać takich błędów.

Pytanie 39

Która norma w Polsce definiuje zasady dotyczące okablowania strukturalnego?

A. ISO/IEC 11801
B. PN-EN 50173
C. TSB-67
D. EIA/TIA 568-A
Norma PN-EN 50173 jest kluczowym dokumentem określającym wymagania dotyczące okablowania strukturalnego w budynkach. Stanowi ona podstawę dla projektowania, instalacji oraz użytkowania systemów okablowania, które muszą spełniać wysokie standardy jakości oraz wydajności. Zawiera wytyczne dotyczące różnych typów systemów okablowania, w tym transmisji danych, głosu oraz obrazu. Przykładem zastosowania normy PN-EN 50173 może być projektowanie sieci lokalnych w biurowcach, gdzie ważne jest, aby system okablowania był zgodny z wymaganiami dotyczącymi przepustowości i elastyczności w rozbudowie infrastruktury. Dodatkowo, norma ta uwzględnia aspekty związane z bezpieczeństwem, takie jak odporność na zakłócenia elektromagnetyczne, co jest niezwykle istotne w dobie rosnącej liczby urządzeń elektronicznych. Stosowanie PN-EN 50173 zapewnia, że zainstalowane systemy będą miały długą żywotność oraz będą w stanie efektywnie obsługiwać rosnące potrzeby użytkowników.

Pytanie 40

Wskaż ilustrację ilustrującą symbol stosowany do oznaczania portu równoległego LPT?

Ilustracja do pytania
A. A
B. B
C. D
D. C
Odpowiedzi inne niż D nie są symbolem portu LPT. Ikona A to symbol USB, który jest teraz standardem do podłączania różnych urządzeń jak myszki czy klawiatury. USB jest proste w użyciu i dobrze współpracuje z różnymi systemami. Ikona B to złącze HDMI, które teraz jest standardem do przesyłania wysokiej jakości obrazu i dźwięku między sprzętem takim jak TV czy projektory. HDMI pozwala na lepszą jakość niż starsze analogowe metody. Odpowiedź C to symbol portu PS/2, który był kiedyś wykorzystywany do klawiatur i myszy w starszych PC. Teraz, przez USB, PS/2 nie jest już tak popularne, ale wciąż się zdarza a jego niezawodność i niskie opóźnienia mogą być na plus. Warto wiedzieć, jak wygląda różnica między tymi złączami, bo pomyłka może spowodować problemy z podłączeniem i konfiguracją urządzeń, co potem wpływa na pracę w IT. Ogólnie, znajomość tych symboli i ich zastosowań jest ważna, bo może ułatwić zarządzanie techniką i uniknięcie typowych błędów.