Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 8 kwietnia 2026 10:59
  • Data zakończenia: 8 kwietnia 2026 11:19

Egzamin zdany!

Wynik: 27/40 punktów (67,5%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W komputerowych stacjach roboczych zainstalowane są karty sieciowe Ethernet 10/100/1000 z interfejsem RJ45. Jakie medium transmisyjne powinno być zastosowane do budowy sieci komputerowej, aby osiągnąć maksymalną przepustowość?

A. Światłowód wielomodowy
B. Kabel UTP kategorii 5e
C. Światłowód jednomodowy
D. Kabel UTP kategorii 5
Wybór kabla UTP kategorii 5, choć może wydawać się logiczny, jest niewłaściwy w kontekście wymaganej przepustowości. Kabel ten, zgodny z normą TIA/EIA-568, obsługuje maksymalną prędkość do 100 Mbps, co jest niewystarczające dla nowoczesnych aplikacji wymagających transferów rzędu 1 Gbit/s. Ponadto, kable UTP kategorii 5 nie są w stanie w pełni wykorzystać możliwości kart sieciowych 10/100/1000, co prowadzi do znacznych ograniczeń w wydajności sieci. Z kolei zastosowanie światłowodu wielomodowego lub jednomodowego, mimo że teoretycznie wydaje się być lepszym rozwiązaniem, niesie ze sobą wyzwania związane z kosztami instalacji oraz skomplikowaną konfiguracją. Światłowody oferują niezwykle wysokie prędkości i zasięg, ale ich użycie w standardowych biurach, gdzie obsługuje się urządzenia z kartami Ethernet 10/100/1000, może być przesadą. Zatem, wybór światłowodu bez wyraźnie uzasadnionych potrzeb infrastrukturalnych często prowadzi do nieefektywności i zwiększonych kosztów. Zrozumienie technologii kablowych i ich ograniczeń jest kluczowe w projektowaniu efektywnych sieci lokalnych.

Pytanie 2

Jaką kwotę będzie trzeba zapłacić za wymianę karty graficznej w komputerze, jeżeli jej koszt wynosi 250zł, czas wymiany to 80 minut, a każda rozpoczęta roboczogodzina to 50zł?

A. 400zł
B. 300zł
C. 250zł
D. 350zł
Niepoprawne podejścia do wyliczenia kosztów związanych z wymianą karty graficznej często wynikają z niepełnego zrozumienia zasad naliczania kosztów robocizny oraz pomijania istotnych elementów kalkulacyjnych. Odpowiedzi takie jak 250zł lub 300zł są przykładem błędnego myślenia, ponieważ koncentrują się jedynie na cenie karty graficznej lub na niepełnym wyliczeniu kosztów robocizny. Koszt 250zł odnosi się jedynie do zakupu karty, ignorując fakt, że wymiana wymaga dodatkowych kosztów pracy. Z kolei odpowiedź 300zł, choć bliższa prawidłowej, również nie uwzględnia pełnych kosztów robocizny, które w przypadku 80 minut pracy oznaczają, że praca została wyceniona na 1 godzinę. W kontekście standardów branżowych, dobrze praktykowane jest uwzględnianie pełnych jednostek roboczo-godzinnych, co w tym przypadku podnosi łączny koszt do 350zł. Ponadto, pominięcie zasad dotyczących rozliczania czasu pracy i pełnych jednostek roboczo-godzinnych jest powszechnym błędem, który może prowadzić do niedoszacowania kosztów serwisowych. Takie nieprawidłowości mogą znacząco wpływać na decyzje finansowe użytkowników oraz wizerunek profesjonalistów w branży IT.

Pytanie 3

Która z poniższych czynności konserwacyjnych jest specyficzna tylko dla drukarki laserowej?

A. Usunięcie zabrudzeń z zespołu czyszczącego głowice
B. Czyszczenie luster i soczewek
C. Czyszczenie prowadnic karetki
D. Oczyszczenie traktora
Czyszczenie luster i soczewek jest kluczowym procesem konserwacyjnym w drukarkach laserowych, ponieważ te elementy odpowiadają za prawidłowe kierowanie i skupianie światła laserowego na bębnie światłoczułym. Zanieczyszczenia na tych komponentach mogą prowadzić do obniżenia jakości wydruków, takich jak rozmycia czy nierównomierne pokrycie tonera. Regularne czyszczenie luster i soczewek nie tylko poprawia jakość druku, ale także wydłuża żywotność urządzenia, co jest zgodne z najlepszymi praktykami w branży. W przypadku drukarek atramentowych, czyszczenie dotyczy głównie dysz i układów atramentowych, co podkreśla różnice w konserwacji obu typów urządzeń. Przykładem może być zastosowanie miękkiej szmatki nasączonej odpowiednim środkiem czyszczącym, aby usunąć osady bez uszkodzenia delikatnych elementów. Wiedza o tych procedurach jest niezbędna dla operatorów drukarek, aby mogli oni efektywnie utrzymywać sprzęt w odpowiednim stanie i zapewniać wysoką jakość wydruków.

Pytanie 4

Jaką funkcję pełni punkt dostępowy, aby zabezpieczyć sieć bezprzewodową w taki sposób, aby jedynie urządzenia z wybranymi adresami MAC mogły się do niej łączyć?

A. Autoryzacja
B. Radius (Remote Authentication Dial In User Service)
C. Przydzielenie SSID
D. Filtrowanie adresów MAC
Filtrowanie adresów MAC to technika zabezpieczająca sieć bezprzewodową poprzez umożliwienie jedynie urządzeniom z określonymi adresami MAC na dostęp do sieci. Każde urządzenie sieciowe posiada unikalny adres MAC, który jest stosowany do identyfikacji i komunikacji w lokalnej sieci. Dzięki filtrowaniu adresów MAC administratorzy mogą tworzyć listy dozwolonych urządzeń, co znacząco zwiększa bezpieczeństwo sieci. W praktyce, użytkownik, którego urządzenie nie znajduje się na liście, nie będzie mógł się połączyć z siecią, nawet jeśli zna hasło. Ta metoda jest szczególnie skuteczna w małych środowiskach, takich jak biura czy domy, gdzie liczba urządzeń jest ograniczona. Należy jednak pamiętać, że filtrowanie adresów MAC nie jest niezawodne, ponieważ adresy MAC mogą być łatwo sklonowane przez nieautoryzowane urządzenia. Dlatego powinno być stosowane w połączeniu z innymi metodami bezpieczeństwa, takimi jak WPA3, aby zapewnić kompleksową ochronę. Dobrą praktyką jest regularne aktualizowanie listy dozwolonych adresów MAC, aby dostosować się do zmieniającego się środowiska sieciowego.

Pytanie 5

Protokół User Datagram Protocol (UDP) należy do

A. transportowych protokołów bezpołączeniowych w modelu TCP/IP
B. warstwy łącza danych bezpołączeniowej w modelu ISO/OSI
C. warstwy transportowej z połączeniem w modelu TCP/IP
D. połączeniowych protokołów warstwy łącza danych w ISO/OSI
Zrozumienie, że User Datagram Protocol (UDP) jest bezpołączeniowym protokołem warstwy transportowej modelu TCP/IP, jest kluczowe dla analizy danych przesyłanych w sieci. Protokół UDP, w przeciwieństwie do TCP, który jest protokołem połączeniowym, nie wymaga zestawienia sesji przed wysłaniem danych, co prowadzi do większej efektywności w transmisji, ale kosztem niezawodności. Odpowiedzi sugerujące, że UDP jest protokołem bezpołączeniowym warstwy łącza danych modelu ISO/OSI, mylą pojęcia dotyczące warstw modelu. Warstwa łącza danych odpowiada za przesyłanie ramek między urządzeniami w tej samej sieci, co nie jest zadaniem UDP, który działa na wyższej warstwie transportowej, odpowiadając za przesyłanie datagramów pomiędzy aplikacjami. Protokół TCP/IP i model ISO/OSI różnią się w kontekście warstw i funkcji, co często prowadzi do nieporozumień. Ponadto, pomysł, że UDP jest połączeniowym protokołem transportowym, jest błędny, ponieważ nie oferuje on kontroli błędów ani potwierdzeń przesyłania danych. Protokół TCP, z kolei, zapewnia te mechanizmy, co jest kluczowe dla aplikacji wymagających niezawodności. Błędy te mogą wynikać z mylnego zrozumienia podstawowych zasad działania protokołów i ich zastosowania w praktyce, co jest istotne w kontekście projektowania i implementacji systemów komunikacyjnych.

Pytanie 6

Do jakiego pomiaru wykorzystywany jest watomierz?

A. mocy czynnej
B. napięcia prądu elektrycznego
C. natężenia prądu elektrycznego
D. rezystancji
Watomierz jest urządzeniem pomiarowym, które służy do pomiaru mocy czynnej w obwodach elektrycznych. Moc czynna, wyrażana w watach (W), jest miarą rzeczywistej energii zużywanej przez urządzenia elektryczne do wykonywania pracy. Jest to kluczowy parametr w analizie zużycia energii, szczególnie w kontekście rozliczeń za dostarczaną energię. Zastosowanie watomierza w praktyce obejmuje zarówno pomiary w domowych instalacjach elektrycznych, jak i w przemyśle, gdzie monitorowanie zużycia energii jest niezbędne dla optymalizacji kosztów operacyjnych. W kontekście standardów, pomiar mocy czynnej jest często regulowany normami, takimi jak IEC 62053, które definiują wymagania dla urządzeń pomiarowych. Dzięki temu, korzystanie z watomierzy pozwala nie tylko na dokładne pomiary, ale także na lepsze zarządzanie energią, co jest kluczowe w dobie rosnących kosztów energii i dążeń do efektywności energetycznej.

Pytanie 7

Które z poniższych stwierdzeń NIE odnosi się do pamięci cache L1?

A. Czas dostępu jest dłuższy niż w przypadku pamięci RAM
B. Znajduje się we wnętrzu układu procesora
C. Zastosowano w niej pamięć typu SRAM
D. Jej wydajność jest równa częstotliwości procesora
Wybór odpowiedzi sugerującej, że pamięć cache L1 ma dłuższy czas dostępu niż pamięć RAM, jest błędny i wynika z nieścisłego rozumienia zasad działania różnych typów pamięci w systemach komputerowych. Pamięć cache L1 jest zaprojektowana, aby być szybsza niż pamięć RAM, a jej funkcjonalność jest kluczowa dla efektywności działania procesora. Czas dostępu do pamięci L1 wynosi zazwyczaj od 1 do 3 nanosekund, podczas gdy tradycyjna pamięć RAM (dynamiczna pamięć RAM typu DRAM) ma czas dostępu rzędu 10-100 nanosekund. To oznacza, że pamięć cache L1 jest z reguły około dziesięć razy szybsza od pamięci RAM. Istotnym błędem jest myślenie, że pamięć o wyższej pojemności musi być również szybsza; w rzeczywistości, pamięć cache jest zoptymalizowana pod kątem szybkości na koszt pojemności. Dodatkowo, pamięć L1 znajduje się bezpośrednio w rdzeniu procesora, co minimalizuje opóźnienia związane z przesyłaniem danych. Zwrócenie uwagi na architekturę procesora oraz sposób, w jaki różne rodzaje pamięci współpracują ze sobą w hierarchii pamięci, pozwala na lepsze zrozumienie ich zastosowania i znaczenia w kontekście efektywności systemów komputerowych. Właściwe zarządzanie pamięcią oraz znajomość jej hierarchii są kluczowe dla inżynierów projektujących nowoczesne systemy obliczeniowe.

Pytanie 8

Aby zapewnić komputerowi otrzymanie konkretnego adresu IP od serwera DHCP, należy na serwerze ustalić

A. dzierżawę adresu IP.
B. pulę adresów IP.
C. wykluczenie adresu IP urządzenia.
D. zarezerwowanie adresu IP urządzenia.
Zastrzeżenie adresu IP komputera w serwerze DHCP polega na przypisaniu konkretnego adresu IP do konkretnego urządzenia (np. komputera), co gwarantuje, że za każdym razem, gdy to urządzenie łączy się z siecią, otrzyma ten sam adres. Jest to szczególnie przydatne w sytuacjach, gdy urządzenie pełni specyficzne funkcje w sieci, takie jak serwer wydruku, serwer plików czy inne usługi, które wymagają stałego dostępu pod tym samym adresem IP. Proces zastrzegania adresu IP jest zgodny z protokołem DHCP (Dynamic Host Configuration Protocol), który jest standardem w zakresie automatycznej konfiguracji urządzeń w sieci. Aby zastrzec adres IP, administrator sieci musi dodać odpowiedni wpis w konfiguracji serwera DHCP, co zapewnia, że dany adres nie będzie przydzielany innym urządzeniom. Dobrym przykładem takiej sytuacji jest zastrzeżenie adresu IP dla drukarki w biurze, co umożliwia każdemu użytkownikowi łatwe drukowanie, korzystając z ustalonego adresu IP, zamiast szukać zmieniającego się adresu przy każdym połączeniu.

Pytanie 9

Instalacja serwera stron www w rodzinie systemów Windows Server jest możliwa dzięki roli

A. usług pulpitu zdalnego
B. serwera aplikacji
C. serwera sieci Web
D. usług plików
Serwer sieci Web w systemie Windows Server to rola, która umożliwia hostowanie aplikacji internetowych oraz stron WWW. W praktyce oznacza to, że administrator może zainstalować i skonfigurować serwer IIS (Internet Information Services), co jest standardem dla hostingu stron w środowiskach Windows. IIS jest nie tylko łatwy w użyciu, ale również oferuje wiele zaawansowanych funkcji, takich jak zarządzanie certyfikatami SSL, obsługa ASP.NET, czy integracja z bazami danych. Warto zaznaczyć, że standardowa konfiguracja serwera sieci Web pozwala na efektywne zarządzanie ruchem, monitorowanie wydajności oraz zabezpieczanie zasobów. Dzięki prawidłowej konfiguracji, przedsiębiorstwa mogą świadczyć usługi online, co wpisuje się w aktualne trendy digitalizacji i transformacji cyfrowej. Dodatkowo, administratorzy mogą korzystać z narzędzi takich jak Web Deploy do automatyzacji wdrożeń, co znacznie usprawnia proces aktualizacji aplikacji na serwerze.

Pytanie 10

Ramka z informacjami przesyłanymi z komputera PC1 do serwera www znajduje się pomiędzy routerem R1 a routerem R2 w punkcie A). Jakie adresy są w niej zawarte?

Ilustracja do pytania
A. Źródłowy adres IP komputera PC1, docelowy adres IP serwera, adres źródłowy MAC routera R1, adres docelowy MAC routera R1
B. Źródłowy adres IP routera R1, docelowy adres IP routera R2, adres źródłowy MAC komputera PC1, adres docelowy MAC serwera
C. Źródłowy adres IP komputera PC1, docelowy adres IP routera R2, adres źródłowy MAC komputera PC1, adres docelowy MAC serwera
D. Źródłowy adres IP komputera PC1, docelowy adres IP serwera, adres źródłowy MAC komputera PC1, adres docelowy MAC serwera
Pierwszy błąd logiczny polega na niewłaściwej interpretacji adresów IP i MAC w kontekście trasowania danych pomiędzy ruterami. Adres IP komputera PC1 i serwera WWW pozostają niezmienione podczas całej podróży pakietu, niezależnie od liczby ruterów, które napotkają po drodze. Wprowadzenie zmienności w odniesieniu do adresów IP rutera R1 i R2, jak w niektórych błędnych odpowiedziach, jest nieporozumieniem, ponieważ adresy IP w nagłówku IP pakietu nie zmieniają się. Kluczowe jest zrozumienie, że rolą rutera jest przetwarzanie i przesyłanie danych na podstawie adresów IP, ale na poziomie warstwy łącza danych adresy MAC są aktualizowane w każdej sieci lokalnej. Dlatego źródłowy i docelowy adres MAC mogą zmieniać się przy każdym przeskoku, w przeciwieństwie do adresów IP. Również błędne jest założenie, że adres MAC komputera PC1 lub serwera WWW mógłby pojawić się bezpośrednio w tej ramce, ponieważ adresy MAC są związane z najbliższym urządzeniem przeskokowym. Te nieporozumienia mogą być wynikiem pomylenia pojęć dotyczących modelu OSI i konkretnych funkcji ruterów oraz switchów. Zrozumienie tego procesu jest kluczowe dla prawidłowego projektowania i zarządzania sieciami komputerowymi, a unikanie takich błędów zapewnia skuteczną i bezpieczną komunikację sieciową.

Pytanie 11

W którym miejscu w edytorze tekstu należy wprowadzić tekst lub ciąg znaków, który ma być widoczny na wszystkich stronach dokumentu?

A. W polu tekstowym
B. W przypisach dolnych
C. W przypisach końcowych
D. W nagłówku lub stopce
Wprowadzenie informacji lub ciągów znaków, które mają pojawiać się na wszystkich stronach dokumentu, odbywa się w nagłówku lub stopce. Nagłówek to obszar, który znajduje się na górze każdej strony, natomiast stopka znajduje się na dole. Umożliwia to umieszczanie takich elementów jak numer strony, tytuł dokumentu czy nazwisko autora w sposób automatyczny, co jest nie tylko estetyczne, ale również praktyczne. Przykładem zastosowania nagłówków i stopek może być wprowadzenie numeracji stron w długich dokumentach, takich jak raporty, prace dyplomowe czy publikacje. Używanie nagłówków i stopek jest zgodne z zasadami dobrego projektowania dokumentów, co sprawia, że są one bardziej czytelne i zorganizowane. Warto również zaznaczyć, że różne edytory tekstu, takie jak Microsoft Word czy Google Docs, oferują łatwe narzędzia do edytowania tych obszarów, co pozwala na łatwe dostosowanie treści do potrzeb użytkownika. Taka funkcjonalność jest kluczowa dla profesjonalnych dokumentów, gdzie spójność i estetyka mają ogromne znaczenie.

Pytanie 12

W skanerze z systemem CIS źródłem światła oświetlającym skanowany dokument jest

A. układ żarówek
B. lampa fluorescencyjna
C. grupa trójkolorowych diod LED
D. świetlówka
W skanerach z układami CIS (Contact Image Sensor) elementem oświetlającym skanowany dokument jest grupa trójkolorowych diod LED. Takie rozwiązanie pozwala na bardziej efektywne i równomierne oświetlenie skanowanej powierzchni, co przekłada się na wyższą jakość uzyskiwanych obrazów. Diody LED charakteryzują się długą żywotnością, niskim zużyciem energii oraz szybką reakcją, co jest szczególnie istotne w zastosowaniach przemysłowych oraz biurowych, gdzie czas skanowania ma kluczowe znaczenie. W praktyce, dzięki zastosowaniu technologii diod LED, skanery są w stanie efektywnie rejestrować detale w różnych warunkach oświetleniowych, co jest niezwykle ważne, gdy skanowane dokumenty różnią się pod względem kolorystyki i kontrastu. Ponadto, standardy branżowe, takie jak ISO 16000, zalecają stosowanie efektywnych źródeł światła, co obejmuje technologie LED, aby poprawić jakość obrazów oraz zredukować wpływ zmienności oświetlenia na wyniki skanowania.

Pytanie 13

Złącze widoczne na obrazku pozwala na podłączenie

Ilustracja do pytania
A. monitora
B. drukarki
C. modemu
D. myszy
Złącze przedstawione na zdjęciu to złącze VGA (Video Graphics Array), które jest standardem w przesyłaniu analogowego sygnału wideo z komputera do monitora. Złącze VGA jest łatwo rozpoznawalne dzięki 15-pinowemu układowi w trzech rzędach. Wprowadzony w 1987 roku przez firmę IBM, VGA stał się podstawowym standardem w urządzeniach komputerowych przez wiele lat, zapewniając jakość obrazu na poziomie rozdzielczości 640x480 pikseli. Dziś, mimo że technologia cyfrowa, jak HDMI i DisplayPort, zyskuje na popularności, VGA nadal znajduje zastosowanie w starszych urządzeniach oraz w sytuacjach, gdzie prostota i kompatybilność są kluczowe. W kontekście podłączenia monitora, złącze VGA jest często spotykane w projektorach i monitorach starszych generacji, co pozwala na wykorzystanie istniejącej infrastruktury oraz sprzętu. Warto zauważyć, że korzystanie ze złączy VGA wymaga również kabli o odpowiedniej jakości, by zminimalizować zakłócenia sygnału i zapewnić możliwie najlepszą jakość obrazu. Dobrym podejściem jest również unikanie zbyt długich przewodów, co może prowadzić do degradacji sygnału.

Pytanie 14

Przesyłanie danych przez router, które wiąże się ze zmianą adresów IP źródłowych lub docelowych, określa się skrótem

A. IIS
B. NAT
C. IANA
D. FTP
NAT, czyli Network Address Translation, to taka fajna technologia, która działa w routerach. Dzięki niej możemy zmieniać adresy IP w pakietach danych, co pozwala na przesyłanie ruchu sieciowego między różnymi sieciami. W sumie NAT jest naprawdę ważny dla internetu, zwłaszcza jeśli chodzi o ochronę prywatności i zarządzanie adresami IP. Weźmy na przykład sytuację, w której kilka urządzeń w domu korzysta z jednego publicznego adresu IP. To pozwala zaoszczędzić adresy IPv4. Działa to tak, że NAT tłumaczy adresy lokalne na publiczny, kiedy wysyłamy dane na zewnątrz, a potem robi odwrotnie, gdy przyjmuje dane z internetu. Są różne typy NAT, jak statyczny, który przypisuje jeden publiczny adres do jednego prywatnego, oraz dynamiczny, który korzysta z puli dostępnych adresów. Dzięki temu zarządzanie ruchem staje się łatwiejsze, a sieć jest bardziej bezpieczna, co zmniejsza ryzyko ataków z zewnątrz. Dlatego NAT jest naprawdę ważnym narzędziem w nowoczesnych sieciach komputerowych.

Pytanie 15

Na rysunku ukazano diagram

Ilustracja do pytania
A. karty graficznej
B. przełącznika kopułkowego
C. zasilacza impulsowego
D. przetwornika DAC
Schematy elektroniczne mogą być mylące, zwłaszcza gdy brak jest doświadczenia w ich interpretacji. Zasilacz impulsowy, jak przedstawiony na rysunku, różni się znacząco od innych urządzeń takich jak karta graficzna, przetwornik DAC czy przełącznik kopułkowy. Karta graficzna składa się z elementów takich jak procesor graficzny (GPU), pamięć RAM i układy zasilania, ale nie zawiera typowych elementów zasilacza impulsowego, jak mostek prostowniczy czy tranzystor kluczujący. Przetwornik DAC (Digital-to-Analog Converter) to urządzenie zamieniające sygnał cyfrowy na analogowy, używane w systemach audio i wideo, które nie wymaga kondensatorów filtrujących i diod prostowniczych charakterystycznych dla zasilaczy. Przełącznik kopułkowy, stosowany w klawiaturach, to mechaniczny element składający się z kopułki przewodzącej, który nie ma związku z przetwarzaniem sygnałów elektrycznych jak zasilacz impulsowy. Typowym błędem jest mylenie komponentów, co podkreśla znaczenie zrozumienia funkcji każdego elementu w schemacie. Kluczowe jest skupienie się na sygnaturze działania zasilacza, takiej jak przetwornica DC-DC, aby poprawnie identyfikować urządzenia na podstawie ich schematów i zastosowań.

Pytanie 16

Do konserwacji elementów optycznych w komputerach zaleca się zastosowanie

A. oleju wazelinowego
B. żywicy
C. izopropanolu
D. smaru
Izopropanol, znany również jako alkohol izopropylowy, jest powszechnie uznawany za najlepszy środek czyszczący do układów optycznych w sprzęcie komputerowym. Jego właściwości sprawiają, że skutecznie usuwa kurz, odciski palców i inne zanieczyszczenia bez ryzyka uszkodzenia delikatnych powierzchni soczewek. Dzięki szybko parującej formule, izopropanol nie pozostawia smug ani resztek, co jest kluczowe w zachowaniu wysokiej jakości obrazu. W praktyce, czyszczenie za pomocą izopropanolu polega na nasączeniu miękkiej ściereczki lub wacika i delikatnym przetarciu powierzchni optycznych, takich jak obiektywy kamer, soczewki mikroskopów czy układów optycznych w laptopach. Ponadto, zgodnie z zaleceniami producentów sprzętu, warto stosować izopropanol o stężeniu 70-90%, co zapewnia optymalne działanie czyszczące. Regularne czyszczenie układów optycznych za pomocą izopropanolu to nie tylko kwestia estetyki, ale także kluczowy element dbałości o wydajność i trwałość sprzętu. Wprowadzenie tego standardu do praktyki użytkowników sprzętu komputerowego pozwala na utrzymanie jego najwyższej wydajności przez dłuższy czas.

Pytanie 17

Która z przedstawionych na rysunkach topologii jest topologią siatkową?

Ilustracja do pytania
A. C
B. A
C. D
D. B
Topologia siatki charakteryzuje się tym że każdy węzeł sieci jest połączony bezpośrednio z każdym innym węzłem co zapewnia wysoką odporność na awarie Jeśli jedno połączenie zawiedzie dane mogą być przesyłane inną drogą co czyni tę topologię bardziej niezawodną niż inne rozwiązania W praktyce topologia siatki znajduje zastosowanie w systemach wymagających wysokiej dostępności i redundancji takich jak sieci wojskowe czy systemy komunikacji krytycznej W topologii pełnej siatki każdy komputer jest połączony z każdym innym co zapewnia maksymalną elastyczność i wydajność Jednak koszty wdrożenia i zarządzania taką siecią są wysokie ze względu na liczbę wymaganych połączeń Z tego powodu częściej spotykana jest topologia częściowej siatki gdzie nie wszystkie węzły są bezpośrednio połączone ale sieć nadal zachowuje dużą odporność na awarie Topologia siatki jest zgodna z dobrymi praktykami projektowania sieci w kontekście niezawodności i bezpieczeństwa Przykłady jej zastosowania można znaleźć również w zaawansowanych sieciach komputerowych gdzie niezawodność i bezpieczeństwo są kluczowe

Pytanie 18

Które z urządzeń sieciowych jest przedstawione na grafice?

Ilustracja do pytania
A. Access Point
B. Router
C. Hub
D. Switch
Symbol graficzny, który widzisz, to router. To bardzo ważne urządzenie w sieciach komputerowych. Router działa jak pośrednik między różnymi częściami sieci i przekazuje dane w taki sposób, żeby było to jak najbardziej efektywne. Korzysta z tablic routingu, które są na bieżąco aktualizowane, więc potrafi kierować pakiety tam, gdzie powinny trafić. Co ciekawe, routery mogą łączyć różne typy sieci, na przykład lokalne sieci LAN z rozległymi WAN, czego inne urządzenia sieciowe nie potrafią. Dzisiaj routery obsługują różne protokoły, jak OSPF, RIPv2 czy BGP, co naprawdę pozwala na lepsze zarządzanie ruchem sieciowym. Mają też różne funkcje zabezpieczeń, na przykład firewalle i VPN, co znacznie poprawia bezpieczeństwo i prywatność użytkowników. W domach często pełnią dodatkowo rolę punktu dostępowego Wi-Fi, co pozwala nam bezprzewodowo połączyć się z siecią. Myślę, że bez routerów dzisiaj nie wyobrazimy sobie nowoczesnych sieci, zarówno w domach, jak i w firmach. Kiedy korzystasz z routerów zgodnie z ich przeznaczeniem, możesz nie tylko lepiej zarządzać ruchem, ale też poprawić bezpieczeństwo oraz stabilność sieci.

Pytanie 19

Element płyty głównej, który jest odpowiedzialny za wymianę danych między procesorem a innymi komponentami płyty, to

A. chipset
B. BIOS ROM
C. układ chłodzenia
D. pamięć RAM
Chipset jest naprawdę ważnym elementem płyty głównej. Odpowiada za to, jak różne części komputera ze sobą rozmawiają, na przykład procesor, pamięć RAM czy karty graficzne. Można powiedzieć, że to taki pośrednik, który sprawia, że wszystko działa razem. Weźmy na przykład gry komputerowe - bez chipsetu przesyłanie danych między procesorem a kartą graficzną byłoby chaosem, a przecież każdy chce płynnej grafiki. Chipsety są różne, bo mają różne architektury, co ma potem wpływ na to, jak działają z różnymi procesorami. W branży mamy standardy jak Intel czy AMD, które mówią, jakie chipsety są dostępne i co potrafią. Moim zdaniem, dobrze dobrany chipset to podstawa, żeby cały system działał stabilnie i wydajnie, zwłaszcza gdy korzystamy z aplikacji wymagających sporo mocy obliczeniowej.

Pytanie 20

Aby uniknąć utraty danych w systemie do ewidencji uczniów, po zakończeniu codziennej pracy należy wykonać

A. aktualizację programu
B. aktualizację systemu operacyjnego
C. kopię zapasową danych programu
D. bezpieczne zamknięcie systemu operacyjnego
Dokonanie kopii zapasowej danych programu to kluczowy krok w zapewnieniu ochrony danych, który powinien być realizowany regularnie, a szczególnie po zakończeniu pracy każdego dnia. Kopia zapasowa to zapisana forma danych, która pozwala na ich przywrócenie w przypadku utraty lub uszkodzenia oryginalnych plików. W kontekście programów do ewidencji uczniów, takich jak systemy zarządzania danymi uczniów, wykonanie kopii zapasowej pozwala na zabezpieczenie istotnych informacji, takich jak dane osobowe uczniów, wyniki ocen, frekwencja oraz inne ważne statystyki. Przykładem dobrych praktyk w tej dziedzinie jest wdrożenie strategii 3-2-1, która zakłada posiadanie trzech kopii danych, na dwóch różnych nośnikach (np. dysk twardy i chmura) oraz jednej kopii przechowywanej w innej lokalizacji. Regularne tworzenie kopii zapasowych powinno być częścią polityki zarządzania danymi w każdej instytucji edukacyjnej.

Pytanie 21

Podstawowym warunkiem archiwizacji danych jest

A. kompresja i kopiowanie danych z równoczesnym ich szyfrowaniem
B. kompresja danych
C. kopiowanie danych
D. kompresja oraz kopiowanie danych
Kompresja danych jest techniką związaną z redukcją rozmiaru plików, co może być użyteczne w kontekście archiwizacji, ale nie jest to warunek niezbędny do jej przeprowadzenia. Wiele osób myli archiwizację z optymalizacją przestrzeni dyskowej, co prowadzi do błędnego przekonania, że kompresja jest kluczowym elementem tego procesu. Mimo że kompresja może ułatwić przechowywanie większej ilości danych w ograniczonej przestrzeni, sama w sobie nie zabezpiecza danych ani nie umożliwia ich odtworzenia, co jest głównym celem archiwizacji. Również kopiowanie danych jest istotne, ale można archiwizować dane bez kompresji, co czyni tę odpowiedź niekompletną. W przypadku odpowiedzi, które łączą kompresję z kopiowaniem, należy zauważyć, że chociaż te elementy mogą być użyte w procesie archiwizacji, ich jednoczesne stosowanie nie jest konieczne dla zapewnienia skutecznej archiwizacji. Użytkownicy często mylą niezbędne kroki archiwizacji z dodatkowymi technikami, co prowadzi do nieprawidłowych wniosków. Archiwizacja powinna koncentrować się na zabezpieczeniu danych poprzez ich kopiowanie w sposób umożliwiający ich późniejsze odzyskanie, bez względu na to, czy dane te zostaną skompresowane.

Pytanie 22

Wskaż usługę, którą należy skonfigurować na serwerze aby blokować ruch sieciowy?

A. Zarządca SMNP.
B. DNS
C. IIS
D. Zapora sieciowa.
Prawidłowo – aby blokować ruch sieciowy na serwerze, konfigurujemy zaporę sieciową (firewall). To właśnie firewall decyduje, które pakiety sieciowe są przepuszczane, a które odrzucane, na podstawie zdefiniowanych reguł. Można filtrować ruch po adresach IP, portach, protokołach (TCP/UDP/ICMP), kierunku (ruch przychodzący/wychodzący), a nawet po aplikacjach. W praktyce administracji serwerami to jedno z absolutnie podstawowych narzędzi bezpieczeństwa. W systemach Windows rolę tę pełni „Zapora systemu Windows z zabezpieczeniami zaawansowanymi” albo firewall wbudowany w rozwiązania typu Windows Server, często zarządzany przez zasady grup (GPO). W Linuksie najczęściej używa się iptables, nftables, firewalld czy ufw. Niezależnie od konkretnego narzędzia, idea zawsze jest ta sama: domyślnie zamykamy wszystko, a otwieramy tylko to, co jest naprawdę potrzebne (np. port 80/443 dla serwera WWW, 22 dla SSH, 3389 dla RDP). To jest taka podstawowa dobra praktyka – zasada najmniejszych uprawnień, ale w kontekście ruchu sieciowego. W środowiskach produkcyjnych zapora sieciowa bywa warstwowa: mamy firewalle sprzętowe na brzegu sieci (np. w routerach, UTM-ach) oraz lokalne zapory programowe na każdym serwerze. Moim zdaniem sensownie skonfigurowany firewall to jedna z najskuteczniejszych i najtańszych form ochrony – chroni przed skanowaniem portów, prostymi atakami z zewnątrz, ogranicza skutki przejęcia jednego hosta, bo nie pozwala mu swobodnie gadać z całą resztą sieci. Standardy bezpieczeństwa, takie jak dobre praktyki CIS Benchmarks czy wytyczne OWASP, wyraźnie wskazują na konieczność stosowania filtracji ruchu sieciowego i separacji usług właśnie poprzez zapory. W codziennej pracy administratora konfiguracja firewall’a to chleb powszedni przy wystawianiu nowych serwerów do sieci lokalnej lub Internetu.

Pytanie 23

Aby zweryfikować adresy MAC komputerów, które są połączone z przełącznikiem, można zastosować następujące polecenie

A. ip http serwer
B. clear mac address-table
C. show mac address-table
D. ip http port
Polecenie 'show mac address-table' jest kluczowym narzędziem w diagnostyce i zarządzaniu sieciami komputerowymi. Umożliwia administratorom sieci uzyskanie informacji o adresach MAC urządzeń podłączonych do przełącznika, co jest niezbędne do monitorowania ruchu w sieci oraz rozwiązywania problemów związanych z łącznością. W wyniku wykonania tego polecenia, administrator otrzymuje tabelę, która zawiera adresy MAC, odpowiadające im porty oraz VLAN, co pozwala na łatwe identyfikowanie lokalizacji konkretnego urządzenia w sieci. Przykładowo, w przypadku problemów z dostępnością zasobów, administrator może szybko zlokalizować urządzenie, które nie działa prawidłowo. Dobre praktyki w zarządzaniu sieciami sugerują regularne monitorowanie adresów MAC, aby zapewnić bezpieczeństwo i optymalizację wydajności sieci.

Pytanie 24

Jakie urządzenie NIE powinno być serwisowane podczas korzystania z urządzeń antystatycznych?

A. Modem
B. Zasilacz
C. Dysk twardy
D. Pamięć
Zasilacz jest urządzeniem, które powinno być naprawiane tylko wtedy, gdy jest całkowicie odłączone od zasilania. W trakcie pracy z urządzeniami antystatycznymi istotne jest, aby unikać wszelkich potencjalnych źródeł uszkodzeń. Zasilacze są źródłem wysokiego napięcia oraz mogą w sobie przechowywać ładunki elektryczne, które mogą być niebezpieczne podczas jakiejkolwiek interakcji. W przypadku naprawy zasilacza w czasie jego działania, istnieje ryzyko zwarcia oraz uszkodzenia podzespołów. W branży serwisowej standardy BHP oraz procedury dotyczące pracy z urządzeniami elektrycznymi wymagają, by każdy zasilacz był odpowiednio odłączony i uziemiony przed przystąpieniem do jakiejkolwiek naprawy. Przykładem dobrej praktyki jest zastosowanie narzędzi antystatycznych, takich jak maty czy paski, które pomagają w eliminacji ładunków statycznych, ale nie zabezpieczają przed ryzykiem związanym z napięciem zasilania.

Pytanie 25

Wskaż efekt działania przedstawionego polecenia.

net user Test /expires:12/09/20
A. Wymuszono zmianę hasła na koncie Test w ustalonym terminie.
B. Wyznaczono datę wygaśnięcia konta Test.
C. Zweryfikowano datę ostatniego logowania na konto Test.
D. Skonfigurowano czas aktywności konta Test.
Polecenie 'net user Test /expires:12/09/20' ustawia datę wygaśnięcia konta użytkownika o nazwie Test na 12 września 2020 roku. W systemach Windows zarządzanie kontami użytkowników jest kluczowym aspektem administracji systemem, a polecenie net user jest powszechnie używane do konfiguracji różnych atrybutów konta. Ustawienie daty wygaśnięcia konta jest istotne z perspektywy bezpieczeństwa, umożliwiając administratorom kontrolowanie dostępu do zasobów systemowych. Przykładowo, jeżeli konto jest wykorzystywane przez tymczasowego pracownika lub w ramach projektu, administrator może ustalić automatyczne wygaśnięcie konta po zakończeniu pracy, co zapobiega nieautoryzowanemu dostępowi w przyszłości. Dobrym praktykom w zarządzaniu kontami użytkowników jest regularne przeglądanie i aktualizowanie dat wygaśnięcia kont, aby zapewnić zgodność z polityką bezpieczeństwa organizacji oraz minimalizować ryzyko nadużyć.

Pytanie 26

Jakie będzie rezultatem dodawania liczb 10011012 i 110012 w systemie binarnym?

A. 1101100
B. 1100110
C. 1110001
D. 1101101
Odpowiedzi, które nie są poprawne, wynikają z typowych błędów w dodawaniu w systemie binarnym oraz niewłaściwego zrozumienia procesu przenoszenia. W przypadku dodawania binarnego, kluczowe jest zrozumienie, że każda kolumna ma przypisaną wartość, która jest potęgą liczby 2. Błędy mogą pojawić się w momencie, gdy dodajemy liczby i nie uwzględniamy przeniesienia lub mylimy wartości kolumn. Na przykład, w odpowiedzi 1101100, mogło dojść do pomyłki przy dodawaniu, gdzie przeniesienie nie zostało uwzględnione, co prowadzi do błędnego wyniku. Z kolei odpowiedź 1110001 może być wynikiem niepoprawnego zsumowania, gdzie dodano zbyt wiele do wartości w wyższych kolumnach. W przypadku 1101101, możliwe, że poprawnie dodano tylko część bitów, a wynik końcowy nie uwzględniał całości przeniesienia. Typowe błędy myślowe związane z tymi odpowiedziami obejmują zbytnią pewność siebie w dodawaniu i pomijanie podstawowych zasad, takich jak przeniesienie. Kluczowe w nauce dodawania w systemie binarnym jest praktykowanie różnych przykładów i zrozumienie, jak działa system przenoszenia, co pomoże uniknąć tych typowych pułapek.

Pytanie 27

Która karta graficzna nie będzie współpracowała z monitorem, wyposażonym w złącza przedstawione na zdjęciu (zakładając, że do podłączenia monitora nie można zastosować adaptera)?

Ilustracja do pytania
A. Sapphire Fire Pro W9000 6GB GDDR5 (384 bit) 6x mini DisplayPort
B. Asus Radeon RX 550 4GB GDDR5 (128 bit), DVI-D, HDMI, DisplayPort
C. Fujitsu NVIDIA Quadro M2000 4GB GDDR5 (128 Bit) 4xDisplayPort
D. HIS R7 240 2GB GDDR3 (128 bit) HDMI, DVI, D-Sub
Wybierając nieodpowiednią odpowiedź, można łatwo wpaść w pułapkę myślenia, że każde cyfrowe złącze będzie się nadawało do każdego monitora, albo że obecność kilku różnych wyjść na karcie graficznej zawsze gwarantuje kompatybilność. Tymczasem kluczowe jest dokładne dopasowanie typów portów. W tej sytuacji zarówno Asus Radeon RX 550, Sapphire Fire Pro W9000, jak i Fujitsu NVIDIA Quadro M2000 posiadają wyjścia, które można bezpośrednio podpiąć do monitora przedstawionego na zdjęciu – HDMI lub DisplayPort. Co ważne, DisplayPort w wersji mini i pełnej, spotykany w kartach graficznych, jest bardzo uniwersalny: wystarczy odpowiedni kabel, bez żadnych przejściówek czy strat jakości, by podłączyć go do monitora z wejściem DisplayPort. Z kolei HDMI to już praktycznie standard w nowoczesnych monitorach i kartach. Natomiast myślenie, że każda karta z DVI lub D-Sub będzie kompatybilna, to typowy błąd – te interfejsy są coraz rzadziej spotykane w nowych monitorach, a na zdjęciu ich po prostu nie ma. W praktyce, brak odpowiedniego złącza na karcie uniemożliwia podłączenie monitora bez dodatkowych adapterów, co nie zawsze jest możliwe lub zalecane (adaptery potrafią wprowadzać opóźnienia, ograniczać rozdzielczości lub nie działać z każdym monitorem). Standardy branżowe jednoznacznie zalecają używanie bezpośrednich połączeń cyfrowych dla uzyskania najlepszej kompatybilności i jakości obrazu. Warto, szczególnie w środowisku profesjonalnym czy biurowym, zawsze zweryfikować fizyczną dostępność portów przed złożeniem zamówienia na sprzęt – to naprawdę ułatwia życie i pozwala uniknąć problemów podczas instalacji.

Pytanie 28

Sprzęt sieciowy umożliwiający połączenie pięciu komputerów w tej samej sieci, minimalizując ryzyko kolizji pakietów, to

A. przełącznik.
B. ruter.
C. koncentrator.
D. most.
Przełącznik, nazywany również switch, jest kluczowym urządzeniem w nowoczesnych sieciach komputerowych. Działa na poziomie drugiego (łącza danych) i trzeciego (sieci) modelu OSI, co pozwala mu skutecznie zarządzać przesyłem danych pomiędzy różnymi urządzeniami w tej samej sieci lokalnej. Przełącznik analizuje adresy MAC (Media Access Control) urządzeń podłączonych do portów, co umożliwia mu wysyłanie pakietów danych tylko do konkretnego urządzenia, a nie do wszystkich, jak ma to miejsce w przypadku koncentratora. Dzięki temu minimalizuje ryzyko kolizji pakietów, co przekłada się na wyższą wydajność całej sieci. W praktyce, przełączniki są powszechnie stosowane w biurach, szkołach oraz centrach danych, gdzie istnieje potrzeba efektywnego zarządzania dużymi ilościami ruchu sieciowego. Istnieją również zaawansowane przełączniki zarządzane, które pozwalają na konfigurację i monitorowanie ruchu sieciowego, co jest zgodne z najlepszymi praktykami zarządzania sieciami. W kontekście rozwoju technologii, przełączniki Ethernet stały się podstawowym elementem infrastruktury sieciowej, wspierając standardy takie jak IEEE 802.3.

Pytanie 29

Wykonanie polecenia tar -xf dane.tar w systemie Linux spowoduje

A. pokazanie informacji o zawartości pliku dane.tar
B. stworzenie archiwum dane.tar, które zawiera kopię katalogu /home
C. przeniesienie pliku dane.tar do katalogu /home
D. wyodrębnienie danych z archiwum o nazwie dane.tar
Wyświetlenie informacji o zawartości pliku 'dane.tar' nie jest możliwe za pomocą polecenia 'tar -xf dane.tar'. W rzeczywistości, aby uzyskać jedynie listę plików znajdujących się w archiwum tar, powinno się użyć flagi '-t', co pozwala na przeglądanie zawartości archiwum bez jego wyodrębniania. To nieporozumienie wynika z mylnego zrozumienia funkcji używanych flag w poleceniu tar. W przypadku utworzenia archiwum, należy użyć flagi '-c' (create), a nie '-x', co może prowadzić do błędnych wniosków, że polecenie to służy do tworzenia archiwum. Ponadto, skopiowanie pliku 'dane.tar' do katalogu '/home' jest również niepoprawne, ponieważ polecenie tar nie służy do kopiowania plików; w tym celu należałoby wykorzystać komendę 'cp'. Aby zrozumieć te zagadnienia, warto zaznajomić się z dokumentacją polecenia tar oraz jego różnymi flagami, co zapewni głębsze zrozumienie jego możliwości i zastosowań. Typowe błędy w interpretacji poleceń w systemie Linux mogą prowadzić do nieefektywnego zarządzania danymi oraz niepotrzebnych utrudnień w pracy z systemem. Zazwyczaj, aby skutecznie operować na plikach archiwalnych, należy przynajmniej znać podstawowe komendy i ich argumenty, co jest fundamentalne dla sprawnego korzystania z narzędzi w terminalu.

Pytanie 30

Nie można uruchomić systemu Windows z powodu błędu oprogramowania. Jak można przeprowadzić diagnozę i usunąć ten błąd w jak najmniej inwazyjny sposób?

A. przeprowadzenie diagnostyki podzespołów
B. uruchomienie komputera w trybie awaryjnym
C. wykonanie reinstalacji systemu Windows
D. przeprowadzenie wymiany podzespołów
Uruchomienie komputera w trybie awaryjnym jest kluczowym krokiem w diagnozowaniu problemów z systemem operacyjnym, zwłaszcza gdy podejrzewamy usterki programowe. Tryb awaryjny ładował minimalny zestaw sterowników i usług, co pozwala na uruchomienie systemu w ograniczonym środowisku. To istotne, ponieważ umożliwia wyizolowanie problemu, eliminując potencjalne zakłócenia spowodowane przez oprogramowanie lub sterowniki, które działają w normalnym trybie. Przykładem zastosowania trybu awaryjnego może być sytuacja, w której zainstalowana aplikacja lub aktualizacja powoduje niestabilność systemu – uruchomienie komputera w tym trybie pozwala na dezinstalację problematycznego oprogramowania. Dobrą praktyką jest również korzystanie z narzędzi diagnostycznych dostępnych w trybie awaryjnym, takich jak przywracanie systemu czy skanowanie antywirusowe. W kontekście standardów branżowych, korzystanie z trybu awaryjnego jako pierwszego kroku w diagnostyce problemów z systemem jest rekomendowane przez producentów systemów operacyjnych, gdyż pozwala na szybsze i mniej inwazyjne odnalezienie przyczyny problemu.

Pytanie 31

Do pielęgnacji elementów łożyskowych oraz ślizgowych w urządzeniach peryferyjnych wykorzystuje się

A. sprężone powietrze
B. tetrową ściereczkę
C. smar syntetyczny
D. powłokę grafitową
Smar syntetyczny jest właściwym wyborem do konserwacji elementów łożyskowanych oraz ślizgowych w urządzeniach peryferyjnych ze względu na swoje wyjątkowe właściwości smarne oraz stabilność chemiczną. Smary syntetyczne, w przeciwieństwie do smarów mineralnych, charakteryzują się lepszymi właściwościami w wysokich temperaturach, a także odpornością na utlenianie i rozkład, co przekłada się na dłuższy czas eksploatacji. W praktyce smary te są często stosowane w silnikach, przekładniach oraz innych elementach mechanicznych, gdzie występują duże obciążenia i prędkości. Warto także zauważyć, że smar syntetyczny zmniejsza tarcie, co przyczynia się do wydajności energetycznej urządzeń oraz ich niezawodności. Zastosowanie smaru syntetycznego wpływa na zmniejszenie zużycia części, co jest zgodne z najlepszymi praktykami branżowymi, takimi jak normy ISO dotyczące smarowania i konserwacji urządzeń mechanicznych. Z tego względu, regularne stosowanie smaru syntetycznego w odpowiednich aplikacjach jest kluczowe dla utrzymania sprawności i długowieczności urządzeń.

Pytanie 32

Liczba \( 10_{D} \) w systemie uzupełnień do dwóch jest równa

A. \(01010_{U2}\)
B. \(10010_{U2}\)
C. \(01110_{U2}\)
D. \(11010_{U2}\)
Poprawna odpowiedź to 01010₂ w systemie uzupełnień do dwóch, bo liczba 10₁₀ jest dodatnia i w standardowej reprezentacji na ustaloną liczbę bitów (np. 5 bitów) zapis dodatnich liczb w kodzie U2 jest identyczny jak zwykły zapis binarny. Najpierw zamieniamy 10₁₀ na system binarny: 10₁₀ = 1010₂. Jeśli przyjmujemy długość słowa 5 bitów, to po prostu dopełniamy z lewej strony zerem: 01010₂. W kodzie U2 najważniejszy (najstarszy) bit jest bitem znaku: 0 oznacza liczbę dodatnią, 1 – ujemną. Tutaj mamy 0 na początku, więc wszystko się zgadza: dodatnia dziesiątka. Moim zdaniem kluczowe jest zapamiętanie, że dla liczb dodatnich nic „magicznego” się nie dzieje – U2 różni się od zwykłego binarnego tylko dla liczb ujemnych. W praktyce, w procesorach, rejestrach i pamięci operacyjnej właśnie tak to wygląda: dodatnie wartości są przechowywane dokładnie tak, jak w czystym binarnym, a ujemne są zakodowane jako uzupełnienie do dwóch. Dzięki temu układy arytmetyczno‑logiczne (ALU) mogą wykonywać dodawanie i odejmowanie na jednym, wspólnym mechanizmie, bez osobnych obwodów dla liczb ze znakiem i bez znaku. To jest standardowa, powszechnie stosowana metoda reprezentacji liczb całkowitych w architekturach zgodnych z praktycznie wszystkimi współczesnymi CPU (x86, ARM itd.). Warto też kojarzyć zakres: dla 5 bitów w U2 mamy od −16 do +15. 01010₂ mieści się w tym zakresie i odpowiada dokładnie +10. Gdyby to była liczba ujemna, mielibyśmy na początku 1 i trzeba by wykonać procedurę „odwróć bity i dodaj 1”, żeby odzyskać wartość dziesiętną.

Pytanie 33

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 8 GB.
B. 2 modułów, każdy po 16 GB.
C. 1 modułu 16 GB.
D. 1 modułu 32 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 34

Poniżej zaprezentowano fragment pliku konfiguracyjnego serwera w systemie Linux. Jaką usługi dotyczy ten fragment?

option domain-name "meinheimnetz";
ddns-update-style none;
default-lease-time 14400;
subnet 192.168.1.0 netmask 255.255.255.0 {
      range 192.168.1.10 192.168.1.20;
      default-lease-time 14400;
      max-lease-time 172800;
}
A. DDNS
B. TFTP
C. DHCP
D. SSH2
Plik konfiguracyjny przedstawiony na obrazku nie jest związany z usługą TFTP, SSH2 ani DDNS, co można zrozumieć poprzez analizę zawartych w nim elementów. TFTP (Trivial File Transfer Protocol) to prosty protokół do przesyłania plików, który operuje na UDP i nie wymaga zaawansowanej konfiguracji związanej z adresowaniem IP. W kontekście pliku konfiguracyjnego, nie znajdziemy tam specyfikacji podsieci ani zakresów adresów IP, ponieważ TFTP nie zajmuje się tym aspektem zarządzania siecią. SSH2 natomiast odnosi się do Secure Shell w wersji 2, protokołu zapewniającego bezpieczny dostęp do zdalnych systemów. Konfiguracja SSH2 koncentruje się na elementach związanych z autoryzacją, kluczami kryptograficznymi oraz portami komunikacyjnymi, zamiast na aspektach dynamicznego przydzielania adresów. DDNS (Dynamic Domain Name System) umożliwia dynamiczną aktualizację rekordów DNS, co oznacza, że jego konfiguracja dotyczy zasadniczo domen i nie obejmuje bezpośrednio zarządzania podsiecią czy adresami IP. Typowy błąd myślowy polega na kojarzeniu DDNS z dynamicznym charakterem DHCP, jednak ich funkcje w sieci są różne. DDNS zarządza nazwami domen, podczas gdy DHCP odpowiada za adresy IP. Zrozumienie tych fundamentalnych różnic jest kluczowe dla prawidłowego przypisania konfiguracji do odpowiedniej usługi w ramach egzaminu zawodowego. Każda z tych technologii pełni odmienną rolę w ekosystemie sieciowym, co podkreśla znaczenie ich prawidłowego zrozumienia i zastosowania w praktyce administracji sieciowej. Analiza takich plików konfiguracyjnych wymaga od specjalisty znajomości specyfikacji i zastosowania każdego z tych protokołów, co pozwala na efektywne zarządzanie infrastrukturą IT.

Pytanie 35

Jak nazywa się licencja oprogramowania pozwalająca na bezpłatne dystrybucję aplikacji?

A. MOLP
B. freware
C. OEM
D. shareware
Odpowiedzi 'OEM', 'MOLP' i 'shareware' są błędne, ponieważ nie odnoszą się do kategorii oprogramowania, które można rozpowszechniać za darmo. Licencje OEM (Original Equipment Manufacturer) są związane z oprogramowaniem preinstalowanym na komputerach przez producentów sprzętu. Tego typu licencje są ograniczone do konkretnego sprzętu i zazwyczaj nie pozwalają na przeniesienie oprogramowania na inne urządzenia. Z kolei licencje MOLP (Microsoft Open License Program) są przeznaczone dla organizacji, które chcą kupić licencje na oprogramowanie Microsoft w większych ilościach, co wiąże się z kosztami i nie jest związane z darmowym rozpowszechnianiem. Shareware to inna forma licencji, w której użytkownik ma możliwość przetestowania oprogramowania przez ograniczony czas, po czym musi uiścić opłatę, aby kontynuować korzystanie z pełnej wersji. To podejście często wprowadza użytkowników w błąd, sugerując, że oprogramowanie jest bezpłatne, podczas gdy w rzeczywistości ma swoje koszty, co stanowi punkt zwrotny w zasadzie korzystania z oprogramowania. Prawidłowe zrozumienie różnic między tymi typami licencji jest kluczowe dla wyboru odpowiedniego oprogramowania w kontekście legalności i dostępności, co ma istotne znaczenie dla użytkowników i firm w dzisiejszym cyfrowym świecie.

Pytanie 36

Jakie porty powinny zostać zablokowane w firewallu, aby nie pozwolić na łączenie się z serwerem FTP?

A. 80 i 443
B. 25 i 143
C. 22 i 23
D. 20 i 21
Odpowiedzi 20 i 21 są rzeczywiście poprawne. Te porty to standardy używane przez FTP, kiedy przesyłasz pliki. Port 21 działa jako port kontrolny, a port 20 jest tym, który zajmuje się przesyłaniem danych. Jak więc zablokujesz te porty w zaporze, to już nie połączysz się z serwerem FTP. To ma sens, zwłaszcza w kontekście zabezpieczeń - jeśli twoja organizacja nie potrzebuje FTP do codziennych działań, to zablokowanie tych portów to świetny krok do zmniejszenia ryzyka ataków. Dodatkowo, fajnie by było, gdyby zamiast FTP, korzystano z SFTP lub FTPS, bo oferują lepsze szyfrowanie i bezpieczeństwo. Moim zdaniem, zawsze warto inwestować w lepsze rozwiązania zabezpieczające.

Pytanie 37

AES (ang. Advanced Encryption Standard) to standard szyfrowania, który?

A. jest następcą DES (ang. Data Encryption Standard)
B. nie może być stosowany do szyfrowania plików
C. nie może być wdrożony w sprzęcie
D. wykorzystuje symetryczny algorytm szyfrujący
AES, czyli Advanced Encryption Standard, wykorzystuje symetryczny algorytm szyfrujący, co oznacza, że do szyfrowania i deszyfrowania danych używa się tego samego klucza. Jest to jedna z najważniejszych cech tego standardu, która zapewnia zarówno bezpieczeństwo, jak i szybkość operacji szyfrujących. AES został wprowadzony przez NIST w 2001 roku jako zamiennik dla DES, w odpowiedzi na rosnące wymagania dotyczące bezpieczeństwa danych. Przykładem zastosowania AES jest szyfrowanie danych w protokołach takich jak HTTPS, które zapewniają bezpieczną komunikację w Internecie. W praktyce, wiele systemów i aplikacji, od komunikatorów po bankowość internetową, korzysta z tego algorytmu, aby chronić dane przed nieautoryzowanym dostępem. Dodatkowo, zgodność z normami takimi jak FIPS 197, potwierdza, że AES spełnia wysokie standardy bezpieczeństwa, co czyni go zaufanym rozwiązaniem dla wielu zastosowań w branży IT.

Pytanie 38

W programie Acrylic Wi-Fi Home przeprowadzono test, którego rezultaty ukazano na zrzucie ekranu. Na ich podstawie można stwierdzić, że sieć bezprzewodowa dostępna w danym momencie

Ilustracja do pytania
A. charakteryzuje się bardzo dobrą jakością sygnału
B. osiąga maksymalną prędkość transferu 72 Mbps
C. jest otwarta
D. działa na kanałach 10 ÷ 12
Podczas analizy wyników wskazanych przez program Acrylic Wi-Fi Home warto zwrócić uwagę na kilka kluczowych aspektów które pomagają poprawnie zinterpretować dane dotyczące sieci bezprzewodowej. Po pierwsze kwestia jakości sygnału na którą sugeruje druga odpowiedź. Pomimo że program pokazuje kilka gwiazdek przy jakości sygnału to wartość RSSI wynosząca -72 dBm wskazuje na dość przeciętną nie bardzo dobrą jakość co może prowadzić do błędnej interpretacji. W praktyce wartość RSSI powyżej -67 dBm jest uważana za dobrą dla większości zastosowań. Odpowiedź sugerująca maksymalną szybkość transferu 72 Mbps także jest błędna ponieważ w wynikach pokazana jest maksymalna prędkość 150 Mbps co jest typowe dla sieci obsługujących standard 802.11n w paśmie 2.4 GHz. Ostatnia koncepcja korzystania z kanałów 10 ÷ 12 jest również niepoprawna ponieważ zrzut pokazuje że sieć działa na kanałach 6-10. Warto zauważyć że kanały powyżej 11 w paśmie 2.4 GHz mogą być mniej kompatybilne w niektórych krajach co może wpływać na wybór kanałów. Typowym błędem myślowym jest zakładanie że wszystkie z pozoru widoczne informacje są zawsze precyzyjne co podkreśla znaczenie dokładnej analizy dostępnych danych i znajomości podstawowych zasad działania sieci bezprzewodowych.

Pytanie 39

W adresacji IPv6 standardowy podział długości dla adresu sieci oraz identyfikatora hosta wynosi odpowiednio

A. 64 bity / 64 bity
B. 96 bitów / 32 bity
C. 32 bity / 96 bitów
D. 16 bitów / 112 bitów
Odpowiedź 64 bity / 64 bity jest poprawna, ponieważ w standardzie adresacji IPv6, adresy są podzielone na dwie zasadnicze części: część sieciową oraz część identyfikującą hosta. W przypadku IPv6, standardowy podział wynosi 64 bity dla identyfikacji sieci oraz 64 bity dla identyfikacji hosta. Taki podział sprzyja efektywnemu zarządzaniu adresami w dużych sieciach, umożliwiając przypisanie ogromnej liczby adresów do urządzeń w ramach jednej sieci. Przykładem może być organizacja, która musi przypisać adresy do tysięcy urządzeń w sieci lokalnej. Dzięki temu podziałowi, przedsiębiorstwa mogą korzystać z unikalnych adresów dla każdego urządzenia, co jest zgodne z zasadami projektowania sieci według standardu RFC 4291 dotyczącym IPv6. Ponadto, użycie 64-bitowego prefiksu sieciowego jest zgodne z dobrymi praktykami, które zalecają stosowanie zasięgów adresowych sprzyjających efektywności routingu i uproszczonemu zarządzaniu.

Pytanie 40

Ile warstw zawiera model ISO/OSI?

A. 3
B. 5
C. 9
D. 7
Model ISO/OSI definiuje siedem warstw, które stanowią ramy dla zrozumienia i projektowania komunikacji sieciowej. Te warstwy to: warstwa fizyczna, łącza danych, sieciowa, transportowa, sesji, prezentacji oraz aplikacji. Każda warstwa realizuje określone funkcje i współpracuje z warstwami bezpośrednio powyżej i poniżej. Na przykład, warstwa fizyczna odpowiada za przesyłanie bitów przez medium transmisyjne, natomiast warstwa aplikacji umożliwia użytkownikom interakcję z sieciami poprzez aplikacje. Zrozumienie modelu OSI jest kluczowe dla inżynierów i techników sieciowych, ponieważ pozwala na diagnozowanie problemów, projektowanie architektur systemów oraz implementację protokołów komunikacyjnych. Przykładem zastosowania modelu OSI jest proces rozwiązywania problemów, gdzie technik może zidentyfikować, na której warstwie występuje problem (np. problemy z połączeniem mogą wskazywać na warstwę fizyczną), co znacząco usprawnia proces naprawy i utrzymania sieci.