Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 7 maja 2026 21:17
  • Data zakończenia: 7 maja 2026 21:35

Egzamin zdany!

Wynik: 23/40 punktów (57,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Thunderbolt to interfejs

A. równoległy, asynchroniczny, przewodowy.
B. szeregowy, asynchroniczny, bezprzewodowy.
C. szeregowy, dwukanałowy, dwukierunkowy, przewodowy.
D. równoległy, dwukanałowy, dwukierunkowy, bezprzewodowy.
Thunderbolt bywa czasem mylony z innymi interfejsami komputerowymi, głównie przez skojarzenia z „nowoczesnością” lub fakt, że niektóre technologie coraz częściej rezygnują z przewodów. Jednak spojrzenie na jego architekturę pokazuje, skąd biorą się te nieporozumienia. Zacznijmy od określenia go jako interfejsu równoległego — to jednak mijanie się z prawdą, bo równoległe interfejsy (np. klasyczne porty LPT czy starsze typy SCSI) wykorzystują wiele linii sygnałowych do przesyłania danych, przez co są większe, bardziej podatne na zakłócenia i nie sprawdzają się przy długich przewodach. Thunderbolt, podobnie jak USB czy PCI Express, korzysta z transmisji szeregowej – pojedyncze kanały umożliwiają transfer danych z dużo większą prędkością i stabilnością, zwłaszcza na większe odległości. Pojawia się też wątpliwość co do asynchroniczności – Thunderbolt jest de facto interfejsem opartym na transferach synchronicznych z bardzo precyzyjnym taktowaniem, bo chodzi tu o wysoką jakość i niezawodność przesyłu danych multimedialnych. Jeśli chodzi o bezprzewodowość — to dopiero poważne nieporozumienie, bo cała idea Thunderbolta opiera się na niezwykle wydajnym, fizycznym kablu, który zapewnia stabilność i bezpieczeństwo transmisji, jakiej nie dają fale radiowe, szczególnie przy dużych przepływnościach. Pojęcie dwukanałowości czy dwukierunkowości bywa też mylone – nie każdy protokół, który jest dwukanałowy, jest automatycznie Thunderboltem. W praktyce dla Thunderbolta istotne jest, że po jednym kablu można przesłać różne typy sygnałów (np. obraz i dane), a to czyni go elastycznym w branży IT. Typowe błędy wynikają tu z analogii do Wi-Fi, Bluetooth czy dawnych portów równoległych — a to zupełnie inne technologie. Thunderbolt to przewodowy, szeregowy standard, często z wykorzystaniem złącza USB-C, i nie należy go utożsamiać z żadną formą bezprzewodowych czy równoległych interfejsów. Takie uproszczenia potrafią utrudnić zrozumienie, jak naprawdę działa profesjonalny sprzęt komputerowy. Według mnie warto dokładnie przeanalizować nie tylko nazwy standardów, ale także ich techniczne założenia – to bardzo pomaga w praktyce, zwłaszcza przy pracy z nowoczesnym sprzętem.

Pytanie 2

Dostosowanie ustawień parametrów TCP/IP urządzenia na podstawie adresu MAC karty sieciowej jest funkcją protokołu

A. FTP
B. DHCP
C. HTTP
D. DNS
HTTP (Hypertext Transfer Protocol) jest protokołem stosowanym do przesyłania danych w Internecie, głównie w kontekście stron internetowych, jednak nie ma on nic wspólnego z przydzielaniem adresów IP czy konfigurowaniem ustawień sieciowych hostów. To powoduje, że nie można go pomylić z DHCP, który zajmuje się tymi zagadnieniami. DNS (Domain Name System) jest systemem, który tłumaczy nazwy domenowe na adresy IP, co jest kluczowe dla lokalizowania zasobów w Internecie, ale również nie ma związku z dynamicznym przypisywaniem adresów. FTP (File Transfer Protocol) to protokół służący do przesyłania plików pomiędzy komputerami w sieci, co również nie odpowiada funkcjonalności DHCP. Typowy błąd myślowy prowadzący do wyboru błędnej odpowiedzi polega na myleniu różnych protokołów z ich specyficznymi zastosowaniami. Użytkownicy mogą nie dostrzegać, że HTTP, DNS i FTP służą do zupełnie innych celów niż przydzielanie konfiguracji sieciowej, co z kolei może prowadzić do nieporozumień w kontekście zarządzania sieciami. Zrozumienie różnic między tymi protokołami jest kluczowe dla skutecznego zarządzania i konfiguracji sieci.

Pytanie 3

Aby sprawdzić minimalny czas ważności hasła w systemie Windows, stosuje się polecenie

A. net accounts
B. net time
C. net group
D. net user
Polecenia 'net user', 'net time' oraz 'net group' nie są odpowiednie do sprawdzania minimalnego okresu ważności hasła w systemie Windows. 'Net user' umożliwia zarządzanie kontami użytkowników, jednak nie zawiera opcji bezpośredniego sprawdzania ani ustawiania minimalnego okresu ważności haseł. Z kolei 'net time' używane jest do synchronizacji czasu z innymi komputerami w sieci, co nie ma związku z polityką haseł. Natomiast 'net group' służy do zarządzania grupami użytkowników w systemie, co również nie dotyczy ustawień haseł. Typowym błędem myślowym jest zakładanie, że każde polecenie związane z 'net' dotyczy haseł, podczas gdy każde z tych poleceń ma swoje specyficzne zastosowania. W kontekście najlepszych praktyk w zakresie bezpieczeństwa, kluczowe jest stosowanie odpowiednich narzędzi do odpowiednich zadań, aby skutecznie zarządzać bezpieczeństwem systemu. Zrozumienie funkcji każdego z poleceń pozwala uniknąć nieefektywnych praktyk oraz nieporozumień, które mogą prowadzić do poważnych luk w zabezpieczeniach.

Pytanie 4

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 16 GB.
B. 1 modułu 32 GB.
C. 2 modułów, każdy po 8 GB.
D. 1 modułu 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 5

Który z poniższych mechanizmów zapewni najwyższy stopień ochrony sieci bezprzewodowych w standardzie 802.11n?

A. WEP (Wired Equivalent Privacy)
B. WPS (Wi-Fi Protected Setup)
C. WPA2 (Wi-Fi Protected Access II)
D. WPA (Wi-Fi Protected Access)
WPA2 (Wi-Fi Protected Access II) jest najbardziej zaawansowanym mechanizmem zabezpieczeń dla sieci bezprzewodowych standardu 802.11n. Wprowadza on silne algorytmy szyfrowania oparty na AES (Advanced Encryption Standard), który jest znacznie bezpieczniejszy od starszych standardów, takich jak WEP czy WPA. Dzięki zastosowaniu protokołu 802.1X, WPA2 zapewnia także lepszą autoryzację użytkowników, co pozwala na bardziej kontrolowany dostęp do zasobów sieciowych. W praktyce, WPA2 jest standardem stosowanym w większości nowoczesnych routerów i punktów dostępowych, co czyni go de facto normą w zabezpieczaniu sieci bezprzewodowych. Przykładem zastosowania WPA2 jest jego użycie w sieciach domowych oraz biurowych, gdzie użytkownicy mogą korzystać z silnego szyfrowania, co minimalizuje ryzyko nieautoryzowanego dostępu czy podsłuchiwania przesyłanych danych. Warto również wspomnieć, że WPA2 obsługuje różne tryby pracy, w tym Personal i Enterprise, co pozwala na elastyczne dostosowanie zabezpieczeń do różnych środowisk i potrzeb organizacji.

Pytanie 6

Jaki protokół mailowy pozwala między innymi na przechowywanie odbieranych wiadomości e-mail na serwerze, zarządzanie wieloma katalogami, usuwanie wiadomości oraz przenoszenie ich pomiędzy katalogami?

A. Post Office Protocol (POP)
B. Internet Message Access Protocol (IMAP)
C. Simple Mail Transfer Protocol (SMTP)
D. Multipurpose Internet Mail Extensions (MIME)
Post Office Protocol (POP) to protokół używany do pobierania wiadomości e-mail z serwera na lokalne urządzenie, lecz nie oferuje zaawansowanych funkcji zarządzania wiadomościami, takich jak organizowanie ich w foldery czy synchronizacja zmian. Główną różnicą w porównaniu do IMAP jest to, że POP zazwyczaj pobiera wiadomości i usuwa je z serwera, co ogranicza elastyczność użytkownika, zwłaszcza gdy chce on uzyskać dostęp do swoich e-maili z różnych urządzeń. Multipurpose Internet Mail Extensions (MIME) z kolei to standard, który rozszerza możliwości przesyłania wiadomości e-mail, pozwalając na dodawanie załączników i formatowanie tekstu, ale nie jest protokołem do zarządzania wiadomościami. Zastosowanie SMTP, który jest protokołem wykorzystywanym do wysyłania wiadomości, również nie odpowiada na potrzeby użytkowników dotyczące odbierania i organizacji e-maili. Wybór niewłaściwego protokołu może prowadzić do frustracji użytkowników, którzy oczekują pełnej kontroli nad swoimi wiadomościami e-mail, a błędne zrozumienie funkcji każdego z protokołów może skutkować nieefektywnym korzystaniem z systemów pocztowych. Zrozumienie różnic pomiędzy tymi protokołami jest kluczowe dla skutecznego zarządzania komunikacją oraz bezpieczeństwa danych w środowisku cyfrowym.

Pytanie 7

Użytkownicy sieci WiFi zauważyli problemy oraz częste zrywanie połączenia z internetem. Co może być przyczyną tej sytuacji?

A. niedziałający serwer DHCP
B. niewłaściwy sposób szyfrowania sieci
C. zbyt niski poziom sygnału
D. nieprawidłowe hasło do sieci
Zbyt słaby sygnał WiFi jest jedną z najczęstszych przyczyn problemów z połączeniem. Sygnał radiowy przesyłany przez router może być osłabiony przez różnorodne przeszkody, takie jak ściany, meble czy inne urządzenia elektroniczne. W praktyce, jeśli użytkownicy znajdują się w odległości zbyt dużej od routera lub w strefie z ograniczoną widocznością, mogą doświadczyć przerywanego połączenia lub jego całkowitej utraty. Dobrym rozwiązaniem w takich przypadkach jest umieszczenie routera w centralnym punkcie domu, zminimalizowanie przeszkód oraz korzystanie z rozszerzeń sygnału, takich jak repeater WiFi czy systemy mesh. Standardy takie jak IEEE 802.11ac oraz nowsze 802.11ax (Wi-Fi 6) oferują lepszą wydajność i zasięg, dlatego warto rozważyć ich użycie. Regularne sprawdzanie siły sygnału przy użyciu aplikacji mobilnych lub narzędzi diagnostycznych może również pomóc w identyfikacji i rozwiązaniu problemów z połączeniem.

Pytanie 8

Na ilustracji pokazano część efektu działania programu przeznaczonego do testowania sieci. Sugeruje to użycie polecenia diagnostycznego w sieci

TCP    192.168.0.13:51614    bud02s23-in-f8:https       ESTABLISHED
TCP    192.168.0.13:51615    edge-star-mini-shv-01-ams3:https ESTABLISHED
TCP    192.168.0.13:51617    93.184.220.29:http         ESTABLISHED
TCP    192.168.0.13:51619    93.184.220.29:http         ESTABLISHED
TCP    192.168.0.13:51620    93.184.220.29:http         TIME_WAIT
TCP    192.168.0.13:51621    bud02s23-in-f206:https     TIME_WAIT
TCP    192.168.0.13:51622    xx-fbcdn-shv-01-ams3:https ESTABLISHED
TCP    192.168.0.13:51623    108.161.188.192:https      ESTABLISHED
TCP    192.168.0.13:51626    23.111.9.32:https          TIME_WAIT
TCP    192.168.0.13:51628    lg-in-f155:https           ESTABLISHED
TCP    192.168.0.13:51629    waw02s06-in-f68:https      ESTABLISHED
A. route
B. arp
C. tracert
D. netstat
Netstat jest narzędziem służącym do monitorowania połączeń sieciowych na danym urządzeniu. Wyświetla szczegółowe informacje o aktualnych połączeniach TCP/IP takich jak adresy IP lokalne i zdalne oraz stan połączeń np. ESTABLISHED czy TIME_WAIT. Jest to nieocenione narzędzie diagnostyczne w administracji siecią pozwalające na szybkie identyfikowanie problemów z połączeniami lub nieautoryzowanymi połączeniami wychodzącymi. Praktyczne zastosowanie netstat obejmuje analizę ruchu sieciowego w celu wykrywania potencjalnych ataków czy też monitorowanie połączeń otwartych przez aplikacje serwerowe. Netstat wspiera również administratorów w zarządzaniu zasobami sieciowymi zgodnie z dobrymi praktykami bezpieczeństwa informatycznego pozwalając na szybkie wykrywanie nieprawidłowości w ruchu sieciowym. Warto również zauważyć że netstat jest dostępny na różnych systemach operacyjnych co czyni go uniwersalnym narzędziem w arsenale każdego specjalisty IT. Jego stosowanie zgodne z dobrymi praktykami zaleca regularne monitorowanie logów w celu utrzymania bezpieczeństwa i stabilności sieci.

Pytanie 9

Analiza danych wyświetlonych przez program umożliwia stwierdzenie, że

Ilustracja do pytania
A. partycja rozszerzona zajmuje 24,79 GiB
B. zamontowano trzy dyski twarde oznaczone jako sda1, sda2 oraz sda3
C. jeden dysk twardy został podzielony na sześć partycji podstawowych
D. partycja wymiany ma pojemność 2 GiB
Analiza niepoprawnych opcji wymaga zrozumienia struktury partycji i ich funkcji. Pierwsza opcja sugeruje że jeden dysk twardy został podzielony na sześć partycji podstawowych co jest błędne w kontekście standardów MBR Master Boot Record gdzie maksymalna liczba partycji podstawowych wynosi cztery. Zrzut ekranu ukazuje jedną partycję rozszerzoną która umożliwia tworzenie dodatkowych partycji logicznych jak sda5 i sda6. Druga odpowiedź jest również niepoprawna ponieważ sda1 sda2 i sda3 nie są oddzielnymi dyskami a jedynie partycjami na tym samym dysku sda. Nazewnictwo oparte na literach i cyfrach odnosi się do struktury partycji na pojedynczym dysku twardym co jest standardową konwencją w systemach Linux. Trzecia opcja błędnie identyfikuje wielkość partycji rozszerzonej. Zrzut ekranu pokazuje że partycja rozszerzona sda3 ma wielkość 26.79 GiB a nie 24.79 GiB co jest zauważalne w danych. Te nieporozumienia mogą wynikać z błędnej interpretacji danych wyświetlanych w narzędziach do zarządzania dyskami co jest częstym błędem wśród mniej doświadczonych użytkowników systemów.

Pytanie 10

Watomierz jest stosowany do pomiaru

A. napięcia prądu elektrycznego.
B. rezystancji.
C. natężenia prądu elektrycznego.
D. mocy czynnej.
Wbrew pozorom, watomierz nie jest uniwersalnym przyrządem do wszystkich pomiarów elektrycznych. Często można spotkać się z przekonaniem, że nazwa watomierz sugeruje, że urządzenie to mierzy cokolwiek związanego z prądem czy napięciem, jednak to nie do końca tak działa. Przykładowo, rezystancję mierzy się omomierzem – i to jest narzędzie przystosowane konstrukcyjnie oraz funkcjonalnie właśnie do takich pomiarów, wykorzystując często prawo Ohma. Natomiast napięcie elektryczne mierzymy woltomierzem, który podpinamy równolegle do obwodu. Podobnie natężenie prądu elektrycznego mierzymy amperomierzem, podłączając go szeregowo. To są podstawowe zasady, które pojawiają się już na pierwszych lekcjach w technikum. Watomierz z kolei służy konkretnie do wyznaczania mocy czynnej – tej, która realnie jest zużywana przez odbiornik. Niestety, dość powszechnym błędem jest utożsamianie mocy czynnej z samym napięciem lub prądem, co prowadzi do złych wniosków przy analizie zużycia energii. W praktyce, jeżeli ktoś spróbowałby użyć watomierza do pomiaru samego napięcia albo natężenia, wynik byłby bezużyteczny – konstrukcja tego urządzenia po prostu nie jest do tego przeznaczona. Tak naprawdę, profesjonalne podejście do pomiarów wymaga użycia odpowiednich narzędzi i znajomości norm, na przykład wspomnianych już wcześniej PN-EN czy IEC. To właśnie takie standardy pomagają unikać błędów związanych z doborem sprzętu i pozwalają na rzetelne analizowanie instalacji. Reasumując: każde urządzenie pomiarowe ma swoje ściśle określone zadania, a my, jako przyszli technicy, powinniśmy dobrze wiedzieć, co i kiedy stosować. Moim zdaniem, niewłaściwe podejście do tego tematu często bierze się z braku praktyki lub niezrozumienia podstawowych pojęć – i warto to sobie poukładać, zanim przejdziemy do bardziej zaawansowanych zagadnień.

Pytanie 11

Domyślnie w programie Eksplorator Windows przy użyciu klawisza F5 uruchamiana jest funkcja

A. otwierania okna wyszukiwania
B. rozpoczynania drukowania zrzutu ekranowego
C. odświeżania zawartości aktualnego okna
D. kopiowania
Klawisz F5 w programie Eksplorator Windows jest standardowo używany do odświeżania zawartości bieżącego okna. Funkcja ta jest niezwykle istotna w kontekście zarządzania plikami i folderami, gdyż umożliwia aktualizację widoku, co jest niezbędne w przypadku wprowadzania zmian w systemie plików. Na przykład, gdy dodasz lub usuniesz pliki z wybranego folderu, naciśnięcie F5 pozwala na natychmiastowe zaktualizowanie wyświetlanej listy, co zwiększa efektywność pracy. Warto również zauważyć, że odświeżanie jest praktyką zalecaną w standardach użytkowania systemów operacyjnych, aby zapewnić, że użytkownik zawsze dysponuje aktualnymi danymi. Ponadto, w kontekście programowania, wiele aplikacji przyjmuje podobne skróty klawiszowe dla odświeżania widoku, co świadczy o ujednoliceniu dobrych praktyk w interfejsach użytkownika.

Pytanie 12

Aby stworzyć archiwum danych w systemie operacyjnym Ubuntu, należy użyć programu

A. sed
B. awk
C. tar
D. set
Program tar, będący skrótem od "tape archive", jest standardowym narzędziem w systemach Unix i Linux, w tym Ubuntu, do tworzenia oraz zarządzania archiwami danych. Jego główną funkcją jest łączenie wielu plików i katalogów w jeden plik archiwum, co upraszcza przechowywanie i transport danych. Tar umożliwia również kompresję danych za pomocą różnych algorytmów, takich jak gzip czy bzip2, co nie tylko zmniejsza rozmiar archiwum, ale także przyspiesza transfer plików. Osoby pracujące z systemami operacyjnymi opartymi na Unixie często wykorzystują tar do tworzenia kopii zapasowych oraz przenoszenia systemów i aplikacji. Przykładowe polecenie do utworzenia archiwum to: tar -cvf nazwa_archiwum.tar /ścieżka/do/katalogu, gdzie -c oznacza tworzenie archiwum, -v wyświetla postęp operacji, a -f wskazuje nazwę pliku archiwum. Dobre praktyki sugerują tworzenie archiwów w regularnych odstępach czasu oraz ich przechowywanie w bezpiecznych lokalizacjach, aby zabezpieczyć ważne dane.

Pytanie 13

Rozkaz procesora, przetwarzający informację i zamieniający ją na wynik, należy do grupy rozkazów

A. arytmetyczno-logicznych.
B. przesłań.
C. bezwarunkowych i warunkowych.
D. sterujących.
Prawidłowo – chodzi o rozkazy arytmetyczno‑logiczne. To właśnie ta grupa instrukcji procesora faktycznie „przetwarza informację” i zamienia dane wejściowe na konkretny wynik. W architekturze procesora takie rozkazy określa się jako ALU‑operations (od Arithmetic Logic Unit), bo są wykonywane przez jednostkę arytmetyczno‑logiczną. Do tej grupy należą m.in. dodawanie, odejmowanie, mnożenie, dzielenie, operacje na bitach (AND, OR, XOR, NOT), przesunięcia bitowe, porównania. To one zmieniają zawartość rejestrów na podstawie dostarczonych operandów. W praktyce programistycznej, nawet jeśli piszemy w językach wysokiego poziomu, każdy algorytm na końcu i tak rozkłada się na takie właśnie podstawowe instrukcje ALU. Gdy kompilator generuje kod maszynowy, intensywne obliczenia numeryczne, kryptografia, kompresja danych czy operacje na grafice opierają się głównie na rozkazach arytmetyczno‑logicznych. Z mojego doświadczenia warto pamiętać, że te instrukcje nie tylko liczą, ale też ustawiają tzw. flagi procesora (zero, przeniesienie, znak itp.), które potem są wykorzystywane przez rozkazy skoków warunkowych. Czyli najpierw ALU coś policzy, ustawi odpowiednie bity w rejestrze flag, a dopiero później sterowanie programu może się zmienić w zależności od wyniku. W standardowych podziałach ISA (Instruction Set Architecture) producenci procesorów zawsze wydzielają osobno instrukcje arytmetyczno‑logiczne, właśnie jako tę grupę, która realnie przetwarza dane, a nie tylko je przesuwa albo steruje przepływem programu.

Pytanie 14

Po przeprowadzeniu diagnostyki komputerowej ustalono, że temperatura pracy karty graficznej z wyjściami HDMI oraz D-SUB, zainstalowanej w gnieździe PCI Express komputera stacjonarnego, wynosi 87°C. W związku z tym, serwisant powinien

A. zmienić kabel sygnałowy D-SUB na HDMI
B. dodać dodatkowy moduł pamięci RAM, aby zmniejszyć obciążenie karty
C. wymienić dysk twardy na nowy, o porównywalnej pojemności i prędkości obrotowej
D. sprawdzić, czy wentylator działa prawidłowo i nie jest zabrudzony
Temperatura pracy karty graficznej na poziomie 87°C jest zbyt wysoka i może prowadzić do przegrzania lub uszkodzenia podzespołu. W takim przypadku pierwszym krokiem serwisanta powinno być sprawdzenie wentylatora chłodzącego kartę graficzną. Wentylatory są kluczowe dla utrzymania odpowiedniej temperatury pracy komponentów komputerowych. Jeśli wentylator nie działa prawidłowo lub jest zakurzony, może to ograniczać jego wydajność, co w konsekwencji prowadzi do wzrostu temperatury. W praktyce, regularne czyszczenie i konserwacja wentylatorów oraz sprawdzanie ich działania to standardowa procedura w utrzymaniu sprzętu komputerowego w dobrym stanie. Dbałość o chłodzenie karty graficznej jest zgodna z najlepszymi praktykami w branży, które zalecają monitorowanie temperatury podzespołów oraz ich regularną konserwację, aby zapobiegać awariom i wydłużać żywotność sprzętu. Warto również rozważyć dodanie dodatkowych wentylatorów do obudowy komputera, aby poprawić cyrkulację powietrza.

Pytanie 15

Który z wymienionych interfejsów stanowi port równoległy?

A. USB
B. RS232
C. IEEE1394
D. IEEE1294
IEEE 1294 to standard interfejsu, który jest powszechnie znany jako port równoległy. Jego głównym zastosowaniem jest umożliwienie komunikacji między komputerami a urządzeniami peryferyjnymi, takimi jak drukarki. Standard ten przewiduje przesył danych w równoległym trybie, co oznacza, że wiele bitów informacji może być przesyłanych jednocześnie po różnych liniach. Przykładem zastosowania IEEE 1294 są starsze drukarki, które korzystają z tego złącza do przesyłania danych, co pozwala na szybszą komunikację w porównaniu do interfejsów szeregowych. Warto również zauważyć, że w miarę rozwoju technologii, interfejsy równoległe zostały w dużej mierze zastąpione przez nowocześniejsze rozwiązania, jak USB, które oferują większą szybkość przesyłu danych i wsparcie dla wielu różnych typów urządzeń. IEEE 1294 pozostaje jednak ważnym przykładem standardu równoległego, który wpłynął na rozwój technologii komunikacyjnej.

Pytanie 16

Na komputerze z zainstalowanymi systemami operacyjnymi Windows i Linux, po przeprowadzeniu reinstalacji systemu Windows, drugi system przestaje się uruchamiać. Aby przywrócić możliwość uruchamiania systemu Linux oraz zachować dane i ustawienia w nim zgromadzone, co należy zrobić?

A. przeprowadzić jeszcze raz instalację systemu Windows
B. zainstalować bootloadera GRUB na nowo
C. wykonać ponowną instalację systemu Linux
D. zrealizować skanowanie dysku przy użyciu programu antywirusowego
Reinstalacja bootloadera GRUB to naprawdę ważny krok, zwłaszcza po reinstalacji Windows. Bootloader jest tym, co zajmuje się uruchamianiem różnych systemów na komputerze, a Windows ma tendencję do nadpisywania go podczas swojej instalacji. W przypadku, gdy masz na komputerze kilka systemów, na przykład Windows i Linux, może to spowodować, że Linux przestanie się uruchamiać. GRUB, czyli GRand Unified Bootloader, to najczęściej używany bootloader w systemach Linux i pozwala na wybór systemu do uruchomienia przy starcie komputera. Żeby przywrócić możliwość uruchomienia Linuxa, trzeba bootować z Live CD lub Live USB, a potem ponownie zainstalować GRUB, wskazując odpowiednie partycje. To podejście nie tylko przywraca działanie, ale też chroni dane i ustawienia w Linuxie. Możesz użyć na przykład poleceń `sudo grub-install /dev/sda` oraz `sudo update-grub`, żeby wykryć wszystkie zainstalowane systemy. Takie działania to standard w zarządzaniu komputerem z wieloma systemami operacyjnymi, więc dobrze jest to wiedzieć.

Pytanie 17

Wskaż model licencjonowania serwera zarządzającego (Management Serwer), oferowanego firmom przez Microsoft, którego schemat przedstawiono na ilustracji.

Ilustracja do pytania
A. BOX
B. ML
C. CAL
D. MOLP
W tym zadaniu łatwo się pomylić, bo wszystkie podane skróty dotyczą licencjonowania Microsoftu, ale każdy opisuje zupełnie inny model. Na ilustracji pokazano serwer zarządzający, do którego przypięte są trzy typy licencji: Client User ML, Server ML(s) oraz OSE Client ML. To jednoznacznie wskazuje na koncepcję Management License, czyli właśnie model ML, w którym licencjonuje się jednostki zarządzane przez serwer, a nie sam serwer jako produkt „pudełkowy” czy dostęp użytkowników w stylu CAL. Częsty błąd polega na automatycznym kojarzeniu każdego schematu z użytkownikami i serwerem z licencją CAL (Client Access License). CAL to licencja dostępową – uprawnia użytkownika lub urządzenie do korzystania z usług serwera (np. Windows Server, Exchange Server). Na rysunku jednak nie chodzi o dostęp do usług, tylko o zarządzanie infrastrukturą – monitorowanie, inwentaryzację, wdrażanie aktualizacji. To jest inny model prawny i techniczny, stąd użycie ML zamiast CAL. BOX to z kolei potoczne określenie licencji pudełkowej (FPP – Full Packaged Product). Taka licencja dotyczy sposobu dystrybucji oprogramowania (pudełko, nośnik, klucz), a nie mechanizmu licencjonowania serwera zarządzającego. W kontekście System Center czy innych narzędzi do zarządzania infrastrukturą, licencje BOX praktycznie nie występują w poważnych wdrożeniach firmowych, bo tam standardem są umowy wolumenowe. Stąd pojawia się jeszcze MOLP – Microsoft Open License Program, czyli program licencjonowania grupowego/volumenowego. To jest rodzaj programu zakupu licencji dla firm, szkół, urzędów, a nie sam model naliczania uprawnień dla serwera zarządzającego. Możesz mieć ML kupione w ramach MOLP, ale MOLP nie jest nazwą modelu licencjonowania serwera, tylko nazwą programu handlowego. Typowy błąd myślowy polega na mieszaniu pojęć: forma zakupu (BOX, MOLP) z technicznym modelem licencjonowania (ML, CAL, per core itd.). Warto to sobie jasno poukładać, bo w administracji systemami i przy projektach wdrożeniowych poprawne rozróżnianie tych pojęć jest tak samo ważne, jak znajomość samych systemów operacyjnych czy sieci. Dobre praktyki mówią, żeby zawsze czytać dokumentację Product Terms i opis modeli licencjonowania, a nie opierać się tylko na skrótach i skojarzeniach.

Pytanie 18

Jakie informacje można uzyskać za pomocą programu Wireshark?

A. Przerwy w okablowaniu.
B. Zwarcie przewodów.
C. Połączenia par przewodów.
D. Ruch pakietów sieciowych.
Wireshark jest narzędziem służącym do analizy ruchu sieciowego, które umożliwia przechwytywanie, analizowanie i wizualizowanie danych przesyłanych w sieci komputerowej. Dzięki Wireshark można obserwować ruch pakietów sieciowych w czasie rzeczywistym, co jest nieocenione w diagnostyce problemów związanych z wydajnością sieci, bezpieczeństwem, a także w analizie protokołów komunikacyjnych. Przykłady zastosowania obejmują monitorowanie przesyłania danych w protokołach takich jak TCP/IP, UDP, HTTP, co pozwala na identyfikację nietypowych wzorców ruchu, takich jak ataki DDoS czy nieautoryzowane przesyłanie danych. Wireshark jest także używany w edukacji, aby zrozumieć, jak działają różne protokoły sieciowe oraz w badaniach naukowych, gdzie analiza danych sieciowych jest kluczowa. Umożliwia to inżynierom sieciowym i specjalistom ds. bezpieczeństwa podejmowanie świadomych decyzji na podstawie zebranych danych oraz zgodność z najlepszymi praktykami branżowymi takimi jak ITIL czy ISO/IEC 27001.

Pytanie 19

Zaprezentowany komputer jest niepełny. Który z komponentów nie został wymieniony w tabeli, a jest kluczowy dla poprawnego funkcjonowania zestawu i powinien być dodany?

Lp.Nazwa podzespołu
1.Cooler Master obudowa komputerowa CM Force 500W czarna
2.Gigabyte GA-H110M-S2H, Realtek ALC887, DualDDR4-2133, SATA3, HDMI, DVI, D-Sub, LGA1151, mATX
3.Intel Core i5-6400, Quad Core, 2.70GHz, 6MB, LGA1151, 14nm, 65W, Intel HD Graphics, VGA, TRAY/OEM
4.Patriot Signature DDR4 2x4GB 2133MHz
5.Seagate BarraCuda, 3,5", 1TB, SATA/600, 7200RPM, 64MB cache
6.LG SuperMulti SATA DVD+/-R24x,DVD+RW6x,DVD+R DL 8x, bare bulk (czarny)
7.Gembird Bezprzewodowy Zestaw Klawiatura i Mysz
8.Monitor Iiyama E2083HSD-B1 19.5inch, TN, HD+, DVI, głośniki
9.Microsoft OEM Win Home 10 64Bit Polish 1pk DVD
A. Zasilacz
B. Wentylator procesora
C. Pamięć RAM
D. Karta graficzna
Zasilacz, karta graficzna oraz pamięć RAM to również kluczowe komponenty każdego komputera, ale w kontekście tego pytania ich brak nie jest przyczyną niekompletności zestawu w odniesieniu do chłodzenia procesora. Zasilacz zapewnia niezbędne zasilanie dla całego systemu, a jego parametry muszą być dobrane odpowiednio do specyfikacji energetycznej wszystkich zainstalowanych komponentów. Karta graficzna, choć nie jest wymieniona w tabeli, to w przypadku niektórych konfiguracji może być zintegrowana z procesorem, jak ma to miejsce w przypadku układów Intel HD Graphics. Pamięć RAM jest niezbędna do przechowywania i szybkiego dostępu do danych, ale jej brak w zestawie uniemożliwiłby w ogóle działanie systemu operacyjnego, co nie jest przedmiotem tego pytania. Typowym błędem myślowym jest niedocenianie znaczenia odpowiedniego chłodzenia procesora, zwłaszcza w przypadku zestawów bez dołączonych fabrycznie systemów chłodzących, co może prowadzić do poważnych problemów termicznych, a w konsekwencji do uszkodzenia sprzętu lub znaczącego obniżenia jego wydajności.

Pytanie 20

Które z urządzeń nie powinno być serwisowane podczas korzystania z urządzeń antystatycznych?

A. Zasilacz.
B. Pamięć.
C. Modem.
D. Dysk twardy.
Wybór modemu, pamięci lub dysku twardego jako urządzenia, które można naprawiać podczas korzystania z urządzeń antystatycznych, jest błędny z kilku powodów. Modem, jako urządzenie do komunikacji sieciowej, nie wiąże się bezpośrednio z zagrożeniem porażeniem prądem, jednak niewłaściwe podejście w czasie naprawy może prowadzić do uszkodzeń wynikających z wyładowań elektrostatycznych. Pamięć, szczególnie RAM, to komponenty, które są niezwykle wrażliwe na ładunki elektrostatyczne; ich naprawa lub wymiana bez użycia odpowiednich środków ochrony antystatycznej może prowadzić do ich uszkodzenia. Użytkownicy często nie zdają sobie sprawy z tego, że elektrostatyka ma zdolność do uszkadzania chipów, co może skutkować całkowitą utratą danych lub koniecznością wymiany kosztownych komponentów. Dysk twardy z kolei, szczególnie w wersjach mechanicznych, jest podatny na uszkodzenia związane z wstrząsami oraz działaniem elektrostatycznym, co może prowadzić do utraty danych. W praktyce, błędne jest przekonanie, że każdy komponent można naprawiać w trakcie korzystania z antystatycznych środków ochrony. Kluczowe jest, aby przed przystąpieniem do jakiejkolwiek naprawy wyłączyć urządzenie oraz odłączyć je od zasilania, a następnie użyć odpowiednich praktyk antystatycznych, aby zminimalizować ryzyko uszkodzeń oraz zachować integralność podzespołów.

Pytanie 21

Podczas uruchamiania (krótko po zakończeniu testu POST) komputer się zawiesza. Jakie mogą być możliwe przyczyny tej awarii?

A. Brak podłączonej myszki komputerowej
B. Zbyt wiele ikon na pulpicie
C. Niepoprawnie skonfigurowana drukarka
D. Nieprawidłowe napięcie zasilania procesora
Zasilanie procesora to naprawdę ważna sprawa, bo złe napięcie może namieszać w działaniu komputera. Procesor to jeden z kluczowych elementów i jeśli napięcie jest zbyt niskie, to po prostu może się zawiesić. Z drugiej strony, jak napięcie jest za wysokie, to może się przegrzać i uszkodzić. Dlatego warto używać zasilaczy, które spełniają normy ATX i mają dobre certyfikaty, żeby mieć pewność, że wszystko działa tak jak powinno. Dobrze jest też monitorować, jak pracują nasze podzespoły - programy takie jak HWMonitor czy CPU-Z mogą być w tym bardzo pomocne. Troska o prawidłowe napięcie zasilania to klucz do sprawnego działania komputera, zarówno dla tych, co budują sprzęt, jak i dla tych, co zajmują się konserwacją.

Pytanie 22

Tester strukturalnego okablowania umożliwia weryfikację

A. liczby przełączników w sieci
B. liczby komputerów w sieci
C. mapy połączeń
D. obciążenia ruchu sieciowego
Wybranie odpowiedzi dotyczącej liczby przełączników w sieci to raczej mylne zrozumienie tego, co robi tester okablowania. Właściwie, tester nie zlicza urządzeń takich jak przełączniki, a skupia się na tym, jak dobrze działają połączenia i czy są jakieś problemy w kablach. Podobnie jest z odpowiedzią o liczbie komputerów w sieci – tester wcale tego nie robi, bo nie mierzy obecności urządzeń końcowych, a raczej bada sygnał w kablach. Tutaj warto pamiętać, że obciążenie sieci to inna sprawa, wymagająca innych narzędzi, jak analizatory ruchu. Zazwyczaj to zarządcy sieci monitorują ruch, a nie tester okablowania, który nie ma takich funkcji. Często ludzie mylą testerów z urządzeniami do monitorowania ruchu, co może prowadzić do błędnych wniosków. Testerzy okablowania są do diagnozowania fizycznych problemów z instalacją, a nie do oceny wydajności całej sieci. To ważne, żeby rozumieć tę różnicę, gdy mówimy o zarządzaniu siecią.

Pytanie 23

Wymianę uszkodzonych kondensatorów karty graficznej umożliwi

A. żywica epoksydowa.
B. wkrętak krzyżowy i opaska zaciskowa.
C. klej cyjanoakrylowy.
D. lutownica z cyną i kalafonią.
Wymiana uszkodzonych kondensatorów na karcie graficznej to jedna z najbardziej typowych napraw, które wykonuje się w serwisie elektroniki. Żeby zrobić to poprawnie i bezpiecznie, nie wystarczy sam zapał – trzeba mieć odpowiednie narzędzia, a lutownica z cyną i kalafonią to absolutna podstawa w tym fachu. Lutownica umożliwia precyzyjne podgrzanie punktu lutowniczego i oddzielenie zużytego kondensatora od laminatu PCB, a cyna służy zarówno do mocowania nowego elementu, jak i do zapewnienia odpowiedniego przewodnictwa elektrycznego. Kalafonia natomiast działa jak topnik, czyli poprawia rozlewanie się cyny, zapobiega powstawaniu zimnych lutów i chroni ścieżki przed utlenianiem. Te trzy rzeczy – lutownica, cyna, kalafonia – to taki żelazny zestaw każdego elektronika, bez którego większość napraw byłaby zwyczajnie niemożliwa lub bardzo ryzykowna. Moim zdaniem, wiedza o lutowaniu jest jednym z najważniejszych fundamentów w każdej pracy z elektroniką. Warto też pamiętać, że podczas lutowania trzeba uważać na temperaturę – za wysoka może uszkodzić ścieżki, a za niska powoduje słabe połączenie. Dobrą praktyką jest też używanie pochłaniacza oparów i sprawdzenie, czy po naprawie nie ma zwarć i wszystko działa sprawnie. To są absolutne podstawy zgodne z branżowymi standardami napraw sprzętu komputerowego.

Pytanie 24

Jaki standard szyfrowania powinien być wybrany przy konfiguracji karty sieciowej, aby zabezpieczyć transmisję w sieci bezprzewodowej?

A. EAP
B. PPP
C. MAC
D. WPA
WPA (Wi-Fi Protected Access) to standard szyfrowania, który został opracowany w celu poprawy bezpieczeństwa sieci bezprzewodowych. Jest on następcą wcześniejszych protokołów, takich jak WEP, które okazały się nieefektywne w ochronie przed nieautoryzowanym dostępem. WPA wykorzystuje silniejsze algorytmy szyfrowania, w tym TKIP (Temporal Key Integrity Protocol), co znacząco zwiększa poziom bezpieczeństwa. W praktyce, zastosowanie WPA w konfiguracji karty sieciowej pozwala na szyfrowanie danych przesyłanych w sieci bezprzewodowej, co zminimalizuje ryzyko podsłuchiwania i ataków typu „man-in-the-middle”. Oprócz WPA, istnieje również WPA2 i WPA3, które oferują jeszcze większe bezpieczeństwo dzięki zastosowaniu AES (Advanced Encryption Standard) oraz bardziej zaawansowanym mechanizmom uwierzytelniania. Wybierając WPA, Administratorzy powinni również pamiętać o stosowaniu silnych haseł oraz regularnych aktualizacjach oprogramowania, aby zapewnić maksymalne bezpieczeństwo systemu.

Pytanie 25

Jaką częstotliwość odświeżania należy ustawić, aby obraz na monitorze był odświeżany 85 razy na sekundę?

A. 850 Hz
B. 85 kHz
C. 0,085 kHz
D. 8,5 Hz
Częstotliwość odświeżania monitora określa, ile razy na sekundę obraz na ekranie jest aktualizowany. W przypadku potrzebnego odświeżania na poziomie 85 razy na sekundę, co odpowiada 85 Hz, właściwa jednostka to kilohercy (kHz), w której 1 kHz to 1000 Hz. Dlatego 85 Hz przelicza się na 0,085 kHz. Takie ustawienie jest istotne w kontekście zapewnienia płynności obrazu, co jest szczególnie ważne w zastosowaniach multimedialnych i graficznych, takich jak gry komputerowe czy edycja wideo. Standardy branżowe, takie jak VESA (Video Electronics Standards Association), rekomendują, aby częstotliwość odświeżania odpowiadała wymaganiom wizualnym użytkowników oraz możliwościom sprzętu. Prawidłowe ustawienie częstotliwości odświeżania pozwala na uniknięcie efektu migotania ekranu, co ma kluczowe znaczenie dla komfortu oglądania i zdrowia wzroku użytkowników. W praktyce, w przypadku wyższych częstotliwości odświeżania, monitor jest w stanie wyświetlić więcej klatek na sekundę, co przekłada się na lepsze wrażenia wizualne.

Pytanie 26

Do interfejsów pracujących równolegle należy interfejs

A. AGP
B. FireWire
C. DVI
D. RS-232
FireWire, znany również jako IEEE 1394, jest interfejsem szeregowym, który zapewnia wysoką prędkość transferu danych dla urządzeń peryferyjnych, takich jak kamery cyfrowe oraz zewnętrzne dyski twarde. Umożliwia przesyłanie danych w trybie pełnodupleksowym, co oznacza, że dane mogą być wysyłane i odbierane jednocześnie, jednak nie działa w trybie równoległym. Różnica ta jest kluczowa, ponieważ FireWire nie korzysta z równoległego przesyłania danych, jak AGP. RS-232 to standard interfejsu szeregowego, który był szeroko stosowany w komunikacji między komputerami a urządzeniami peryferyjnymi, takimi jak modemy, ale także nie jest interfejsem równoległym. DVI (Digital Visual Interface) to z kolei standard wideo, który może przesyłać sygnał cyfrowy, ale również nie implementuje przesyłania danych w sposób równoległy. Zrozumienie tych różnic jest kluczowe w kontekście wyboru odpowiednich interfejsów do określonych zastosowań. Często zdarza się, że mylenie interfejsów szeregowych z równoległymi prowadzi do nieefektywnych rozwiązań w projektach technicznych. W praktyce, wybór niewłaściwego interfejsu może wpłynąć na wydajność systemu, zwłaszcza w obszarze aplikacji wymagających wysokiej przepustowości, takich jak renderowanie grafiki czy transmisje wideo.

Pytanie 27

Jakie polecenie w terminalu systemu operacyjnego Microsoft Windows umożliwi wyświetlenie szczegółów wszystkich zasobów udostępnionych na komputerze lokalnym?

A. net session
B. net file
C. net share
D. net print
Jeśli wybierzesz inne polecenia, możesz z łatwością pomylić się co do ich funkcji w zarządzaniu zasobami w Windowsie. Na przykład 'net file' działa z otwartymi plikami w udostępnionych zasobach, a nie pokazuje, jakie foldery są udostępnione. Skupia się na plikach aktualnie w użyciu, co jest trochę inne niż lista wszystkich zasobów. Podobnie 'net print' zarządza kolejkami wydruku i nie pokaże ci nic o udostępnionych folderach czy dyskach. Możesz myśleć, że to polecenie pokaże ci udostępnione drukarki, ale to jest tylko częściowo prawda. 'Net session' też nie jest tym, czego szukasz, bo dostarcza info o bieżących sesjach połączeń, co może być dezorientujące. Warto znać te różnice, bo mogą być kluczowe dla ogólnego zarządzania w systemie Windows. Ludzie czasem mylą te polecenia, bo nie wiedzą, jak one działają, co może prowadzić do problemów z dostępem.

Pytanie 28

Element wskazany cyfrą 1 na diagramie karty dźwiękowej?

Ilustracja do pytania
A. eliminates sound from multiple sources
B. przekształca sygnał audio na sygnał wideo
C. generuje dźwięk o odpowiedniej długości, wykorzystując krótkie próbki dźwięku
D. eliminuje szumy w linii, stosując krótkie próbki szumu
Odpowiedź dotycząca zamiany sygnału audio na sygnał wideo jest błędna, ponieważ karta dźwiękowa jest odpowiedzialna za przetwarzanie sygnałów audio, a nie wideo. Proces zamiany audio na wideo nie ma zastosowania w kontekście kart dźwiękowych i jest zarezerwowany dla innej klasy urządzeń, takich jak karty graficzne czy konwertery multimedialne. Usuwanie dźwięku pochodzącego z kilku źródeł również nie jest główną funkcją karty dźwiękowej. Karty te mogą miksować dźwięki z różnych źródeł, ale nie eliminują ich. Usuwanie dźwięku najczęściej dotyczy technologii redukcji szumów i filtrów zastosowanych w oprogramowaniu lub specjalistycznych urządzeniach audio. Eliminacja szumów na linii przy użyciu krótkich próbek szumu to technika stosowana w zaawansowanych algorytmach redukcji szumów, jednak karta dźwiękowa z reguły nie realizuje tego zadania bezpośrednio. W kontekście sprzętowym, eliminacja szumów wymaga dodatkowych procesów i układów, które mogą być wspierane przez oprogramowanie. Błędy te wynikają często z nieporozumienia co do funkcji i charakterystyki kart dźwiękowych, które są projektowane głównie do przetwarzania i generowania dźwięków, a nie przetwarzania wieloformatowego czy eliminacji sygnałów.

Pytanie 29

Wartość liczby 1100112 zapisanej w systemie dziesiętnym wynosi

A. 53
B. 51
C. 50
D. 52
Liczba 1100112 w systemie dziesiętnym odpowiada wartości 51, co wynika z jej konwersji z systemu dwójkowego. Aby to obliczyć, musimy zrozumieć, jak działa system binarny. Każda cyfra w liczbie binarnej reprezentuje potęgę liczby 2. W przypadku liczby 1100112, odczytując ją od prawej do lewej, mamy: 1*2^6 + 1*2^5 + 0*2^4 + 0*2^3 + 1*2^2 + 1*2^1 + 0*2^0. Obliczając to, otrzymujemy: 64 + 32 + 0 + 0 + 4 + 2 + 0 = 102. Zauważmy jednak, że musimy skorygować nasze myślenie o systemach liczbowych. Wartości w systemie binarnym mogą być mylone z ich reprezentacjami w systemie dziesiętnym, co prowadzi do błędnych wniosków. Zrozumienie konwersji między systemami jest kluczowe w informatyce, szczególnie w kontekście programowania i analizy danych. Dobre praktyki obejmują umiejętność konwersji i zrozumienia reprezentacji liczbowych, co jest niezbędne w wielu dziedzinach, od projektowania algorytmów po konstruowanie baz danych.

Pytanie 30

Którą czynność należy wykonać podczas konfiguracji rutera, aby ukryta sieć bezprzewodowa była widoczna dla wszystkich użytkowników znajdujących się w jej zasięgu?

A. Zmienić numer kanału.
B. Zmienić nazwę sieci.
C. Włączyć opcję rozgłaszania sieci.
D. Ustawić szerokość kanału.
Poprawna odpowiedź dotyczy włączenia opcji rozgłaszania sieci (broadcast SSID) w konfiguracji rutera. To właśnie ta funkcja decyduje, czy nazwa sieci Wi‑Fi (SSID) będzie widoczna na liście dostępnych sieci na laptopach, smartfonach czy innych urządzeniach. Jeśli SSID jest ukryty, sieć formalnie istnieje i działa, ale nie pojawia się w typowym skanowaniu, więc użytkownik musi ręcznie wpisać jej nazwę oraz hasło. Włączenie rozgłaszania powoduje, że ruter zaczyna wysyłać w ramkach beacon informacje o nazwie sieci, kanale, typie szyfrowania itp., zgodnie ze standardem IEEE 802.11. Moim zdaniem w praktyce, w większości domowych i małych firmowych sieci, lepiej jest mieć SSID jawny, a skupić się na mocnym szyfrowaniu (WPA2‑PSK lub WPA3‑Personal) oraz sensownym haśle. Ukrywanie SSID nie jest realnym zabezpieczeniem, bo i tak da się je bardzo łatwo podejrzeć przy użyciu prostych narzędzi do analizy ruchu Wi‑Fi. Dobra praktyka branżowa mówi jasno: bezpieczeństwo opieramy na silnym uwierzytelnianiu i szyfrowaniu, a nie na „maskowaniu” nazwy sieci. W konfiguracji rutera opcja ta bywa opisana jako „Broadcast SSID”, „Rozgłaszanie nazwy sieci”, „Ukryj SSID” (z możliwością odznaczenia). Żeby sieć była widoczna dla wszystkich w zasięgu, trzeba wyłączyć ukrywanie (czyli włączyć rozgłaszanie). Przykładowo: w typowym routerze domowym logujesz się do panelu WWW, przechodzisz do ustawień Wi‑Fi, zaznaczasz opcję „Włącz rozgłaszanie SSID” i zapisujesz zmiany. Od tego momentu każdy użytkownik w zasięgu zobaczy nazwę sieci na liście i będzie mógł się do niej podłączyć, oczywiście pod warunkiem, że zna hasło. To jest standardowe i poprawne podejście rekomendowane przez producentów sprzętu sieciowego i zgodne z typową konfiguracją w środowiskach firmowych, gdzie ważna jest zarówno wygoda użytkownika, jak i poprawne działanie mechanizmów roamingu i zarządzania siecią.

Pytanie 31

Programem wiersza poleceń w systemie Windows, który umożliwia kompresję oraz dekompresję plików i folderów, jest aplikacja

A. DiskPart.exe
B. Expand.exe
C. Compact.exe
D. CleanMgr.exe
Expand.exe to narzędzie, które głównie służy do rozpakowywania plików z archiwum, a nie do kompresji. Zwykle używa się go, kiedy trzeba przywrócić pliki z archiwum, ale nie ma tu mowy o kompresji, co jest najważniejsze w tym pytaniu. DiskPart.exe to zupełnie inna bajka – to program do zarządzania partycjami, a nie do kompresji plików. Można z jego pomocą tworzyć czy kasować partycje, ale to nic nie ma wspólnego z kompresowaniem danych. CleanMgr.exe, czyli Oczyszczanie dysku, działa na rzecz usuwania niepotrzebnych plików, co też nie dotyczy kompresji. Czasami może się wydawać, że te narzędzia mogą kompresować, ale każde ma inne przeznaczenie. Warto pamiętać, że kompresja i dekompresja to różne procesy, a odpowiedni wybór narzędzi jest kluczowy dla zachowania wydajności systemu.

Pytanie 32

W jakim systemie występuje jądro hybrydowe (kernel)?

A. MorphOS
B. QNX
C. Linux
D. Windows
Odpowiedzi wskazujące na Linux, MorphOS i QNX, mimo że są to interesujące systemy operacyjne, są niepoprawne w kontekście pytania o jądro hybrydowe. Linux wykorzystuje jądro monolityczne, co oznacza, że wszystkie funkcje jądra są zintegrowane w jednej dużej jednostce. Ta architektura, mimo że oferuje wysoką wydajność, może powodować problemy z zarządzaniem zasobami oraz stabilnością systemu. W przypadku MorphOS, jest to system operacyjny, który skupia się na mikrojądrach i nie posiada hybrydowego podejścia, co również czyni tę odpowiedź nieprawidłową. Z kolei QNX, będący systemem operacyjnym czasu rzeczywistego, bazuje na mikrojądrze, co sprawia, że nie spełnia kryteriów hybrydowego jądra. Typowym błędem myślowym prowadzącym do takich odpowiedzi jest mylenie różnych architektur jądra i ich zastosowań. Użytkownicy często nie zdają sobie sprawy, że jądra monolityczne i mikrojądra mają odmienne cele i są zoptymalizowane pod różne scenariusze. W praktyce, wybór architektury jądra ma istotny wpływ na wydajność i stabilność systemu operacyjnego.

Pytanie 33

Na diagramie blokowym karty dźwiękowej komponent odpowiedzialny za konwersję sygnału analogowego na cyfrowy jest oznaczony numerem

Ilustracja do pytania
A. 5
B. 4
C. 2
D. 3
Element oznaczony cyfrą 4 na schemacie to przetwornik analogowo-cyfrowy (A/C). W kartach dźwiękowych przetwornik A/C jest kluczowym komponentem, ponieważ umożliwia zamianę sygnałów analogowych, takich jak dźwięki z mikrofonu, na sygnały cyfrowe, które mogą być przetwarzane przez komputer. Proces ten polega na próbkowaniu sygnałów analogowych i kwantyzowaniu ich na określone wartości cyfrowe. W praktyce, przetworniki A/C znajdują zastosowanie w wielu urządzeniach audio, takich jak interfejsy audio, które pozwalają na nagrywanie dźwięku w studiach nagraniowych. Przetwornik ten działa w oparciu o standardy określające częstotliwość próbkowania oraz rozdzielczość bitową, co wpływa na jakość przetwarzanego dźwięku. Dobre praktyki w branży audio obejmują wybór przetworników o wysokiej rozdzielczości i częstotliwości próbkowania, aby zapewnić jak najwyższą jakość dźwięku. Przetworniki A/C są nieodzowne w procesie digitalizacji dźwięku i mają kluczowe znaczenie w systemach dźwiękowych, od domowych urządzeń audio po zaawansowane systemy nagłośnienia w teatrach i salach koncertowych.

Pytanie 34

W systemie Windows, aby uruchomić usługę związaną z wydajnością komputera, należy użyć polecenia

A. perfmon.msc
B. secpol.msc
C. compmgmt.msc
D. services.msc
Polecenie perfmon.msc otwiera Monitor wydajności systemu Windows, który jest narzędziem umożliwiającym analizę i monitorowanie różnych parametrów wydajności komputera w czasie rzeczywistym. Dzięki temu użytkownicy mogą obserwować działanie procesora, pamięci, dysków oraz innych zasobów systemowych, co jest kluczowe w diagnozowaniu problemów z wydajnością. Monitor wydajności pozwala także na konfigurację liczników, które rejestrują dane historyczne, co jest szczególnie przydatne w długoterminowych analizach. Aby efektywnie zarządzać zasobami systemowymi, administratorzy mogą ustawiać powiadomienia oraz raporty, co przyczynia się do optymalizacji działania systemu. To narzędzie wspiera również standardy najlepszych praktyk w zakresie zarządzania infrastrukturą IT, umożliwiając administratorom podejmowanie świadomych decyzji na podstawie rzetelnych danych. Warto zaznaczyć, że umiejętność korzystania z Monitor wydajności jest niezbędna dla każdego specjalisty IT, aby skutecznie diagnozować i rozwiązywać problemy związane z wydajnością systemu.

Pytanie 35

Kable łączące dystrybucyjne punkty kondygnacyjne z głównym punktem dystrybucji są określane jako

A. połączeniami systemowymi
B. okablowaniem poziomym
C. połączeniami telekomunikacyjnymi
D. okablowaniem pionowym
Okablowanie pionowe to system kablowy, który łączy kondygnacyjne punkty dystrybucyjne z głównym punktem dystrybucyjnym, takim jak szafa serwerowa lub rozdzielnica. Jest to kluczowy element w architekturze sieciowej i telekomunikacyjnej budynków, dlatego jego prawidłowe zaprojektowanie ma istotne znaczenie dla wydajności oraz niezawodności systemu. W praktyce, okablowanie pionowe jest wykorzystywane w różnych typach budynków, od biurowców po centra danych, dostarczając sygnały zarówno dla sieci komputerowych, jak i systemów komunikacyjnych. Standard ANSI/TIA-568 określa wytyczne dotyczące układania kabli w strukturach budowlanych, a okablowanie pionowe powinno być zgodne z tymi normami, aby zapewnić odpowiednią przepustowość i eliminować interferencje. Przykładem zastosowania okablowania pionowego może być instalacja kabli w pionowych szachtach, które prowadzą do biur na różnych piętrach, co umożliwia efektywne rozmieszczenie gniazd sieciowych w każdym pomieszczeniu.

Pytanie 36

Analizując przedstawione wyniki konfiguracji zainstalowanych kart sieciowych w komputerze, można zauważyć, że

Ilustracja do pytania
A. karta przewodowa dysponuje adresem MAC 8C-70-5A-F3-75-BC
B. karta bezprzewodowa nosi nazwę Net11
C. interfejs Bluetooth otrzymał adres IPv4 192.168.0.102
D. wszystkie karty mają możliwość uzyskania adresu IP w sposób automatyczny
Poprawna odpowiedź wskazuje, że wszystkie karty mogą uzyskać adres IP automatycznie co jest zgodne z informacjami pokazanymi w wynikach polecenia ipconfig. Funkcja DHCP czyli Dynamic Host Configuration Protocol jest włączona dla wszystkich kart sieciowych co oznacza że mogą one automatycznie otrzymać adres IP od serwera DHCP. Jest to kluczowe w wielu środowiskach biznesowych i domowych gdzie zarządzanie adresami IP dla każdego urządzenia ręcznie byłoby czasochłonne i podatne na błędy. Automatyczna konfiguracja IP przez DHCP jest zgodna z praktykami branżowymi które zalecają minimalizację interwencji użytkownika i redukcję błędów konfiguracji sieci. Dzięki DHCP urządzenia w sieci mogą łatwo zmieniać pozycję w ramach różnych sieci bez potrzeby ręcznego zmieniania ustawień sieciowych co zwiększa elastyczność i efektywność obsługi urządzeń mobilnych i stacjonarnych. Co więcej DHCP pozwala na centralne zarządzanie i monitorowanie ustawień sieciowych co jest przydatne w dużych organizacjach.

Pytanie 37

Jakie polecenie w systemie operacyjnym Linux służy do monitorowania komunikacji pakietów TCP/IP lub protokołów wysyłanych lub odbieranych w sieci komputerowej, do której podłączony jest komputer użytkownika?

A. tcpdump
B. ssh
C. ipconfig
D. route
ipconfig to polecenie używane w systemach operacyjnych Windows do wyświetlania i konfigurowania ustawień sieciowych, takich jak adres IP, maska podsieci i brama domyślna. Nie jest ono jednak dostępne w systemach Linux, co czyni je nieodpowiednim dla opisanego zadania. ssh, z kolei, to protokół i narzędzie do zdalnego logowania oraz tunelowania, które umożliwia bezpieczne połączenie z innym komputerem przez sieć, ale nie służy do analizy ruchu sieciowego. Z drugiej strony, route to polecenie do zarządzania tablicą routingu, które pokazuje, jak pakiety są kierowane w sieci, lecz również nie umożliwia bezpośredniego śledzenia komunikacji. Wybór błędnych odpowiedzi często wynika z mylnego założenia, że każde polecenie związane z siecią ma na celu monitorowanie ruchu. Ważne jest, aby zrozumieć, że różne narzędzia pełnią różne funkcje, i kluczowe jest ich odpowiednie dobieranie do konkretnych zadań w administracji sieci oraz bezpieczeństwa. Odpowiednie narzędzie do monitorowania i analizy ruchu sieciowego, jak tcpdump, powinno być stosowane w przypadku potrzeby analizy komunikacji pakietowej, co czyni tę wiedzę niezbędną dla każdego specjalisty w dziedzinie IT.

Pytanie 38

Do konserwacji elementów optycznych w komputerach zaleca się zastosowanie

A. żywicy
B. oleju wazelinowego
C. smaru
D. izopropanolu
Izopropanol, znany również jako alkohol izopropylowy, jest powszechnie uznawany za najlepszy środek czyszczący do układów optycznych w sprzęcie komputerowym. Jego właściwości sprawiają, że skutecznie usuwa kurz, odciski palców i inne zanieczyszczenia bez ryzyka uszkodzenia delikatnych powierzchni soczewek. Dzięki szybko parującej formule, izopropanol nie pozostawia smug ani resztek, co jest kluczowe w zachowaniu wysokiej jakości obrazu. W praktyce, czyszczenie za pomocą izopropanolu polega na nasączeniu miękkiej ściereczki lub wacika i delikatnym przetarciu powierzchni optycznych, takich jak obiektywy kamer, soczewki mikroskopów czy układów optycznych w laptopach. Ponadto, zgodnie z zaleceniami producentów sprzętu, warto stosować izopropanol o stężeniu 70-90%, co zapewnia optymalne działanie czyszczące. Regularne czyszczenie układów optycznych za pomocą izopropanolu to nie tylko kwestia estetyki, ale także kluczowy element dbałości o wydajność i trwałość sprzętu. Wprowadzenie tego standardu do praktyki użytkowników sprzętu komputerowego pozwala na utrzymanie jego najwyższej wydajności przez dłuższy czas.

Pytanie 39

Wykonując polecenie ipconfig /flushdns, można przeprowadzić konserwację urządzenia sieciowego, która polega na

A. odnowieniu dzierżawy adresu IP
B. zwolnieniu dzierżawy przydzielonej przez DHCP
C. aktualizacji konfiguracji nazw interfejsów sieciowych
D. wyczyszczeniu pamięci podręcznej systemu nazw domenowych
Polecenie 'ipconfig /flushdns' jest używane do czyszczenia bufora systemu nazw domenowych (DNS) w systemie operacyjnym Windows. DNS pełni kluczową rolę w sieciach komputerowych, umożliwiając przekształcanie nazw domen (np. www.example.com) na odpowiadające im adresy IP. W momencie, gdy system operacyjny odwiedza daną stronę internetową, zapisuje te informacje w buforze DNS, aby przyspieszyć przyszłe połączenia. Czasami jednak bufor ten może zawierać nieaktualne lub niepoprawne wpisy, co może prowadzić do problemów z łącznością, jak np. wyświetlanie błędnych stron. Wykonanie polecenia 'ipconfig /flushdns' pozwala na usunięcie tych wpisów, co zmusza system do ponownego pobrania aktualnych danych DNS, co jest zgodne z najlepszymi praktykami zarządzania siecią. Dzięki temu, użytkownicy mogą uniknąć problemów z dostępem do stron i usług, które mogły ulec zmianie. Przykładem może być sytuacja, w której serwer zmienił adres IP, a użytkownik wciąż próbuje łączyć się z nieaktualnym adresem, co skutkuje brakiem dostępu do usługi. Rekomenduje się regularne użycie tego polecenia w przypadku wystąpienia problemów z dostępem do sieci.

Pytanie 40

Metoda przesyłania danych między urządzeniem CD/DVD a pamięcią komputera w trybie bezpośredniego dostępu do pamięci to

A. SATA
B. PIO
C. IDE
D. DMA
Wybranie PIO, IDE albo SATA jako metod transferu danych do pamięci w trybie DMA sugeruje pewne nieporozumienia. PIO, czyli Programmed Input/Output, to metoda, w której procesor kontroluje cały transfer. To znacznie obciąża jego możliwości i może ograniczać wydajność, zwłaszcza przy większych ilościach danych. Ide natomiast to interfejs do komunikacji z dyskami, który może wspierać DMA, ale to nie jest technika sama w sobie, tylko standard, który może współpracować z różnymi metodami transferu. SATA, z kolei, to nowoczesny interfejs dla dysków, który może też korzystać z DMA, ale sam w sobie nie jest metodą transferu. Często mylone są te terminy, co prowadzi do błędów. Ważne jest, żeby zrozumieć, że DMA to technika, która pozwala na ominięcie procesora podczas przesyłania danych, co znacząco podnosi wydajność, a PIO oraz interfejsy takie jak IDE czy SATA dotyczą głównie sposobu podłączania urządzeń i ich komunikacji z systemem, a nie samej metody transferu.