Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 3 maja 2026 19:28
  • Data zakończenia: 3 maja 2026 19:39

Egzamin niezdany

Wynik: 19/40 punktów (47,5%)

Wymagane minimum: 20 punktów (50%)

Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Osoba pragnąca jednocześnie drukować dokumenty w wersji oryginalnej oraz trzech kopiach na papierze samokopiującym, powinna nabyć drukarkę

A. termotransferową
B. igłową
C. atramentową
D. laserową
Wybór drukarki termotransferowej, atramentowej lub laserowej do drukowania dokumentów na papierze samokopiującym jest niewłaściwy z kilku kluczowych powodów. Drukarki termotransferowe wykorzystują proces, w którym ciepło jest stosowane do przenoszenia tuszu na papier. Ta technologia nie jest przystosowana do uzyskiwania kopii na papierze samokopiującym, który wymaga mechanicznego uderzenia dla stworzenia odbitki. Atramentowe urządzenia z kolei, wytwarzają wydruki poprzez nanoszenie kropli tuszu na papier, co również nie wspiera efektywnego tworzenia kopii, a dodatkowo tusz może rozmazać się w kontakcie z warstwami samokopiującymi. Drukarki laserowe, mimo że oferują wyspecjalizowane wydruki o wysokiej jakości, są zaprojektowane do jednego procesu wydruku na arkuszu, co znacznie ogranicza ich zdolność do pracy z dokumentami wymagającymi wielokrotnego wydruku na różnych warstwach. Wspólnym błędem, który prowadzi do takich mylnych wyborów, jest nieznajomość zasad działania różnych technologii druku oraz ich zastosowań. Ważne jest, aby przy wyborze sprzętu drukarskiego kierować się specyfiką potrzeb biurowych oraz technicznymi wymaganiami materiałów, z którymi będziemy pracować.

Pytanie 2

Do przechowywania fragmentów dużych plików programów oraz danych, które nie mieszczą się w całości w pamięci, wykorzystywany jest

A. menedżer zadań
B. plik stronicowania
C. schowek systemu
D. edytor rejestru
Plik stronicowania jest kluczowym elementem zarządzania pamięcią w systemach operacyjnych, który pozwala na przechowywanie części danych oraz programów, które są zbyt duże, aby zmieścić się w pamięci RAM. Kiedy system operacyjny potrzebuje więcej pamięci, niż jest dostępne w RAM, wykorzystuje plik stronicowania, aby przenieść rzadziej używane dane na dysk twardy, zwalniając tym samym miejsce dla aktywnych procesów. Przykładem zastosowania pliku stronicowania jest uruchamianie aplikacji graficznych lub gier, które wymagają dużych zasobów pamięci. W tym przypadku, plik stronicowania umożliwia systemowi operacyjnemu dynamiczne zarządzanie pamięcią, co zwiększa wydajność oraz stabilność aplikacji. Zgodnie z dobrymi praktykami, zaleca się, aby wielkość pliku stronicowania była co najmniej równa ilości zainstalowanej pamięci RAM, co pozwala na efektywne zarządzanie pamięcią oraz zapewnia płynne działanie systemu operacyjnego. Dodatkowo, monitorowanie użycia pliku stronicowania może pomóc w identyfikacji problemów z pamięcią, takich jak zbyt mała ilość RAM, co może prowadzić do spadku wydajności systemu.

Pytanie 3

Niskopoziomowe formatowanie dysku IDE HDD polega na

A. przeprowadzaniu przez producenta dysku
B. tworzeniu partycji rozszerzonej
C. tworzeniu partycji podstawowej
D. umieszczaniu programu rozruchowego w MBR
Wybór odpowiedzi o partycjach rozszerzonych i podstawowych nie jest trafny, bo te sprawy są całkiem inne niż niskopoziomowe formatowanie. Partycje tworzy się na poziomie wysokopoziomowym, a to następuje dopiero po niskopoziomowym formatowaniu. I warto wiedzieć, że partycja rozszerzona ma na celu umożliwienie utworzenia większej liczby partycji logicznych na dysku, co jest ważne, jeśli system nie obsługuje więcej niż czterech podstawowych partycji. Więc tworzenie partycji nie dotyczy niskopoziomowego formatowania. To robi użytkownik albo administrator po tym, jak dysk został niskopoziomowo sformatowany, a on wtedy gotowy na dalsze zarządzanie. No i druga niepoprawna odpowiedź dotyczy umieszczania programu rozruchowego w MBR. MBR jest załatwiane podczas instalacji systemu operacyjnego, a nie w trakcie niskopoziomowego formatowania. Wysokopoziomowe formatowanie, które następuje po niskopoziomowym, jest tym, co przygotowuje system plików i zapisuje informacje o bootloaderze. Dlatego brak zrozumienia różnicy między tymi procesami może prowadzić do mylnych wniosków na temat niskopoziomowego formatowania w kontekście zarządzania dyskami.

Pytanie 4

Karta rozszerzeń przedstawiona na ilustracji może być zainstalowana w komputerze, jeśli na płycie głównej znajduje się przynajmniej jeden dostępny slot

Ilustracja do pytania
A. PCI
B. PCIe
C. AGP
D. ISA
Odpowiedzi takie jak ISA, AGP czy PCIe dotyczą innych standardów magistrali w komputerach. ISA, czyli Industry Standard Architecture, to taki starszy standard, który był popularny zanim wprowadzono PCI. Jego główną wadą była niska przepustowość oraz brak automatycznej konfiguracji, co czyniło go mniej elastycznym niż nowsze rozwiązania. AGP, czyli Accelerated Graphics Port, był stworzony tylko dla kart graficznych. Został zaprojektowany z myślą o szybkim transferze danych między kartą graficzną a procesorem, ale był ograniczony tylko do obsługi grafiki. Później AGP został zastąpiony przez PCIe, który ma większe możliwości. I w końcu PCIe, czyli Peripheral Component Interconnect Express, to nowoczesny standard, który zastąpił PCI. PCIe jest magistralą szeregową, co oznacza, że transfer danych jest znacznie szybszy i bardziej elastyczny w rozbudowie systemu. Jego architektura jest też bardziej wydajna, bo pozwala na dynamiczne przydzielanie pasma. Choć PCIe jest aktualnym standardem, to jego wygląd fizyczny różni się od PCI, dlatego nie pasuje do slotu PCI. Jak widać, odpowiedzi inne niż PCI do pytania się nie nadają, bo albo są przestarzałe, albo mają specjalne zastosowania, które nie odpowiadają temu, co pytanie wymaga.

Pytanie 5

Która z wymienionych czynności konserwacyjnych związana jest wyłącznie z drukarką laserową?

A. Oczyszczenie traktora
B. Czyszczenie prowadnic karetki
C. Usunięcie zabrudzeń z zespołu czyszczącego głowice
D. Czyszczenie luster i soczewek
Czyszczenie luster i soczewek to naprawdę ważna sprawa, jeśli chodzi o dbanie o drukarki laserowe. Te elementy są kluczowe, bo to one odpowiadają za kierowanie lasera, co wpływa na to, jak dobrze wydruk wygląda. Z czasem mogą się na nich gromadzić różne zanieczyszczenia, co może sprawić, że obraz będzie mniej wyraźny. Dlatego warto regularnie je czyścić, najlepiej stosując się do zaleceń producentów, jak na przykład ISO 9001. Używanie odpowiednich środków czyszczących i narzędzi jest istotne, bo chcemy uniknąć uszkodzenia tych delikatnych powierzchni. Ciekawe jest też to, że niektóre drukarki laserowe mają systemy, które monitorują stan optyki, co znacznie ułatwia dbanie o sprzęt.

Pytanie 6

Jakie urządzenie wykorzystuje się do pomiaru napięcia w zasilaczu?

A. impulsator
B. amperomierz
C. multimetr
D. pirometr
Amperomierz nie jest odpowiednim narzędziem do pomiaru napięcia, ponieważ jest przeznaczony do mierzenia natężenia prądu. Użycie amperomierza w celu sprawdzenia napięcia w obwodzie może prowadzić do uszkodzenia urządzenia oraz ewentualnych zagrożeń dla użytkownika. Amperomierz powinien być włączany szeregowo w obwód, co oznacza, że cała energia musi przez niego przepływać. W przypadku pomiaru napięcia, konieczne jest równoległe połączenie, co sprawia, że amperomierz jest niewłaściwym narzędziem do takiego zadania. Impulsator, z drugiej strony, jest urządzeniem służącym do generowania sygnałów impulsowych, a nie do pomiaru parametrów elektrycznych. Jego zastosowanie jest specyficzne dla testów układów cyfrowych oraz generowania sygnałów w systemach automatyki. Pirometr, który służy do pomiaru temperatury, również nie ma zastosowania w kontekście pomiarów napięcia. Stąd wybór niewłaściwego narzędzia do konkretnego pomiaru może prowadzić do poważnych błędów i nieprawidłowych wniosków. Zrozumienie funkcji każdego z tych narzędzi oraz ich zastosowań w praktyce jest kluczowe dla prawidłowego przeprowadzania pomiarów elektrycznych, co z kolei wzmocni bezpieczeństwo operacyjne i dokładność wyników.

Pytanie 7

Które medium transmisyjne charakteryzuje się najmniejszym ryzykiem narażenia na zakłócenia elektromagnetyczne przesyłanego sygnału?

A. Kabel światłowodowy
B. Czteroparowy kabel FTP
C. Gruby kabel koncentryczny
D. Cienki kabel koncentryczny
Kabel światłowodowy to medium transmisyjne, które wykorzystuje światło do przesyłania danych, co eliminuje wpływ zakłóceń elektromagnetycznych, które mogą występować w tradycyjnych kablach miedzianych. Dzięki temu jest on idealnym rozwiązaniem w środowiskach, gdzie występują silne źródła zakłóceń, takich jak w biurach, centrach danych czy w pobliżu urządzeń elektrycznych. Światłowody mają również znacznie większą przepustowość niż kable miedziane, co pozwala na przesyłanie większej ilości danych na dłuższe odległości bez straty jakości sygnału. Zgodnie z normami ISO/IEC 11801, światłowody są rekomendowane do zastosowania w nowoczesnych instalacjach telekomunikacyjnych. W praktyce, firmy na całym świecie coraz częściej wybierają kable światłowodowe do budowy sieci, co pozwala na rozwój infrastruktury telekomunikacyjnej oraz zapewnienie wysokiej jakości usług internetowych. W obliczu rosnących wymagań dotyczących szybkości i niezawodności transmisji danych, inwestycja w technologię światłowodową staje się zatem coraz bardziej opłacalna.

Pytanie 8

Jakie są zakresy częstotliwości oraz maksymalne prędkości przesyłu danych w standardzie 802.11g WiFi?

A. 2,4 GHz, 54 Mbps
B. 2,4 GHz, 300 Mbps
C. 5 GHz, 54 Mbps
D. 5 GHz, 300 Mbps
Odpowiedzi wskazujące na pasmo 5 GHz są błędne, ponieważ standard 802.11g został zaprojektowany do działania wyłącznie w zakresie 2,4 GHz. Pasmo 5 GHz jest właściwe dla nowszych standardów, takich jak 802.11n czy 802.11ac, które oferują lepszą szybkość transmisji i mniejsze zakłócenia, ale 802.11g nie jest jednym z nich. Ponadto, maksymalna szybkość transmisji danych 300 Mbps jest charakterystyczna dla standardu 802.11n, który wprowadził wiele usprawnień, takich jak MIMO (Multiple Input Multiple Output), zyskując przewagę nad starszymi standardami. W przypadku 802.11g, 54 Mbps to maksymalna prędkość, która została osiągnięta dzięki zastosowaniu modulacji QPSK oraz 64-QAM, co zapewniała efektywne wykorzystanie dostępnego pasma. Typowym błędem jest mylenie różnych standardów Wi-Fi i ich możliwości, co prowadzi do niewłaściwego doboru sprzętu oraz ustawień sieciowych. Dobrze jest zrozumieć, jakie ograniczenia i możliwości niosą ze sobą różne standardy, a także jak wpływają one na użyteczność oraz efektywność sieci w praktyce. Dlatego kluczowe jest, aby przy projektowaniu sieci lokalnych zwracać uwagę na specyfikacje poszczególnych standardów, aby uniknąć nieporozumień i zapewnić optymalne działanie systemów komunikacyjnych.

Pytanie 9

Jakie polecenie w systemie Linux pozwala na dodanie istniejącego użytkownika nowak do grupy technikum?

A. useradd -g technikum nowak
B. grups -g technikum nowak
C. usergroup -g technikum nowak
D. usermod -g technikum nowak
Polecenie "usermod -g technikum nowak" jest poprawne, ponieważ "usermod" jest narzędziem używanym do modyfikacji kont użytkowników w systemie Linux. Opcja "-g" pozwala na przypisanie użytkownika do określonej grupy, w tym przypadku do grupy "technikum". Przykład użycia tego polecenia może wyglądać tak: jeżeli administrator chce dodać użytkownika 'nowak' do grupy 'technikum' w celu nadania mu odpowiednich uprawnień dostępu, wykonuje to polecenie. Warto również zauważyć, że przypisanie do grupy jest istotne w kontekście zarządzania dostępem do zasobów systemowych. Na przykład, użytkownik należący do grupy "technikum" może mieć dostęp do specjalnych plików lub katalogów, które są wymagane w jego pracy. Dla zachowania standardów i dobrych praktyk, zaleca się regularne przeglądanie przynależności użytkowników do grup oraz dostosowywanie ich w miarę zmieniających się potrzeb organizacji.

Pytanie 10

Na ilustracji przedstawiono część procesu komunikacji z serwerem, która została przechwycona przez aplikację Wireshark. Jaki to serwer?

Discover - Transaction ID 0x6a16b7a5
Offer    - Transaction ID 0x6a16b7a5
Request  - Transaction ID 0x6a16b7a5
ACK      - Transaction ID 0x6a16b7a5
A. DHCP
B. WWW
C. FTP
D. DNS
FTP jest protokołem sieciowym stosowanym do przesyłania plików pomiędzy klientem a serwerem. W odróżnieniu do DHCP FTP nie zajmuje się przydziałem adresów IP lecz umożliwia transfer danych w sieci. Charakteryzuje się operacjami takimi jak przesyłanie pobieranie i zarządzanie plikami na serwerze co czyni go nieodpowiednim do roli przypisywania adresów IP. Protokół DNS zajmuje się tłumaczeniem nazw domenowych na adresy IP co jest istotne dla wczytywania stron internetowych i usług sieciowych. Pomimo że DNS jest kluczową częścią działania internetu nie ma udziału w bezpośrednim przypisywaniu adresów IP urządzeniom w sieci co jest głównym zadaniem DHCP. Protokoły WWW takie jak HTTP czy HTTPS są używane do przesyłania stron internetowych i danych pomiędzy serwerem a przeglądarką użytkownika. WWW koncentruje się na dostarczaniu zawartości internetowej zamiast na zarządzaniu adresacją IP w sieci. Błędne przypisanie protokołów takich jak FTP DNS czy WWW do funkcji DHCP wynika z niezrozumienia ich podstawowych funkcji i różnic między nimi. Każdy z tych protokołów odgrywa unikalną rolę w sieci ale tylko DHCP jest odpowiedzialny za dynamiczne przydzielanie adresów IP co czyni go kluczowym składnikiem infrastruktury sieciowej. Zrozumienie różnic w zastosowaniach tych protokołów pomaga w zapewnieniu prawidłowej konfiguracji i optymalnego działania sieci komputerowej.

Pytanie 11

Wynikiem przeprowadzenia polecenia arp -a 192.168.1.1 w systemie MS Windows jest pokazanie

A. listy bieżących połączeń sieciowych
B. sprawdzenia połączenia z komputerem o wskazanym IP
C. ustawień protokołu TCP/IP interfejsu sieciowego
D. adresu MAC urządzenia o określonym IP
Odpowiedź "adresu fizycznego urządzenia o podanym IP" jest prawidłowa, ponieważ polecenie arp -a wyświetla zawartość tablicy ARP (Address Resolution Protocol), która jest używana do mapowania adresów IP na adresy MAC (Media Access Control). Kiedy wpisujemy polecenie arp -a z określonym adresem IP, system operacyjny przeszukuje swoją tablicę ARP w celu znalezienia odpowiadającego adresu MAC. Jest to kluczowe w kontekście komunikacji w sieciach lokalnych, gdzie urządzenia muszą znać zarówno adresy IP, jak i MAC, aby poprawnie przesyłać dane. Praktyczne zastosowanie tej wiedzy jest widoczne przy rozwiązywaniu problemów z połączeniami sieciowymi. Na przykład, jeśli podejrzewasz, że istnieje konflikt adresów IP w sieci, używając polecenia arp -a, możesz zidentyfikować, które urządzenia są przypisane do określonych adresów MAC, co może pomóc w diagnozowaniu problemu. Zrozumienie działania ARP jest istotne w kontekście bezpieczeństwa sieci, ponieważ pozwala również na wykrywanie potencjalnych zagrożeń, takich jak ataki typu ARP spoofing, gdzie nieautoryzowane urządzenia próbują podszyć się pod legalne adresy IP.

Pytanie 12

Jakie zastosowanie ma oprogramowanie Microsoft Hyper-V?

A. znajdowania zasobów w sieci
B. wirtualizacji rzeczywistych komputerów
C. rozpoznawania komputera w sieci
D. łączenia się z innym hostem zdalnie
Twoja odpowiedź na temat funkcji Hyper-V pokazuje pewne nieporozumienie. Wybierając opcje związane z identyfikacją komputera w sieci czy lokalizacją zasobów, pomyliłeś rzeczy. Hyper-V nie działa jako narzędzie do zarządzania adresami IP ani nazwami komputerów. To nie jest jego zadanie. Takie rzeczy robią protokoły jak DHCP czy DNS, a one nie mają nic wspólnego z wirtualizacją. Jeśli chodzi o lokalizację zasobów, to wykorzystuje się do tego inne mechanizmy, jak SMB czy NFS. Co do zdalnego połączenia z innym hostem, to choć maszyny wirtualne z Hyper-V mogą się łączyć, to sam Hyper-V tym się nie zajmuje. Zdalne połączenia realizowane są przez protokoły jak RDP czy SSH. Te niejasności mogą wynikać z mylenia roli wirtualizacji z innymi aspektami sieci. Chodzi o to, że Hyper-V służy do tworzenia i zarządzania maszynami wirtualnymi, a nie do zarządzania siecią. Dlatego ważne jest, żeby dobrze zrozumieć, jak to wszystko działa, żeby wykorzystać jego pełny potencjał w firmach.

Pytanie 13

Do ilu sieci należą komputery o adresach IP i maskach sieci przedstawionych w tabeli?

Adres IPv4Maska
10.120.16.10255.255.0.0
10.120.18.16255.255.0.0
10.110.16.18255.255.255.0
10.110.16.14255.255.255.0
10.130.16.12255.255.255.0
A. 5
B. 2
C. 3
D. 4
Nieprawidłowe odpowiedzi wynikają najczęściej z nieuwzględnienia zasad działania maski podsieci oraz ich wpływu na określanie, do jakiej sieci należy dany adres IP. Zwykle osoby decydujące się na odpowiedzi, które sugerują większą liczbę sieci, mylą pojęcie adresów IP z ich segmentacją w oparciu o maski. Na przykład, adresy IP z maską 255.255.0.0 umożliwiają przydzielanie znacznie większej liczby adresów w ramach jednej sieci, co może prowadzić do błędnych wniosków o ich przynależności do oddzielnych podsieci. Z kolei adresy z maską 255.255.255.0 mogą być postrzegane jako oddzielne sieci, podczas gdy w rzeczywistości, mogą one być częścią tej samej większej sieci, jeśli ich prefiksy są zgodne. Dlatego kluczowe jest zrozumienie, że maska podsieci definiuje, które bity adresu IP są używane do identyfikacji sieci. Niezrozumienie tej koncepcji prowadzi do niepoprawnych wniosków o liczbie sieci. Również warto zauważyć, że w praktyce wiele organizacji korzysta z różnych strategii adresowania, które mogą wpływać na to, jak są zorganizowane zasoby w sieci. Błędem jest również nieprzywiązywanie wagi do kontekstu, w którym adresy IP są używane, co może prowadzić do niewłaściwego określenia liczby sieci.

Pytanie 14

Jakie polecenie w systemie operacyjnym Linux służy do monitorowania komunikacji protokołów TCP/IP lub innych przesyłanych lub odbieranych w sieci komputerowej, do której jest podłączony komputer użytkownika?

A. ipconfig
B. tcpdump
C. ssh
D. route
Wybór poleceń ssh, route i ipconfig jako narzędzi do śledzenia komunikacji TCP/IP wskazuje na pewne nieporozumienia dotyczące ich funkcji i zastosowania. Polecenie ssh (Secure Shell) jest używane do bezpiecznego zdalnego logowania się do innego komputera, a jego głównym zadaniem jest zapewnienie bezpiecznej komunikacji pomiędzy klientem a serwerem. Nie jest to narzędzie do śledzenia ruchu sieciowego, lecz do bezpiecznego dostępu. Kolejnym przykładem jest polecenie route, które służy do wyświetlania i modyfikacji tablic routingu w systemie. Chociaż tablice routingu są kluczowe dla kierowania pakietów w sieci, samo polecenie route nie pozwala na analizę przepływu danych ani na ich przechwytywanie. Z kolei ipconfig to narzędzie dostępne w systemie Windows, które pokazuje konfigurację sieci, w tym adres IP i maskę podsieci. Umożliwia ono uzyskanie informacji o interfejsach sieciowych, ale również nie oferuje funkcji analizy ruchu. W kontekście zarządzania siecią zrozumienie różnicy między tymi narzędziami a tcpdump jest kluczowe. Tcpdump jest dedykowanym narzędziem do monitorowania i analizy pakietów, co czyni go niezastąpionym w diagnostyce i audycie sieciowym, podczas gdy pozostałe wymienione komendy pełnią zupełnie inne role w administracji systemami i sieciami.

Pytanie 15

Rysunek ilustruje rezultaty sprawdzania działania sieci komputerowej przy użyciu polecenia

Badanie wp.pl [212.77.100.101] z użyciem 32 bajtów danych:

Odpowiedź z 212.77.100.101: bajtów=32 czas=25ms TTL=249
Odpowiedź z 212.77.100.101: bajtów=32 czas=25ms TTL=249
Odpowiedź z 212.77.100.101: bajtów=32 czas=25ms TTL=249
Odpowiedź z 212.77.100.101: bajtów=32 czas=27ms TTL=249
A. tracert
B. ipconfig
C. netstat
D. ping
Polecenie ipconfig jest używane do wyświetlania konfiguracji sieciowej interfejsów w systemach Windows. Wyświetla informacje takie jak adres IP, maska podsieci oraz brama domyślna, ale nie testuje połączenia z innymi hostami. Dlatego nie może być używane do testowania sieci poprzez wysyłanie pakietów ICMP. Tracert to inne polecenie, które śledzi trasę, jaką pokonuje pakiet do docelowego hosta, identyfikując wszystkie pośrednie routery i czasy przejść. Choć przydatne dla zrozumienia ścieżek routingu, nie spełnia funkcji pingu, który mierzy bezpośrednią responsywność hosta. Netstat z kolei służy do wyświetlania aktywnych połączeń sieciowych, tabel routingu i statystyk interfejsów, ale nie ma mechanizmu oceny opóźnień czy dostępności konkretnego hosta w sposób, w jaki czyni to ping. Typowym błędem myślowym jest mylenie tych poleceń z powszechnie stosowanym pingiem, który jest specyficznie zaprojektowany do testowania bezpośrednich połączeń sieciowych i mierzenia czasu odpowiedzi. Zrozumienie różnic w funkcjonalności tych poleceń jest kluczowe dla efektywnego diagnozowania problemów sieciowych i poprawnego stosowania narzędzi w ramach zarządzania infrastrukturą IT. Każde z tych poleceń ma swoje unikalne zastosowania i wybór właściwego zależy od konkretnego przypadku użycia w praktycznych scenariuszach administracji sieciowej. Dlatego ważne jest, by dokładnie wiedzieć, które narzędzie kiedy wykorzystać, co jest fundamentem dobrych praktyk w zarządzaniu sieciami komputerowymi.

Pytanie 16

Polecenie to zostało wydane przez Administratora systemu operacyjnego w trakcie ręcznej konfiguracji sieciowego interfejsu. Wynikiem wykonania tego polecenia jest ```netsh interface ip set address name="Glowna" static 151.10.10.2 255.255.0.0 151.10.0.1```

A. aktywacja dynamicznego przypisywania adresów IP
B. ustawienie maski 24-bitowej
C. dezaktywacja interfejsu
D. przypisanie adresu 151.10.0.1 jako domyślnej bramy
Wybór odpowiedzi dotyczącej włączenia dynamicznego przypisywania adresów IP jest błędny, ponieważ polecenie użyte w pytaniu ustawia statyczny adres IP dla interfejsu, co jest sprzeczne z ideą dynamicznego przypisywania. Dynamiczne przypisywanie adresów IP odbywa się zazwyczaj za pomocą protokołu DHCP, który automatycznie przydziela adresy IP z puli. W przypadku konfiguracji statycznej, adresy są przypisywane ręcznie, co oznacza, że administrator odpowiedzialny za zarządzanie siecią ma pełną kontrolę nad przypisanymi adresami IP. W kontekście niepoprawnej odpowiedzi na temat ustawienia 24-bitowej maski, warto zauważyć, że maska podsieci podana w poleceniu to 255.255.0.0, co odpowiada masce 16-bitowej, a nie 24-bitowej. Maski podsieci są kluczowe w określaniu, które części adresu IP odnoszą się do sieci, a które do hostów. Przykładowo, w masce 255.255.0.0, pierwsze dwa oktety są używane do identyfikacji sieci, co oznacza, że może ona obsługiwać wiele hostów. Wreszcie, odpowiedź sugerująca wyłączenie interfejsu jest również błędna. Polecenie jasno wskazuje, że interfejs jest konfigurowany, a nie wyłączany. Typowe błędy myślowe w tym przypadku obejmują mylenie działań konfiguracyjnych z operacjami, które zmieniają stan urządzenia. Zrozumienie tych podstawowych pojęć jest kluczowe dla efektywnego zarządzania sieciami komputerowymi.

Pytanie 17

Na ilustracji ukazany jest tylny panel stacji roboczej. Strzałką wskazano port

Ilustracja do pytania
A. DisplayPort
B. HDMI
C. eSATA
D. USB 3.0
Oznaczony port na rysunku to DisplayPort który jest szeroko stosowanym złączem cyfrowym w nowoczesnych komputerach i urządzeniach multimedialnych. DisplayPort został zaprojektowany przez VESA (Video Electronics Standards Association) jako standard do przesyłania sygnałów audio i wideo z komputera do monitora. Wyróżnia się wysoką przepustowością co umożliwia przesyłanie obrazu w rozdzielczościach 4K i wyższych oraz obsługę technologii HDR. DisplayPort wspiera również przesyłanie wielokanałowego dźwięku cyfrowego co czyni go idealnym rozwiązaniem dla zaawansowanych zastosowań multimedialnych. W kontekście praktycznym DisplayPort umożliwia podłączenie wielu monitorów do jednego źródła wideo dzięki technologii Daisy Chain co jest korzystne w środowiskach pracy wymagających rozszerzonego pulpitu. Dodatkowo złącze to jest kompatybilne z innymi interfejsami takimi jak HDMI dzięki adapterom co zwiększa jego uniwersalność. Warto zauważyć że w porównaniu z innymi portami wideo DisplayPort oferuje bardziej niezawodną blokadę mechaniczną zapobiegającą przypadkowemu odłączeniu kabla co jest szczególnie ważne w środowiskach korporacyjnych. Zrozumienie funkcjonalności i zastosowań DisplayPort jest kluczowe dla specjalistów IT i inżynierów systemowych którzy muszą zapewnić optymalną jakość obrazu i dźwięku w swoich projektach.

Pytanie 18

Ile urządzeń będzie można zaadresować w każdej podsieci, jeśli sieć 172.16.6.0 zostanie podzielona przy pomocy maski /27 na jak największą liczbę podsieci?

A. 30 hostów
B. 29 hostów
C. 28 hostów
D. 32 hosty
Odpowiedź 30 hostów jest poprawna, ponieważ przy użyciu maski /27 w sieci 172.16.6.0, mamy 5 bitów przeznaczonych na adresowanie hostów (32 - 27 = 5). Liczba dostępnych adresów hostów oblicza się według wzoru 2^n - 2, gdzie n to liczba bitów przeznaczonych na hosty. W tym przypadku, 2^5 - 2 = 32 - 2 = 30. Odejmujemy 2, aby uwzględnić adres sieci (172.16.6.0) oraz adres rozgłoszeniowy (172.16.6.31), które nie mogą być przypisane do hostów. Taka konfiguracja jest często stosowana w praktycznych scenariuszach, na przykład w biurach, gdzie sieci LAN wymagają podziału na mniejsze podsieci dla grup pracowników. Wykorzystując maskę /27, administratorzy mogą efektywnie zarządzać adresowaniem IP, co sprzyja lepszej organizacji oraz bezpieczeństwu w sieci, zgodnie z najlepszymi praktykami zarządzania siecią.

Pytanie 19

W jakich jednostkach opisuje się przesłuch zbliżny NEXT?

A. w dżulach
B. w amperach
C. w omach
D. w decybelach
Jednostki omy, ampery oraz dżule nie są właściwe do wyrażania przesłuchu zbliżnego NEXT. Omy to jednostka oporu elektrycznego, która odnosi się do tego, jak trudno jest przepuścić prąd przez materiał. W kontekście crosstalk, omy nie mają zastosowania, ponieważ nie odnoszą się bezpośrednio do zakłóceń sygnału, lecz do oporu przewodnika. Z kolei ampery to jednostka miary natężenia prądu, która reprezentuje ilość ładunku elektrycznego przepływającego przez przewodnik w jednostce czasu. Oczywiście, natężenie prądu ma znaczenie w kontekście ogólnej analizy sieci, ale nie jest miarą zakłóceń, które dotyczą interakcji pomiędzy różnymi sygnałami w przewodach. Dżule są jednostką energii, co jest całkowicie innym zagadnieniem, ponieważ koncentrują się na pracy wykonanej przez dany prąd elektryczny w określonym czasie. Pomieszanie tych pojęć prowadzi do nieprawidłowych wniosków w zakresie analizy sieci. Każda z tych jednostek pełni swoją rolę w różnych aspektach elektrotechniki, jednak nie są one odpowiednie do oceny przesłuchu zbliżnego, który wymaga innej perspektywy pomiarowej. Dlatego kluczowe jest zrozumienie specyfiki zakłóceń sygnału oraz ich wpływu na funkcjonowanie systemów komunikacyjnych, aby uniknąć błędów w analizie i projektowaniu sieci.

Pytanie 20

Aby użytkownicy lokalnej sieci mogli korzystać z przeglądarek do odwiedzania stron WWW za pomocą protokołów HTTP i HTTPS, brama internetowa musi umożliwiać ruch na portach

A. 90 i 443
B. 80 i 443
C. 80 i 434
D. 90 i 434
Odpowiedź 80 i 443 jest prawidłowa, ponieważ port 80 jest standardowym portem dla protokołu HTTP, a port 443 dla HTTPS. Kiedy użytkownik przegląda stronę internetową, jego przeglądarka wysyła żądanie do serwera, a serwer odpowiada, przesyłając dane na określonym porcie. Port 80 obsługuje komunikację niezabezpieczoną, podczas gdy port 443 obsługuje komunikację szyfrowaną, co zapewnia bezpieczeństwo danych przesyłanych między użytkownikiem a serwerem. Zastosowanie tych portów jest zgodne z normami IANA, które zarządzają listą portów oraz przypisaniami protokołów. Przykładowo, podczas zakupu online lub logowania do konta bankowego, przeglądarka używa portu 443, aby zabezpieczyć komunikację, co zapobiega przechwytywaniu danych przez nieautoryzowane osoby. W praktyce, aby zapewnić prawidłowe funkcjonowanie stron internetowych, administratorzy sieci muszą skonfigurować bramy lub zapory ogniowe, aby umożliwić ruch na tych portach, co jest kluczowe dla zaawansowanych operacji sieciowych oraz bezpieczeństwa.

Pytanie 21

Użytkownicy w sieciach bezprzewodowych mogą być uwierzytelniani zdalnie przy pomocy usługi

A. IMAP
B. HTTPS
C. NNTP
D. RADIUS
No to widzę, że wybrałeś odpowiedzi jak IMAP, HTTPS i NNTP, ale muszę przyznać, że są one nieco mylące w kontekście zdalnego uwierzytelniania w sieciach bezprzewodowych. IMAP to protokół do zarządzania e-mailami, więc nie ma tu mowy o uwierzytelnianiu w sieci. Użycie go w tym przypadku to trochę nietrafione posunięcie, bo nie ma żadnych mechanizmów, które by pomogły w autoryzacji dostępu do sieci. HTTPS z kolei to protokół, który dba o bezpieczne przesyłanie danych w internecie, ale znów nie jest to coś, co służy do uwierzytelniania w sieci lokalnej. Może się wydawać, że jest to jakiś sposób na ochronę, ale w tym kontekście po prostu nie pasuje. NNTP natomiast to protokół do wymiany wiadomości w grupach dyskusyjnych, i to też nie ma nic wspólnego z procesem uwierzytelniania w sieciach. Tutaj błędnie myślisz, myląc funkcje tych protokołów, które tak naprawdę mają różne zadania. Zrozumienie, jak te protokoły działają i do czego służą, jest kluczowe, szczególnie w kontekście bezpieczeństwa sieci.

Pytanie 22

W systemie dziesiętnym liczba 110011(2) przedstawia się jako

A. 53
B. 52
C. 50
D. 51
Odpowiedź 51 jest poprawna, ponieważ liczba 110011 zapisana w systemie binarnym (dwu-symbolowym) można przeliczyć na system dziesiętny (dziesięcio-symbolowy) przez zsumowanie wartości poszczególnych bitów, które mają wartość 1. W systemie binarnym każdy bit reprezentuje potęgę liczby 2. Rozpoczynając od prawej strony, mamy: 1*2^5 + 1*2^4 + 0*2^3 + 0*2^2 + 1*2^1 + 1*2^0, co daje: 32 + 16 + 0 + 0 + 2 + 1 = 51. Przykładem praktycznego zastosowania tej wiedzy jest programowanie, gdzie często spotykamy się z konwersją między systemami liczbowymi, szczególnie przy wykorzystaniu binarnych reprezentacji danych w pamięci komputerowej. Zrozumienie, jak konwertować różne systemy liczbowej, jest kluczowe dla efektywnego programowania oraz pracy z algorytmami, co stanowi standard w informatyce.

Pytanie 23

Jaki typ grupy jest automatycznie przypisany dla nowo tworzonej grupy w kontrolerze domeny systemu Windows Server?

A. Lokalny w domenie
B. Uniwersalny
C. Globalny
D. Dystrybucyjny
Poprawna odpowiedź to "Globalny", ponieważ w kontrolerze domeny systemu Windows Serwer nowo utworzone grupy domyślnie przyjmują ten właśnie zakres. Grupy globalne są wykorzystywane do organizowania użytkowników i grup w ramach jednej domeny, co ma kluczowe znaczenie dla zarządzania uprawnieniami i dostępem do zasobów. Przykładowo, jeśli mamy grupę globalną o nazwie 'UżytkownicyMarketingu', można ją przypisać do określonych zasobów w domenie, takich jak udziały plików, umożliwiając wszystkim członkom tej grupy dostęp do niezbędnych danych. Ponadto, dobrą praktyką jest utrzymywanie grup globalnych w celu centralizacji zarządzania oraz uproszczenia administracji. Standardowym podejściem zgodnym z najlepszymi praktykami branżowymi jest ograniczanie liczby grup lokalnych i dystrybucyjnych, co zwiększa efektywność zarządzania w dużych środowiskach IT.

Pytanie 24

Jak nazywa się pamięć podręczna?

A. Cache
B. EIDE
C. Chipset
D. VLB
Odpowiedź 'Cache' jest poprawna, ponieważ pamięć podręczna (cache) to rodzaj pamięci, który przechowuje często używane dane i instrukcje, aby przyspieszyć dostęp do nich przez procesor. W każdej architekturze komputerowej pamięć podręczna odgrywa kluczową rolę w optymalizacji wydajności systemu. Dzięki temu, że cache działa z dużą szybkością i jest zlokalizowana blisko procesora, znacznie zmniejsza czas potrzebny na dostęp do pamięci RAM. Przykładem zastosowania pamięci podręcznej jest buforowanie danych w nowoczesnych procesorach, które mogą mieć różne poziomy pamięci podręcznej (L1, L2, L3). W praktyce oznacza to, że gdy procesor musi wykonać operację na danych, które już znajdują się w pamięci podręcznej, może to zrobić znacznie szybciej niż w przypadku, gdy musiałby odwołać się do pamięci RAM. Dobre praktyki branżowe zalecają projektowanie systemów z uwzględnieniem pamięci podręcznej, aby zwiększyć efektywność obliczeń i zminimalizować opóźnienia. Warto również zauważyć, że pamięć podręczna jest wykorzystywana nie tylko w komputerach, ale także w urządzeniach mobilnych, serwerach i systemach rozproszonych, co czyni ją uniwersalnym elementem architektury komputerowej.

Pytanie 25

Do czynności konserwacyjnych związanych z użytkowaniem skanera płaskiego należy

A. systematyczne czyszczenie szyby skanera oraz płyty dociskowej
B. czyszczenie dysz wkładu kartridża
C. podłączenie sprzętu do listwy z zabezpieczeniem przed przepięciami
D. uruchomienie automatycznego pobierania rekomendowanych sterowników do urządzenia
Regularne czyszczenie szyby skanera oraz płyty dociskowej jest kluczowym elementem konserwacji skanera płaskiego. Z czasem na szybie mogą gromadzić się zanieczyszczenia, kurz czy odciski palców, co negatywnie wpływa na jakość skanowanych dokumentów. Czysta szyba pozwala na uzyskanie wyraźnych i dokładnych skanów, co jest szczególnie ważne w przypadku skanowania dokumentów zawierających drobne detale. Dodatkowo, płyta dociskowa, która ma za zadanie utrzymać dokument w odpowiedniej pozycji podczas skanowania, również powinna być regularnie czyszczona. Zastosowanie odpowiednich środków czyszczących i delikatnych narzędzi pomoże uniknąć zarysowań i innych uszkodzeń. Zgodnie z zaleceniami producentów skanerów, czyszczenie powinno być przeprowadzane co najmniej raz w miesiącu, a w przypadku intensywnej eksploatacji nawet częściej. Takie praktyki nie tylko przedłużają żywotność urządzenia, ale również znacząco podnoszą jakość pracy biurowej.

Pytanie 26

Zarządzanie pasmem (ang. bandwidth control) w switchu to funkcjonalność

A. pozwalająca na ograniczenie przepustowości na wybranym porcie
B. umożliwiająca jednoczesne połączenie switchy poprzez kilka łącz
C. umożliwiająca zdalne połączenie z urządzeniem
D. pozwalająca na przesył danych z jednego portu równocześnie do innego portu
Wiele osób może mylić zarządzanie pasmem z innymi funkcjami przełączników, co prowadzi do niepoprawnych wniosków. Na przykład, odpowiedź sugerująca, że zarządzanie pasmem umożliwia łączenie przełączników równocześnie kilkoma łączami, odnosi się do technologii agregacji łączy, która jest odrębną koncepcją. Agregacja łączy pozwala na zestawienie kilku fizycznych portów w jeden wirtualny port, co zwiększa całkowitą przepustowość i zapewnia redundancję, ale nie wpływa na kontrolę pasma. Inna nieprawidłowa odpowiedź dotycząca zdalnego dostępu do urządzenia myli funkcję zarządzania pasmem z dostępem administracyjnym. Zdalny dostęp jest zapewniany przez protokoły takie jak SSH czy Telnet, które nie mają związku z zarządzaniem pasmem. Ostatnia odpowiedź, mówiąca o przesyłaniu danych z jednego portu do innego, również jest mylna – jest to opis działania samego przełącznika, a nie kontroli pasma. Warto zrozumieć, że zarządzanie pasmem jest specyficznym procesem optymalizacji przepustowości, który powinien być stosowany w kontekście polityk QoS, a nie mylony z innymi, bardziej ogólnymi funkcjami urządzeń sieciowych. Typowym błędem jest nieodróżnianie tych terminów, co prowadzi do nieefektywnego zarządzania siecią i potencjalnych problemów z wydajnością. Zrozumienie roli zarządzania pasmem w architekturze sieci jest kluczowe dla efektywnego projektowania i eksploatacji nowoczesnych systemów informatycznych.

Pytanie 27

Które z poniższych zdań charakteryzuje protokół SSH (Secure Shell)?

A. Sesje SSH nie umożliwiają weryfikacji autentyczności punktów końcowych
B. Sesje SSH prowadzą do przesyłania danych w formie zwykłego tekstu, bez szyfrowania
C. Bezpieczny protokół terminalu sieciowego oferujący usługi szyfrowania połączenia
D. Protokół do pracy zdalnej na odległym komputerze nie zapewnia szyfrowania transmisji
Protokół SSH (Secure Shell) jest bezpiecznym protokołem terminalu sieciowego, który umożliwia zdalne logowanie się i zarządzanie systemami w sposób zaszyfrowany. W przeciwieństwie do wielu innych protokołów, które przesyłają dane w formie niezaszyfrowanej, SSH zapewnia integralność danych oraz poufność poprzez zastosowanie silnego szyfrowania. Przykładowo, SSH wykorzystuje algorytmy szyfrujące takie jak AES (Advanced Encryption Standard) do ochrony przesyłanych informacji, co czyni go kluczowym narzędziem w administracji systemami. Organizacje korzystają z SSH do zdalnego zarządzania serwerami, co minimalizuje ryzyko przechwycenia danych przez osoby trzecie. Dodatkowo, SSH obsługuje uwierzytelnianie kluczem publicznym, co zwiększa bezpieczeństwo połączenia eliminując ryzyko ataków typu „man-in-the-middle”. Dobrą praktyką jest również korzystanie z SSH w konfiguracji, która wymusza użycie kluczy zamiast haseł, co znacząco zwiększa poziom bezpieczeństwa. Doświadczeni administratorzy systemów powinni być zaznajomieni z konfiguracją SSH, aby maksymalnie wykorzystać jego możliwości i zabezpieczyć swoje środowisko.

Pytanie 28

Ile kolizji domenowych występuje w sieci przedstawionej na ilustracji?

Ilustracja do pytania
A. 4
B. 6
C. 5
D. 1
W prezentowanej sieci występują cztery domeny kolizyjne co jest wynikiem użycia switcha i huba. Switch tworzy oddzielną domenę kolizyjną dla każdego podłączonego urządzenia dzięki czemu każde z tych urządzeń może jednocześnie przesyłać dane bez ryzyka kolizji. W tym przypadku switch tworzy trzy oddzielne domeny kolizyjne dla każdego z trzech podłączonych komputerów. Z drugiej strony hub nie rozdziela ruchu w osobne domeny kolizyjne co oznacza że wszystkie urządzenia podłączone do huba znajdują się w jednej wspólnej domenie kolizyjnej. Tak więc cała lewa strona sieci podłączona do huba stanowi jedną domenę kolizyjną. Zatem suma domen kolizyjnych po obu stronach daje cztery. W praktyce takie ułożenie sieci jest mniej efektywne w porównaniu do pełnego użycia switchy dlatego w nowoczesnych sieciach coraz rzadziej stosuje się huby na rzecz bardziej zaawansowanych przełączników które minimalizują ryzyko kolizji oraz zwiększają przepustowość sieci zgodnie z obowiązującymi standardami i dobrymi praktykami w branży sieciowej.

Pytanie 29

Jaką maksymalną liczbę adresów można przypisać urządzeniom w sieci 10.0.0.0/22?

A. 1024 adresy
B. 510 adresów
C. 512 adresów
D. 1022 adresy
W sieci o masce /22, mamy do dyspozycji 2^(32-22) = 2^10 = 1024 adresy IP. Jednakże, w każdej sieci IP, dwa adresy są zarezerwowane: jeden dla adresu sieci (w tym przypadku 10.0.0.0) oraz jeden dla adresu rozgłoszeniowego (broadcast) (10.0.3.255). Z tego powodu liczba dostępnych adresów dla hostów wynosi 1024 - 2 = 1022. W praktyce oznacza to, że w tak skonfigurowanej sieci można przydzielić 1022 urządzenia, co jest przydatne w wielu zastosowaniach, takich jak większe organizacje, gdzie potrzeba komunikacji w ramach lokalnych podsieci jest istotna. Używanie właściwej klasy adresów IP oraz odpowiedniego maskowania jest kluczowe w planowaniu sieci, co zapobiega marnotrawieniu adresów i pozwala na lepsze zarządzanie zasobami w sieciach o różnych rozmiarach.

Pytanie 30

Elementem płyty głównej, który odpowiada za wymianę informacji pomiędzy procesorem a innymi komponentami płyty, jest

A. system chłodzenia
B. pamięć RAM
C. chipset
D. pamięć BIOS
Układ chłodzenia jest niezwykle ważnym komponentem systemu komputerowego, ale jego rola jest całkowicie inna niż rola chipsetu. Jego głównym zadaniem jest odprowadzanie ciepła generowanego przez procesor oraz inne elementy, co jest kluczowe dla zapewnienia stabilności działania systemu. W kontekście komunikacji pomiędzy procesorem a innymi komponentami, układ chłodzenia nie ma żadnego wpływu. BIOS ROM to oprogramowanie, które uruchamia komputer i jest odpowiedzialne za podstawowe funkcje systemu, takie jak rozruch oraz konfiguracja sprzętu. Choć BIOS odgrywa rolę w inicjalizacji systemu, nie jest elementem odpowiedzialnym za komunikację pomiędzy procesorem a innymi podzespołami. Pamięć RAM, z kolei, jest miejscem przechowywania danych i instrukcji, które procesor wykorzystuje w czasie rzeczywistym, ale sama w sobie nie zarządza komunikacją; to chipset pełni tę funkcję, łącząc procesor z pamięcią oraz innymi urządzeniami. Często myląca jest koncepcja myślenia, że każdy komponent pełni rolę komunikacyjną, podczas gdy niektóre z nich, jak pamięć RAM czy układ chłodzenia, mają zupełnie inne funkcje w systemie. Zrozumienie różnicy między tymi elementami oraz ich rolą w architekturze komputera jest kluczowe dla efektywnego projektowania i diagnostyki systemów komputerowych.

Pytanie 31

Interfejs SATA 2 (3Gb/s) oferuje prędkość transferu

A. 150 MB/s
B. 375 MB/s
C. 750 MB/s
D. 300 MB/s
W przypadku podanych wartości, 300 MB/s, 375 MB/s, 750 MB/s oraz 150 MB/s, ważne jest zrozumienie, na czym opierają się te liczby i jakie są ich źródła. Odpowiedź 300 MB/s może wydawać się logiczna, jednak wynika to z nieporozumienia dotyczącego konwersji jednostek i rzeczywistej przepustowości interfejsu SATA 2. Rekomendowany standard SATA 2, z prędkością 3 Gb/s, po odpowiedniej konwersji daje 375 MB/s, co oznacza, że 300 MB/s jest po prostu zaniżoną wartością. Odpowiedź na poziomie 750 MB/s jest również myląca, ponieważ taka przepustowość dotyczy standardu SATA 3, który oferuje transfer danych do 6 Gb/s, a nie interfejsu SATA 2. Kolejna wartość, 150 MB/s, to maksymalna przepustowość dla standardu SATA 1, co może wprowadzać w błąd, jeśli nie zostanie uwzględniona odpowiednia przeszłość technologii. Powszechnym błędem jest mylenie różnych standardów SATA oraz ich rzeczywistych możliwości, co może prowadzić do niewłaściwych decyzji przy wyborze sprzętu i architekturze systemów. Przestrzeganie norm i standardów branżowych jest kluczowe, aby zapewnić optymalną wydajność oraz kompatybilność sprzętu.

Pytanie 32

Technologia procesorów serii Intel Core stosowana w modelach i5, i7 oraz i9, pozwalająca na zwiększenie taktowania w przypadku gdy komputer potrzebuje wyższej mocy obliczeniowej, to

A. BitLocker
B. Hyper Threading
C. CrossFire
D. Turbo Boost
Turbo Boost to technologia opracowana przez Intela, która pozwala procesorom automatycznie zwiększać częstotliwość taktowania ponad bazowe wartości, jeśli tylko warunki termiczne oraz pobór energii na to pozwalają. Dzięki temu, gdy komputer potrzebuje większej mocy, np. podczas renderowania grafiki, gier albo kompilowania kodu, procesor dynamicznie przyspiesza, dostarczając dodatkową wydajność bez konieczności ręcznego podkręcania. W praktyce to przekłada się na płynniejsze działanie systemu, szczególnie w sytuacjach, gdzie pojedynczy wątek wymaga dużych zasobów. Moim zdaniem Turbo Boost to jedna z takich funkcji, które nie rzucają się w oczy na co dzień, ale bardzo poprawiają komfort pracy – nie trzeba w ogóle o niej myśleć, a różnica bywa naprawdę odczuwalna, zwłaszcza na laptopach, gdzie procesor musi balansować między mocą a zużyciem baterii. Warto też wiedzieć, że Turbo Boost działa automatycznie i nie wymaga żadnej konfiguracji ze strony użytkownika. Współcześnie praktycznie każdy nowoczesny procesor Intela z serii Core i5, i7 czy i9 korzysta z tej technologii i to wpisuje się w dobre praktyki projektowania sprzętu, gdzie wydajność jest skalowana dynamicznie. Często w dokumentacji Intela można znaleźć szczegółowe informacje o maksymalnych częstotliwościach Turbo dla poszczególnych modeli, bo dla profesjonalistów to czasem kluczowa sprawa.

Pytanie 33

Jak nazywa się rodzaj licencji, który sprawia, że program jest w pełni funkcjonalny, ale można go uruchomić jedynie określoną, niewielką liczbę razy od momentu instalacji?

A. Donationware.
B. Adware.
C. Trialware.
D. Box.
Trialware to bardzo popularny model licencjonowania oprogramowania, zwłaszcza w świecie komercyjnych aplikacji dla Windows czy macOS. Chodzi tu o to, że producent pozwala na pełne przetestowanie programu, ale tylko przez ograniczoną liczbę uruchomień albo na określony czas – czasem jest to np. 30 dni, a czasem dokładnie liczona liczba uruchomień, np. pięć czy dziesięć. Po przekroczeniu tego limitu aplikacja przestaje działać lub wymaga zakupu klucza. W praktyce, moim zdaniem, takie rozwiązanie jest uczciwe zarówno dla twórców, jak i użytkowników – możesz spokojnie sprawdzić, czy software ci pasuje, zanim zdecydujesz się na zakup. W branży IT trialware wpisuje się w dobre praktyki user experience (UX), bo daje możliwość realnego testu, a nie tylko oglądania screenów czy czytania opisu. Przykłady z życia? Photoshop, WinRAR czy różne edytory PDF – większość z nich oferuje trialware. Warto też wiedzieć, że trialware to nie shareware – tam często mamy ograniczone funkcje, a tutaj dostajesz praktycznie wszystko, tylko z limitem czasu lub uruchomień. Producenci często stosują zabezpieczenia typu soft-lock albo integrują się z systemem operacyjnym, żeby utrudnić obejście takiego limitu. Branża poleca takie podejście jako kompromis między otwartością a ochroną własnych interesów.

Pytanie 34

Która z licencji umożliwia korzystanie przez każdego użytkownika z programu bez ograniczeń wynikających z autorskich praw majątkowych?

A. MOLP.
B. Shareware.
C. Volume.
D. Public domain.
Wiele osób myli różne rodzaje licencji, bo na pierwszy rzut oka nazwy mogą brzmieć podobnie czy sugerować jakąś otwartość. MOLP i Volume to komercyjne modele licencjonowania, głównie stosowane przez firmy takie jak Microsoft – najczęściej wykorzystywane w środowiskach korporacyjnych, gdzie software kupuje się na wiele stanowisk albo urządzeń. W praktyce te modele bardzo mocno ograniczają swobodę użytkownika, bo wymagają ścisłego przestrzegania zapisów umowy licencyjnej. Każda instalacja musi być udokumentowana, a naruszenia grożą poważnymi konsekwencjami prawnymi. To nie jest rozwiązanie dla kogoś, kto chce po prostu skorzystać z programu „bez żadnych warunków”. Shareware z kolei to taki model, gdzie możesz przez jakiś czas albo z ograniczoną funkcjonalnością używać programu bez płacenia, ale później twórca oczekuje zapłaty lub rejestracji. W wielu przypadkach shareware ma wręcz „blokady” ograniczające możliwości, jeśli nie wykupisz pełnej wersji. Częsty błąd to utożsamianie shareware z freeware – a to wcale nie jest to samo. Shareware to bardziej demo lub trial, a nie pełna wolność. Większość ekspertów branżowych podkreśla, że prawdziwa swoboda w korzystaniu z oprogramowania bez żadnych ograniczeń formalnych występuje tylko w przypadku public domain. Typowym błędem jest także przekonanie, że jeśli coś jest dostępne w internecie za darmo, to od razu można tego używać dowolnie – niestety, prawo autorskie działa nawet wtedy, gdy twórca nie pobiera pieniędzy. W praktyce najczęściej spotykane restrykcje dotyczą zarówno kopiowania, jak i modyfikacji oraz dalszej dystrybucji. Z mojego punktu widzenia, warto zawsze czytać dokładnie warunki licencji, bo nieporozumienia w tym obszarze potrafią bardzo szybko przerodzić się w poważne problemy, zwłaszcza gdy chodzi o większe projekty czy wdrożenia komercyjne. Podsumowując, wszystkie wymienione poza public domain mają istotne ograniczenia wynikające z autorskich praw majątkowych albo innych zapisów licencyjnych, i nie zapewniają pełnej swobody użytkownikowi końcowemu.

Pytanie 35

W systemie Linux program top umożliwia

A. monitoring wszystkich aktywnych procesów.
B. ustawienie użytkownikowi maksymalnego limitu quoty.
C. wyszukanie katalogu zajmującego najwięcej miejsca na dysku twardym.
D. sortowanie rosnąco plików według ich wielkości.
Wiele osób myli funkcje poszczególnych narzędzi systemowych w Linuksie, co jest zrozumiałe, bo narzędzi jest sporo i często brzmią podobnie. Program top służy wyłącznie do monitorowania aktywnych procesów w systemie operacyjnym i nie ma żadnych funkcji związanych z sortowaniem plików, ustawianiem quoty czy analizowaniem zajętości katalogów. Jeśli komuś chodzi o sortowanie plików według wielkości, to wybrałby raczej polecenia takie jak ls z odpowiednimi opcjami (np. ls -lS) albo nawet polecenie sort, które służy do przetwarzania i sortowania tekstu. Natomiast ustawianie limitów przestrzeni dyskowej (quota) dla użytkowników to zadanie dla zupełnie innych narzędzi, takich jak edquota, quotaon, czy setquota – tutaj top nie ma żadnego zastosowania, bo on głównie wyświetla listę procesów oraz ich statystyki wydajnościowe. Z kolei identyfikacja katalogu zajmującego najwięcej miejsca na dysku wymaga użycia polecenia du (np. du -sh *), ewentualnie dopełnionego sortem – to jest zupełnie inne zadanie i zakres działania niż to, co oferuje top. Często początkujący mylą narzędzia, bo nazwy nie zawsze są intuicyjne, jednak w praktyce każde ma bardzo określony cel. Rzetelna znajomość narzędzi systemowych, ich przeznaczenia i sposobu użycia jest kluczowa nie tylko przy codziennej pracy, ale także podczas rozwiązywania incydentów wydajnościowych. Moim zdaniem warto poświęcić chwilę na przegląd manuali (man top, man du, man quota), żeby uniknąć takich pomyłek – to pomaga rozwijać się jako administrator czy nawet zwykły użytkownik Linuksa.

Pytanie 36

Planując prace modernizacyjne komputera przenośnego, związane z wymianą procesora, należy w pierwszej kolejności

A. zakupić znacząco wydajniejszy procesor pasujący do gniazda na płycie głównej.
B. rozkręcić obudowę laptopa i rozpocząć montaż.
C. zdemontować kartę graficzną, kartę Wi-Fi oraz moduły pamięci RAM.
D. sprawdzić typ gniazda procesora oraz specyfikację techniczną płyty głównej.
Wymiana procesora w laptopie to zadanie wymagające nie tylko zdolności manualnych, ale też pewnej wiedzy technicznej. Najważniejsza jest weryfikacja typu gniazda procesora (socket) oraz dokładne sprawdzenie specyfikacji technicznej płyty głównej. To właśnie od tego powinno się zacząć, bo nie każdy procesor pasuje do każdej płyty – nawet jeśli gniazdo wygląda podobnie, mogą występować różnice w obsługiwanych generacjach CPU, TDP czy wersji BIOS-u. Z mojego doświadczenia wynika, że wielu ludzi nieświadomie kupuje procesor pasujący tylko fizycznie, a potem pojawia się problem z kompatybilnością, cichym brakiem wsparcia lub ograniczeniami zasilania. Branżowe standardy, jak np. zalecenia producentów płyt głównych, zawsze podkreślają konieczność sprawdzenia listy wspieranych CPU („CPU support list”). Dopiero po analizie specyfikacji ma sens rozważać demontaż czy zakupy nowych podzespołów. Praktycznym przykładem jest sytuacja, gdy laptop obsługuje procesory do max 35W TDP – jeśli wybierzesz mocniejszy, urządzenie może nawet nie wystartować. Zawsze warto też spojrzeć na fora techniczne czy dokumentacje serwisowe, bo czasem nawet ten sam model płyty w różnych rewizjach ma inne ograniczenia. Takie podejście oszczędza czas, pieniądze, a często i nerwy. Bez tego kroku każda dalsza modernizacja to trochę jazda "na ślepo".

Pytanie 37

W systemie Linux do monitorowania użycia procesora, pamięci, procesów i obciążenia systemu służy polecenie

A. rev
B. grep
C. top
D. ifconfig
Polecenie 'top' to taki naprawdę podstawowy, a jednocześnie bardzo potężny sposób na monitorowanie bieżącej pracy systemu Linux. Pozwala w czasie rzeczywistym śledzić zużycie procesora, pamięci RAM, liczbę uruchomionych procesów, obciążenie systemu i wiele innych parametrów. To narzędzie, z mojego doświadczenia, jest pierwszym wyborem administratorów i osób zarządzających serwerami czy stacjami roboczymi, bo daje szybki pogląd na to, co dzieje się w systemie. Wystarczy wpisać w terminalu 'top', by natychmiast zobaczyć listę procesów, które najbardziej obciążają CPU, oraz dynamicznie zmieniające się zużycie pamięci. Co ciekawe, 'top' można konfigurować — na przykład zmieniając sortowanie procesów, odświeżanie widoku czy filtrowanie wyników, co bardzo się przydaje przy większych systemach. W branży IT uznaje się, że biegłość w korzystaniu z 'top' to po prostu konieczność, bo pozwala błyskawicznie zdiagnozować problemy z wydajnością lub znaleźć procesy sprawiające kłopoty. Warto wiedzieć, że istnieją też nowocześniejsze narzędzia jak 'htop', które mają bardziej kolorowy i czytelny interfejs, ale 'top' jest wszędzie dostępny i nie wymaga żadnej instalacji. Także moim zdaniem, jeśli poważnie myślisz o pracy z Linuxem, to znajomość i częste używanie 'top' to absolutna podstawa. Wielu ludzi nie docenia, jak dużo można się dowiedzieć o stanie systemu zaledwie jednym poleceniem – a 'top' naprawdę daje sporo praktycznej wiedzy i kontroli.

Pytanie 38

Która z wymienionych czynności konserwacyjnych drukarek dotyczy tylko drukarki laserowej?

A. Oczyszczenie traktora.
B. Czyszczenie luster i soczewek.
C. Czyszczenie prowadnic karetki.
D. Usunięcie zabrudzeń z zespołu czyszczącego głowicę.
To pytanie bardzo często sprawia trudność, bo czynności konserwacyjne drukarek bywają mylone między różnymi technologiami druku. Usuwanie zabrudzeń z zespołu czyszczącego głowicę to typowa procedura w drukarkach atramentowych. Tam głowica z dyszami ma kontakt z tuszem, który potrafi zasychać i blokować drożność, więc regularne czyszczenie – zarówno automatyczne, jak i manualne – to podstawa. W drukarkach laserowych nie ma głowicy atramentowej, więc ten proces nie występuje. Kolejna rzecz: czyszczenie prowadnic karetki – to również domena drukarek atramentowych i igłowych, bo właśnie tam karetkę, czyli element przesuwający głowicę nad papierem, trzeba ochronić przed kurzem czy resztkami tuszu. Przy laserówkach nie ma takiej karetki. Często spotykam się z przekonaniem, że „każda drukarka ma prowadnicę” – technicznie to nie jest prawda i warto to dobrze rozróżniać. Oczyszczenie traktora to czynność typowa dla drukarek igłowych, które wykorzystują podajnik z perforowanym papierem. Traktor prowadzi papier przez mechanizm drukujący, więc z biegiem czasu zbiera się tam papierowy pył i inne drobne zanieczyszczenia. W laserowych i atramentowych takich prowadnic-traktorów się nie stosuje. Generalnie mylące bywa to, że każda technologia druku ma swoje własne, ściśle określone procedury konserwacyjne wynikające wprost z budowy mechanizmu drukującego. Brak rozróżnienia tych specyfiki prowadzi do błędnych założeń – nie wszystko, co brzmi jak „czyszczenie”, pasuje do każdego typu drukarki. Branżowe standardy są w tej sprawie jednoznaczne – czyszczenie elementów optycznych, jak lustra i soczewki, to wyłącznie laserówki. Pozostałe czynności są charakterystyczne dla innych typów urządzeń i ich specyficznych problemów.

Pytanie 39

Aby uzyskać adres IPv4, za pomocą usługi DHCP, komputer kliencki wysyła żądania z portu

A. 68
B. 67
C. 53
D. 80
W tym pytaniu łatwo się pomylić, bo kilka z podanych portów kojarzy się z siecią i protokołami, ale tylko jeden z nich jest faktycznie używany przez klienta DHCP. W przypadku DHCP trzeba zapamiętać, że mamy parę portów UDP: 67 dla serwera i 68 dla klienta. Jeśli ktoś wybiera inne wartości, to zwykle wynika to z mieszania pojęć z innymi popularnymi usługami. Port 53 to klasyczny port protokołu DNS, czyli systemu nazw domenowych. On odpowiada za tłumaczenie nazw typu „example.com” na adresy IP. Komputer bardzo często po uzyskaniu adresu z DHCP od razu korzysta z DNS, ale to jest już kolejny krok, po udanym przydzieleniu adresu IP. Sam proces negocjacji DHCP (DISCOVER, OFFER, REQUEST, ACK) nie używa portu 53, więc wskazanie go jako portu klienta DHCP jest po prostu niezgodne ze standardem. Podobnie port 80 jest mocno znany, bo to domyślny port HTTP, czyli zwykłej przeglądarkowej komunikacji z serwerem WWW. Wiele osób intuicyjnie wybiera go, bo „kojarzy się z internetem”, ale DHCP działa dużo niżej w stosie usług – zanim jeszcze przeglądarka będzie miała w ogóle jakikolwiek adres IP do komunikacji. HTTP nie ma nic wspólnego z mechanizmem przydzielania adresu IP, więc port 80 nie bierze udziału w wymianie pakietów DHCP. Czasem pojawia się też pomyłka między portem 67 a 68. Oba są związane z DHCP, ale pełnią inne role. Serwer DHCP nasłuchuje na porcie 67, natomiast klient korzysta z portu 68. Jeśli ktoś zapamięta tylko „DHCP to 67”, to potem błędnie przypisuje ten port zarówno do serwera, jak i do klienta. W praktyce ma to znaczenie przy konfiguracji firewalli, routerów czy analizie ruchu w Wiresharku – trzeba dokładnie wiedzieć, który port należy otworzyć dla serwera, a który dla stacji roboczych. Dobra praktyka to kojarzenie tej pary jako zestawu: 67 – serwer, 68 – klient, a nie wrzucanie wszystkiego do jednego worka z „jakimiś portami sieciowymi”.

Pytanie 40

Bezprzewodową komunikację komputerów w sieci lokalnej zapewnia

A. punkt dostępowy.
B. przełącznik.
C. most.
D. brama.
W tym pytaniu łatwo się pomylić, bo wszystkie wymienione urządzenia są sieciowe, ale tylko jedno z nich faktycznie odpowiada za bezprzewodową komunikację w sieci lokalnej. Częsty błąd polega na wrzucaniu do jednego worka wszystkich nazw typu most, przełącznik, brama i zakładaniu, że skoro to elementy infrastruktury, to każdy może "jakoś" obsługiwać Wi‑Fi. W praktyce każde z nich ma zupełnie inną rolę w architekturze sieci. Most sieciowy (bridge) historycznie służył do łączenia dwóch segmentów sieci lokalnej na poziomie ramek, zwykle w warstwie 2 modelu OSI. Dzisiaj jego funkcję w dużej mierze przejęły przełączniki, ale idea jest podobna: łączenie segmentów przewodowych, filtrowanie ramek, segmentacja domen kolizyjnych. Most sam z siebie nie zapewnia interfejsu radiowego, nie rozgłasza SSID, nie obsługuje standardów 802.11, więc nie będzie urządzeniem do typowej sieci Wi‑Fi. Przełącznik z kolei to podstawowy element przewodowej sieci LAN, który przełącza ramki Ethernet pomiędzy portami na podstawie adresów MAC. Bardzo często jest mylony z punktem dostępowym, bo w małych biurach mamy topologię: router – przełącznik – punkt dostępowy, wszystko stoi obok siebie i świeci diodami, więc laikom się zlewa. Jednak przełącznik pracuje tylko w sieci kablowej, jego zadaniem jest wydajna komunikacja przewodowa. Sam przełącznik, bez wbudowanego modułu Wi‑Fi, nie umożliwi urządzeniom bezprzewodowym dołączenia do sieci. Brama (gateway) to jeszcze inna rola – jest to punkt wyjścia z sieci lokalnej do innej sieci, najczęściej do Internetu. Domowy router, który pełni funkcję bramy, często ma też Wi‑Fi, ale to moduł punktu dostępowego wewnątrz tego urządzenia odpowiada za komunikację bezprzewodową, a nie sama funkcja bramy. Mylenie bramy z Wi‑Fi bierze się stąd, że użytkownik widzi jedno pudełko od operatora i zakłada, że nazwa funkcji i fizycznego urządzenia to to samo. Dobra praktyka w sieciach polega na rozróżnianiu warstw: przełącznik i most to warstwa 2 przewodowa, brama działa między sieciami (warstwa 3 i wyżej), natomiast bezprzewodową komunikację w LAN realizuje konkretnie punkt dostępowy, zgodnie ze standardami IEEE 802.11.