Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 10 kwietnia 2026 20:34
  • Data zakończenia: 10 kwietnia 2026 20:44

Egzamin zdany!

Wynik: 23/40 punktów (57,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu— sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Który z pakietów powinien być zainstalowany na serwerze Linux, aby komputery z systemem Windows mogły udostępniać pliki oraz drukarki z tego serwera?

A. Wine
B. Vsftpd
C. Proftpd
D. Samba
Samba to pakiet oprogramowania, który implementuje protokoły SMB (Server Message Block) i CIFS (Common Internet File System), umożliwiając współdzielenie plików i drukarek między systemami Linux a Windows. Jest to kluczowe narzędzie w środowiskach mieszanych, gdzie użytkownicy z różnych systemów operacyjnych muszą mieć dostęp do tych samych zasobów. Dzięki Samba, stacje robocze z systemem Windows mogą z łatwością uzyskiwać dostęp do katalogów i plików przechowywanych na serwerze Linux, co jest niezbędne w biurach oraz w dużych organizacjach. Przykładowo, jeśli w firmie znajdują się dokumenty przechowywane na serwerze Linux, Samba pozwala na ich przeglądanie i edytowanie z poziomu komputerów z Windows bez potrzeby korzystania z dodatkowych narzędzi. Dodatkowo, Samba obsługuje autoryzację użytkowników oraz różne poziomy dostępu, co jest zgodne z najlepszymi praktykami zarządzania sieciami i zapewnia bezpieczeństwo danych. Warto również zaznaczyć, że Samba umożliwia integrację z Active Directory, co jest standardowym rozwiązaniem w wielu środowiskach korporacyjnych.

Pytanie 2

Zamieszczone atrybuty opisują rodzaj pamięci

Maksymalne taktowanie1600 MHz
PrzepustowośćPC12800 1600MHz
OpóźnienieCycle Latency CL 9,0
KorekcjaNie
Dual/QuadDual Channel
RadiatorTak
A. SD
B. flash
C. SWAP
D. RAM
Pamięć RAM jest kluczowym elementem komputera, odpowiadającym za tymczasowe przechowywanie danych, które są aktualnie używane przez procesor. Parametry takie jak maksymalne taktowanie 1600 MHz, przepustowość PC12800, opóźnienie CL 9,0 oraz obsługa trybu Dual Channel odnoszą się do typowych cech nowoczesnych modułów RAM. Taktowanie 1600 MHz oznacza częstotliwość pracy pamięci, co wpływa na szybkość przetwarzania danych. Przepustowość PC12800 pokazuje maksymalną ilość danych, jakie mogą być przesyłane w jednostce czasu, co jest istotne w przypadku zadań wymagających dużej ilości operacji na danych. Opóźnienie CL 9,0 określa czas potrzebny do rozpoczęcia dostępu do danych, co wpływa na ogólną wydajność systemu. Obsługa Dual Channel oznacza możliwość używania dwóch modułów pamięci jednocześnie, co podwaja efektywną przepustowość. Pamięć RAM nie przechowuje danych po wyłączeniu zasilania, co odróżnia ją od pamięci masowej. Radiator zapewnia efektywne odprowadzanie ciepła, co jest istotne dla stabilnej pracy przy wyższych częstotliwościach. Wybór odpowiedniej pamięci RAM zgodnie z tymi parametrami może znacząco poprawić wydajność i responsywność systemu komputerowego

Pytanie 3

Jakie polecenie w systemie Linux przyzna możliwość zapisu dla wszystkich obiektów w /usr/share dla wszystkich użytkowników, nie modyfikując innych uprawnień?

A. chmod ugo+rw /usr/share
B. chmod -R o+r /usr/share
C. chmod -R a+w /usr/share
D. chmod a-w /usr/share
Polecenie 'chmod -R a+w /usr/share' jest stosowane do nadania uprawnień do pisania dla wszystkich użytkowników ( właścicieli, grup oraz innych) do katalogu /usr/share oraz wszystkich jego podkatalogów i plików. Flaga '-R' oznacza rekurencyjne zastosowanie tej operacji, co oznacza, że wszystkie podkatalogi i pliki wewnątrz /usr/share również otrzymają to samo uprawnienie. Przykładowo, jeśli istnieją pliki lub katalogi w /usr/share, które są używane do przechowywania plików konfiguracyjnych lub zasobów aplikacji, to nadanie im tych uprawnień umożliwia wszystkim użytkownikom systemu ich modyfikację. Warto jednak zachować ostrożność przy nadawaniu szerokich uprawnień, aby uniknąć potencjalnych luk w zabezpieczeniach oraz niezamierzonych zmian w plikach systemowych. W kontekście najlepszych praktyk, zaleca się stosowanie takich uprawnień tylko w sytuacjach, gdy jest to bezwzględnie konieczne, a dostęp do katalogu powinien być ograniczony do tych użytkowników, którzy naprawdę tego potrzebują.

Pytanie 4

Wskaż ilustrację, która przedstawia symbol bramki logicznej NOT?

Ilustracja do pytania
A. B
B. A
C. D
D. C
Odpowiedź C jest poprawna ponieważ symbol bramki logicznej NOT przedstawiany jest jako trójkąt z małym kółkiem na końcu. To kółko jest znane jako inwersja i oznacza negację sygnału wejściowego czyli zamianę 1 na 0 oraz 0 na 1. Bramki NOT są fundamentalnym elementem w projektowaniu układów cyfrowych i są często używane w kombinacyjnych i sekwencyjnych układach logicznych do odwracania sygnałów. W praktyce znajdują zastosowanie w różnorodnych urządzeniach elektronicznych takich jak komputery telefony czy systemy wbudowane. Zgodnie ze standardami inżynierii bramka NOT jest często integrowana w układy scalone jako część bardziej skomplikowanych struktur logicznych. Dzięki swojej prostocie i wszechstronności bramki NOT są kluczowe w optymalizacji obwodów cyfrowych pozwalając na realizację bardziej złożonych operacji logicznych. Ich prawidłowe rozpoznanie i zrozumienie działania jest istotne dla każdego specjalisty zajmującego się elektroniką i projektowaniem układów scalonych ponieważ stanowią one podstawę do tworzenia bardziej zaawansowanych układów logicznych.

Pytanie 5

Jaka jest prędkość przesyłania danych w standardzie 1000Base-T?

A. 1 Mbit/s
B. 1 Gbit/s
C. 1 MB/s
D. 1 GB/s
Odpowiedź 1 Gbit/s jest prawidłowa, ponieważ standard 1000Base-T, który jest częścią rodziny standardów Ethernet, zapewnia prędkość transmisji danych wynoszącą 1 gigabit na sekundę. Jest to technologia szeroko stosowana w nowoczesnych sieciach lokalnych, pozwalająca na szybki transfer danych przy użyciu skrętkowych kabli miedzianych kategorii 5e lub wyższej. Przykładem zastosowania tego standardu może być budowanie infrastruktury sieciowej w biurach oraz centrach danych, gdzie wymagana jest duża przepustowość. Standard 1000Base-T korzysta z kodowania 4D-PAM5, co pozwala na efektywne wykorzystanie dostępnego pasma i minimalizację zakłóceń. Dodatkowo, w porównaniu do starszych standardów, takich jak 100Base-TX, 1000Base-T oferuje znacznie lepszą wydajność, co czyni go preferowanym wyborem dla aplikacji wymagających przesyłania dużych ilości danych, takich jak strumieniowanie wideo w wysokiej rozdzielczości czy wirtualizacja. Regularne korzystanie z tego standardu i jego wdrażanie w sieciach lokalnych jest zgodne z najlepszymi praktykami branżowymi, co zapewnia przyszłość sieci i elastyczność w dostosowywaniu się do rosnących potrzeb użytkowników.

Pytanie 6

W tabeli przedstawiono pobór mocy poszczególnych podzespołów zestawu komputerowego. Zestaw składa się z:
- płyty głównej,
- procesora,
- 2 modułów pamięci DDR3,
- dysku twardego SSD,
- dysku twardego z prędkością obrotową 7200,
- karty graficznej,
- napędu optycznego,
- myszy i klawiatury,
- wentylatora.
Który zasilacz należy zastosować dla przedstawionego zestawu komputerowego, uwzględniając co najmniej 20% rezerwy poboru mocy?

PodzespółPobór mocy [W]PodzespółPobór mocy [W]
Procesor Intel i560Płyta główna35
Moduł pamięci DDR36Karta graficzna310
Moduł pamięci DDR23Dysk twardy SSD7
Monitor LCD80Dysk twardy 7200 obr./min16
Wentylator5Dysk twardy 5400 obr./min12
Mysz i klawiatura2Napęd optyczny30
A. be quiet! 500W System Power 8 BOX
B. Zalman ZM600-LX 600W BOX
C. Corsair VS550 550W 80PLUS BOX
D. Thermaltake 530W SMART SE Modular BOX
W tym przypadku wybór zasilacza o mocy mniejszej niż 600 W to dość typowy błąd, który spotyka się nawet u osób z pewnym doświadczeniem. Zwykle wynika to z niedoszacowania sumarycznego poboru mocy albo nieuwzględnienia koniecznego zapasu mocy, który według standardów branżowych powinien wynosić co najmniej 20%, a według niektórych producentów nawet więcej. Jeśli policzyć pobór wszystkich wylistowanych podzespołów (procesor, płyta główna, 2x DDR3, karta graficzna, SSD, HDD 7200 obr./min, napęd optyczny, wentylator, mysz z klawiaturą), dostajemy już 447 W. Po doliczeniu rezerwy bezpieczeństwa (447 W + 20% = ok. 536 W), żaden zasilacz o mocy 500, 530 czy nawet 550 W nie będzie prawidłowym wyborem, bo przy pełnym obciążeniu pracowałby praktycznie na limicie. To prowadzi do przegrzewania, niestabilności, a w skrajnych przypadkach nawet do uszkodzenia całego zestawu. Częsty błąd to także nieuwzględnienie możliwości przyszłej rozbudowy – dobierając zasilacz "na styk", nie zostawiamy miejsca choćby na zmianę karty graficznej czy dołożenie dysku. W branży IT i serwisowaniu komputerów mówi się, że najlepsze zasilacze to te, które mają trochę zapasu i są markowe, a nie "no-name". Takie podejście przekłada się na dłuższą żywotność komponentów, stabilność napięć i bezpieczeństwo użytkownika. Moim zdaniem nie warto oszczędzać na zasilaczu – często to on ratuje resztę sprzętu w razie awarii. Podsumowując, zasilacz poniżej 600 W w tym zestawie po prostu się nie sprawdzi, bo nie spełnia zasad poprawnego projektowania stanowiska komputerowego.

Pytanie 7

Jakie polecenie oprócz ls może być użyte przez użytkownika systemu Linux do wyświetlenia zawartości katalogu, w tym plików i podkatalogów?

A. pwd
B. man
C. tree
D. dir
Wybór innej odpowiedzi, która nie zawiera polecenia 'dir', może prowadzić do pewnych nieporozumień dotyczących tego, co można robić w systemie Linux. Na przykład, polecenie 'tree' pokazuje strukturę katalogów jakby w formie drzewa, ale nie pokazuje tylko zawartości katalogu, a organizację folderów, co sprawia, że nie jest najlepszym zamiennikiem dla 'ls' czy 'dir'. Może to być mylące dla niektórych ludzi, bo mogą pomylić 'tree' z prostym narzędziem do przeglądania plików. Z kolei 'man' to coś, co służy do pokazywania dokumentacji dla innych poleceń, więc nie ma sensu go używać do wyświetlania zawartości katalogów. Mówiąc o 'pwd', to też jest polecenie, które pokazuje pełną ścieżkę bieżącego katalogu roboczego, ale to również nie ma nic wspólnego z pytaniem. Ważne jest, by zrozumieć, że każde z tych poleceń ma swoje unikalne zastosowanie, a ich znajomość jest kluczowa, żeby efektywnie pracować w Linuxie.

Pytanie 8

Grupa, w której uprawnienia przypisane członkom mogą dotyczyć tylko tej samej domeny, co nadrzędna grupa lokalna domeny, to grupa

A. uniwersalna
B. lokalna komputera
C. lokalna domeny
D. globalna
Grupa lokalna domeny to typ grupy, w której uprawnienia członków są ograniczone do konkretnej domeny. Oznacza to, że członkowie tej grupy mogą mieć przypisane uprawnienia tylko w obrębie tej samej domeny, co domena nadrzędna grupy. W praktyce, grupy lokalne są często wykorzystywane do zarządzania dostępem do zasobów, takich jak foldery czy aplikacje, w obrębie jednego kontrolera domeny. Na przykład, jeżeli chcemy przyznać dostęp do określonego zasobu jedynie użytkownikom w danej domenie, tworzymy grupę lokalną i dodajemy do niej odpowiednich użytkowników. Z perspektywy bezpieczeństwa i zarządzania, stosowanie grup lokalnych umożliwia precyzyjniejsze kontrolowanie uprawnień oraz zwiększa efektywność administracji. Warto zaznaczyć, że zgodnie z najlepszymi praktykami, używanie grup lokalnych w połączeniu z grupami globalnymi i uniwersalnymi pozwala na elastyczne zarządzanie dostępem w złożonych środowiskach sieciowych.

Pytanie 9

Sygnał kontrolny generowany przez procesor, umożliwiający zapis do urządzeń wejściowych i wyjściowych, został na diagramie oznaczony numerem

Ilustracja do pytania
A. 2
B. 3
C. 4
D. 1
Wybór błędnej odpowiedzi co do sygnału sterującego zapisem do urządzeń wejścia-wyjścia często wynika z niepełnego zrozumienia roli poszczególnych sygnałów w architekturze mikroprocesora. Sygnały MEMR i MEMW oznaczają operacje odczytu i zapisu do pamięci, co jest mylące dla wielu uczących się, którzy mogą błędnie przypuszczać, że są one związane z urządzeniami wejścia-wyjścia. MEMR jest używany do odczytu danych z pamięci, natomiast MEMW do zapisu danych do pamięci. Sygnały te są integralną częścią komunikacji z pamięcią RAM i ROM, ale nie z urządzeniami wejścia-wyjścia. I/OR i I/OW to sygnały dedykowane dla operacji z urządzeniami I/O. I/OR oznacza odczyt z urządzeń I/O, podczas gdy I/OW oznacza zapis. Mylenie sygnałów związanych z pamięcią i I/O jest powszechnym błędem, zwłaszcza u początkujących projektantów systemów. Aby uniknąć takich pomyłek, ważne jest dogłębne zrozumienie funkcji i zastosowania każdego sygnału oraz kontekstu, w jakim są używane. W systemach komputerowych sygnały są wykorzystywane w złożonych sekwencjach operacji, a prawidłowe ich przypisanie jest kluczowe dla stabilnej i wydajnej pracy całego systemu. Inżynierowie muszą być świadomi standardowych praktyk i protokołów komunikacyjnych używanych w systemach mikroprocesorowych, by skutecznie projektować i diagnozować złożone systemy komputerowe. Dobra znajomość tych zasad pozwala na unikanie kosztownych błędów w projektowaniu sprzętu i oprogramowania, co jest kluczowe w nowoczesnym inżynierii komputerowej.

Pytanie 10

W systemie Linux plik posiada uprawnienia ustawione na 765. Grupa przypisana do tego pliku ma możliwość

A. odczytu, zapisu oraz wykonania
B. tylko odczytu
C. odczytu i zapisu
D. odczytu i wykonania
Odpowiedzi, które sugerują, że grupa może odczytać plik, wykonać go lub tylko odczytać, są błędne z kilku powodów. Zrozumienie systemu uprawnień w Linuxie jest kluczowe dla zarządzania bezpieczeństwem i dostępem do danych. System uprawnień oparty jest na liczbach od 0 do 7, gdzie każda cyfra przedstawia zestaw uprawnień dla danej grupy użytkowników. Na przykład, liczba 6 oznacza, że użytkownik z danej grupy ma uprawnienia do odczytu i zapisu, ale nie do wykonywania. W praktyce oznacza to, że grupowy użytkownik może edytować plik, a nie uruchamiać go jako programu. Często pojawia się mylne przekonanie, że przypisanie uprawnień wykonania do grupy użytkowników jest standardową praktyką, co może prowadzić do naruszeń bezpieczeństwa danych. Kolejnym typowym błędem jest zakładanie, że pliki, które mają ustawione uprawnienia 7xx, umożliwiają wykonanie ich przez wszystkich użytkowników. W rzeczywistości, w omawianym przypadku, tylko właściciel ma prawo wykonać plik. Zrozumienie tych podstawowych zasad pozwala na efektywniejsze zarządzanie uprawnieniami i zwiększa bezpieczeństwo użytkowników oraz ich danych w systemie. Praktyczne zastosowanie tej wiedzy przyczynia się do lepszego zabezpieczenia systemów przed nieautoryzowanym dostępem.

Pytanie 11

Czym dokonuje się przekształcenia kodu źródłowego w program do wykonania?

A. kompilator.
B. interpreter.
C. emulator.
D. debugger.
Wybór debugera, emulatora czy interpretera jako narzędzi do zamiany kodu źródłowego na program wykonywalny jest niepoprawny, ponieważ każde z tych narzędzi pełni inne funkcje w procesie tworzenia oprogramowania. Debuger jest narzędziem do analizy i naprawy błędów w kodzie, umożliwiając programiście monitorowanie wykonania programu oraz jego stanów. Nie wykonuje on jednak kompilacji kodu źródłowego ani nie przekształca go na kod maszynowy, a jedynie wspiera proces debugowania. Emulator z kolei naśladuje zachowanie sprzętu lub systemu operacyjnego, co pozwala na uruchamianie programów przeznaczonych na inne platformy, ale nie jest narzędziem do kompilacji. Interpreter jest narzędziem, które wykonuje kod źródłowy linia po linii w czasie rzeczywistym, co oznacza, że nie przekształca go w kod maszynowy przed jego uruchomieniem. Choć interpretery są użyteczne w wielu kontekstach, na przykład w językach skryptowych jak Python, nie generują one plików wykonywalnych, przez co ich zastosowanie w kontekście zamiany kodu źródłowego na program wykonywalny jest ograniczone. Wybór niewłaściwych narzędzi do kompilacji może prowadzić do nieporozumień w procesie programowania i powodować problemy z wydajnością oraz błędy w działaniu programów.

Pytanie 12

Instalacja systemów Linux oraz Windows 7 przebiegła bez problemów. Oba systemy zainstalowały się prawidłowo z domyślnymi konfiguracjami. Na tym samym komputerze, o tej samej konfiguracji, podczas instalacji systemu Windows XP pojawił się komunikat o braku dysków twardych, co może sugerować

A. niedobór sterowników
B. błędnie skonfigurowane bootowanie urządzeń
C. logiczne uszkodzenie dysku twardego
D. nieprawidłowe ustawienie zworek w dysku twardym
Wybór złego ułożenia zworek w dysku twardym jako przyczyny braku wykrywania dysków twardych jest mylny, ponieważ współczesne dyski twarde, szczególnie te wykorzystujące interfejs SATA, nie korzystają z zworków do ustawiania trybu pracy. Zworki były używane głównie w starszych dyskach IDE, gdzie ich poprawne ustawienie miało kluczowe znaczenie dla ustalenia, który dysk jest główny (Master), a który podrzędny (Slave). W przypadku, gdy w systemie BIOS prawidłowo wykrywane są dyski, ułożenie zworków nie powinno mieć wpływu na ich widoczność w systemie operacyjnym. Ponadto, uszkodzenie logiczne dysku twardego również nie jest bezpośrednią przyczyną braku wykrywania go przez system instalacyjny Windows XP. Takie uszkodzenia mogą prowadzić do problemów z dostępem do danych, ale nie do sytuacji, w której dysk jest całkowicie niewykrywalny. Warto również zauważyć, że źle ustawione bootowanie napędów może prowadzić do problemów z uruchamianiem systemu operacyjnego, ale nie do braku wykrywania dysków podczas instalacji. Kluczowe jest zrozumienie, że system operacyjny wymaga odpowiednich sterowników do rozpoznawania sprzętu, a brak ich instalacji jest najczęstszą przyczyną napotykanych problemów, co potwierdzają praktyki branżowe. Właściwe dobranie sterowników jest niezbędne, aby zapewnić pełną funkcjonalność zainstalowanego systemu operacyjnego.

Pytanie 13

Jaki zakres adresów IPv4 jest prawidłowo przypisany do danej klasy?

A. Poz. C
B. Poz. A
C. Poz. B
D. Poz. D
Odpowiedź B jest poprawna, ponieważ wskazuje na zakres adresów IPv4 od 128.0.0.0 do 191.255.255.255, który jest przypisany do klasy B. Klasa B adresów IPv4 jest przeznaczona głównie dla średnich i dużych sieci, co oznacza, że oferuje większą liczbę adresów w porównaniu do klas A i C. Adresy klasy B mają 16 bitów przeznaczonych na identyfikator sieci oraz 16 bitów na identyfikator hosta, co pozwala na utworzenie do 65,536 unikalnych adresów IP dla hostów w ramach jednej sieci. W praktycznych zastosowaniach, sieci klasy B są często używane w dużych przedsiębiorstwach oraz instytucjach edukacyjnych, które wymagają obsługi wielu urządzeń jednocześnie. Zrozumienie struktury i klasyfikacji adresów IP jest kluczowe dla projektowania oraz zarządzania sieciami komputerowymi, a także dla skutecznej administracji i bezpieczeństwa systemów sieciowych.

Pytanie 14

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 8 GB.
B. 1 modułu 32 GB.
C. 2 modułów, każdy po 16 GB.
D. 1 modułu 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 15

Do wykonania kopii danych na dysk USB w systemie Linux stosuje się polecenie

A. rm
B. su
C. cp
D. mv
Polecenie cp to w praktyce podstawowe narzędzie do kopiowania plików i katalogów w systemach Linux. Bez niego trudno sobie wyobrazić codzienną pracę administratora czy zwykłego użytkownika. Moim zdaniem cp jest jednym z tych poleceń, które po prostu trzeba znać, szczególnie jeśli chodzi o operacje na różnych nośnikach, na przykład na dyskach USB. Warto pamiętać, że cp pozwala na kopiowanie zarówno pojedynczych plików, jak i całych katalogów (z opcją -r lub --recursive). Gdy podłączasz dysk USB, najczęściej montujesz go w /media lub /mnt, a potem używasz cp do przekopiowania danych. Przykładowo: cp /home/user/dokument.txt /media/usb/. Warto też zerknąć na opcje takie jak -v (verbose), która pokazuje co jest kopiowane, czy -u (update), która pozwala kopiować tylko nowsze pliki. To ułatwia życie, zwłaszcza jak ktoś się boi nadpisać ważne dane. Standardy POSIX jasno określają składnię i zachowanie cp, więc na praktycznie każdej dystrybucji Linuxa działa to identycznie. No i taka ciekawostka – cp nie pyta o pozwolenie przy nadpisywaniu plików, chyba że użyjesz opcji -i. Warto więc być ostrożnym! Kopiowanie danych na dysk USB za pomocą cp to podstawowa, ale bardzo istotna umiejętność – często od niej zaczyna się nauka zarządzania plikami w systemie Linux.

Pytanie 16

Aby chronić systemy sieciowe przed atakami z zewnątrz, należy zastosować

A. protokołu SSH
B. menedżera połączeń
C. serwera DHCP
D. zapory sieciowej
Zapora sieciowa, znana również jako firewall, jest kluczowym elementem zabezpieczającym systemy sieciowe przed nieautoryzowanym dostępem i atakami z zewnątrz. Działa ona na granicy pomiędzy zaufaną siecią a siecią zewnętrzną, kontrolując ruch przychodzący i wychodzący na podstawie ustalonych reguł bezpieczeństwa. Przykładowo, organizacje mogą skonfigurować zapory sieciowe tak, aby zezwalały na określone rodzaje ruchu (np. protokoły HTTP/HTTPS) oraz blokowały inne (np. porty wykorzystywane przez złośliwe oprogramowanie). Ponadto, zapory mogą być używane do segmentacji sieci, co zwiększa bezpieczeństwo poprzez ograniczenie dostępu do krytycznych zasobów. Dobre praktyki wskazują również na regularne aktualizowanie reguł oraz monitorowanie logów zapory, aby szybko reagować na potencjalne zagrożenia. Korzystanie z zapór, zarówno sprzętowych, jak i programowych, jest zalecane w standardach takich jak ISO/IEC 27001 czy NIST Cybersecurity Framework, co podkreśla ich znaczenie w ochronie danych i zasobów informacyjnych.

Pytanie 17

Która norma w Polsce definiuje zasady dotyczące okablowania strukturalnego?

A. PN-EN 50173
B. TSB-67
C. EIA/TIA 568-A
D. ISO/IEC 11801
Norma PN-EN 50173 jest kluczowym dokumentem określającym wymagania dotyczące okablowania strukturalnego w budynkach. Stanowi ona podstawę dla projektowania, instalacji oraz użytkowania systemów okablowania, które muszą spełniać wysokie standardy jakości oraz wydajności. Zawiera wytyczne dotyczące różnych typów systemów okablowania, w tym transmisji danych, głosu oraz obrazu. Przykładem zastosowania normy PN-EN 50173 może być projektowanie sieci lokalnych w biurowcach, gdzie ważne jest, aby system okablowania był zgodny z wymaganiami dotyczącymi przepustowości i elastyczności w rozbudowie infrastruktury. Dodatkowo, norma ta uwzględnia aspekty związane z bezpieczeństwem, takie jak odporność na zakłócenia elektromagnetyczne, co jest niezwykle istotne w dobie rosnącej liczby urządzeń elektronicznych. Stosowanie PN-EN 50173 zapewnia, że zainstalowane systemy będą miały długą żywotność oraz będą w stanie efektywnie obsługiwać rosnące potrzeby użytkowników.

Pytanie 18

Aby uniknąć utraty danych w aplikacji do ewidencji uczniów, po zakończonej pracy każdego dnia należy wykonać

A. aktualizację systemu
B. bezpieczne zamknięcie systemu operacyjnego
C. aktualizację systemu operacyjnego
D. kopię zapasową danych programu
Wykonywanie kopii zapasowej danych programu jest kluczowym elementem strategii zarządzania danymi w każdej organizacji. Polityka tworzenia kopii zapasowych powinna być zgodna z zasadami dobrego zarządzania danymi, które zalecają regularne archiwizowanie informacji, aby zminimalizować ryzyko utraty cennych danych. Kopie zapasowe powinny być przechowywane w bezpiecznym miejscu, oddzielonym od głównego systemu, co zabezpiecza je przed utratą na skutek awarii sprzętu czy cyberataków. Przykładowo, korzystając z oprogramowania do ewidencji uczniów, warto ustalić harmonogram automatycznego tworzenia kopii zapasowych na koniec każdego dnia, co zapewnia, że wszystkie zmiany wprowadzone w trakcie dnia będą zapisane. Dodatkowo, warto zapoznać się z różnymi metodami tworzenia kopii zapasowych, takimi jak pełne, różnicowe czy przyrostowe, aby dopasować je do potrzeb organizacji. Takie podejście zwiększa bezpieczeństwo danych i zapewnia ich dostępność w razie awarii.

Pytanie 19

Ile pinów znajduje się w wtyczce SATA?

A. 4
B. 5
C. 7
D. 9
Wybór liczby pinów innej niż 7 we wtyczce SATA prowadzi do nieporozumień związanych z funkcjonalnością tego standardu. Odpowiedzi takie jak 4, 5 czy 9 ignorują fakt, że wtyczka SATA została zaprojektowana w celu optymalizacji transferu danych oraz kompatybilności z różnymi urządzeniami. Liczba 4 czy 5 pinów może sugerować uproszczoną konstrukcję, co jest niezgodne z rzeczywistością, ponieważ wtyczka SATA obsługuje pełną funkcjonalność poprzez swoje 7 pinów, które odpowiadają za przesył danych oraz sygnalizację. Warto zrozumieć, że wtyczki i gniazda zaprojektowane zgodnie ze standardem SATA mają na celu zapewnienie odpowiedniej wydajności oraz niezawodności, co jest niemożliwe przy mniejszej liczbie pinów. Ponadto, błędny wybór dotyczący liczby pinów może prowadzić do nieuchronnych problemów związanych z podłączeniem urządzeń, jak np. brak możliwości transferu danych, co ma kluczowe znaczenie w nowoczesnych systemach komputerowych. Dobre praktyki w zakresie projektowania systemów komputerowych wymagają zrozumienia, jak różne standardy, w tym SATA, wpływają na wydajność oraz kompatybilność komponentów. Ignorowanie takich szczegółów jak liczba pinów i ich funkcje prowadzi do nieefektywności i frustracji podczas użytkowania sprzętu.

Pytanie 20

Która para: protokół – warstwa, w której funkcjonuje protokół, jest prawidłowo zestawiona według modelu TCP/IP?

A. RIP – warstwa internetu
B. ICMP – warstwa aplikacji
C. DHCP – warstwa dostępu do sieci
D. RARP – warstwa transportowa
RIP (Routing Information Protocol) jest protokołem routingu, który działa na warstwie internetu modelu TCP/IP. Jego głównym celem jest wymiana informacji o trasach pomiędzy routerami, co pozwala na skuteczne kierowanie pakietów w sieci. RIP wykorzystuje algorytm Bellmana-Forda, co czyni go prostym i efektywnym w małych i średnich sieciach. Jako protokół wektora odległości, RIP oblicza najlepsze ścieżki do docelowych adresów IP na podstawie liczby przeskoków (hop count), co oznacza, że im mniejsza liczba przeskoków, tym wyższy priorytet trasy. Przykładem zastosowania RIP mogą być sieci lokalne, w których administratorzy korzystają z tego protokołu do automatyzacji procesu routingu, co zwiększa efektywność zarządzania siecią i redukuje błędy ludzkie. Warto zauważyć, że chociaż RIP jest prosty w konfiguracji, ma swoje ograniczenia, takie jak ograniczenie do 15 przeskoków, co czyni go mniej odpowiednim dla większych, bardziej złożonych sieci. Dlatego w praktyce, w przypadku większych infrastruktur, zazwyczaj stosuje się bardziej zaawansowane protokoły, takie jak OSPF czy EIGRP.

Pytanie 21

Jakie urządzenie stosuje technikę detekcji zmian w pojemności elektrycznej do sterowania kursorem na monitorze?

A. Joystick
B. Myszka
C. Touchpad
D. Trackpoint
Touchpad to urządzenie wejściowe, które wykrywa ruchy palca użytkownika na jego powierzchni, wykorzystując metodę detekcji zmian pojemności elektrycznej. Ta technologia polega na pomiarze zmian w pojemności elektrycznej, które zachodzą, gdy palec zbliża się do powierzchni touchpada. Dzięki temu system jest w stanie precyzyjnie określić położenie palca oraz jego ruchy, co umożliwia kontrolowanie kursora na ekranie. Touchpady są powszechnie stosowane w laptopach oraz jako zewnętrzne urządzenia wejściowe. Dzięki swojej funkcjonalności umożliwiają realizację gestów, takich jak przewijanie, powiększanie czy obracanie, co znacząco zwiększa ergonomię i komfort użytkowania. W kontekście praktycznym, w wielu nowoczesnych aplikacjach i systemach operacyjnych, takich jak Windows czy macOS, touchpady wspierają różnorodne gesty, co pozwala na łatwiejszą i bardziej intuicyjną nawigację. Standardy dotyczące urządzeń wskazujących, takie jak USB HID (Human Interface Devices), również uwzględniają touchpady jako integralną część ekosystemu interakcji z komputerem.

Pytanie 22

Instalacja systemów Linux oraz Windows 7 przebiegła bez żadnych problemów. Systemy zainstalowały się poprawnie z domyślnymi ustawieniami. Na tym samym komputerze, przy tej samej konfiguracji, podczas instalacji systemu Windows XP pojawił się komunikat o braku dysków twardych, co może sugerować

A. uszkodzenie logiczne dysku twardego
B. brak sterowników
C. nieprawidłowe ułożenie zworek w dysku twardym
D. błędnie skonfigurowane bootowanie napędów
Złe ułożenie zworek w dysku twardym oraz uszkodzenie logiczne dysku twardego to potencjalne problemy, które mogą powodować błąd wykrycia dysków twardych, ale w tym konkretnym przypadku są mniej prawdopodobne. W przypadku złego ułożenia zworek, zazwyczaj prowadzi to do sytuacji, w której system w ogóle nie wykrywa dysku twardego, a nie do wyświetlania komunikatu o braku dysków podczas instalacji. Z kolei uszkodzenia logiczne, takie jak usunięcie partycji czy problem z systemem plików, zazwyczaj skutkują innymi rodzajami błędów lub ostrzeżeń, które pojawiają się po uruchomieniu systemu, a nie podczas samej instalacji. Ustawienie bootowania napędów ma kluczowe znaczenie, jednak w tym przypadku system Windows 7 oraz Linux zainstalowały się poprawnie, co sugeruje, że bootowanie było skonfigurowane właściwie. W związku z tym brak sterowników jest najbardziej oczywistą przyczyną, gdyż Windows XP, w przeciwieństwie do nowszych systemów operacyjnych, może nie być w stanie automatycznie rozpoznać nowoczesnych kontrolerów dysków. To często prowadzi do błędnych wniosków, gdzie użytkownicy skupiają się na sprzętowych aspektach zamiast na dostosowywaniu środowiska instalacyjnego poprzez zapewnienie odpowiednich sterowników. Warto również zauważyć, że w przypadku starszych systemów, takich jak Windows XP, zapewnienie zgodności sprzętowej i aktualności sterowników jest kluczowe, aby uniknąć problemów podczas instalacji.

Pytanie 23

Nierówne wydruki lub bladości w druku podczas korzystania z drukarki laserowej mogą sugerować

A. zagięcie kartki papieru w urządzeniu
B. niedobór tonera
C. nieprawidłową instalację sterowników drukarki
D. uszkodzenia kabla łączącego drukarkę z komputerem
Wyczerpywanie się tonera jest jednym z najczęstszych powodów występowania problemów z jakością wydruków w drukarkach laserowych. Toner jest proszkiem, który podczas drukowania jest nanoszony na papier, a jego niewystarczająca ilość może prowadzić do bladego lub nierównomiernego wydruku. Kiedy toner jest na wyczerpaniu, jego cząsteczki mogą nie być w stanie równomiernie pokryć powierzchni kartki, co objawia się w postaci słabo widocznego tekstu lub braku wydruku w niektórych obszarach. Zgodnie z zaleceniami producentów, regularne monitorowanie poziomu tonera oraz jego wymiana po osiągnięciu określonego poziomu to podstawowe praktyki, które pomagają utrzymać jakość wydruków. Dodatkowo, stosowanie tonerów oryginalnych lub certyfikowanych jest zalecane, aby uniknąć problemów z jakością, a także zapewnić długotrwałą wydajność drukarki. Warto również zauważyć, że stan tonera może wpływać na inne aspekty drukowania, w tym na prędkość wydruku oraz żywotność sprzętu.

Pytanie 24

Główną metodą ochrony sieci komputerowej przed zagrożeniem z zewnątrz jest zastosowanie

A. blokady portu 80
B. programu antywirusowego
C. serwera Proxy
D. zapory sieciowej
Zapora sieciowa, znana również jako firewall, jest kluczowym elementem ochrony sieci komputerowych przed atakami z zewnątrz. Działa jako filtr, który kontroluje ruch przychodzący i wychodzący w sieci, na podstawie ustalonych reguł bezpieczeństwa. Dzięki zaporze sieciowej można blokować nieautoryzowane połączenia oraz monitorować i rejestrować aktywność sieciową. Przykładem zastosowania zapory jest skonfigurowanie jej tak, aby restrykcyjnie zezwalała na ruch tylko z określonych adresów IP, co znacząco zwiększa bezpieczeństwo. W praktyce, wiele organizacji korzysta z zapór sprzętowych, które są zainstalowane pomiędzy siecią lokalną a Internetem, a także zapór programowych, które mogą być zainstalowane na serwerach i komputerach osobistych. Warto pamiętać, że skuteczna zapora powinna być regularnie aktualizowana i skonfigurowana zgodnie z najlepszymi praktykami branżowymi, takimi jak standardy opublikowane przez organizacje takie jak NIST (National Institute of Standards and Technology).

Pytanie 25

Jakie polecenie jest wysyłane do serwera DHCP, aby zwolnić wszystkie adresy przypisane do interfejsów sieciowych?

A. ipconfig /release
B. ipconfig /displaydns
C. ipconfig /renew
D. ipconfig /flushdns
W przypadku odpowiedzi 'ipconfig /renew', użytkownik myli proces zwalniania adresu IP z uzyskiwaniem nowego. To polecenie jest używane do żądania nowego adresu IP od serwera DHCP dla karty sieciowej, która już ma przydzielony adres. Użytkownicy często sądzą, że 'renew' zwalnia adresy, ale w rzeczywistości to polecenie odnawia dzierżawę, co jest przeciwieństwem zamierzenia zwolnienia adresu. Z kolei 'ipconfig /flushdns' jest używane do czyszczenia pamięci podręcznej DNS komputera, a nie do zarządzania adresami IP DHCP. Ta odpowiedź nie ma znaczenia w kontekście zwalniania dzierżawy, ponieważ DNS odnosi się do rozwiązywania nazw, a nie przydzielania adresów IP. Ostatnia odpowiedź, 'ipconfig /displaydns', służy do wyświetlania zawartości pamięci podręcznej DNS, co również nie ma związku z zarządzaniem dzierżawami DHCP. Użytkownicy często mylą funkcje poleceń i nie rozumieją ich specyficznych zastosowań, co prowadzi do błędnych wniosków. Aby skutecznie zarządzać siecią, kluczowe jest zrozumienie różnorodnych poleceń dostępnych w systemie, ich funkcji oraz jak mogą one wpływać na operacje sieciowe. Zachęca się do przestudiowania dokumentacji dotyczącej protokołu DHCP oraz poleceń systemowych, aby uniknąć takich pomyłek w przyszłości.

Pytanie 26

W technologii Ethernet 100Base-TX do przesyłania danych używane są żyły kabla UTP podłączone do pinów:

A. 4,5,6,7
B. 1,2,3,4
C. 1,2,5,6
D. 1,2,3,6
Odpowiedź 1,2,3,6 jest poprawna, ponieważ w standardzie Ethernet 100Base-TX do transmisji danych wykorzystywane są cztery żyły kabla UTP, które są przypisane do odpowiednich pinów w złączu RJ45. W przypadku 100Base-TX, zdefiniowane są następujące pary żył: para A (żyła 1 i 2) oraz para B (żyła 3 i 6). Użycie pary 1-2 do transmisji oraz pary 3-6 do odbioru umożliwia pełnodupleksową transmisję, co oznacza, że dane mogą być przesyłane i odbierane jednocześnie. Standard ten jest zgodny z normą IEEE 802.3u, która definiuje specyfikacje dla różnych prędkości Ethernet, w tym 100 Mbps. W praktyce, zastosowanie 100Base-TX jest szerokie, obejmując sieci lokalne (LAN) w biurach, szkołach oraz innych instytucjach, gdzie wymagana jest stabilna i szybka komunikacja. Przykładem może być podłączenie komputerów do switchów, gdzie każde urządzenie korzysta z odpowiednich pinów w złączach RJ45, co zapewnia optymalną wydajność sieci.

Pytanie 27

W przypadku dysku twardego, w jakiej jednostce wyrażana jest wartość współczynnika MTBF (Mean Time Between Failure)?

A. w dniach
B. w minutach
C. w latach
D. w godzinach
Wartość współczynnika MTBF (Mean Time Between Failure) dla dysków twardych jest podawana w godzinach, co wynika z charakterystyki pracy tych urządzeń. MTBF jest miarą niezawodności, wskazującą na średni czas, jaki można oczekiwać, że dysk twardy będzie działał bezawaryjnie pomiędzy awariami. Przykładowo, jeśli dysk ma MTBF równy 1 000 000 godzin, oznacza to, że w średnim czasie użytkowania, możemy oczekiwać, że dysk wytrzyma długi okres bez uszkodzenia. W praktyce dane te są szczególnie istotne w kontekście centrów danych i przedsiębiorstw, gdzie urządzenia muszą zapewniać wysoką dostępność. Wysoki współczynnik MTBF jest także często wymagany w standardach branżowych, takich jak ISO 9001, które kładą duży nacisk na jakość i niezawodność produktów. Dlatego też zrozumienie i odpowiednie interpretowanie MTBF jest kluczowe dla inżynierów zajmujących się projektowaniem systemów pamięci masowej. Znajomość MTBF pozwala nie tylko na lepsze planowanie konserwacji, lecz także na optymalne zarządzanie ryzykiem związanym z potencjalnymi awariami.

Pytanie 28

Aby utworzyć kontroler domeny w systemach z rodziny Windows Server na serwerze lokalnym, konieczne jest zainstalowanie roli

A. usług domenowej w Active Directory
B. usług zarządzania prawami dostępu w Active Directory
C. usług certyfikatów w Active Directory
D. usług LDS w Active Directory
Usługi domenowe w usłudze Active Directory (AD DS) są kluczowym elementem infrastruktury Windows Server, które umożliwiają tworzenie i zarządzanie domenami, a tym samym kontrolerami domeny. Kontroler domeny jest serwerem, który autoryzuje i uwierzytelnia użytkowników oraz komputery w sieci, a także zarządza politykami zabezpieczeń. Instalacja roli AD DS na serwerze Windows Server pozwala na stworzenie struktury katalogowej, która jest niezbędna do prawidłowego funkcjonowania usług takich jak logowanie do sieci, zarządzanie dostępem do zasobów oraz centralne zarządzanie politykami grupowymi (GPO). Przykładem zastosowania tej roli może być organizacja, która chce wprowadzić jednolite zarządzanie kontami użytkowników i komputerów w wielu lokalizacjach. Dodatkowo, zgodnie z najlepszymi praktykami IT, każda instytucja korzystająca z systemów Windows powinna mieć w swojej architekturze przynajmniej jeden kontroler domeny, aby zapewnić ciągłość działania i bezpieczeństwo operacji sieciowych.

Pytanie 29

Jakie oprogramowanie służy do sprawdzania sterowników w systemie Windows?

A. debug
B. replace
C. sfc
D. verifier
Odpowiedź 'verifier' jest prawidłowa, ponieważ narzędzie to, znane jako Driver Verifier, jest specjalistycznym programem wbudowanym w system operacyjny Windows, który służy do weryfikacji i analizy działania sterowników. Umożliwia ono identyfikację problematycznych sterowników, które mogą powodować niestabilność systemu, błędy BSOD (Blue Screen of Death) oraz inne problemy związane z wydajnością. W praktyce, po uruchomieniu Driver Verifier, system zaczyna monitorować aktywność sterowników i zgłaszać wszelkie naruszenia zasad programowania, takie jak błędy w zarządzaniu pamięcią czy niepoprawne operacje na obiektach. Przykładowo, administratorzy systemów mogą używać tego narzędzia do diagnozowania problemów po aktualizacji sprzętu lub sterowników, a także do testowania nowych sterowników przed ich wdrożeniem w środowisku produkcyjnym. Dobre praktyki w zakresie zarządzania systemem operacyjnym zalecają regularne korzystanie z Driver Verifier jako część procesu wdrażania i utrzymania systemów, aby zapewnić ich stabilność i bezpieczeństwo.

Pytanie 30

Do monitorowania aktywnych połączeń sieciowych w systemie Windows służy polecenie

A. netstat
B. telnet
C. netsh
D. net view
Polecenie netstat to dosyć klasyczne narzędzie w systemie Windows, które pozwala szczegółowo podejrzeć wszystkie aktualne połączenia sieciowe na komputerze. Co ważne, nie tylko wyświetla listę otwartych portów i aktywnych sesji TCP/UDP, ale także pokazuje, do jakich adresów IP oraz portów jesteśmy aktualnie podłączeni. To ogromna pomoc, gdy próbujemy zdiagnozować, co „gada” z naszym komputerem albo sprawdzić, czy nie mamy jakichś podejrzanych połączeń. Moim zdaniem netstat jest jednym z pierwszych narzędzi, po które sięga się podczas troubleshooting’u sieciowego – chociażby gdy chcemy zobaczyć, które procesy nasłuchują na danym porcie (przydatna opcja z przełącznikiem -b lub -o). Warto znać różne przełączniki, bo np. netstat -an daje czytelny wykaz adresów i portów, a netstat -b pokaże, jaki program stoi za połączeniem. Według najlepszych praktyk, regularna analiza wyników netstata pozwala szybciej wykrywać potencjalnie niebezpieczne lub niepożądane połączenia – to podstawowa czynność w bezpieczeństwie systemów. Swoją drogą, nawet doświadczeni administratorzy korzystają z netstata, bo jest szybki, nie wymaga instalacji i daje natychmiastowy podgląd tego, co się dzieje w sieci na danym hoście.

Pytanie 31

Aby zmienić ustawienia rozruchu komputera w systemie Windows 7 przy użyciu wiersza poleceń, jakie polecenie powinno być użyte?

A. config
B. bootcfg
C. bootfix
D. bcdedit
Polecenie 'bootcfg' jest niedostępne w systemie Windows 7, co może prowadzić do mylnego wniosku, że jest odpowiednie do modyfikacji konfiguracji rozruchowej. 'Bootcfg' było używane w starszych wersjach Windows, takich jak Windows XP, ale zostało zastąpione przez 'bcdedit' w późniejszych systemach. Z kolei 'bootfix' nie istnieje jako samodzielne polecenie w systemach Windows, co sugeruje brak zrozumienia dostępnych narzędzi do rozwiązywania problemów z uruchamianiem systemu. Istnieje również ryzyko, że użytkownicy mogą myśleć, że użycie 'config' jest właściwe; jednak 'config' nie odnosi się do operacji związanych z rozruchem, a raczej do modyfikacji plików konfiguracyjnych w różnych kontekstach, ale nie w zakresie startu systemu operacyjnego. Warto zatem pamiętać, że błędne podejście do rozwiązywania problemów z uruchamianiem systemu poprzez niewłaściwe narzędzia może nie tylko nie przynieść oczekiwanych rezultatów, ale także pogorszyć sytuację. Kluczowe jest zrozumienie, jakie narzędzia są właściwe dla danego zadania oraz umiejętność ich zastosowania w praktyce.

Pytanie 32

W systemach operacyjnych Windows konto użytkownika, które ma najwyższe domyślne uprawnienia, należy do grupy

A. użytkownicy zaawansowani
B. operatorzy kopii zapasowych
C. administratorzy
D. goście
Odpowiedź 'administratorzy' jest poprawna, ponieważ konta użytkowników przypisane do grupy administratorów w systemie Windows mają najwyższe uprawnienia domyślne. Administratorzy mogą instalować oprogramowanie, zmieniać ustawienia systemowe oraz zarządzać innymi kontami użytkowników. Z perspektywy praktycznej, administratorzy są odpowiedzialni za zapewnienie bezpieczeństwa systemu, aktualizacje oraz ochronę danych użytkowników. W organizacjach, administratorzy pełnią kluczową rolę w zarządzaniu dostępem do zasobów, co jest zgodne z zasadami minimalnych uprawnień, które zalecają przyznawanie użytkownikom tylko tych praw, które są niezbędne do wykonywania ich zadań. Dobrym przykładem zastosowania tych uprawnień jest konfiguracja serwera, gdzie administratorzy mogą wprowadzać zmiany w ustawieniach bezpieczeństwa, dodawać nowe konta użytkowników oraz nadzorować logi systemowe. W praktyce administracja kontami użytkowników w Windows wymaga znajomości narzędzi, takich jak 'Zarządzanie komputerem', co pozwala na skuteczne i bezpieczne zarządzanie dostępem do zasobów systemowych.

Pytanie 33

W biurowcu należy podłączyć komputer do routera ADSL za pomocą przewodu UTP Cat 5e. Jaka powinna być maksymalna odległość między komputerem a routerem?

A. 50 m
B. 185 m
C. 500 m
D. 100 m
W przypadku odpowiedzi wskazujących na większe odległości, takie jak 185 m, 50 m czy 500 m, warto zwrócić uwagę na techniczne ograniczenia związane z przesyłem sygnału przez przewody UTP. Odpowiedzi te opierają się na błędnych założeniach dotyczących maksymalnych długości kabli oraz pojemności sygnałowej. Na przykład, długość 185 m nie jest zgodna z normami IEEE 802.3, które jasno określają limit do 100 m dla kabli Ethernet w standardzie 1 Gbps. Przekroczenie tych wartości prowadzi do znacznego spadku jakości sygnału, co skutkuje opóźnieniami, utratą pakietów oraz wydłużonym czasem reakcji przy korzystaniu z aplikacji sieciowych. Z kolei 50 m również nie jest optymalne, ponieważ nie wykorzystuje w pełni możliwości, jakie daje kategoria 5e. Ostatecznie, 500 m jest znacznie poza granicami akceptowalnych wartości, co może sugerować brak zrozumienia zasad działania sieci komputerowych. Wiedza na temat limitów długości kabli UTP jest kluczowa dla projektowania wydajnych i niezawodnych systemów sieciowych, a stosowanie się do tych zasad pozwala uniknąć wielu problemów podczas eksploatacji sieci.

Pytanie 34

Poniższy rysunek ilustruje ustawienia zapory ogniowej w ruterze TL-WR340G. Jakie zasady dotyczące konfiguracji zapory zostały zastosowane?

Ilustracja do pytania
A. Zapora jest aktywna, włączone jest filtrowanie adresów IP, reguła filtrowania adresów IP jest ustawiona na opcję "zezwalaj pakietom nieokreślonym jakimikolwiek regułami filtrowania przejść przez urządzenie", filtrowanie domen wyłączone
B. Zapora jest aktywna, filtrowanie adresów IP jest wyłączone, reguła filtrowania adresów IP jest ustawiona na opcję "odmów pakietom nieokreślonym jakimikolwiek regułami filtrowania przejść przez urządzenie", filtrowanie domen włączone
C. Zapora jest dezaktywowana, włączone jest filtrowanie domen oraz wyłączone filtrowanie adresów IP, reguła filtrowania adresów IP jest ustawiona na opcję "zezwalaj pakietom nieokreślonym jakimikolwiek regułami filtrowania przejść przez urządzenie"
D. Zapora jest aktywna, włączone jest filtrowanie adresów IP, reguła filtrowania adresów IP jest ustawiona na opcję "odmów pakietom nieokreślonym jakimikolwiek regułami filtrowania przejść przez urządzenie", filtrowanie domen wyłączone
Prawidłowa odpowiedź wskazuje, że zapora jest włączona, co jest podstawowym krokiem w zabezpieczaniu sieci. Włączenie zapory ogniowej zapewnia monitorowanie i kontrolę nad przychodzącym i wychodzącym ruchem sieciowym, co jest kluczowe dla ochrony przed nieautoryzowanym dostępem. Dodatkowo, włączone filtrowanie adresów IP pozwala administratorom sieci na ustanowienie reguł, które mogą ograniczać dostęp do określonych zasobów w oparciu o adresy IP. Wybór reguły zezwalającej na przepuszczenie pakietów nieokreślonych przez żadne reguły filtrowania jest istotny, gdyż pozwala na elastyczne zarządzanie ruchem sieciowym, unikając niezamierzonych blokad. Wyłączenie filtrowania domen oznacza, że nie ma ograniczeń co do dostępu do sieci na podstawie nazw domen, co może być przydatne w środowiskach, gdzie konieczna jest swoboda dostępu do różnych zasobów internetowych. W praktyce taka konfiguracja może być stosowana w małych biurach, gdzie elastyczność i bezpieczeństwo muszą iść w parze ze względną prostotą zarządzania siecią. Stosowanie się do standardów przemysłowych, takich jak ISO/IEC 27001, wymaga implementacji odpowiednich środków zabezpieczających, a zapora ogniowa jest jednym z podstawowych elementów tych środków.

Pytanie 35

Na podstawie danych z "Właściwości systemu" można stwierdzić, że na komputerze zainstalowano fizycznie pamięć RAM o pojemności

Komputer:
Intel(R) Pentium
(R)4 CPU 1.8GHz
AT/XT Compatible
523 760 kB RAM
A. 128 MB
B. 512 MB
C. 256 MB
D. 523 MB
Wybierając nieprawidłową odpowiedź, można wpaść w pułapkę niepoprawnego zrozumienia jednostek pamięci. Właściwości systemowe podają ilość pamięci RAM w kilobajtach, a konwersja na megabajty wymaga podzielenia przez 1024. Z tego wynika, że 523 760 kilobajtów to w przybliżeniu 511,25 megabajtów, co zaokrąglamy do 512 MB. Częsty błąd to nieuwzględnienie zaokragleń stosowanych przez producentów. Inne podane wartości, takie jak 256 MB lub 128 MB, są znacznie niższe i nie odpowiadają rzeczywistej ilości pamięci wskazanej przez system. Wybór 523 MB jako odpowiedzi błędnej wynika z nieporozumienia, ponieważ właściwa konwersja wskazuje na 512 MB. W sektorze IT zrozumienie różnic w jednostkach oraz ich przeliczania jest kluczowe dla dokładnej diagnozy i rozbudowy sprzętu komputerowego. Znajomość poprawnych technik przeliczania oraz świadomość standardów branżowych pomagają unikać błędnych decyzji podczas pracy z systemami komputerowymi, co jest szczególnie ważne w kontekście wydajności i optymalizacji zasobów sprzętowych.

Pytanie 36

Do pokazanej na diagramie płyty głównej nie można podłączyć urządzenia, które korzysta z interfejsu

Ilustracja do pytania
A. PCI
B. AGP
C. SATA
D. IDE
Złącze IDE to starszy interfejs do podłączania dysków twardych i napędów optycznych, choć niektóre płyty główne wciąż je mają, żeby działały ze starszym sprzętem. Mimo że nie jest to już standard, to jego obecność na płycie głównej nie jest błędem, bo może przydać się do użycia starszych urządzeń. Z kolei złącze PCI (Peripheral Component Interconnect) to taki uniwersalny port do różnych kart rozszerzeń, jak karty dźwiękowe czy sieciowe. Jego obecność na płycie jest jak najbardziej na miejscu, bo pozwala na elastyczne dopasowanie komputera do potrzeb użytkownika. Złącze SATA (Serial Advanced Technology Attachment) to nowoczesny standard do dysków twardych oraz SSD i optycznych. Przewyższa IDE pod względem przepustowości i małych kabli, co świetnie usprawnia zarządzanie w obudowie. Warto więc wybierać odpowiedni interfejs, mając na uwadze wymagania sprzętowe, żeby uzyskać jak najlepszą wydajność, a więc SATA to dobry wybór w nowoczesnych konstrukcjach. Często zdarza się, że ludzie mylą się i myślą, że jakieś interfejsy nie mogą być na płycie, co wynika z braku wiedzy na temat standardów, a to prowadzi do błędnych wniosków o kompatybilności sprzętowej. Powinno się zawsze sprawdzić specyfikację płyty głównej, żeby wiedzieć, jakie ma możliwości i ograniczenia, bo to pomoże w optymalnym wykorzystaniu zasobów podczas budowy komputerów.

Pytanie 37

Jakie polecenie wykorzystano do analizy zaprezentowanej konfiguracji interfejsów sieciowych w systemie Linux?

enp0s25   Link encap:Ethernet  HWaddr a0:b3:cc:28:8f:37
          UP BROADCAST MULTICAST  MTU:1500  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)
          Interrupt:20 Memory:d4700000-d4720000

lo        Link encap:Local Loopback
          inet addr:127.0.0.1  Mask:255.0.0.0
          inet6 addr: ::1/128 Scope:Host
          UP LOOPBACK RUNNING  MTU:65536  Metric:1
          RX packets:172 errors:0 dropped:0 overruns:0 frame:0
          TX packets:172 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:13728 (13.7 KB)  TX bytes:13728 (13.7 KB)

wlo1      Link encap:Ethernet  HWaddr 60:67:20:3f:91:22
          inet addr:192.168.1.11  Bcast:192.168.1.255  Mask:255.255.255.0
          inet6 addr: fe80::dcf3:c20b:57f7:21b4/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:7953 errors:0 dropped:0 overruns:0 frame:0
          TX packets:4908 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:9012314 (9.0 MB)  TX bytes:501345 (501.3 KB)
A. ip addr down
B. ping
C. ifconfig
D. ip route
Polecenie ping, choć użyteczne do diagnozowania łączności sieciowej, nie służy do wyświetlania konfiguracji interfejsów sieciowych. Ping jest narzędziem do testowania dostępności hosta w sieci poprzez wysyłanie pakietów ICMP Echo Request i oczekiwanie na odpowiedź, co czyni je idealnym narzędziem do sprawdzania, czy dany adres IP jest osiągalny. Z kolei polecenie ip route jest używane do wyświetlania i modyfikowania tabel routingu w systemie. Działa w oparciu o narzędzie ip z pakietu iproute2 i pozwala na zarządzanie trasami sieciowymi, co jest kluczowe do rozwiązywania problemów z routingiem w sieci, ale nie dostarcza informacji o konfiguracji interfejsów jako takich. Natomiast ip addr down to polecenie używane do wyłączania określonego interfejsu sieciowego, co jest przydatne w kontekście zarządzania dostępnością interfejsów, lecz nie wyświetla jego bieżącej konfiguracji. Błędne zrozumienie funkcji tych poleceń może prowadzić do nieprawidłowej diagnozy problemów sieciowych lub błędów w zarządzaniu siecią. Zrozumienie różnicy między narzędziami do diagnozowania problemów z połączeniem a tymi służącymi do zarządzania konfiguracją interfejsów jest kluczowe w profesjonalnym administrowaniu sieciami.

Pytanie 38

Na płycie głównej wyposażonej w gniazdo przedstawione na zdjęciu można zainstalować procesor

Ilustracja do pytania
A. Intel Xeon E3-1240V5, 3.9GHz, s-1151
B. AMD Sempron 2800+, 1600 MHz, s-754
C. AMD FX-6300, s-AM3+, 3.5GHz, 14MB
D. Intel i9-7940X, s-2066 3.10GHz 19.25MB
Analizując możliwe odpowiedzi, łatwo zauważyć, że tylko jeden z wymienionych procesorów faktycznie pasuje do gniazda AM3+, które widać na zdjęciu. Wybór procesora Intel i9-7940X czy Intel Xeon E3-1240V5 to klasyczny błąd polegający na nieuwzględnieniu różnic pomiędzy standardami gniazd stosowanymi przez Intela i AMD. Gniazda LGA (np. s-2066 albo s-1151) nie są kompatybilne z procesorami AMD i odwrotnie, bo zarówno rozkład pinów, jak i mechanizm montażowy zupełnie się różnią. Te dwa procesory Intela wymagają zupełnie innych płyt głównych, opartych na dedykowanych chipsetach i specyficznych dla Intela standardach. Również wybór AMD Sempron 2800+ jest nietrafiony – mimo że to procesor AMD, to jego socket (s-754) znacząco różni się od AM3+. W praktyce często widzę, że mylone są różne generacje i typy socketów AMD przez wzgląd na pewne podobieństwo nazewnictwa (AM2, AM2+, AM3, AM3+), ale między nimi są istotne różnice, np. w liczbie i układzie pinów oraz wsparciu dla różnych typów pamięci RAM. Warto pamiętać, żeby przy doborze CPU do płyty głównej zawsze dokładnie sprawdzać nie tylko fizyczną zgodność socketu, lecz także wersję BIOS-u i listę wspieranych modeli. Takie błędy wynikają najczęściej z pośpiechu lub nieuwagi, ale w branży IT precyzja jest podstawą. Porównując praktycznie, zamontowanie niekompatybilnego procesora zwykle kończy się brakiem reakcji płyty przy starcie lub, w najgorszym razie, uszkodzeniem pinów bądź samego CPU – i to już nie są tanie pomyłki. Dlatego zawsze warto korzystać z oficjalnych list kompatybilności udostępnianych przez producentów płyt głównych.

Pytanie 39

Administrator sieci komputerowej z adresem 192.168.1.0/24 podzielił ją na 8 równych podsieci. Ile adresów hostów będzie dostępnych w każdej z nich?

A. 30
B. 26
C. 32
D. 28

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź 30 jest poprawna, ponieważ przy podziale sieci o adresie 192.168.1.0/24 na 8 równych podsieci, musimy najpierw obliczyć, ile bitów jest potrzebnych do reprezentacji 8 podsieci. Używając wzoru 2^n, gdzie n to liczba bitów, odkrywamy, że 2^3 = 8, co oznacza, że potrzebujemy 3 bitów. Zmieniając maskę sieci, pierwotna maska /24 staje się /27 (24 + 3 = 27). Oznacza to, że w każdej podsieci dostępne będą 32 adresy (2^(32-27)=32), z czego dwa adresy są zarezerwowane: jeden dla adresu sieci, a drugi dla adresu rozgłoszeniowego. Pozostaje zatem 32 - 2 = 30 możliwych adresów hostów w każdej z 8 podsieci. Ta wiedza jest kluczowa w administracji sieci, gdzie efektywne zarządzanie adresacją IP pozwala na lepsze wykorzystanie zasobów sieciowych oraz ich skalowalność.

Pytanie 40

Aby uzyskać największą prędkość przepływu danych w przypadku, gdy domowy ruter pracuje w paśmie częstotliwości 5 GHz, do notebooka powinno się zamontować bezprzewodową kartę sieciową pracującą w standardzie

A. 802.11a
B. 802.11n
C. 802.11b
D. 802.11g

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Standard 802.11n to obecnie (choć już nie najnowszy) bardzo popularny wybór do domowych sieci Wi-Fi, szczególnie jeśli zależy nam na wysokiej prędkości transferu i stabilnym połączeniu w paśmie 5 GHz. Co ciekawe, 802.11n pozwala na pracę zarówno w paśmie 2,4 GHz, jak i 5 GHz, ale to właśnie to drugie zazwyczaj oferuje mniejsze zakłócenia i większą wydajność. W praktyce, dobre routery i karty sieciowe w tym standardzie potrafią wyciągnąć prędkości nawet powyżej 300 Mb/s, oczywiście przy odpowiedniej konfiguracji (np. szerokości kanału 40 MHz i kilku antenach – MIMO). Sam często widzę, że stare laptopy po dołożeniu karty 802.11n zaczynają działać zdecydowanie szybciej, szczególnie przy dużym obciążeniu sieci (np. podczas oglądania filmów Full HD online albo kopiowania większych plików w sieci lokalnej). W branży IT już od dawna 802.11n jest uważany za taki złoty środek między dostępnością cenową a całkiem solidną wydajnością. Oczywiście są już szybsze standardy, jak 802.11ac czy nawet 802.11ax, ale do typowego użytku domowego 802.11n spokojnie wystarcza i współpracuje z większością obecnych routerów. Moim zdaniem, jeśli ktoś ma router pracujący na 5 GHz, a jego laptop jeszcze działa na starszym standardzie, to wymiana karty na 802.11n to naprawdę dobry krok. Dodatkowo, obsługa 5 GHz pozwala uniknąć sąsiadujących zakłóceń, na które pasmo 2,4 GHz jest bardzo podatne.