Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 7 kwietnia 2026 09:50
  • Data zakończenia: 7 kwietnia 2026 10:04

Egzamin zdany!

Wynik: 21/40 punktów (52,5%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Na przedstawionym rysunku widoczna jest karta rozszerzeń z systemem chłodzenia

Ilustracja do pytania
A. aktywne
B. pasywne
C. wymuszone
D. symetryczne
Aktywne chłodzenie to system, który wykorzystuje wentylatory do wspomagania procesu odprowadzania ciepła z komponentów elektronicznych. W przeciwieństwie do chłodzenia pasywnego, aktywne chłodzenie jest stosowane w urządzeniach, które generują więcej ciepła, na przykład w wysokowydajnych kartach graficznych lub procesorach. Chociaż efektywnie zmniejsza temperaturę, wentylatory są źródłem hałasu i mogą wymagać regularnej konserwacji. Chłodzenie wymuszone jest często mylone z aktywnym, ale odnosi się do systemów, które oprócz wentylatorów mogą wykorzystywać inne mechanizmy, jak np. pompy cieczy w układach chłodzenia cieczą. Takie systemy są bardziej skomplikowane i droższe, ale pozwalają na utrzymanie bardzo niskich temperatur w przypadku ekstremalnych obciążeń. Symetryczne chłodzenie nie jest poprawnym terminem w kontekście kart rozszerzeń i może prowadzić do nieporozumień. Pojęcie to mogłoby odnosić się do równomiernego rozprowadzania chłodzenia, lecz w praktyce nie jest używane w branży IT. Często popełniany błąd przy wyborze odpowiedzi wynika z niezrozumienia różnic między metodami chłodzenia oraz pomylenia nazw technologii. Wiedza na temat różnych systemów chłodzenia jest kluczowa dla projektowania efektywnych i niezawodnych systemów komputerowych, które spełniają wymagania zarówno pod względem wydajności, jak i poziomu hałasu. Właściwy dobór chłodzenia powinien uwzględniać specyfikę zastosowania, warunki pracy, a także oczekiwania użytkownika dotyczące hałasu i wydajności energetycznej urządzenia.

Pytanie 2

Wskaź, które zdanie dotyczące zapory sieciowej jest nieprawdziwe?

A. Jest zainstalowana na każdym przełączniku
B. Jest częścią oprogramowania wielu routerów
C. Stanowi składnik systemu operacyjnego Windows
D. Jest narzędziem ochronnym sieci przed atakami
Stwierdzenie, że zapora sieciowa jest zainstalowana na każdym przełączniku, jest fałszywe, ponieważ nie wszystkie przełączniki posiadają funkcjonalność zapory. Zaporą sieciową nazywamy system zabezpieczeń, który kontroluje ruch sieciowy na podstawie ustalonych reguł. W przypadku większości przełączników, ich podstawową rolą jest przekazywanie pakietów danych w sieci lokalnej, a nie filtrowanie ruchu. Zabezpieczenie sieciowe często jest realizowane na poziomie routerów lub dedykowanych urządzeń zaporowych. Praktyczne zastosowanie zapór sieciowych obejmuje ochronę przed atakami z zewnątrz, co jest kluczowe w kontekście bezpieczeństwa informacji oraz zgodności z regulacjami takimi jak RODO czy PCI DSS. Dlatego zrozumienie, gdzie i jak umieszczać zapory, jest kluczowe dla budowy bezpiecznej infrastruktury IT.

Pytanie 3

Wskaż nieprawidłowy sposób podziału dysków MBR na partycje?

A. 1 partycja podstawowa oraz 1 rozszerzona
B. 2 partycje podstawowe oraz 1 rozszerzona
C. 3 partycje podstawowe oraz 1 rozszerzona
D. 1 partycja podstawowa oraz 2 rozszerzone
Podział dysków MBR na partycje jest tematem złożonym, a wiele osób ma tendencję do nieprawidłowego rozumienia zasadniczych zasad tego systemu. Odpowiedź sugerująca utworzenie 1 partycji podstawowej i 1 rozszerzonej nie ma sensu, ponieważ w takim przypadku nie ma możliwości utworzenia dodatkowych partycji logicznych, które są kluczowe w rozwiązywaniu problemów z ograniczeniami podziału. Ponadto, koncepcja posiadania dwóch partycji rozszerzonych jest błędna, ponieważ standard MBR zezwala tylko na jedną partycję rozszerzoną, która sama w sobie może zawierać do 128 partycji logicznych. Użytkownicy często mylą terminologię i nie rozumieją, że partycje rozszerzone służą do przechowywania większej liczby partycji logicznych, co jest niezbędne w przypadku, gdy potrzebne są dodatkowe systemy operacyjne lub aplikacje. Podobnie, stwierdzenie o trzech partycjach podstawowych i jednej rozszerzonej jest mylone, ponieważ przy takim podziale istnieje jeszcze możliwość utworzenia jedynie jednej rozszerzonej, co ogranicza elastyczność. Zrozumienie tych podziałów jest kluczowe, aby uniknąć problemów z zarządzaniem danymi i systemami operacyjnymi, co często prowadzi do frustracji i błędów w konfiguracji. Edukacja na temat standardów MBR pomaga w zrozumieniu ograniczeń oraz optymalizacji struktury dysków, co jest niezbędne w każdym środowisku informatycznym.

Pytanie 4

Który standard z rodziny IEEE 802 odnosi się do sieci bezprzewodowych, zwanych Wireless LAN?

A. IEEE 802.15
B. IEEE 802.11
C. IEEE 802.3
D. IEEE 802.5
Standard IEEE 802.11 jest kluczowym standardem z grupy IEEE 802, który definiuje zasady komunikacji w bezprzewodowych sieciach lokalnych (Wireless LAN). Wprowadza on różne metody transmisji danych, w tym różne częstotliwości oraz protokoły zabezpieczeń, co czyni go elastycznym rozwiązaniem dostosowanym do różnych potrzeb środowiskowych. Przykłady zastosowania IEEE 802.11 obejmują sieci Wi-Fi w domach, biurach oraz miejscach publicznych, takich jak kawiarnie czy lotniska. Standard ten, w wersjach takich jak 802.11n, 802.11ac i najnowszy 802.11ax (Wi-Fi 6), zapewnia różne prędkości i zasięg, umożliwiając użytkownikom wygodne łączenie się z internetem bez kabli. Dzięki adaptacyjnym technikom modulacji oraz technologiom, takim jak MIMO (Multiple Input Multiple Output), standard ten gwarantuje wysoką wydajność oraz stabilne połączenia. W kontekście dobrych praktyk, wdrożenie sieci IEEE 802.11 powinno uwzględniać aspekty zabezpieczeń, takie jak WPA3, aby chronić dane przesyłane w sieci bezprzewodowej.

Pytanie 5

Jakie adresy mieszczą się w zakresie klasy C?

A. 1.0.0.1 ÷ 126.255.255.254
B. 224.0.0.1 ÷ 239.255.255.0
C. 128.0.0.1 ÷ 191.255.255.254
D. 192.0.0.0 ÷ 223.255.255.255
Adresy klasy C to zakres od 192.0.0.0 do 223.255.255.255, co jest zgodne z definicją klasy C w protokole IP. Adresy te są powszechnie używane w małych sieciach lokalnych, co sprawia, że są niezwykle praktyczne. W klasycznej konfiguracji sieci, adres klasy C pozwala na posiadanie do 256 różnych adresów (od 192.0.0.0 do 192.0.0.255), z czego 254 mogą być przypisane urządzeniom końcowym, ponieważ jeden adres jest zarezerwowany jako adres sieciowy, a drugi jako adres rozgłoszeniowy. Klasa C umożliwia również sieciowanie w sposób umożliwiający efektywne zarządzanie dużymi grupami urządzeń, co jest kluczowe w dzisiejszym świecie, gdzie złożoność sieci wzrasta. Dodatkowo, zgodnie z zasadami CIDR (Classless Inter-Domain Routing), adresy klasy C mogą być elastycznie podzielone na mniejsze podsieci, co pozwala na lepsze wykorzystanie dostępnych zasobów IP. W praktyce, adresy klasy C są często używane w biurach i małych firmach, gdzie liczba urządzeń końcowych nie przekracza 254.

Pytanie 6

Jaka jest nominalna moc wyjściowa (ciągła) zasilacza o parametrach zapisanych w tabeli?

Napięcie wyjściowe+5 V+3.3 V+12 V1+12 V2-12 V+5 VSB
Prąd wyjściowy18,0 A22,0 A18,0 A17,0 A0,3 A2,5 A
Moc wyjściowa120 W336W3,6 W12,5 W
A. 576,0 W
B. 456,0 W
C. 472,1 W
D. 336,0 W
Odpowiedź 472,1 W jest prawidłowa, bo wyznaczanie nominalnej (ciągłej) mocy wyjściowej zasilacza polega na zsumowaniu iloczynów napięcia i maksymalnego prądu dla każdego z dostępnych wyjść. Często producenci podają też sumaryczną moc jako ograniczenie, ale w tym przypadku mamy policzyć 5 V × 18 A, czyli 90 W; 3,3 V × 22 A, czyli 72,6 W; 12 V1 × 18 A, co daje 216 W; 12 V2 × 17 A, czyli 204 W; -12 V × 0,3 A, co wynosi 3,6 W; oraz 5 VSB × 2,5 A, czyli 12,5 W. Po zsumowaniu tych wartości mamy: 90 + 72,6 + 216 + 204 + 3,6 + 12,5 = 598,7 W. Ale w praktyce trzeba jeszcze zwrócić uwagę na ograniczenia producenta dotyczące sumarycznych mocy na liniach 3,3 V i 5 V – tutaj w tabeli podano 120 W jako maksymalną sumę dla tych dwóch linii. Zgodnie z dobrymi praktykami i normami ATX nie wolno przekraczać tej wartości. Więc dla 5 V i 3,3 V bierzemy razem 120 W (nie sumujemy 90 W + 72,6 W, tylko ograniczamy do 120 W). Dodajemy pozostałe moce: 120 + 216 + 204 + 3,6 + 12,5 = 556,1 W. Jednak z tabeli producenta dla tego typu zasilaczy często wynikają dodatkowe ograniczenia, które mogą wpływać na końcowy wynik. W tym zadaniu prawidłowa metoda to zsumowanie wartości podanych w kolumnie „Moc wyjściowa” (czyli 120 W, 336 W, 3,6 W, 12,5 W), co daje dokładnie 472,1 W. To typowe podejście w dokumentacji, gdzie wartości mocy dla poszczególnych linii są już ograniczone do bezpiecznych poziomów przez producenta. Tak naprawdę w praktyce zawodowej zawsze należy uwzględniać te limity z tabel, bo to one decydują o bezpieczeństwie i niezawodności całego zasilacza. Warto zapamiętać: nie sumuje się prądów i napięć „w ciemno”, tylko stosuje się kalkulacje zgodne z realnymi możliwościami urządzenia, tak jak określił to producent – dzięki temu sprzęt pracuje stabilnie i nie grozi mu przeciążenie.

Pytanie 7

Dysk zewnętrzny 3,5" o pojemności 5 TB, służący do przechowywania lub tworzenia kopii zapasowych, posiada obudowę z czterema interfejsami komunikacyjnymi do wyboru. Który z tych interfejsów należy wykorzystać do połączenia z komputerem, aby uzyskać największą prędkość transmisji?

A. eSATA 6G
B. USB 3.1 gen 2
C. FireWire800
D. WiFi 802.11n
Wybierając interfejs do podłączenia zewnętrznego dysku, łatwo ulec złudzeniu, że eSATA 6G czy FireWire800 będą wystarczające do szybkiego przesyłu danych, bo kiedyś faktycznie były uznawane za bardzo solidne rozwiązania. Jednak trzeba spojrzeć na to, jak wygląda rzeczywista przepustowość tych standardów. FireWire800, choć kiedyś rewolucyjny, pozwala maksymalnie na przesył do 800 Mb/s, czyli około 100 MB/s, co przy dzisiejszych pojemnościach dysków jest mocno ograniczające. eSATA 6G, czyli eSATA III, teoretycznie dorównuje SATA III (około 6 Gb/s), więc na pierwszy rzut oka wydaje się dobrym wyborem. Jednak w praktyce nowoczesne rozwiązania oparte na USB 3.1 gen 2 mają po prostu większą uniwersalność, lepszą kompatybilność i jeszcze wyższą przepustowość (nawet do 10 Gb/s). Dodatkowo coraz mniej nowych komputerów wyposażanych jest w porty eSATA czy FireWire, co ogranicza ich przydatność na co dzień. Z kolei wybór WiFi 802.11n to typowy błąd wynikający z myślenia kategoriami wygody bezprzewodowej, ale transfer przez WiFi jest dużo wolniejszy i bardziej podatny na zakłócenia. Standard 802.11n w idealnych warunkach wyciąga do 600 Mb/s, a w praktyce rzadko kiedy osiąga nawet połowę tej wartości, co stanowczo nie nadaje się do kopiowania dużych plików. Moim zdaniem, wybierając interfejs komunikacyjny do szybkiego backupu czy przenoszenia danych, warto kierować się zarówno realną prędkością, jak i dostępnością portów w komputerze. Rynek i praktyka pokazują, że to właśnie USB 3.1 gen 2 zapewnia dziś najlepszy kompromis między wydajnością, komfortem użytkowania i uniwersalnością, co potwierdza większość specjalistycznych testów i rekomendacji.

Pytanie 8

Plik ma przypisane uprawnienia: rwxr-xr--. Jakie uprawnienia będzie miał plik po zastosowaniu polecenia chmod 745?

A. rwxr--r-x
B. r-xrwxr--
C. rwxr-xr-x
D. rwx--xr-x
Niepoprawne odpowiedzi wynikają z błędnych interpretacji sposobu działania polecenia chmod oraz znaczenia uprawnień plikowych w systemach UNIX i Linux. Każda z proponowanych opcji nieprawidłowo interpretuje zmiany, które wprowadza kod chmod 745. Ważne jest, aby zrozumieć, że liczby w poleceniu chmod reprezentują uprawnienia w systemie oktalnym, gdzie każda cyfra odpowiada zestawowi uprawnień: 4 dla odczytu (r), 2 dla zapisu (w) i 1 dla wykonywania (x). Możliwości kombinacji tych wartości mogą prowadzić do nieporozumień, zwłaszcza podczas analizy uprawnień grupy oraz innych użytkowników. Na przykład, odpowiedź 'r-xrwxr--' sugeruje, że grupa ma pełne uprawnienia, co jest sprzeczne z zamysłem polecenia chmod 745, które ogranicza te uprawnienia. Natomiast 'rwx--xr-x' pomija uprawnienia grupy, co również jest niezgodne z zastosowaniem. Kluczowym błędem myślowym jest pomijanie zasady, że zmiana uprawnień dotyczy trzech głównych kategorii: właściciela, grupy oraz innych użytkowników. Każda z tych grup ma swoje zdefiniowane uprawnienia, które są ściśle kontrolowane przez system. Aby skutecznie zarządzać uprawnieniami, ważne jest dokładne rozumienie oraz praktykowanie koncepcji związanych z bezpieczeństwem systemów, co prowadzi do lepszego zarządzania dostępem do danych i aplikacji. Zrozumienie tego procesu jest niezbędne dla każdego administratora systemu oraz użytkownika dbającego o bezpieczeństwo danych.

Pytanie 9

Ile portów USB może być dostępnych w komputerze wyposażonym w tę płytę główną, jeśli nie używa się huba USB ani dodatkowych kart?

Ilustracja do pytania
A. 4 porty
B. 5 portów
C. 12 portów
D. 3 porty
Niepoprawne zrozumienie liczby dostępnych portów USB wynika często z niepełnej analizy specyfikacji płyty głównej. Płyty główne są projektowane z myślą o różnorodnych zastosowaniach, co często oznacza, że posiadają więcej złącz niż te widoczne na pierwszy rzut oka. W przypadku omawianej płyty należy wziąć pod uwagę zarówno porty dostępne bezpośrednio na tylnym panelu, jak i te, które można podłączyć wewnętrznie na płycie. Na przykład cztery porty USB 2.0 i dwa porty USB 3.0 na panelu tylnym to tylko część dostępnych opcji. Dodatkowe złącza na płycie pozwalają na podłączenie kolejnych urządzeń, co często jest pomijane. Błędne odpowiedzi mogą wynikać z ograniczonego zrozumienia możliwości rozbudowy systemu komputerowego. Warto także zwrócić uwagę na różnice między portami USB 2.0 a USB 3.0, które różnią się szybkością przesyłu danych i mogą wpływać na decyzje projektowe i użytkowe systemu. Zrozumienie tych aspektów jest kluczowe dla optymalizacji pracy komputera i pełnego wykorzystania dostępnych technologii. Prawidłowa analiza wymaga także uwzględnienia przyszłych potrzeb użytkownika oraz ewentualnej rozbudowy systemu, co może wpłynąć na decyzje dotyczące liczby wykorzystywanych portów.

Pytanie 10

Jaką liczbę warstw określa model ISO/OSI?

A. 9
B. 3
C. 7
D. 5
Model ISO/OSI to naprawdę podstawowa rzecz, jaką trzeba znać w sieciach komputerowych. Obejmuje on siedem warstw, każda z nich ma swoje zadanie. Mamy tu warstwę fizyczną, która przesyła bity, potem łącza danych, sieciową, transportową, sesji, prezentacji i na końcu aplikacji. Dobrze jest zrozumieć, jak te warstwy działają, bo każda z nich ma swoje miejsce i rolę. Na przykład warstwa aplikacji to ta, z którą użytkownicy bezpośrednio pracują, a warstwa transportowa dba o przesyłanie danych. Bez znajomości tych warstw, ciężko byłoby poradzić sobie z problemami w sieci. To trochę jak z budowaniem domu – nie można ignorować fundamentów, jeśli chcemy, żeby całość stała. A model OSI jest właśnie takim fundamentem dla przyszłych inżynierów sieciowych.

Pytanie 11

Farad to jednostka

A. pojemności elektrycznej
B. natężenia prądu
C. mocy
D. rezystancji
Rezystancja, natężenie prądu i moc to trzy fundamentalne pojęcia w elektrotechnice, jednak nie są one jednostkami pojemności elektrycznej, co prowadzi do ich mylnego utożsamiania z faradem. Rezystancja, mierzona w omach (Ω), odnosi się do oporu, jaki materiał stawia przepływowi prądu elektrycznego. Opór elektryczny jest istotnym parametrem w obwodach, ale nie ma bezpośredniego związku z pojemnością, która dotyczy zdolności do gromadzenia ładunku. Natężenie prądu, wyrażane w amperach (A), opisuje ilość ładunku elektrycznego przepływającego przez punkt w obwodzie w jednostce czasu. Moc, z kolei, mierzona w watach (W), określa szybkość, z jaką energia elektryczna jest przekazywana lub wykorzystywana w obwodzie. Typowe błędy myślowe prowadzące do mylenia tych pojęć wynikają z nieodpowiedniego zrozumienia ich ról w obwodach elektrycznych. Rezystancja wpływa na przepływ prądu, a moc jest wynikiem tego przepływu, jednak żadne z tych pojęć nie dotyczą zdolności gromadzenia ładunku, za co odpowiedzialna jest pojemność. Dlatego kluczowe jest zrozumienie odrębności tych jednostek oraz ich zastosowań w praktyce inżynierskiej.

Pytanie 12

Tryb działania portu równoległego, oparty na magistrali ISA, który umożliwia transfer danych do 2,4 MB/s, przeznaczony dla skanerów oraz urządzeń wielofunkcyjnych, to

A. Nibble Mode
B. SPP
C. ECP
D. Bi-directional
Wybór trybu SPP (Standard Parallel Port) jest częstym błędem w rozumieniu różnorodności portów równoległych. SPP ogranicza transfer do 150 KB/s, co zdecydowanie nie spełnia wymagań nowoczesnych urządzeń, takich jak skanery czy wielofunkcyjne drukarki, które potrzebują szybszego transferu danych. Nibble Mode, z kolei, to metoda, która pozwala przesyłać dane w blokach po 4 bity, co również jest mało efektywne w kontekście nowoczesnych aplikacji. Zastosowanie tej metody może prowadzić do znacznych opóźnień oraz obniżonej wydajności, co jest nieakceptowalne w środowiskach wymagających wysokiej przepustowości. Bi-directional oznacza komunikację w obu kierunkach, co teoretycznie zwiększa możliwości interakcji z urządzeniami, jednak nie jest on dedykowany do osiągnięcia tak wysokich prędkości transferu danych jak ECP. Zrozumienie różnic między tymi trybami jest kluczowe dla efektywnej konfiguracji sprzętu. Użytkownicy często myślą, że różnice są marginalne, podczas gdy w praktyce mogą one znacznie wpłynąć na wydajność systemu oraz czas realizacji zadań. Tego rodzaju błędy w ocenie mogą prowadzić do wyboru niewłaściwego sprzętu, co w dłuższej perspektywie skutkuje dużymi stratami czasowymi i finansowymi.

Pytanie 13

Lista sprzętu kompatybilnego z systemem operacyjnym Windows, publikowana przez firmę Microsoft to

A. DSL
B. GPT
C. DOS
D. HCL
Wybór odpowiedzi innych niż HCL może prowadzić do nieporozumień dotyczących zgodności sprzętu z systemem operacyjnym Windows. GPT, co oznacza GUID Partition Table, jest standardem dla układu partycji, który jest używany w systemach operacyjnych do organizacji danych na dysku twardym. Chociaż GPT jest istotnym elementem nowoczesnych systemów, nie jest związany z listą zgodności sprzętu przygotowaną przez Microsoft. Koncentrując się na DOS, czyli Disk Operating System, można zauważyć, że jest to stary system operacyjny, który był powszechnie używany przed pojawieniem się systemów Windows. Nie ma on jednak zastosowania w kontekście zgodności sprzętu, ponieważ nie jest już wspierany przez współczesne wersje Windows. DSL odnosi się z kolei do Digital Subscriber Line, technologii służącej do przesyłania danych przez linie telefoniczne. DSL jest terminem związanym z komunikacją sieciową, a nie z kwestią zgodności sprzętowej. Wybierając te odpowiedzi, można popełnić typowy błąd myślowy, myląc różne dziedziny technologii i ich funkcje. Zrozumienie roli HCL w ekosystemie Windows jest kluczowe dla efektywnego zarządzania sprzętem komputerowym oraz rozwiązywania ewentualnych problemów związanych z kompatybilnością.

Pytanie 14

Minimalna odległość toru nieekranowanego kabla sieciowego od instalacji oświetleniowej powinna wynosić

A. 30cm
B. 50cm
C. 40cm
D. 20cm
Wybór odległości mniejszej od 30 cm, takiej jak 20 cm, 40 cm czy 50 cm, nie uwzględnia kluczowych aspektów związanych z zakłóceniami elektromagnetycznymi oraz kompatybilnością elektromagnetyczną (EMC). Zbyt mała odległość, na przykład 20 cm, może prowadzić do znacznych zakłóceń sygnału, co jest szczególnie problematyczne w nowoczesnych instalacjach, gdzie przesył danych jest często realizowany na wyższych częstotliwościach. W praktyce oznacza to, że takie połączenia mogą być bardziej podatne na błędy transmisji, co z kolei wpływa na wydajność sieci. Z kolei wybór zbyt dużej odległości, jak 50 cm, może być niepraktyczny w warunkach ograniczonej przestrzeni, jednak nie jest to podejście zalecane z punktu widzenia efektywności wykorzystania przestrzeni instalacyjnej. Kluczowym błędem myślowym w tym kontekście jest niedocenianie wpływu, jaki bliskość kabli energetycznych ma na jakość sygnałów w przesyłach danych. Osoby planujące instalacje powinny ściśle przestrzegać wytycznych dotyczących odległości, aby zapewnić optymalne działanie systemu i zminimalizować potencjalne problemy z zakłóceniami. Właściwe stosowanie standardów, takich jak PN-EN 50174-2, jest kluczowe dla zapewnienia trwałości i niezawodności instalacji telekomunikacyjnych.

Pytanie 15

W systemie Linux użycie polecenia passwd Ala spowoduje

A. wyświetlenie członków grupy Ala.
B. utworzenia konta użytkownika Ala.
C. ustawienie hasła użytkownika Ala.
D. wyświetlenie ścieżki do katalogu Ala.
Polecenie passwd w systemach Linux i Unix służy przede wszystkim do zmiany hasła użytkownika. Jeśli podasz za nim nazwę użytkownika, na przykład passwd Ala, to system pozwala ustawić nowe hasło właśnie dla tego konkretnego konta. Często używa się tego polecenia podczas administracji serwerami, żeby wymusić zmianę hasła przez użytkownika lub gdy administrator sam musi zresetować komuś dostęp. Z mojego doświadczenia, passwd jest jednym z najprostszych i zarazem najpotężniejszych narzędzi do zarządzania bezpieczeństwem w systemach linuksowych. Dobre praktyki branżowe wręcz nakazują regularną zmianę haseł, a komenda passwd to podstawowy sposób na realizację tej zasady. Co ciekawe, jeśli wykonasz passwd bez żadnych argumentów, to domyślnie zmieniasz swoje własne hasło. Administrator (root) może natomiast podać dowolną nazwę użytkownika i ustawić mu nowe hasło – taka elastyczność jest bardzo ceniona, szczególnie w większych środowiskach. Warto pamiętać, że polecenie passwd nie tworzy użytkownika i nie pokazuje żadnych informacji o grupach czy katalogach – jego jedyną rolą jest zarządzanie hasłami. Bardzo często można je spotkać w dokumentacji systemowej i tutorialach dotyczących bezpieczeństwa. Moim zdaniem, jeśli ktoś chce na poważnie zajmować się administracją Linuxem, to znajomość działania passwd to totalna podstawa, szczególnie z punktu widzenia bezpieczeństwa danych i zgodności ze standardami ISO/IEC 27001 czy praktykami CIS Benchmarks.

Pytanie 16

Bez uzyskania zgody właściciela praw autorskich do oprogramowania, jego legalny użytkownik, zgodnie z ustawą o prawie autorskim i prawach pokrewnych, co może uczynić?

A. ma prawo do rozpowszechniania programu
B. nie ma możliwości wykonania jakiejkolwiek kopii programu
C. może wykonać jedną kopię, jeśli jest to konieczne do korzystania z programu
D. może stworzyć dowolną ilość kopii programu na własny użytek
Odpowiedź jest prawidłowa, ponieważ zgodnie z ustawą o prawie autorskim i prawach pokrewnych, użytkownik legalnie nabytego oprogramowania ma prawo wykonać jedną kopię programu, jeżeli jest to niezbędne do korzystania z tego programu. Taki przepis ma na celu zapewnienie użytkownikowi możliwości korzystania z oprogramowania w sposób, który zgodny jest z zamierzonymi funkcjami i wspiera jego prawa do użytkowania. Przykładem może być sytuacja, w której użytkownik musi zainstalować program na nowym urządzeniu, co często wymaga wykonania kopii programu. W kontekście dobrych praktyk branżowych, ważne jest przestrzeganie zasad licencjonowania, które mogą różnić się w zależności od dostawcy oprogramowania. Prawidłowe zrozumienie tych zasad pozwala uniknąć naruszeń prawa autorskiego i wspiera rozwój oprogramowania poprzez legalne korzystanie z jego funkcji.

Pytanie 17

Wykonanie polecenia tar -xf dane.tar w systemie Linux spowoduje

A. pokazanie informacji o zawartości pliku dane.tar
B. stworzenie archiwum dane.tar, które zawiera kopię katalogu /home
C. przeniesienie pliku dane.tar do katalogu /home
D. wyodrębnienie danych z archiwum o nazwie dane.tar
Polecenie 'tar -xf dane.tar' jest używane w systemie Linux do wyodrębnienia zawartości archiwum tar o nazwie 'dane.tar'. Flaga '-x' oznacza 'extract', co jest kluczowe, ponieważ informuje program tar, że zamierzamy wydobyć pliki z archiwum. Flaga '-f' wskazuje, że będziemy pracować z plikiem, a następnie podajemy nazwę pliku archiwum. Pozycjonowanie tych flag jest istotne, ponieważ tar interpretuje je w określony sposób. W praktyce, kiedy używasz tego polecenia, otrzymujesz dostęp do zawartości archiwum, która może zawierać różne pliki i katalogi, w zależności od tego, co zostało pierwotnie skompresowane. Użycie tar jest powszechne w zadaniach związanych z tworzeniem kopii zapasowych oraz przenoszeniem zbiorów danych między systemami. Dobrą praktyką jest również używanie flagi '-v', co pozwala na wyświetlenie informacji o plikach podczas ich wyodrębniania, co ułatwia monitorowanie postępu. Warto również wspomnieć, że tar jest integralną częścią wielu procesów w systemach opartych na Unixie, a znajomość jego działania jest niezbędna dla administratorów systemów.

Pytanie 18

Aby podłączyć dysk z interfejsem SAS, należy użyć kabla przedstawionego na diagramie

Ilustracja do pytania
A. rys. C
B. rys. A
C. rys. D
D. rys. B
Na rysunku A widać kabel USB, który jest używany do podłączania różnych urządzeń, takich jak klawiatury i myszki, oraz niektórych zewnętrznych dysków twardych. Niestety, to nie jest odpowiedni kabel do podłączenia dysków z interfejsem SAS. USB jest uniwersalnym interfejsem, ale jego prędkość jest znacznie mniejsza niż to, co potrzebne w profesjonalnych zastosowaniach, jak SAS. Rysunek B pokazuje kabel IDE, który to już dość stary standard do podłączania starszych dysków twardych. IDE ma dużo wolniejszy transfer danych i nie pasuje do nowoczesnych interfejsów, takich jak SAS. Na rysunku C jest kabel HDMI, który służy do przesyłania sygnału wideo i audio, zupełnie inna bajka w porównaniu do dysków twardych. Użycie takiego kabla w tym kontekście to spory błąd. Często mylimy funkcje różnych kabli, co prowadzi do złych wyborów technologicznych. Zrozumienie tych różnic jest kluczowe, żeby architektura systemu działała efektywnie i zapewniała dobrą wydajność w IT. Ludzie zajmujący się infrastrukturą IT powinni znać te standardy, żeby utrzymać kompatybilność i niezawodność swoich systemów.

Pytanie 19

Który adres IP jest przypisany do klasy A?

A. 192.0.2.1
B. 134.16.0.1
C. 119.0.0.1
D. 169.255.2.1
Adres IP 119.0.0.1 należy do klasy A, co wynika z definicji klas adresowych w protokole IP. Klasa A obejmuje adresy od 1.0.0.0 do 126.255.255.255, a pierwszy oktet musi mieścić się w przedziale od 1 do 126. W przypadku adresu 119.0.0.1 pierwszy oktet to 119, co potwierdza jego przynależność do klasy A. Adresy klasy A są przeznaczone dla dużych organizacji, które potrzebują wielu adresów IP w jednej sieci. Klasa ta pozwala na przydzielenie ogromnej liczby adresów – ponad 16 milionów (2^24) dla każdej sieci, co jest korzystne dla dużych instytucji, takich jak korporacje czy uniwersytety. Ponadto w kontekście routingu, adresy klasy A są używane dla dużych sieci, co ułatwia zarządzanie i organizację struktury adresowej. W praktycznych zastosowaniach, w przypadku organizacji wymagających dużych zasobów adresowych, klasy A są często wykorzystywane do rozbudowy infrastruktury sieciowej, co jest zgodne z dobrymi praktykami w zakresie planowania adresacji IP.

Pytanie 20

Recykling można zdefiniować jako

A. segregację
B. odzysk
C. produkcję
D. oszczędność
Recykling można zdefiniować jako proces odzyskiwania surowców z odpadów, co ma na celu ich ponowne wykorzystanie w produkcji nowych produktów. Odzysk jest kluczowym elementem gospodarki cyrkularnej, która promuje minimalizację odpadów poprzez ich ponowne wykorzystanie, a także zmniejszenie zapotrzebowania na surowce pierwotne. Przykładem procesu odzysku może być przetwarzanie plastikowych butelek, które po zebraniu i przetworzeniu stają się surowcem do produkcji nowych przedmiotów, takich jak odzież, meble czy materiały budowlane. Dobre praktyki w recyklingu wskazują na konieczność odpowiedniej segregacji odpadów, co zwiększa efektywność odzysku. Organizacje takie jak Europejska Agencja Środowiska promują standardy, które zachęcają do wdrażania systemów recyklingowych, co nie tylko przynosi korzyści środowiskowe, ale również ekonomiczne, zmniejszając koszty związane z utylizacją odpadów i pozyskiwaniem nowych surowców.

Pytanie 21

W systemie Windows mechanizm ostrzegający przed uruchamianiem nieznanych aplikacji oraz plików pobranych z Internetu funkcjonuje dzięki

A. Windows Ink
B. zaporze systemu Windows
C. Windows Update
D. Windows SmartScreen
Wybór odpowiedzi związanych z Windows Ink, Windows Update oraz zaporą systemu Windows wskazuje na pewne nieporozumienia dotyczące ich funkcji i roli w systemie Windows. Windows Ink jest narzędziem, które pozwala na korzystanie z rysików i piór, umożliwiając tworzenie notatek oraz szkiców, ale nie ma związku z ochroną przed niebezpiecznymi plikami. Z kolei Windows Update jest odpowiedzialny za aktualizację systemu operacyjnego i aplikacji, co jest istotne dla zapewnienia bezpieczeństwa poprzez poprawki, lecz sam w sobie nie ostrzega przed uruchamianiem nieznanych aplikacji. Ważne jest, aby zrozumieć, że aktualizacje mają na celu poprawę bezpieczeństwa, ale nie są dedykowane do oceny ryzyka związanego z poszczególnymi aplikacjami. Natomiast zapora systemu Windows (Windows Firewall) działa na zasadzie monitorowania i kontrolowania ruchu sieciowego, co może zapobiegać nieautoryzowanemu dostępowi z zewnątrz, ale nie jest zaprojektowana do analizy plików pobranych z Internetu i ich potencjalnego zagrożenia dla systemu. Te funkcjonalności są ważne w kontekście bezpieczeństwa systemu, ale nie spełniają roli, jaką pełni Windows SmartScreen. Dlatego kluczowe jest zrozumienie, że różne komponenty systemu pełnią różne funkcje, a ich niewłaściwa interpretacja może prowadzić do fałszywych wniosków dotyczących tego, jak zapewnić bezpieczeństwo użytkownika.

Pytanie 22

Jakie pole znajduje się w nagłówku protokołu UDP?

A. Numer sekwencyjny
B. Wskaźnik pilności
C. Numer potwierdzenia
D. Suma kontrolna
Suma kontrolna w nagłówku protokołu UDP (User Datagram Protocol) jest kluczowym elementem, który zapewnia integralność danych przesyłanych w pakietach. UDP jest protokołem bezpołączeniowym, co oznacza, że nie ustanawia trwałego połączenia przed przesłaniem danych, co sprawia, że ważne jest, aby każda jednostka danych była weryfikowalna. Suma kontrolna obliczana jest na podstawie zawartości nagłówka oraz danych użytkownika i jest używana do sprawdzenia, czy pakiet nie został uszkodzony w trakcie transmisji. W praktyce, jeżeli suma kontrolna obliczona przez odbiorcę różni się od tej zawartej w nagłówku, pakiet jest odrzucany, co minimalizuje ryzyko błędów w komunikacji. Dobre praktyki dotyczące implementacji UDP zalecają korzystanie z sumy kontrolnej, aby wzmocnić niezawodność, mimo że sama specyfika protokołu nie wymusza jej użycia. W kontekście standardów, suma kontrolna jest zgodna z wymaganiami określonymi w dokumentach RFC, co podkreśla jej znaczenie w dziedzinie protokołów komunikacyjnych.

Pytanie 23

Po podłączeniu działającej klawiatury do któregokolwiek z portów USB nie ma możliwości wyboru awaryjnego trybu uruchamiania systemu Windows. Jednakże, klawiatura funkcjonuje prawidłowo po uruchomieniu systemu w standardowym trybie. Co to sugeruje?

A. uszkodzony zasilacz
B. uszkodzone porty USB
C. uszkodzony kontroler klawiatury
D. niepoprawne ustawienia BIOS-u
Problemy z wyborem awaryjnego trybu uruchomienia systemu Windows przy użyciu klawiatury podłączonej do USB mogą prowadzić do błędnych wniosków na temat ich przyczyny. Uszkodzony zasilacz, mimo że może wpływać na ogólną wydajność komputera, nie ma bezpośredniego wpływu na działanie klawiatury w kontekście jej rozpoznawania podczas uruchamiania systemu. Usterki w zasilaczu mogą prowadzić do niestabilności systemu, ale klawiatura powinna działać, o ile zasilanie jest wystarczające. Uszkodzony kontroler klawiatury jest również mało prawdopodobny, ponieważ klawiatura działa normalnie po uruchomieniu systemu, co sugeruje, że sam sprzęt jest sprawny. Z kolei uszkodzone porty USB mogą powodować problemy z innymi urządzeniami, ale jeżeli klawiatura działa w normalnym trybie, to oznacza, że porty są funkcjonalne. Należy zwrócić uwagę, że problemy z ustawieniami BIOS-u są najczęściej spotykaną przyczyną błędów w rozpoznawaniu urządzeń w trakcie rozruchu, co z kolei może prowadzić do mylnych wniosków dotyczących uszkodzeń sprzętowych. Dlatego ważne jest, aby diagnostyka zaczynała się od analizy ustawień BIOS-u, zamiast zakładać, że problem leży w sprzęcie.

Pytanie 24

Który typ macierzy RAID zapewnia tzw. mirroring dysków?

A. RAID-0
B. RAID-5
C. RAID-1
D. RAID-2
RAID-2 nie jest odpowiednim rozwiązaniem do mirroringu dysków, ponieważ skupia się na rozdzielaniu danych i wykorzystywaniu dysków do równoległego zapisu, co nie zapewnia ochrony danych poprzez ich duplikację. RAID-5, z kolei, korzysta z parzystości rozdzielonej pomiędzy dyski, co pozwala na rekonstrukcję danych w przypadku awarii jednego z dysków, jednak nie oferuje pełnego mirroringu, który jest kluczowym elementem RAID-1. RAID-0 to konfiguracja, która zwiększa wydajność poprzez striping, ale nie zapewnia żadnej redundancji, co czyni ją nieodpowiednią dla zastosowań wymagających ochrony danych. Typowe błędy w myśleniu o RAID wynikają z mylenia terminów związanych z wydajnością i bezpieczeństwem. Użytkownicy mogą błędnie zakładać, że wszystkie poziomy RAID oferują podobny poziom ochrony, podczas gdy w rzeczywistości różnią się one istotnie pod względem zabezpieczeń i metod zapisu danych. Dlatego tak ważne jest zrozumienie podstawowych różnic między konfiguracjami RAID oraz ich zastosowaniem w praktyce, co pozwala na podejmowanie świadomych decyzji w zakresie architektury systemów pamięci masowej.

Pytanie 25

Jaki protokół służy do przesyłania plików bez konieczności tworzenia połączenia?

A. DNS (Domain Name System)
B. TFTP (Trivial File Transfer Protocol)
C. FTP (File Transfer Protocol)
D. HTTP (Hyper Text Transfer Protocol)
TFTP, czyli Trivial File Transfer Protocol, to protokół, który umożliwia przesyłanie plików w sieciach komputerowych bez konieczności nawiązywania połączenia, co czyni go bardzo prostym i efektywnym narzędziem w wielu sytuacjach. W przeciwieństwie do FTP (File Transfer Protocol), TFTP nie wymaga autoryzacji, co sprawia, że jest idealnym rozwiązaniem do transferu plików w środowiskach, gdzie prostota i szybkość są kluczowe. TFTP jest często wykorzystywany w przypadku urządzeń sieciowych, takich jak routery czy przełączniki, do aktualizacji oprogramowania lub przesyłania konfiguracji. Protokół ten działa na porcie UDP 69, co oznacza, że każdy transfer danych odbywa się w postaci pojedynczych pakietów, a nie jako ciągłe połączenie, co zmniejsza narzut na zarządzanie połączeniami. W praktyce, TFTP jest szczególnie użyteczny w sieciach lokalnych, gdzie nie występują duże opóźnienia, a priorytetem jest szybkość i efektywność przesyłania plików.

Pytanie 26

Zaproponowany fragment ustawień zapory sieciowej umożliwia przesył danych przy użyciu protokołów ```iptables -A INPUT --protocol tcp --dport 443 -j ACCEPT iptables -A INPUT --protocol tcp --dport 143 -j ACCEPT iptables -A OUTPUT --protocol tcp --dport 443 -j ACCEPT iptables -A OUTPUT --protocol tcp --dport 143 -j ACCEPT```

A. POP3, TFTP
B. FTP, SSH
C. HTTP, SMPT
D. HTTPS, IMAP
Fragment konfiguracji zapory sieciowej wskazuje na zezwolenie na ruch dotyczący protokołów HTTPS oraz IMAP. W szczególności reguły iptables określają porty TCP 443 oraz 143. Port 443 jest standardowym portem używanym przez protokół HTTPS, który zapewnia bezpieczną komunikację w sieci, chroniąc dane przesyłane między klientem a serwerem za pomocą szyfrowania SSL/TLS. W kontekście praktycznym, jest on szeroko stosowany w serwisach internetowych wymagających zabezpieczenia danych, takich jak bankowość online czy e-commerce. Z kolei port 143 jest używany przez protokół IMAP, który umożliwia dostęp do wiadomości e-mail na serwerze, pozwalając na zarządzanie nimi w czasie rzeczywistym. IMAP jest preferowany w środowiskach, gdzie użytkownicy potrzebują dostępu do swoich wiadomości z różnych urządzeń, co przyczynia się do zwiększenia efektywności pracy. Znajomość tych protokołów oraz ich właściwe konfigurowanie w zaporze sieciowej jest kluczowe dla zapewnienia bezpieczeństwa oraz właściwego działania aplikacji webowych.

Pytanie 27

Jaki akronim odnosi się do przepustowości sieci oraz usług, które mają między innymi na celu nadawanie priorytetów przesyłanym pakietom?

A. QoS
B. ARP
C. PoE
D. STP
QoS, czyli Quality of Service, to termin używany w sieciach komputerowych, który odnosi się do mechanizmów zapewniających priorytetyzację danych przesyłanych przez sieć. W kontekście transmisji danych, QoS jest kluczowe dla zapewnienia, że aplikacje wymagające dużej przepustowości i niskiego opóźnienia, takie jak strumieniowanie wideo czy VoIP, otrzymują odpowiednią jakość przesyłanych danych. Przykładem zastosowania QoS może być wprowadzenie różnych poziomów priorytetu dla ruchu w sieci lokalnej, gdzie pakiety głosowe są traktowane z wyższym priorytetem w porównaniu do standardowego ruchu internetowego. Implementacja QoS jest zgodna z różnymi standardami branżowymi, takimi jak IETF RFC 2474, definiującym sposób oznaczania pakietów z różnymi poziomami priorytetów. Dobre praktyki w zakresie QoS obejmują również monitorowanie wydajności sieci oraz dostosowywanie parametrów QoS na podstawie bieżących potrzeb użytkowników.

Pytanie 28

W jakim systemie jest przedstawiona liczba 1010(o)?

A. ósemkowym
B. szesnastkowym
C. dziesiętnym
D. binarnym
Liczba 1010 w systemie ósemkowym (oktalnym) oznacza 1*8^2 + 0*8^1 + 1*8^0, co daje 64 + 0 + 1 = 65 w systemie dziesiętnym. System ósemkowy jest systemem pozycyjnym, w którym podstawą jest liczba 8. W praktyce jest on często używany w informatyce, zwłaszcza w kontekście programowania i reprezentacji danych, ponieważ niektóre systemy operacyjne i języki programowania preferują reprezentację ósemkową dla grupowania bitów. Na przykład, adresy w systemie UNIX są często przedstawiane w ósemkowym formacie, co ułatwia manipulację i zrozumienie uprawnień plików. Zrozumienie konwersji pomiędzy różnymi systemami liczbowymi jest kluczowe dla programistów oraz inżynierów oprogramowania, gdyż pozwala na efektywniejsze działanie w środowiskach, gdzie stosuje się różne standardy numeryczne.

Pytanie 29

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 32 GB.
B. 2 modułów, każdy po 16 GB.
C. 2 modułów, każdy po 8 GB.
D. 1 modułu 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 30

Elementem eksploatacyjnym drukarki laserowej jest wszystko oprócz

A. bębna
B. wałka grzewczego
C. głowicy
D. lampy czyszczącej
Poprawne zrozumienie struktury i funkcji drukarki laserowej jest kluczowe dla efektywnego jej użytkowania. Bęben, lampa czyszcząca i wałek grzewczy to fundamentalne elementy eksploatacyjne, które odpowiadają za prawidłowy proces drukowania. Bęben, zazwyczaj pokryty warstwą fotoczułą, naświetla obraz przy użyciu lasera, a następnie przenosi na papier toner, który jest utrwalany przez wałek grzewczy. Lampa czyszcząca usuwająca resztki tonera z bębna, zapewnia czystość i poprawność działania, co jest istotne dla jakości wydruku. Dla wielu użytkowników istnieje powszechne przekonanie, że wszystkie elementy w drukarce muszą być traktowane jako eksploatacyjne, co prowadzi do mylenia głowicy drukującej w drukarkach atramentowych z bębnem w laserowych. Głowica w technologii atramentowej to urządzenie, które aplikacyjnie nanosi atrament na papier, co jest całkowicie inną metodą, niż w przypadku drukowania laserowego. Dlatego ważne jest, by dostrzegać te różnice i unikać uogólnień, które mogą prowadzić do niewłaściwego użytkowania sprzętu lub niepotrzebnych wydatków na wymiany komponentów, które nie są konieczne w technologii laserowej. Znajomość właściwych terminów i komponentów pomoże lepiej zarządzać eksploatacją urządzenia oraz zrozumieć jego zasady działania.

Pytanie 31

Aby uzyskać informacje na temat aktualnie działających procesów w systemie Linux, można użyć polecenia

A. ps
B. rm
C. ls
D. su
Polecenie 'ps' w systemie Linux jest kluczowym narzędziem służącym do wyświetlania informacji o bieżących procesach. Skrót 'ps' oznacza 'process status', co doskonale oddaje jego funkcjonalność. Umożliwia ono użytkownikom przeglądanie listy procesów działających w systemie, a także ich stanu, wykorzystania pamięci i innych istotnych parametrów. Przykładowe użycie polecenia 'ps aux' pozwala na uzyskanie szczegółowych informacji o wszystkich procesach, w tym tych, które są uruchomione przez innych użytkowników. Dzięki temu administratorzy i użytkownicy mają możliwość monitorowania aktywności systemu, diagnozowania problemów oraz optymalizacji użycia zasobów. W kontekście dobrej praktyki, korzystanie z polecenia 'ps' jest niezbędne do zrozumienia, jakie procesy obciążają system, co jest kluczowe w zarządzaniu systemami wielozadaniowymi, gdzie optymalizacja wydajności jest priorytetem. Warto również zaznaczyć, że na podstawie wyników polecenia 'ps' można podejmować decyzje dotyczące zarządzania procesami, takie jak ich zatrzymywanie czy priorytetyzacja.

Pytanie 32

Administrator systemu Linux wydał polecenie mount /dev/sda2 /mnt/flash . Spowoduje ono

A. odłączenie pamięci typu flash z katalogu /dev/sda2.
B. podłączenie dysku SATA do katalogu flash.
C. odłączenie dysku SATA z katalogu flash.
D. podłączenie pamięci typu flash do katalogu /dev/sda2.
Polecenie mount jest dość często mylnie interpretowane, szczególnie przez osoby, które dopiero zaczynają pracę z Linuksem. Z technicznego punktu widzenia, to polecenie służy do montowania systemów plików, a nie do odłączania ich – do tego służy polecenie umount. Jeśli ktoś pomyśli, że mount /dev/sda2 /mnt/flash odłącza cokolwiek, to niestety jest to błąd logiczny. System nie rozpoznaje frazy 'odłączenie', kiedy używamy właśnie polecenia mount. Często spotyka się też mylące przekonanie, że urządzenie montuje się do katalogu urządzenia (np. pamięć flash do /dev/sda2). To nie tak działa. W Linuksie urządzenia blokowe (np. /dev/sda2) reprezentują fizyczne lub wirtualne nośniki danych, a katalogi takie jak /mnt/flash to miejsca w hierarchii systemu plików, gdzie te nośniki można „podłączyć”, aby mieć do nich dostęp. Próby odwrócenia tych ról, czyli podłączenia katalogu do urządzenia, nie mają sensu z punktu widzenia działania systemu. Takie pomyłki często biorą się z niezrozumienia, jak działa struktura plików w Uniksie – tu wszystko jest plikiem, ale hierarchia katalogów i urządzeń wymaga jasnego rozdzielenia. Praktycy stosują jasne zasady: najpierw sprawdź, co tak naprawdę podłączasz, zawsze miej na uwadze, że katalog montowania to tylko „punkt wejścia” do zawartości urządzenia. Pomijanie tych podstaw prowadzi do nieporozumień i niechcianych błędów podczas pracy z systemem, zwłaszcza kiedy zarządza się wieloma partycjami lub nośnikami jednocześnie.

Pytanie 33

Jakie oprogramowanie zabezpieczające przed nieautoryzowanym dostępem do sieci powinno być zainstalowane na serwerze, który udostępnia dostęp do internetu?

A. Active Directory
B. DNS
C. FireWall
D. DHCP
FireWall, czyli zapora sieciowa, jest kluczowym elementem bezpieczeństwa w sieciach komputerowych, pełniąc rolę filtra, który kontroluje ruch przychodzący i wychodzący na serwerze udostępniającym połączenie z internetem. Jego głównym zadaniem jest ochrona przed nieautoryzowanym dostępem oraz atakami z sieci, takimi jak DDoS czy próby włamań. Działanie Firewalla opiera się na regułach, które określają, jakie połączenia są dozwolone, a jakie zablokowane. Dzięki temu można skutecznie minimalizować ryzyko ataków. Przykładem zastosowania Firewalla może być konfiguracja reguł blokujących dostęp do portów, które nie są używane przez aplikacje działające na serwerze, co znacząco zwiększa jego bezpieczeństwo. W kontekście standardów branżowych, wiele organizacji stosuje najlepsze praktyki, takie jak regularne aktualizacje oprogramowania zapory oraz audyty bezpieczeństwa, aby zapewnić, że FireWall skutecznie chroni przed nowymi zagrożeniami.

Pytanie 34

Jakie zakresy zostaną przydzielone przez administratora do adresów prywatnych w klasie C, przy użyciu maski 24 bitowej dla komputerów w lokalnej sieci?

A. 172.16.0.1 - 172.16.255.254
B. 192.168.0.1 - 192.168.10.254
C. 192.168.0.1 - 192.168.0.254
D. 172.168.0.1 - 172.168.255.254
Adresy prywatne w klasie C są zdefiniowane w standardzie RFC 1918, który określa zakresy adresów dostępnych do użycia w sieciach lokalnych, niezależnych od publicznego routingu w Internecie. Zakres 192.168.0.0/24, z maską 255.255.255.0, umożliwia przypisanie adresów od 192.168.0.1 do 192.168.0.254 dla urządzeń w lokalnej sieci. Użycie adresów prywatnych to standardowa praktyka w zarządzaniu sieciami, ponieważ pozwala na redukcję kosztów związanych z zakupem adresów publicznych, a także zwiększa bezpieczeństwo sieci lokalnej, ograniczając dostęp do niej z zewnątrz. Przykład zastosowania to konfiguracja domowego routera, który często przypisuje adresy z tej puli do różnych urządzeń, takich jak komputery, drukarki czy smartfony, co umożliwia utworzenie lokalnej sieci bez potrzeby pozyskiwania publicznych adresów IP. Dodatkowo, stosowanie NAT (Network Address Translation) pozwala na maskowanie wewnętrznych adresów prywatnych w stosunku do zewnętrznych, co dalej wzmacnia bezpieczeństwo. Takie podejście jest zgodne z zaleceniami wielu organizacji zajmujących się bezpieczeństwem sieciowym.

Pytanie 35

Komputer prawdopodobnie jest zainfekowany wirusem typu boot. Jakie działanie umożliwi usunięcie wirusa w najbardziej nieinwazyjny sposób dla systemu operacyjnego?

A. Restart systemu
B. Uruchomienie systemu w trybie awaryjnym
C. Ponowne zainstalowanie systemu operacyjnego
D. Przeskanowanie programem antywirusowym z bootowalnego nośnika
Przeskanowanie systemu operacyjnego programem antywirusowym z bootowalnego nośnika jest najskuteczniejszym i najmniej inwazyjnym sposobem na usunięcie boot wirusa. Taki proces polega na uruchomieniu komputera z nośnika, takiego jak USB lub płyta CD/DVD, na którym zainstalowane jest oprogramowanie antywirusowe. Dzięki temu system operacyjny nie jest w pełni załadowany, co ogranicza działania wirusa i umożliwia przeprowadzenie skutecznego skanowania. W praktyce, wiele renomowanych programów antywirusowych oferuje bootowalne wersje, które pozwalają na przeprowadzenie dokładnego skanowania dysków twardych w celu wykrycia i usunięcia infekcji. Warto również dodać, że takie skanowanie powinno być regularnie wykonywane, aby minimalizować ryzyko ponownej infekcji. W kontekście standardów branżowych, wiele organizacji zaleca wykorzystanie bootowalnych narzędzi do diagnostyki systemów, co jest zgodne z najlepszymi praktykami w zakresie zarządzania bezpieczeństwem IT.

Pytanie 36

Element na karcie graficznej, który ma za zadanie przekształcenie cyfrowego sygnału wytwarzanego przez kartę na analogowy sygnał, zdolny do wyświetlenia na monitorze to

A. RAMBUS
B. multiplekser
C. RAMDAC
D. głowica FM
Wybór multipleksera jako odpowiedzi na to pytanie jest mylący, ponieważ multiplekser to układ, który służy do wyboru jednego z wielu sygnałów wejściowych i przekazywania go na wyjście. Jego funkcjonalność nie obejmuje konwersji sygnałów cyfrowych na analogowe, co jest kluczowym zadaniem RAMDAC. W kontekście kart graficznych, multipleksery mogą być używane w różnych rolach, jednak nie pełnią one funkcji konwersji sygnałów do postaci analogowej. RAMBUS, z kolei, to rodzaj architektury pamięci, a nie komponent odpowiedzialny za konwersję sygnałów. RAMBUS zajmuje się komunikacją między różnymi elementami systemu, w tym pamięcią operacyjną, ale nie ma związku z przetwarzaniem sygnałów wideo. Głowica FM natomiast odnosi się do technologii stosowanej w radiu, a jej funkcje są związane z modulacją sygnału radiowego, co również nie ma nic wspólnego z konwersją sygnałów wideo na analogowe. Te pomyłki mogą wynikać z mylnego skojarzenia terminów, które mogą wydawać się podobne, ale nie mają wspólnego celu w kontekście wyświetlania obrazu. Ważne jest, aby zrozumieć, że każdy z tych komponentów pełni odmienną rolę w systemie komputerowym, a ich funkcjonalność powinna być analizowana w kontekście konkretnych zadań, jakie mają realizować.

Pytanie 37

Aby zmontować komputer z poszczególnych elementów, korzystając z obudowy SFF, trzeba wybrać płytę główną w formacie

A. E-ATX
B. WTX
C. mini ITX
D. BTX
Wybór płyty głównej w standardzie BTX, WTX lub E-ATX do złożenia komputera w obudowie SFF to podejście, które opiera się na błędnych założeniach dotyczących wymagań przestrzennych oraz kompatybilności komponentów. Standard BTX, mimo że wprowadzał innowacje w zakresie wentylacji i układów chłodzenia, został wycofany z użytku i nigdy nie osiągnął popularności, co sprawia, że jego zastosowanie w nowoczesnych systemach jest niepraktyczne. WTX to większy standard, stworzony dla serwerów i stacji roboczych, który również wymaga znacznie większej przestrzeni niż to, co oferują typowe obudowy SFF. E-ATX jest standardem stosowanym w dużych i zaawansowanych systemach, z wymiarami przekraczającymi standard ATX, co czyni go zupełnie nieodpowiednim do małych obudów, gdzie kluczowe jest ograniczenie rozmiaru komponentów. Wybierając te standardy, można napotkać problemy z dopasowaniem płyty głównej do obudowy, co może prowadzić do trudności montażowych, problemów z chłodzeniem, a także ograniczenia w dalszej rozbudowie systemu. Dlatego bardzo ważne jest, aby podczas budowy komputera w obudowie SFF kierować się odpowiednimi standardami, takimi jak mini ITX, które gwarantują prawidłowe funkcjonowanie i łatwość montażu.

Pytanie 38

Zasadniczym sposobem zabezpieczenia danych przechowywanych na serwerze jest

A. automatyczne wykonywanie kompresji danych
B. ustawienie punktu przywracania systemu
C. uruchomienie ochrony systemu
D. tworzenie kopii zapasowej
Tworzenie kopii bezpieczeństwa danych jest podstawowym mechanizmem ochrony danych znajdujących się na serwerze, ponieważ pozwala na ich odzyskanie w przypadku awarii, ataku cybernetycznego czy przypadkowego usunięcia. Regularne tworzenie kopii zapasowych jest uznawane za najlepszą praktykę w zarządzaniu danymi, a standardy takie jak ISO 27001 podkreślają znaczenie bezpieczeństwa danych. Przykładem wdrożenia tej praktyki może być stosowanie rozwiązań takich jak systemy RAID, które przechowują dane na wielu dyskach, lub zewnętrzne systemy kopii zapasowych, które wykonują automatyczne backupy. Oprócz tego, ważne jest, aby kopie bezpieczeństwa były przechowywane w różnych lokalizacjach, co zwiększa ich odporność na awarie fizyczne. Nie należy również zapominać o regularnym testowaniu odtwarzania danych z kopii zapasowych, co zapewnia pewność ich integralności i użyteczności w krytycznych momentach. Takie podejście nie tylko minimalizuje ryzyko utraty danych, ale także pozwala na szybsze przywrócenie ciągłości działania organizacji.

Pytanie 39

Natychmiast po usunięciu ważnych plików na dysku twardym użytkownik powinien

A. przeprowadzić test S. M. A. R. T. tego dysku.
B. zainstalować program diagnostyczny.
C. uchronić dysk przed zapisem nowych danych.
D. wykonać defragmentację dysku.
Jeżeli chodzi o usuwanie plików na dysku twardym, wokół tej kwestii krąży sporo mitów i nieporozumień. Często wydaje się, że natychmiastowe wykonanie testu S. M. A. R. T. albo zainstalowanie programu diagnostycznego może w jakikolwiek sposób pomóc w odzyskaniu przypadkowo skasowanych plików. Jednak testy diagnostyczne są przeznaczone raczej do oceny stanu technicznego sprzętu – wykrywają np. uszkodzenia mechaniczne, zmiany w parametrach dysku czy przewidywane awarie, ale nie mają żadnego wpływu na możliwość odzyskania danych, które zostały skasowane z poziomu systemu plików. Podobnie instalacja dowolnego oprogramowania po utracie danych wiąże się z ryzykiem – każda instalacja, nawet programu do odzyskiwania, może nadpisać fragmenty właśnie tych plików, które chcemy odzyskać. To jest bardzo częsty błąd, który prowadzi do nieodwracalnych strat. Z kolei defragmentacja, choć kiedyś była polecana do przyspieszania pracy komputerów z dyskami HDD, to w kontekście usuwania plików jest wręcz niebezpieczna – ten proces masowo przepisuje dane na nowe sektory, co praktycznie uniemożliwia skuteczne odzyskanie usuniętych plików. W mojej opinii, wiele osób nieświadomie wybiera takie działania, bo wydaje im się, że "coś trzeba zrobić" natychmiast, nie analizując skutków. Tymczasem najlepszą praktyką branżową – podkreślaną nawet w literaturze oraz przez ekspertów od informatyki śledczej – jest natychmiastowe zabezpieczenie dysku przed wszelkim zapisem. Liczy się czas i świadomość, co naprawdę dzieje się z danymi na dysku po usunięciu pliku. Dlatego inne działania, niż blokada zapisu, nie tylko nie pomagają, ale wręcz zmniejszają szansę na skuteczne odzyskanie danych.

Pytanie 40

Rodzajem macierzy RAID, która nie jest odporna na awarię dowolnego z dysków wchodzących w jej skład, jest

A. RAID 2
B. RAID 0
C. RAID 6
D. RAID 4
Patrząc na różne typy macierzy RAID, łatwo się pogubić – szczególnie, że cyfry po słowie RAID nie zawsze idą w parze z zaawansowaniem czy odpornością na awarie. RAID 2, choć dziś praktycznie niespotykany, wykorzystuje specjalne techniki kodowania Hamminga i rozkłada dane na wiele dysków z dodatkowymi dyskami kontrolującymi parzystość, więc przy założeniu poprawnej implementacji potrafi wykrywać i czasami nawet naprawić błędy przy awarii pojedynczego dysku. RAID 4 z kolei bazuje na jednym dedykowanym dysku parzystości, co oznacza, że jeśli padnie jeden dysk danych, to da się go odtworzyć na podstawie informacji z tego dysku parzystości. W praktyce jednak RAID 4 jest raczej rzadko wykorzystywany, bo dysk parzystości staje się wąskim gardłem przy zapisie. RAID 6 to już w ogóle wyższa szkoła jazdy – pozwala przeżyć awarię nawet dwóch dysków jednocześnie, bo używa podwójnej parzystości. Z perspektywy standardów branżowych RAID 6 jest obecnie jednym z najbezpieczniejszych rozwiązań dla danych krytycznych, szczególnie w większych serwerowniach, gdzie czas przywracania macierzy może być długi i ryzyko kolejnej awarii rośnie. Typowym błędem jest myślenie, że wszystkie macierze RAID gwarantują odporność na awarie, ale to właśnie RAID 0 jest tu wyjątkiem – tam nie ma żadnej redundancji. RAID 2, 4 i 6 – mimo różnych ograniczeń czy wydajności – mają wbudowane mechanizmy rekonstrukcji danych po uszkodzeniu dysku. Warto też pamiętać, że żaden RAID nie zastępuje regularnego backupu, bo nie chroni na przykład przed przypadkowym skasowaniem plików czy ransomware. RAID to tylko jeden z elementów całego planu ochrony danych.