Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 9 maja 2026 10:46
  • Data zakończenia: 9 maja 2026 11:03

Egzamin zdany!

Wynik: 22/40 punktów (55,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Aby zidentyfikować, który program najbardziej obciąża CPU w systemie Windows, należy otworzyć program

A. dxdiag
B. regedit
C. menedżer zadań
D. msconfig
Odpowiedzi msconfig, regedit i dxdiag nie są właściwymi narzędziami do monitorowania obciążenia procesora w systemie Windows. msconfig to narzędzie służące do konfiguracji systemu, umożliwiające zarządzanie aplikacjami uruchamiającymi się podczas rozruchu oraz ustawieniami systemowymi. Choć może pomóc w optymalizacji startowych procesów, nie dostarcza informacji o bieżącym wykorzystaniu procesora przez działające aplikacje. Regedit, czyli Edytor rejestru, to narzędzie do zarządzania i edytowania wpisów w rejestrze systemu Windows, a jego użycie wymaga zaawansowanej wiedzy technicznej. Zmiany w rejestrze mogą prowadzić do poważnych problemów z systemem, a narzędzie to nie ma związku z monitorowaniem aktywnych procesów i ich wpływu na obciążenie CPU. Dxdiag, znany jako Diagnostyka DirectX, służy do zbierania informacji o systemie oraz komponentach sprzętowych związanych z multimediami. Umożliwia sprawdzenie właściwości karty graficznej, dźwiękowej oraz innych elementów, ale również nie dostarcza danych o aktualnym obciążeniu procesora. Użytkownicy, którzy nie mają pełnej wiedzy na temat funkcji i zastosowań tych narzędzi, mogą błędnie sądzić, że mogą one służyć do monitorowania obciążenia procesora, co prowadzi do frustracji i błędnych decyzji w kontekście diagnostyki wydajności systemu. Dlatego kluczowe jest zrozumienie, które narzędzia są odpowiednie do określonych zadań, co pozwala na efektywne zarządzanie zasobami systemowymi.

Pytanie 2

Serwisant zrealizował w ramach zlecenia działania przedstawione w poniższej tabeli. Całkowity koszt zlecenia obejmuje wartość usług wymienionych w tabeli oraz koszt pracy serwisanta, którego stawka za godzinę wynosi 60,00 zł netto. Oblicz całkowity koszt zlecenia brutto. Stawka VAT na usługi wynosi 23%.

LPCzynnośćCzas wykonania w minutachCena usługi netto w zł
1.Instalacja i konfiguracja programu3520,00
2.Wymiana płyty głównej8050,00
3.Wymiana karty graficznej3025,00
4.Tworzenie kopii zapasowej i archiwizacja danych6545,00
5.Konfiguracja rutera3020,00
A. 492,00 zł
B. 455,20 zł
C. 436,80 zł
D. 400,00 zł
W przypadku błędnych odpowiedzi należy zwrócić uwagę na kilka kluczowych aspektów dotyczących obliczeń kosztów związanych z usługami serwisowymi. Często spotykanym błędem jest nieprawidłowe zsumowanie kosztów usług netto. Na przykład, jeżeli ktoś zsumuje jedynie niektóre usługi, może dojść do błędnych wniosków, co prowadzi do zaniżenia całkowitych kosztów. Ponadto, niektóre osoby mogą nie uwzględniać wynagrodzenia serwisanta w swoich obliczeniach, co jest kluczowe przy ustalaniu pełnego kosztu zlecenia. Kiedy nie dodaje się kosztu pracy serwisanta, całkowity koszt zlecenia również zostaje zaniżony. Ważne jest również prawidłowe obliczenie stawki VAT, która powinna być procentowa, a nie stała kwota, co również może wprowadzać w błąd. Często osoby rozwiązujące takie zadania mogą popełniać błąd przy konwersji minut na godziny, co prowadzi do błędnych obliczeń wynagrodzenia. Nieprawidłowości te mogą wynikać z braku zrozumienia jednostek miary, co jest kluczowe w procesie kalkulacji. Na przykład, mylnie przyjmując błędne wartości minutowe, można znacząco wpłynąć na końcowy wynik. Takie problemy pokazują, jak istotna jest staranność w obliczeniach oraz znajomość zasad ustalania kosztów w branży, co jest niezbędne w codziennej pracy serwisanta.

Pytanie 3

Przedsiębiorca przekazujący do składowania odpady inne niż komunalne ma obowiązek prowadzić

A. dokumentację związaną z lokalizacją miejsc zbiórki dla zapewnienia odzysku i recyklingu odpadów.
B. ewidencję papierową kart zawierających źródło pochodzenia odpadów.
C. elektroniczną ewidencję odpadów w rejestrze BDO.
D. papierową, uproszczoną ewidencję odpadów.
Wiele osób intuicyjnie zakłada, że skoro kiedyś wszystko robiło się na papierze, to uproszczona, papierowa ewidencja odpadów nadal będzie wystarczająca. To jest dość typowe myślenie: wydaje się, że prostsze rozwiązanie jest wystarczające, zwłaszcza gdy mówimy o małej firmie czy niewielkich ilościach odpadów. Problem w tym, że w przypadku odpadów innych niż komunalne ustawodawca bardzo jasno przeszedł na system elektroniczny, czyli BDO. Papierowa, uproszczona ewidencja może funkcjonować najwyżej jako pomocnicze notatki wewnętrzne, ale nie spełnia wymogów formalnych. Podobnie jest z pomysłem prowadzenia tylko papierowej ewidencji kart zawierających źródło pochodzenia odpadów. Owszem, informacja o pochodzeniu odpadów jest kluczowa, ale musi być wprowadzona do systemu BDO w postaci kart ewidencji i kart przekazania, a nie przechowywana w oddzielnym, papierowym segregatorze. Takie „dublowanie” dokumentacji bywa mylące i często prowadzi do rozjazdów między stanem faktycznym a tym, co jest w systemie. Trzecia koncepcja, czyli skupienie się wyłącznie na dokumentacji lokalizacji miejsc zbiórki, też pojawia się dość często w praktyce – firmy mylą obowiązki związane z organizacją systemu zbiórki odpadów, recyklingiem i odzyskiem z obowiązkiem ewidencyjnym. Dokumentacja miejsc zbiórki, planów recyklingu czy odzysku jest ważna, ale to inna kategoria obowiązków niż ewidencja odpadów przekazywanych do składowania. Kluczowe jest zrozumienie, że przy odpadach innych niż komunalne centralnym narzędziem jest elektroniczna ewidencja w BDO: to tam dokumentuje się ilości, kody odpadów, przekazania, transport i ostateczne miejsce unieszkodliwienia. Pomijanie BDO, zastępowanie go papierem czy dokumentacją „okołoodpadową” to typowy błąd, który w razie kontroli kończy się zarzutem braku wymaganej ewidencji, nawet jeżeli firma w dobrej wierze coś sobie notowała na boku.

Pytanie 4

Rysunek obrazuje zasadę działania drukarki

Ilustracja do pytania
A. atramentowej.
B. laserowej.
C. sublimacyjnej.
D. igłowej.
Rysunek doskonale oddaje zasadę działania drukarki atramentowej, co widać po obecności głowicy z elementem grzejnym oraz ruchem kropli atramentu. Głowica drukująca wyposażona jest w malutkie rezystory, które nagrzewają się bardzo szybko. Kiedy taki rezystor się rozgrzewa, powoduje gwałtowne podgrzanie niewielkiej ilości atramentu, prowadząc do powstania pęcherzyka pary. Ten pęcherzyk wypycha kroplę atramentu przez mikroskopijną dyszę bezpośrednio na papier. Na rysunku widać sekwencję zdarzeń: najpierw spoczywający atrament, potem tworzenie pęcherzyka, a na końcu wyrzucenie kropli. W praktyce właśnie dzięki tej technologii możliwe są bardzo precyzyjne wydruki – szczególnie dobre do zdjęć czy kolorowej grafiki. Standardy branżowe, takie jak ISO/IEC 29183, opisują dokładnie parametry wydruków, które drukarki atramentowe są w stanie osiągnąć. Moim zdaniem, atramentówki to świetny wybór do domu i małego biura – są relatywnie tanie i pozwalają na druk wysokiej jakości bez większego kombinowania. No i co ciekawe, w niektórych modelach można już samemu dolewać atrament, co mocno ogranicza koszty eksploatacji. Tak czy inaczej, mechanizm z grzałką i wyrzucaniem kropli jest bardzo charakterystyczny właśnie dla tej technologii.

Pytanie 5

Aby przywrócić dane, które zostały usunięte za pomocą kombinacji klawiszy Shift + Delete, co należy zrobić?

A. skorzystać z oprogramowania do odzyskiwania danych
B. odzyskać je z systemowego kosza
C. użyć kombinacji klawiszy Shift+Insert
D. odzyskać je z folderu plików tymczasowych
Odzyskiwanie danych usuniętych za pomocą kombinacji klawiszy Shift + Delete jest procesem, który wymaga zastosowania specjalistycznego oprogramowania do odzyskiwania danych. Gdy plik jest usuwany w ten sposób, nie trafia on do kosza systemowego, co sprawia, że standardowe metody przywracania nie są dostępne. Oprogramowanie do odzyskiwania danych działa na poziomie systemu plików, skanując dysk w poszukiwaniu fragmentów danych, które mogły pozostać po usunięciu. Przykłady popularnych programów to Recuva, EaseUS Data Recovery Wizard czy Stellar Data Recovery. Warto zaznaczyć, że skuteczność odzyskiwania danych może zależeć od wielu czynników, takich jak czas, jaki upłynął od usunięcia pliku, oraz intensywność użycia dysku po usunięciu. Jeżeli dane zostały nadpisane, ich odzyskanie może być niemożliwe. Dlatego ważne jest, aby regularnie tworzyć kopie zapasowe ważnych plików oraz korzystać z programów do monitorowania i zabezpieczania danych, co jest zgodne z najlepszymi praktykami zarządzania danymi.

Pytanie 6

Czym jest mapowanie dysków?

A. przypisaniem litery dysku do wybranego katalogu sieciowego
B. ustawieniem interfejsów sieciowych
C. przydzieleniem uprawnień do folderu użytkownikom w sieci WAN
D. tworzeniem kont użytkowników i grup
Mapowanie dysków to proces, który polega na przypisaniu oznaczenia dysku (np. litery w systemie Windows) do wybranego katalogu sieciowego. Dzięki temu użytkownicy mogą łatwiej uzyskiwać dostęp do zasobów znajdujących się na serwerze w sieci lokalnej. Na przykład, jeśli firma posiada serwer z folderem współdzielonym, mapowanie tego folderu do litery dysku (np. Z:) umożliwia użytkownikom dostęp do tego folderu tak, jakby był on lokalnym dyskiem ich komputera. Jest to szczególnie istotne w większych organizacjach, gdzie wielu pracowników potrzebuje wspólnego dostępu do dokumentów, co z kolei wpływa na zwiększenie efektywności pracy zespołowej. Mapowanie dysków jest zgodne z najlepszymi praktykami w zakresie zarządzania danymi i bezpieczeństwa, ponieważ pozwala na centralizację plików oraz łatwe zarządzanie uprawnieniami dostępu, co jest kluczowe w kontekście ochrony wrażliwych informacji.

Pytanie 7

W jakim systemie jest przedstawiona liczba 1010(o)?

A. binarnym
B. ósemkowym
C. szesnastkowym
D. dziesiętnym
Liczba 1010 w systemie ósemkowym (oktalnym) oznacza 1*8^2 + 0*8^1 + 1*8^0, co daje 64 + 0 + 1 = 65 w systemie dziesiętnym. System ósemkowy jest systemem pozycyjnym, w którym podstawą jest liczba 8. W praktyce jest on często używany w informatyce, zwłaszcza w kontekście programowania i reprezentacji danych, ponieważ niektóre systemy operacyjne i języki programowania preferują reprezentację ósemkową dla grupowania bitów. Na przykład, adresy w systemie UNIX są często przedstawiane w ósemkowym formacie, co ułatwia manipulację i zrozumienie uprawnień plików. Zrozumienie konwersji pomiędzy różnymi systemami liczbowymi jest kluczowe dla programistów oraz inżynierów oprogramowania, gdyż pozwala na efektywniejsze działanie w środowiskach, gdzie stosuje się różne standardy numeryczne.

Pytanie 8

Na przedstawionym rysunku widoczna jest karta rozszerzeń z systemem chłodzenia

Ilustracja do pytania
A. symetryczne
B. pasywne
C. aktywne
D. wymuszone
Chłodzenie pasywne jest stosowane w kartach rozszerzeń, które nie generują dużej ilości ciepła lub w sytuacjach, gdy wymagane jest absolutnie bezgłośne działanie, jak w systemach HTPC lub serwerach. Polega na wykorzystaniu radiatorów wykonanych z materiałów dobrze przewodzących ciepło, takich jak aluminium lub miedź, które rozpraszają ciepło generowane przez komponenty elektroniczne. Radiatory zwiększają powierzchnię odprowadzania ciepła, co umożliwia efektywne chłodzenie bez użycia wentylatorów. Dzięki temu system jest całkowicie cichy, co jest pożądane w środowiskach, gdzie hałas powinien być minimalny. Brak elementów ruchomych w chłodzeniu pasywnym również przekłada się na większą niezawodność i mniejszą awaryjność. Chłodzenie pasywne znalazło szerokie zastosowanie w urządzeniach pracujących w środowisku biurowym oraz w sprzęcie sieciowym, gdzie trwałość i bezawaryjność są kluczowe. Warto pamiętać, że efektywność chłodzenia pasywnego zależy od odpowiedniego przepływu powietrza wokół radiatora, dlatego dobrze zaprojektowane obudowy mogą znacząco zwiększyć jego skuteczność. Dzięki temu chłodzeniu można osiągnąć efektywność przy niskich kosztach eksploatacji, co jest zgodne z aktualnymi trendami ekologicznymi w branży IT.

Pytanie 9

Na początku procesu uruchamiania sprzętowego komputera, wykonywany jest test

A. MBR
B. POST
C. DOS
D. BIOS
Odpowiedź POST (Power-On Self-Test) jest prawidłowa, ponieważ jest to proces, który odbywa się zaraz po włączeniu komputera. Podczas POST system sprawdza podstawowe komponenty sprzętowe, takie jak pamięć RAM, procesor, karta graficzna oraz inne urządzenia peryferyjne, aby upewnić się, że wszystkie są poprawnie podłączone i działają. Jeśli testy te zakończą się pomyślnie, BIOS przechodzi do uruchomienia systemu operacyjnego z dysku twardego lub innego nośnika. Praktyczne zastosowanie tego mechanizmu ma kluczowe znaczenie dla stabilności i niezawodności systemu komputerowego, ponieważ pozwala zidentyfikować ewentualne problemy sprzętowe na wczesnym etapie. Dobrą praktyką jest również regularne sprawdzanie i diagnostyka sprzętu, co może zapobiec poważnym awariom. Wiedza na temat POST jest istotna dla specjalistów IT, którzy muszą być w stanie szybko diagnozować problemy z uruchamianiem komputerów.

Pytanie 10

Jakie jest główne zadanie programu Wireshark?

A. monitorowanie aktywności użytkowników sieci
B. ocena wydajności komponentów komputera
C. ochrona komputera przed złośliwym oprogramowaniem
D. zapobieganie nieautoryzowanemu dostępowi do komputera przez sieć
Wireshark to zaawansowane narzędzie do analizy i monitorowania ruchu sieciowego, które pozwala na szczegółowe badanie pakietów przesyłanych w sieci. Dzięki Wireshark użytkownicy mogą obserwować działania i interakcje w sieciach komputerowych, co jest niezwykle istotne w praktyce administracji sieciowej oraz w kontekście bezpieczeństwa IT. Przykłady zastosowania obejmują diagnozowanie problemów z wydajnością sieci, analizowanie ataków zewnętrznych, a także monitorowanie komunikacji między aplikacjami. Wireshark umożliwia filtrowanie i analizowanie specyficznych protokołów, co pozwala na lepsze zrozumienie, jakie dane są przesyłane oraz jakie są źródła potencjalnych problemów. Narzędzie to jest zgodne z dobrymi praktykami branżowymi, takimi jak audyty bezpieczeństwa i optymalizacja wydajności, co czyni je nieocenionym w arsenale specjalistów IT. Korzystanie z Wireshark wymaga jednak znajomości protokołów sieciowych oraz umiejętności analizy danych, co podkreśla jego rolę jako narzędzia dla profesjonalistów.

Pytanie 11

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 16 GB.
B. 1 modułu 16 GB.
C. 2 modułów, każdy po 8 GB.
D. 1 modułu 32 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 12

Jakie polecenie pozwala na uzyskanie informacji o bieżących połączeniach TCP oraz o portach źródłowych i docelowych?

A. netstat
B. ping
C. lookup
D. ipconfig
Odpowiedzi takie jak 'ping', 'lookup' i 'ipconfig' nie są odpowiednie w kontekście uzyskiwania informacji o aktualnych połączeniach TCP oraz portach. Polecenie 'ping' jest narzędziem diagnostycznym, które służy do testowania osiągalności hosta w sieci IP. Działa poprzez wysyłanie pakietów ICMP Echo Request, a następnie oczekiwanie na odpowiedzi. Nie dostarcza ono informacji o bieżących połączeniach ani portach, co czyni je nieprzydatnym w tym kontekście. 'Lookup' odnosi się do procesów rozpoznawania nazw DNS, jednak nie ma zastosowania przy monitorowaniu połączeń sieciowych. Z kolei 'ipconfig' to polecenie służące do wyświetlania konfiguracji IP na komputerze lokalnym, w tym adresów IP, masek podsieci i bramy domyślnej. Chociaż jest ono ważne dla zarządzania siecią lokalną, nie dostarcza informacji o aktywnych połączeniach TCP. Wiele osób może mylić te narzędzia, myśląc, że każde z nich może dostarczyć informacji o połączeniach sieciowych, co jest mylnym wnioskiem. Dobrym nawykiem jest zrozumienie specyfiki każdego narzędzia oraz jego zastosowania w kontekście monitorowania i zarządzania siecią, co pozwala na bardziej skuteczne diagnozowanie problemów i zapewnienie optymalnej wydajności sieci.

Pytanie 13

Jaki akronim oznacza wydajność sieci oraz usługi, które mają na celu między innymi priorytetyzację przesyłanych pakietów?

A. QoS
B. PoE
C. ARP
D. STP
QoS, czyli Quality of Service, to kluczowy akronim w kontekście przepustowości sieci oraz zarządzania jakością usług. QoS odnosi się do zestawu technologii i metod, które mają na celu zapewnienie odpowiedniego poziomu wydajności w przesyłaniu danych przez sieci komputerowe. W praktyce oznacza to między innymi nadawanie priorytetów różnym typom ruchu sieciowego, co jest szczególnie istotne w przypadku aplikacji wymagających niskiej latencji, takich jak VoIP czy strumieniowe przesyłanie wideo. W zastosowaniach rzeczywistych, QoS pozwala na segregowanie pakietów danych na te bardziej i mniej krytyczne, co umożliwia efektywne zarządzanie pasmem i minimalizowanie opóźnień. Przykładem może być środowisko korporacyjne, gdzie połączenia głosowe muszą mieć wyższy priorytet niż zwykły ruch internetowy. Warto pamiętać, że implementacja QoS opiera się na standardach takich jak RFC 2474, który definiuje metody klasyfikacji i zarządzania ruchem, co jest niezbędne do utrzymania wydajności sieci w obliczu rosnącego zapotrzebowania na usługi multimedialne. Znajomość i wdrożenie QoS jest niezbędne dla administratorów sieci, którzy pragną zapewnić użytkownikom optymalne wrażenia z korzystania z sieci.

Pytanie 14

Który z poniższych systemów operacyjnych nie jest wspierany przez system plików ext4?

A. Windows
B. Mandriva
C. Fedora
D. Gentoo
Windows nie ogarnia systemu plików ext4, który jest jednym z najnowszych w świecie Linuxa. Ext4 to czwarty rozszerzony system plików, zaprojektowany głównie z myślą o lepszej wydajności i większej niezawodności w porównaniu do poprzednich wersji, jak ext3. Wiele dystrybucji Linuxa, takich jak Fedora, Gentoo czy Mandriva, korzysta z tego systemu, bo świetnie się sprawdza. Z kolei Windows działa na innych systemach plików, na przykład NTFS czy FAT32, które są dopasowane do jego architektury. Dlatego jeśli chcesz dostać się do partycji ext4 z Windowsa, musisz zainstalować dodatkowe oprogramowanie, jak Ext2Fsd, albo użyć maszyny wirtualnej. Z mojego doświadczenia wynika, że organizacje korzystające z Linuxa na serwerach wybierają ext4, bo fajnie obsługuje duże pliki, szybciej działa i lepiej zarządza miejscem na dysku, co jest kluczowe, szczególnie w kontekście chmury czy serwerów plików.

Pytanie 15

Program df pracujący w systemach z rodziny Linux pozwala na wyświetlenie

A. tekstu odpowiadającego wzorcowi
B. informacji o dostępnej przestrzeni dyskowej
C. zawartości ukrytego folderu
D. nazwa aktualnego katalogu
Polecenie df, które jest powszechnie używane w systemach operacyjnych z rodziny Linux, jest narzędziem służącym do wyświetlania informacji o dostępnej i używanej przestrzeni dyskowej na zamontowanych systemach plików. Dzięki temu administratorzy mogą szybko ocenić, ile miejsca jest zajęte, a ile dostępne na poszczególnych partycjach. Na przykład, użycie polecenia 'df -h' pozwala na prezentację tych danych w formacie czytelnym dla człowieka, co oznacza, że wartości będą przedstawione w jednostkach KB, MB lub GB. To jest szczególnie użyteczne w kontekście monitorowania zasobów systemowych w serwerach i stacjach roboczych, gdzie zarządzanie przestrzenią dyskową jest kluczowe dla zapewnienia płynności działania systemu. Dodatkowo, narzędzie to wspiera zarządzanie przestrzenią dyskową zgodnie z dobrymi praktykami branżowymi, umożliwiając wczesne wykrywanie problemów związanych z niewystarczającą ilością miejsca, co może prowadzić do awarii aplikacji lub całego systemu.

Pytanie 16

W hurtowni materiałów budowlanych zachodzi potrzeba równoczesnego wydruku faktur w kilku kopiach. Jakiej drukarki należy użyć?

A. igłowej
B. atramentowej
C. laserowej
D. termosublimacyjnej
Drukarki igłowe są idealnym rozwiązaniem w sytuacjach, kiedy istnieje konieczność jednoczesnego drukowania kilku egzemplarzy dokumentów, takich jak faktury. Dzięki technologii druku, która polega na uderzaniu igieł w taśmę barwiącą, drukarki igłowe mogą efektywnie tworzyć kopie oryginalnych dokumentów, co jest kluczowe w środowisku hurtowni materiałów budowlanych. W praktyce oznacza to możliwość uzyskania kilku kopii w jednym cyklu drukowania, co jest niezwykle efektywne czasowo oraz oszczędza papier. Wiele firm korzysta z tej technologii, aby spełnić wymagania dotyczące wydania potwierdzeń dla różnych działów, takich jak dział księgowości, sprzedaży oraz magazynu, co jest zgodne z dobrymi praktykami w zarządzaniu dokumentacją. Dodatkowo, drukarki igłowe charakteryzują się wysoką trwałością i niskimi kosztami eksploatacji, co czyni je opłacalnym wyborem dla biznesów, które regularnie przetwarzają dużą ilość dokumentów. Warto również zauważyć, że druk igłowy jest mniej wrażliwy na zjawiska takie jak zacięcia, co zwiększa niezawodność w długoterminowym użytkowaniu.

Pytanie 17

Jaki system plików powinien być wybrany przy instalacji systemu Linux?

A. ext3
B. FAT32
C. NTFS
D. FAT
Wybór systemu plików podczas instalacji systemu Linux jest kluczowy dla wydajności oraz bezpieczeństwa danych. FAT (File Allocation Table) oraz FAT32, mimo że są powszechnie stosowane na urządzeniach przenośnych i w systemach Windows, nie są odpowiednie do użytku jako główne systemy plików dla Linuxa. FAT nie obsługuje dużych plików oraz nie zapewnia zaawansowanych funkcji, takich jak dziennikowanie, co czyni go mało odpornym na uszkodzenia. FAT32, chociaż lepszy od FAT, wciąż ogranicza maksymalny rozmiar pliku do 4 GB, co w dzisiejszych czasach jest niewystarczające dla wielu aplikacji. NTFS (New Technology File System) to system plików stworzony przez Microsoft, który oferuje zaawansowane funkcje, ale jego pełna obsługa w Linuxie może napotykać trudności, takie jak problemy z kompatybilnością oraz ograniczone wsparcie dla niektórych funkcji, co może prowadzić do problemów w przypadku dual bootu. W związku z tym, wybierając system plików dla Linuxa, należy unikać tych opcji, które nie zostały zaprojektowane z myślą o tym systemie operacyjnym. ext3, jako system plików dedykowany dla Linuxa, zapewnia odpowiednie wsparcie i funkcjonalności, które są kluczowe w kontekście stabilności oraz bezpieczeństwa danych.

Pytanie 18

Programy CommView oraz WireShark są wykorzystywane do

A. badania pakietów przesyłanych w sieci
B. mierzenia poziomu tłumienia w torze transmisyjnym
C. oceny zasięgu sieci bezprzewodowych
D. ochrony przesyłania danych w sieciach
Wybór odpowiedzi dotyczących zabezpieczania transmisji danych w sieci wskazuje na pewne nieporozumienia w zakresie funkcji programów takich jak CommView i WireShark. Choć bezpieczeństwo sieci jest ważnym aspektem ich zastosowania, nie są to narzędzia zaprojektowane bezpośrednio do zabezpieczania transmisji. Zamiast tego, ich głównym zadaniem jest analiza ruchu sieciowego. W kontekście sprawdzania zasięgu sieci bezprzewodowej, odpowiedzi te mogą wprowadzać w błąd, ponieważ CommView i WireShark nie są dedykowane do tego celu. Zasięg sieci bezprzewodowej można ocenić przy użyciu specjalistycznych narzędzi, które mierzą siłę sygnału w różnych lokalizacjach, natomiast oba te programy koncentrują się na pakietach danych, które już przeszły przez sieć. Określanie wielkości tłumienia w torze transmisyjnym również nie jest funkcją ani jednym z zastosowań tych narzędzi, które pozostają na poziomie analizy pakietów. Tłumienie w torze transmisyjnym to zagadnienie związane z fizyką sygnału i wymaga innych metod pomiarowych. Właściwe zrozumienie funkcji analizujących ruch sieciowy jest kluczowe dla prawidłowego wykorzystania tych narzędzi oraz efektywnego zarządzania sieciami komputerowymi.

Pytanie 19

Który protokół należy do bezpołączeniowych protokołów warstwy transportowej?

A. TCP
B. UDP
C. FTP
D. ARP
UDP, czyli User Datagram Protocol, to taki protokół transportowy, który nie wymaga nawiązywania połączenia. To sprawia, że jest super szybki w przesyłaniu danych. Właściwie, to jest kluczowy element w sieciach, zwłaszcza gdy mówimy o aplikacjach, które potrzebują błyskawicznej transmisji, na przykład w grach online czy podczas strumieniowania wideo. W przeciwieństwie do TCP, które najpierw nawiązuje sesję, UDP po prostu wysyła pakiety, co oznacza, że nie możemy liczyć na to, że wszystkie dotrą na miejsce, ani w jakiej kolejności. To dlatego świetnie działa tam, gdzie szybkość ma znaczenie. Na przykład, protokół DHCP korzysta z UDP do przydzielania adresów IP bez zbędnych formalności. Jeśli więc zależy ci na prędkości i efektywności, UDP jest na pewno lepszym wyborem. W branży wiadomo, że tam, gdzie liczy się czas, UDP jest na czołowej pozycji.

Pytanie 20

Jaką rolę pełnią elementy Tr1 i Tr2, które są widoczne na schemacie ilustrującym kartę sieciową Ethernet?

Ilustracja do pytania
A. Oferują szyfrowanie oraz deszyfrowanie danych przesyłanych przez sieć
B. Zapewniają separację obwodu elektrycznego sieci LAN od obwodu elektrycznego komputera
C. Wskazują szybkość pracy karty sieciowej poprzez świecenie na zielono
D. Informują o aktywności karty sieciowej za pomocą dźwięków
Izolacja obwodu elektrycznego jest kluczową funkcją transformatorów Tr1 i Tr2 w kartach sieciowych Ethernet. Transformator Ethernet zapewnia galwaniczne oddzielenie obwodów sieciowych od urządzeń, do których są podłączone. Dzięki temu zabezpiecza urządzenia przed różnicami potencjałów, które mogą występować w różnych segmentach sieci, co jest szczególnie istotne w środowiskach o dużych zakłóceniach elektrycznych. Izolacja transformatorowa chroni przed przepięciami i zwarciami, minimalizując ryzyko uszkodzenia sprzętu komputerowego. W praktyce oznacza to, że wszelkie zakłócenia i piki napięciowe występujące w sieci nie przenoszą się bezpośrednio na sprzęt komputerowy, co mogłoby spowodować jego uszkodzenie. Transformator Ethernet jest zatem zgodny z normami bezpieczeństwa i dobrymi praktykami branżowymi, które wymagają zapewnienia bezpieczeństwa i niezawodności w pracy sieci komputerowych. Standard IEEE 802.3 określa wymagania dotyczące izolacji galwanicznej, w tym minimalne napięcie probiercze, które transformator musi wytrzymać, aby spełniać normy bezpieczeństwa. W ten sposób transformator zapewnia bezpieczne użytkowanie sieci, chroniąc sprzęt i dane przed nieprzewidzianymi awariami elektrycznymi.

Pytanie 21

Narzędzie przedstawione do nadzorowania sieci LAN to

C:\Users\egzamin>nmap localhost
Starting Nmap 7.80 ( https://nmap.org ) at 2019-11-26 20:23 ?rodkowoeuropejski czas stand.
Nmap scan report for localhost (127.0.0.1)
Host is up (0.00s latency).
Other addresses for localhost (not scanned): ::1
Not shown: 988 closed ports
PORT      STATE SERVICE
135/tcp   open  msrpc
445/tcp   open  microsoft-ds
1025/tcp  open  NFS-or-IIS
1026/tcp  open  LSA-or-nterm
1027/tcp  open  IIS
1029/tcp  open  ms-lsa
1030/tcp  open  iad1
1031/tcp  open  iad2
1044/tcp  open  dcutility
1234/tcp  open  hotline
2869/tcp  open  icslap
16992/tcp open  amt-soap-http

Nmap done: 1 IP address (1 host up) scanned in 0.94 seconds
A. zapora sieciowa
B. skaner portów
C. konfigurator IP
D. konfigurator sieci
Skaner portów, taki jak Nmap przedstawiony na obrazku, jest narzędziem służącym do monitorowania sieci LAN poprzez identyfikację otwartych portów na hostach. Pozwala to administratorom sieci na wykrywanie potencjalnych luk bezpieczeństwa oraz nieautoryzowanych usług działających w sieci. Nmap, jako jeden z najbardziej popularnych skanerów portów, umożliwia przeprowadzanie audytów bezpieczeństwa, pomagając w ocenie bezpieczeństwa systemów poprzez identyfikację otwartych portów i wersji działających usług. Wykorzystując techniki skanowania, takie jak TCP SYN, TCP Connect czy skanowanie UDP, Nmap jest w stanie precyzyjnie określić stan portów oraz dostępność usług. W praktyce, regularne skanowanie sieci za pomocą takich narzędzi jest uważane za dobrą praktykę, pomagając w utrzymaniu bezpieczeństwa i stabilności infrastruktury sieciowej. Stosowanie skanerów portów powinno być częścią kompleksowego podejścia do bezpieczeństwa, obejmującego również zarządzanie aktualizacjami oprogramowania, konfigurację zapór ogniowych oraz systemy wykrywania intruzów. Dzięki skanowaniu portów można również zidentyfikować nieprawidłowo skonfigurowane maszyny lub urządzenia, które mogą stanowić zagrożenie dla całej sieci. Wszystkie te elementy pomagają w budowie odpornej i bezpiecznej infrastruktury IT, zgodnie z najlepszymi praktykami w branży.

Pytanie 22

Na zdjęciu widać

Ilustracja do pytania
A. przedłużacz kabla UTP
B. wtyk audio
C. wtyk kabla koncentrycznego
D. wtyk światłowodu
Wtyk światłowodu jest kluczowym elementem nowoczesnych sieci telekomunikacyjnych i informatycznych ze względu na jego zdolność do przesyłania danych na dużą odległość z minimalnymi stratami. Wtyki światłowodowe umożliwiają połączenie światłowodów, które przesyłają dane w postaci impulsów świetlnych, co zapewnia większą przepustowość i szybkość transmisji w porównaniu do tradycyjnych kabli miedzianych. Istnieje kilka typów wtyków światłowodowych najczęściej stosowane to SC ST i LC każdy z nich ma swoje specyficzne zastosowania i właściwości. Przykładowo wtyk SC jest często używany w sieciach Ethernetowych z powodu swojej prostoty i szybkości w montażu. Zastosowanie światłowodów jest szerokie obejmuje nie tylko telekomunikację ale także sieci komputerowe systemy monitoringu i transmisji wideo. Dobór odpowiedniego typu wtyku i światłowodu zależy od wymagań technicznych projektu w tym odległości transmisji i wymaganego pasma. Zrozumienie różnic między tymi typami oraz ich praktyczne zastosowanie to klucz do efektywnego projektowania i zarządzania nowoczesnymi sieciami telekomunikacyjnymi. Warto także znać standardy takie jak ITU-T i ANSI TIA EIA które regulują specyfikacje techniczne światłowodów.

Pytanie 23

Programem, który pozwala na zdalne monitorowanie działań użytkownika w sieci lokalnej lub przejęcie pełnej kontroli nad zdalnym komputerem, jest

A. RealVNC
B. NSlookup
C. Recuva
D. CPU-Z
NSlookup jest narzędziem służącym do zapytań DNS, pozwalającym na uzyskiwanie informacji o domenach oraz ich odpowiednikach IP. Pomocne jest w diagnostyce problemów z DNS, ale nie ma funkcji zdalnego dostępu ani kontroli zdalnych maszyn. Użytkownicy mogą mylić NSlookup z narzędziami zdalnego dostępu z powodu podobieństw w zastosowaniach sieciowych, jednak jego funkcjonalność jest znacznie bardziej ograniczona. Recuva to program zaprojektowany do odzyskiwania utraconych plików z dysków twardych lub nośników pamięci, a jego zastosowanie nie ma nic wspólnego z zdalnym dostępem. Pomyłka może wynikać z nieznajomości specyfikacji programów i ich funkcji, co prowadzi do niewłaściwych konkluzji na temat ich zastosowania. CPU-Z to narzędzie do zbierania informacji o sprzęcie komputerowym, w tym o procesorze, płycie głównej czy pamięci RAM. Choć przydatne dla użytkowników chcących zrozumieć swój sprzęt, nie oferuje żadnych funkcji do zdalnego dostępu. Kluczowe jest zrozumienie różnic między tymi narzędziami, aby właściwie dobierać je do swoich potrzeb oraz uniknąć nieporozumień wynikających z niewłaściwego zastosowania oprogramowania.

Pytanie 24

Jakie urządzenie sieciowe powinno zastąpić koncentrator, aby podzielić sieć LAN na cztery odrębne domeny kolizji?

A. Switch'em
B. Wszystkie
C. Regeneratorem
D. Routerem
Wybierając most, regenerator czy przełącznik, można napotkać fundamentalne nieporozumienia dotyczące funkcji tych urządzeń w kontekście segmentacji sieci. Mosty działają na poziomie warstwy drugiej modelu OSI i służą do łączenia dwóch lub więcej segmentów LAN, co pozwala na ich współpracę, ale nie rozdziela domen kolizji. Przełączniki, choć bardziej zaawansowane od mostów, działają na tym samym poziomie i również nie oddzielają domen kolizji, lecz jedynie minimalizują ich występowanie poprzez stworzenie dedykowanych kanałów komunikacji dla poszczególnych urządzeń w obrębie tej samej sieci. Regeneratory z kolei są używane do wzmocnienia sygnału w sieciach, co nie ma nic wspólnego z zarządzaniem domenami kolizji. Użytkownicy często mylą funkcje tych urządzeń, zakładając, że mogą one efektywnie podzielić sieć na mniejsze jednostki. Prawidłowe zrozumienie różnic między tymi technologiami jest kluczowe dla prawidłowego projektowania i zarządzania sieciami komputerowymi. Rutery, w przeciwieństwie do tych urządzeń, operują na wyższym poziomie i są w stanie nie tylko podzielić sieć na różne domeny kolizji, ale także zarządzać ruchem między różnymi sieciami, co czyni je niezbędnym narzędziem w architekturze nowoczesnych sieci.

Pytanie 25

W systemie Windows, zainstalowanym w wersji obsługującej przydziały dyskowe, użytkownik o nazwie Gość

A. nie może być członkiem żadnej grupy
B. nie może być wyłącznie członkiem grupy globalnej
C. może być członkiem grup lokalnych oraz grup globalnych
D. nie może być tylko w grupie o nazwie Goście
Odpowiedź mówiąca, że użytkownik o nazwie Gość może należeć do grup lokalnych i grup globalnych, jest zgodna z zasadami zarządzania użytkownikami w systemie Windows. W systemach operacyjnych Windows, grupy użytkowników są kluczowe dla zarządzania uprawnieniami i dostępem do zasobów. Użytkownik Gość, mimo że ma ograniczone uprawnienia, może być członkiem grup, co pozwala na nadanie mu specyficznych uprawnień. Przykładowo, członkostwo w lokalnej grupie 'Użytkownicy' umożliwia Gościowi korzystanie z podstawowych funkcji systemu, takich jak logowanie się oraz dostęp do publicznych folderów. Z kolei dołączenie do globalnej grupy, na przykład 'Użytkownicy domeny', pozwala na zarządzanie dostępem do zasobów w sieci w zależności od polityki i potrzeb organizacji. Zgodnie z dobrymi praktykami, takim jak zasada najmniejszych uprawnień, przydzielanie użytkownikom, w tym Gościowi, odpowiednich grup lokalnych i globalnych ułatwia kontrolowanie dostępu i minimalizowanie ryzyka, co jest szczególnie ważne w środowiskach produkcyjnych oraz w organizacjach z restrykcyjnymi politykami bezpieczeństwa.

Pytanie 26

Topologia fizyczna, w której wszystkie urządzenia końcowe są bezpośrednio połączone z jednym punktem centralnym, takim jak koncentrator lub switch, to topologia

A. Siatka
B. Pierścień
C. Magistrala
D. Gwiazda
Topologia gwiazdy jest jedną z najpopularniejszych architektur sieciowych, w której wszystkie urządzenia końcowe, takie jak komputery, drukarki czy serwery, są bezpośrednio podłączone do centralnego punktu, którym jest koncentrator, przełącznik lub router. Taki układ umożliwia łatwe dodawanie i usuwanie urządzeń z sieci bez zakłócania jej działania, co jest istotne w środowiskach, gdzie zmiany są nieuniknione. W przypadku awarii jednego z urządzeń końcowych, problemy nie rozprzestrzeniają się na inne urządzenia, co zwiększa niezawodność całej sieci. Standardy takie jak Ethernet (IEEE 802.3) często wykorzystują topologię gwiazdy, co potwierdza jej szerokie zastosowanie i akceptację w branży. W praktyce, w biurach i w domowych sieciach lokalnych, topologia gwiazdy pozwala na efektywne zarządzanie ruchem sieciowym i centralizację zarządzania, co jest korzystne w kontekście zabezpieczeń. Efektywność monitorowania i diagnostyki w topologii gwiazdy stanowi kolejny atut, umożliwiający szybkie wykrywanie i rozwiązywanie problemów.

Pytanie 27

Rysunek ilustruje sposób działania drukarki

Ilustracja do pytania
A. laserowej
B. igłowej
C. atramentowej
D. sublimacyjnej
Drukarka atramentowa działa na zasadzie wykorzystania cieczy, która zostaje naniesiona na papier za pomocą dysz drukujących. Obraz przedstawia proces, gdzie element grzejny podgrzewa tusz w komorze prowadząc do powstania pęcherzyka gazu. Ten pęcherzyk wypycha kroplę atramentu przez dyszę na papier. Technologia ta pozwala na uzyskanie wysokiej jakości wydruków dzięki precyzyjnemu dozowaniu atramentu. Drukarki atramentowe są często stosowane w domach i biurach ze względu na ich zdolność do drukowania zarówno dokumentów tekstowych, jak i kolorowych obrazów z dużą dokładnością. Warto pamiętać, że różne tusze mają różne właściwości, co wpływa na odporność wydruku na blaknięcie czy wodę, a producenci drukarek zalecają stosowanie oryginalnych kartridży dla optymalnej jakości. Drukowanie atramentowe jest również cenione za niskie koszty eksploatacyjne w porównaniu do technologii laserowej, co czyni je popularnym wyborem w wielu zastosowaniach, od codziennego użytku po profesjonalne drukowanie zdjęć.

Pytanie 28

W jakim typie skanera stosuje się fotopowielacze?

A. kodów kreskowych
B. płaskim
C. bębnowym
D. ręcznym
Wybór skanera ręcznego, kodów kreskowych lub płaskiego nie jest właściwy w kontekście wykorzystania fotopowielaczy. Skanery ręczne, chociaż przydatne w przenośnym skanowaniu, nie wykorzystują technologii fotopowielaczy, lecz często prostsze komponenty optyczne, co ogranicza ich zdolność do uzyskiwania wysokiej jakości obrazów. Z kolei skanery kodów kreskowych są zaprojektowane głównie do odczytywania kodów kreskowych, a ich technologie, takie jak laserowe skanowanie lub skanowanie CCD, nie wymagają użycia fotopowielaczy. Zamiast tego koncentrują się na szybkości i precyzji odczytu kodów, co w zupełności różni się od aspektów obrazowania. W przypadku skanerów płaskich, choć mogą oferować przyzwoitą jakość skanowania, zazwyczaj wykorzystują inne typy sensorów, takie jak CMOS, zamiast fotopowielaczy. W wielu przypadkach użytkownicy mogą błędnie zakładać, że wszystkie typy skanerów mogą osiągnąć podobną jakość obrazu, nie dostrzegając różnic w zastosowanych technologiach. Dlatego ważne jest, aby zrozumieć, że dobór odpowiedniego skanera zależy od specyficznych potrzeb związanych z jakością obrazu oraz rodzajem skanowanych materiałów. Nie mogą one zatem zastąpić bębnowych skanerów w kontekście profesjonalnych zastosowań wymagających najwyższej możliwości detekcji detali.

Pytanie 29

Zapisany symbol dotyczy urządzeń

Ilustracja do pytania
A. SCSI
B. USB
C. LPT
D. IEEE-1394
Symbol, który widzisz w pytaniu, dotyczy interfejsu SCSI, czyli Small Computer System Interface. To taki zestaw zasad, który używa się głównie do łączenia komputerów z różnymi urządzeniami peryferyjnymi, na przykład dyskami twardymi czy skanerami. SCSI jest dość popularny, szczególnie w serwerach i miejscach, gdzie potrzebna jest duża przepustowość oraz niezawodność. Co ciekawe, w odróżnieniu od innych interfejsów, SCSI potrafi przesyłać dane równolegle, co znacznie poprawia jego wydajność. Przez lata ten standard przeszedł różne zmiany, wprowadzono nowe wersje, takie jak Ultra SCSI czy Ultra320, które oferują lepsze prędkości transferu. Fajną cechą SCSI jest to, że można podłączyć wiele urządzeń na raz do jednego kontrolera, co czyni go bardzo elastycznym rozwiązaniem w bardziej skomplikowanych systemach. Tak naprawdę jeden kontroler SCSI może obsługiwać nawet 16 urządzeń, co jest super przydatne w centrach danych. Co ważne, SCSI ma także dobrą kompatybilność wsteczną, więc łatwo można go zmodernizować.

Pytanie 30

Postcardware to typ

A. licencji oprogramowania
B. usługi poczty elektronicznej
C. wirusa komputerowego
D. karty sieciowej
Zrozumienie różnych rodzajów technologii i ich zastosowań jest kluczowe dla właściwego wnioskowania w dziedzinie informatyki. Po pierwsze, karta sieciowa to komponent sprzętowy, który umożliwia urządzeniom komunikację w sieci komputerowej. Jej funkcja jest całkowicie niezwiązana z pojęciem licencji oprogramowania, co może prowadzić do nieporozumień. Często osoby mylą pojęcia sprzętowe z programowymi, co skutkuje błędnymi odpowiedziami. Z kolei wirusy komputerowe są złośliwym oprogramowaniem, które infekuje systemy komputerowe, co jest także odległym zagadnieniem od licencji oprogramowania. W tym kontekście, mylenie wirusów z modelami licencji prowadzi do niepoprawnych wniosków o charakterze funkcjonalnym. Wreszcie, usługi poczty elektronicznej służą do przesyłania wiadomości i nie mają bezpośredniego związku z licencjonowaniem oprogramowania. Te różnice wskazują na konieczność głębszego zrozumienia podstawowych pojęć w branży IT. Właściwe zrozumienie, czym jest postcardware i jak różni się od innych technologii, jest kluczowe dla właściwego oceniania i stosowania wiedzy o programowaniu oraz dystrybucji oprogramowania. Często popełniane błędy w rozumieniu tych koncepcji mogą prowadzić do niewłaściwych decyzji w kontekście wyboru technologii, co z kolei wpływa na efektywność pracy oraz bezpieczeństwo systemów.

Pytanie 31

Aby zapewnić największe bezpieczeństwo danych przy wykorzystaniu dokładnie 3 dysków, powinny one być zapisywane w macierzy dyskowej

A. RAID 10
B. RAID 6
C. RAID 5
D. RAID 50
Macierze RAID mają swoje wymagania dotyczące minimalnej liczby dysków i specyfiki działania, co często jest źródłem nieporozumień. RAID 6, choć zapewnia bardzo wysokie bezpieczeństwo dzięki podwójnej parzystości (czyli możliwość awarii aż dwóch dysków jednocześnie), wymaga przynajmniej czterech dysków, żeby w ogóle działać. W praktyce przy trzech dyskach RAID 6 po prostu nie da się skonfigurować – systemy nie pozwolą nawet rozpocząć takiej inicjalizacji. Często użytkownicy zakładają, że skoro RAID 5 jest możliwy od trzech dysków, to RAID 6 pewnie też, bo to tylko „lepsza wersja” – a to nie do końca tak działa. RAID 10 to natomiast rozwiązanie hybrydowe, łączące mirroring (RAID 1) i striping (RAID 0). Minimalna liczba dysków dla RAID 10 to cztery, bo potrzebujemy przynajmniej dwóch par lustrzanych. Zdarza się, że ktoś myśli: „Okej, RAID 10 brzmi lepiej, to pewnie można z trzema, byle było szybciej i bezpieczniej” – ale taka konfiguracja nie jest wspierana sprzętowo ani programowo. Co do RAID 50 (czyli RAID 5+0), to jest on przeznaczony dla dużych środowisk korporacyjnych, bo wymaga co najmniej sześciu dysków (dwie grupy po trzy). Myślenie, że RAID 50 podniesie bezpieczeństwo, jeśli mamy tylko trzy dyski, niestety nie sprawdza się w praktyce. Podsumowując, największe bezpieczeństwo przy trzech dyskach oferuje właśnie RAID 5 – i to jest nie tylko moje zdanie, ale też opinia większości specjalistów branżowych. Warto zapamiętać, że dobór poziomu RAID zawsze musi uwzględniać nie tylko oczekiwane bezpieczeństwo, ale i minimalne wymagania sprzętowe, które są jasno opisane w dokumentacji technicznej.

Pytanie 32

Który z poniższych adresów IPv4 należy do klasy C?

A. 240.220.0.4
B. 191.168.0.2
C. 220.191.0.3
D. 168.192.0.1
Adres IPv4 220.191.0.3 należy do klasy C, ponieważ jego pierwszy oktet mieści się w przedziale od 192 do 223. Klasa C jest szczególnie istotna w kontekście routingu w Internecie, ponieważ pozwala na wykorzystanie dużej liczby adresów IP dla mniejszych sieci. Klasyfikacja adresów IP opiera się na pierwszym oktetcie, co jest zgodne z konwencjami ustalonymi przez IANA (Internet Assigned Numbers Authority). W praktyce, sieci klasy C są często wykorzystywane przez małe i średnie przedsiębiorstwa oraz w sytuacjach, gdy organizacje potrzebują odrębnych podsieci dla różnych działów. Warto zauważyć, że adresy klasy C są zwykle przypisywane w formacie CIDR (Classless Inter-Domain Routing), co pozwala na bardziej elastyczne zarządzanie przestrzenią adresową. Przykładem praktycznego zastosowania adresu klasy C może być budowanie lokalnej sieci komputerowej w firmie, gdzie router jest skonfigurowany do obsługi sieci 192.168.1.0/24, co pozwala na przydzielenie 254 unikalnych adresów IP. Zrozumienie klasyfikacji adresów IP jest kluczowe dla każdego, kto pracuje z sieciami komputerowymi.

Pytanie 33

Na ilustracji pokazano końcówkę kabla

Ilustracja do pytania
A. typy skrętki
B. koncentrycznego
C. telefonicznego
D. światłowodowego
Złącza światłowodowe, takie jak te przedstawione na rysunku, są kluczowymi elementami wykorzystywanymi w telekomunikacji optycznej. Kabel światłowodowy służy do przesyłania danych w postaci światła, co pozwala na przesyłanie informacji z bardzo dużą szybkością i na duże odległości bez znaczących strat. Jest to szczególnie ważne w infrastrukturze internetowej, gdzie wymagana jest wysoka przepustowość. Standardowym złączem dla kabli światłowodowych jest złącze SC (Subscriber Connector), które charakteryzuje się prostokątnym kształtem i łatwością montażu dzięki mechanizmowi push-pull. Światłowody są obecnie używane w wielu branżach, w tym w telekomunikacji, medycynie, a także w systemach CCTV. Wybór odpowiedniego złącza i kabla światłowodowego jest istotny z punktu widzenia utrzymania jakości sygnału oraz zgodności z obowiązującymi standardami, takimi jak ITU-T G.657. Właściwe połączenie światłowodowe zapewnia minimalne tłumienie sygnału i wysoką niezawodność, co jest kluczowe w nowoczesnej transmisji danych. Wiedza na temat różnych typów złącz i ich zastosowań jest niezbędna dla osób pracujących w tej dziedzinie technologicznej.

Pytanie 34

Aby sprawdzić statystyki użycia pamięci wirtualnej w systemie Linux, należy sprawdzić zawartość pliku

A. /proc/vmstat
B. xload
C. /etc/inittab
D. pagefile.sys
Wiele osób myli się, wybierając nieodpowiednie źródła informacji o pamięci wirtualnej w Linuksie, bo nazwy czy skojarzenia są czasem mylące. Na przykład, xload to aplikacja graficzna wyświetlająca wykres obciążenia systemu, ale kompletnie nie dotyka tematu pamięci wirtualnej – ona bazuje na danych o obciążeniu CPU, a nie stricte o zarządzaniu pamięcią. W praktyce takie narzędzia przydają się na desktopach, a nie na serwerach, gdzie i tak często nie ma środowiska graficznego. Z kolei /etc/inittab kojarzy się z ustawieniami startowymi i inicjalizacją systemu, ale nie ma tam żadnych informacji dotyczących pamięci, to raczej pozostałość po dawnych dystrybucjach, a współczesne systemy często nawet nie mają już tego pliku, bo został wyparty przez systemd. pagefile.sys natomiast to domena systemów Windows – to tam przechowywany jest plik wymiany (swap), który w Linuksie ma inną postać (najczęściej jest to albo dedykowana partycja swap, albo plik swap na dysku, ale z zupełnie inną lokalizacją i mechanizmem działania). To typowy błąd wynikający z przenoszenia nawyków z Windows do Linuksa, co nie zawsze działa. Moim zdaniem, wiele osób niepotrzebnie szuka prostych rozwiązań na podstawie skojarzeń z innych systemów operacyjnych, zamiast po prostu sprawdzić dokumentację Linuksa czy manuale – a te jasno wskazują na /proc/vmstat jako źródło danych o pamięci wirtualnej. W środowiskach produkcyjnych, szczególnie na serwerach, korzystanie z właściwych źródeł informacji to podstawa bezpieczeństwa i efektywnej diagnostyki. Oparcie się na niewłaściwych plikach czy narzędziach może prowadzić do błędnych wniosków, a potem do niepotrzebnej frustracji przy rozwiązywaniu realnych problemów z wydajnością lub stabilnością systemu.

Pytanie 35

Wskaż najkorzystniejszą trasę sumaryczną dla podsieci IPv4?

10.10.168.0/23
10.10.170.0/23
10.10.172.0/23
10.10.174.0/24
A. 10.10.168.0/21
B. 10.10.160.0/21
C. 10.10.168.0/22
D. 10.10.168.0/16
Opcja 10.10.160.0/21 jest zbyt szeroka i obejmuje zakres IP od 10.10.160.0 do 10.10.167.255, co nie obejmuje podanego zakresu adresów IP. Zastosowanie tej maski prowadzi do błędnego wniosku, że cały zakres adresów IP jest pokrywany, co w rzeczywistości nie jest prawdą. W praktyce taka konfiguracja mogłaby prowadzić do pomijania niektórych segmentów sieci, co obniża efektywność routingu. Z kolei 10.10.168.0/16 jest jeszcze szersza i obejmuje zakres IP od 10.10.0.0 do 10.10.255.255. Choć rzeczywiście obejmuje podane podsieci, to jest zbyt ogólnikowa i prowadzi do nieefektywnego wykorzystania zasobów adresowych oraz zbędnego obciążenia tablic routingu zbytnim poziomem szczegółowości. Ostatecznie 10.10.168.0/22 choć jest bliższa poprawnej odpowiedzi, to mimo wszystko nie obejmuje pełnego zakresu adresów wymaganych przez pytanie, kończąc się na 10.10.171.255 i pomijając 10.10.172.0/23 oraz 10.10.174.0/24. Wybór tej podsieci mógłby zatem prowadzić do braku dostępu do niektórych segmentów sieci. W praktycznym zastosowaniu, wybieranie zbyt wąskich lub zbyt szerokich tras może prowadzić do utraty efektywności oraz problemów z niezawodnością sieci, co jest sprzeczne z podstawowymi zasadami projektowania sieci. Każda z niepoprawnych odpowiedzi ilustruje typowe błędy związane z brakiem optymalizacji tras sieciowych co jest kluczowe w kontekście zarządzania dużymi i kompleksowymi strukturami sieciowymi w środowisku korporacyjnym. Profesjonalne zarządzanie siecią wymaga precyzyjnego dostosowania tras do rzeczywistych potrzeb i dostępnych zasobów co w tym przykładzie oznacza wybór trasy, która dokładnie obejmuje wymagane zakresy adresów i nic poza nimi aby uniknąć niepotrzebnych komplikacji w sieci.

Pytanie 36

Połączenia typu point-to-point, realizowane za pośrednictwem publicznej infrastruktury telekomunikacyjnej, oznacza się skrótem

A. VPN
B. PAN
C. WLAN
D. VLAN
VLAN, WLAN oraz PAN to terminy, które odnoszą się do różnych typów sieci, jednak żaden z nich nie opisuje technologii, która umożliwia bezpieczne połączenia przez publiczną infrastrukturę telekomunikacyjną. VLAN (Virtual Local Area Network) to metoda segmentacji sieci lokalnej, która pozwala na tworzenie wielu logicznych sieci w ramach jednego fizycznego medium. VLAN-y są często używane w dużych organizacjach do zwiększenia wydajności i bezpieczeństwa, umożliwiając separację ruchu sieciowego. WLAN (Wireless Local Area Network) odnosi się do sieci lokalnych opartych na technologii bezprzewodowej, co umożliwia urządzeniom mobilnym łączenie się z internetem bez użycia kabli. Z kolei PAN (Personal Area Network) to sieć o bardzo małym zasięgu, używana do komunikacji między urządzeniami osobistymi, takimi jak telefony czy laptopy, zazwyczaj za pośrednictwem technologii Bluetooth. Skupiając się na tych terminach, można zauważyć, że koncentrują się one na różnych aspektach lokalej komunikacji, zamiast na tworzeniu bezpiecznych połączeń przez publiczną infrastrukturę. Zrozumienie tych różnic jest kluczowe, aby unikać pomyłek w kontekście zastosowań technologii sieciowych oraz ich bezpieczeństwa.

Pytanie 37

Która funkcja przełącznika zarządzalnego umożliwia kontrolę przepustowości każdego z wbudowanych portów?

A. Port Mirroring.
B. Link aggregation.
C. IP Security.
D. Bandwidth control.
W tym pytaniu łatwo się pomylić, bo wszystkie wymienione funkcje faktycznie występują w przełącznikach zarządzalnych, ale pełnią zupełnie inne role niż kontrola przepustowości pojedynczych portów. Dobrym podejściem jest zawsze zadać sobie pytanie: czy ta funkcja realnie ogranicza lub przydziela pasmo na danym porcie, czy raczej robi coś „obok” tego tematu. IP Security kojarzy się z bezpieczeństwem i często z IPsec, więc intuicyjnie można pomyśleć, że skoro coś jest związane z bezpieczeństwem, to może też kontrolować ruch. W praktyce IPsec dotyczy szyfrowania, uwierzytelniania i integralności pakietów IP, głównie na routerach i firewallach, a nie precyzyjnego ustawiania limitów przepustowości na portach switcha. Nawet jeśli ruch jest szyfrowany, jego prędkość dalej trzeba kontrolować innymi mechanizmami, typowo QoS i bandwidth control. Port Mirroring to z kolei funkcja diagnostyczna. Służy do kopiowania ruchu z jednego lub kilku portów na inny port, do którego podłączony jest analizator, np. Wireshark albo sprzętowy sniffer. Używa się tego przy debugowaniu problemów w sieci, analizie bezpieczeństwa czy monitoringu wydajności. To, że ruch jest kopiowany, nie oznacza, że mamy nad nim kontrolę przepustowości. Port Mirroring niczego nie ogranicza, tylko duplikuje pakiety, co w skrajnych przypadkach może nawet zwiększyć obciążenie przełącznika. Link aggregation (LACP, port trunking) wygląda pozornie jak coś od przepustowości, bo faktycznie zwiększa łączną przepustowość między urządzeniami, łącząc kilka portów fizycznych w jeden logiczny kanał. Ale to jest skalowanie przepustowości na łączu między urządzeniami, a nie limitowanie pojedynczego portu wobec podłączonego hosta. Dobre praktyki mówią, że agregację stosuje się głównie między przełącznikami, przełącznikiem a serwerem lub macierzą, żeby uzyskać większą redundancję i sumaryczne pasmo. Nadal jednak nie masz tam mechanizmu typu „ten port maksymalnie 10 Mb/s”. Typowym błędem myślowym jest wrzucanie do jednego worka wszystkiego, co „jakoś dotyczy ruchu”: bezpieczeństwo, monitorowanie, agregacja i QoS. Tymczasem kontrola przepustowości portu to bardzo konkretna funkcjonalność, która realizuje się przez bandwidth control/rate limiting, często w ramach polityk QoS. Jeśli pytanie mówi wprost o „kontroli przepustowości każdego z wbudowanych portów”, to chodzi o możliwość ustawienia limitu pasma na poziomie pojedynczego portu, a nie o szyfrowanie, kopiowanie ruchu czy łączenie kilku portów w jeden logiczny kanał.

Pytanie 38

Korzystając z polecenia taskmgr, użytkownik systemu Windows może

A. przeprowadzić aktualizację sterowników systemowych
B. naprawić błędy w systemie plików
C. przerwać działanie problematycznej aplikacji
D. odzyskać uszkodzone obszary dysku
Wszystkie pozostałe odpowiedzi dotyczą funkcji, które nie są dostępne w Menedżerze zadań systemu Windows i wykazują powszechne nieporozumienia dotyczące jego zastosowania. Odzyskiwanie uszkodzonych sektorów dysku to zadanie, które powinno być realizowane przy użyciu narzędzi takich jak CHKDSK, które są projektowane specjalnie do diagnostyki i naprawy błędów na dyskach twardych. Użytkownicy często mylą Menedżera zadań z bardziej zaawansowanymi narzędziami diagnostycznymi, co prowadzi do błędnych wniosków. Podobnie, aktualizacja sterowników systemowych wymaga użycia Menedżera urządzeń lub pobrania sterowników bezpośrednio ze stron producentów, a nie Menedżera zadań. W przypadku naprawy błędów systemu plików, użytkownicy również powinni korzystać z narzędzi dedykowanych, takich jak wspomniane CHKDSK lub inne oprogramowanie do zarządzania dyskami. Takie niepoprawne podejścia mogą wynikać z braku wiedzy na temat struktury systemu Windows i jego narzędzi. Użytkownicy powinni być świadomi, że Menedżer zadań jest narzędziem do monitorowania i zarządzania bieżącymi procesami, a nie do wykonywania operacji naprawczych na poziomie systemu.

Pytanie 39

Urządzenie pokazane na grafice służy do

Ilustracja do pytania
A. separacji sygnału
B. wzmocnienia sygnału
C. konwersji transmisji sygnału z użyciem kabla światłowodowego na skrętkę
D. ochrony przed nieautoryzowanym dostępem z sieci
Rozdzielenie sygnału odnosi się do działania urządzeń takich jak rozdzielacze sygnału (splittery), które dzielą jeden sygnał na wiele wyjść. W kontekście sieci komputerowych rozdzielanie sygnału ma sens w przypadku, gdy chcemy podzielić sygnał Ethernet na kilka urządzeń końcowych, ale nie wiąże się to z konwersją medium transmisyjnego. Wzmocnienie sygnału to funkcja repeaterów, które wzmacniają sygnał, aby mógł być przesyłany na większe odległości. Konwerter mediów nie wzmacnia sygnału, a jedynie zmienia medium transmisyjne z optycznego na elektryczne lub odwrotnie. Zabezpieczenie przed niepożądanym dostępem z sieci odnosi się do urządzeń takich jak firewalle czy systemy wykrywania intruzów (IDS/IPS), które monitorują i kontrolują ruch sieciowy, zapewniając ochronę przed atakami. Konwerter mediów nie pełni takich funkcji, ponieważ jego zadaniem jest jedynie konwersja sygnału bez wpływu na bezpieczeństwo sieci. Typowe błędy myślowe polegają na myleniu funkcji różnych urządzeń sieciowych, które choć mogą współdziałać, pełnią różne role w infrastrukturze sieciowej. Zrozumienie specyficznych funkcji każdego urządzenia jest kluczowe dla właściwego projektowania i zarządzania siecią komputerową. Konwertery mediów, jako urządzenia pasywne, nie podejmują działań takich jak wzmacnianie sygnału czy zabezpieczanie dostępu, co jest domeną innych, bardziej zaawansowanych urządzeń sieciowych.

Pytanie 40

Który protokół jest odpowiedzialny za przekształcanie adresów IP na adresy MAC w kontroli dostępu do nośnika?

A. ARP
B. SNMP
C. RARP
D. SMTP
Wybór protokołu RARP (Reverse Address Resolution Protocol) jest błędny, ponieważ choć ten protokół działa na podobnej zasadzie co ARP, jego przeznaczenie jest zupełnie inne. RARP jest używany do przekształcania adresów MAC na adresy IP, co oznacza, że jego funkcjonalność jest odwrotna do ARP. RARP był stosowany głównie w sytuacjach, w których urządzenia nie miały stałych adresów IP i musiały je uzyskać na podstawie swojego adresu MAC. Jednak w praktyce został on w dużej mierze zastąpiony przez protokoły takie jak BOOTP i DHCP, które oferują bardziej zaawansowane funkcje przydzielania adresów IP, w tym możliwość dynamicznego zarządzania adresami w sieci. W kontekście SMTP (Simple Mail Transfer Protocol) oraz SNMP (Simple Network Management Protocol), oba te protokoły pełnią zupełnie inne role. SMTP jest protokołem przesyłania wiadomości e-mail, natomiast SNMP służy do monitorowania i zarządzania urządzeniami w sieci, takimi jak routery i przełączniki. Wybór tych protokołów jako odpowiedzi na pytanie o zmianę adresów IP na adresy MAC jest więc dowodem na nieporozumienie dotyczące podstawowych funkcji, jakie pełnią różne protokoły w architekturze sieciowej. Właściwe zrozumienie, jak działają te protokoły, jest kluczowe dla każdego, kto pragnie skutecznie zarządzać i diagnozować sieci komputerowe.