Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 8 kwietnia 2026 00:49
  • Data zakończenia: 8 kwietnia 2026 00:57

Egzamin zdany!

Wynik: 38/40 punktów (95,0%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Co nie ma wpływu na utratę danych z dysku HDD?

A. Fizyczne uszkodzenie dysku
B. Utworzona macierz dyskowa RAID 5
C. Sformatowanie partycji dysku
D. Zniszczenie talerzy dysku
Utworzenie macierzy dyskowej RAID 5 pozwala na zwiększenie bezpieczeństwa danych przechowywanych na dyskach twardych. W tej konfiguracji dane są rozdzielane pomiędzy kilka dysków, a dodatkowo stosuje się parzystość, co oznacza, że nawet w przypadku awarii jednego z dysków, dane mogą być odtworzone. Jest to szczególnie przydatne w środowiskach, gdzie bezpieczeństwo danych ma kluczowe znaczenie, np. w serwerach plików czy systemach bazodanowych. RAID 5 jest standardem, który łączy w sobie zarówno wydajność, jak i odporność na awarie, co czyni go popularnym wyborem wśród administratorów systemów. Przykładowo, w firmach zajmujących się obróbką wideo, gdzie duże pliki są często zapisywane i odczytywane, stosowanie RAID 5 pozwala na zachowanie danych w przypadku awarii sprzętu, co może zaoszczędzić czas i koszty związane z utratą danych. W ramach dobrych praktyk, zawsze zaleca się regularne tworzenie kopii zapasowych, nawet w przypadku korzystania z macierzy RAID.

Pytanie 2

Zestaw komputerowy, który został przedstawiony, jest niepełny. Który z elementów nie został wymieniony w tabeli, a jest kluczowy dla prawidłowego funkcjonowania zestawu?

Lp.Nazwa podzespołu
1.Zalman Obudowa R1 Midi Tower bez PSU, USB 3.0
2.Gigabyte GA-H110M-S2H, Realtek ALC887, DualDDR4-2133, SATA3, HDMI, DVI, D-Sub, LGA1151, mATX
3.Intel Core i5-6400, Quad Core, 2.70GHz, 6MB, LGA1151, 14nm, 65W, Intel HD Graphics, VGA, BOX
4.Patriot Signature DDR4 2x4GB 2133MHz
5.Seagate BarraCuda, 3.5", 1TB, SATA/600, 7200RPM, 64MB cache
6.LG SuperMulti SATA DVD+/-R24x,DVD+RW6x,DVD+R DL 8x, bare bulk (czarny)
7.Gembird Bezprzewodowy Zestaw Klawiatura i Mysz
8.Monitor Iiyama E2083HSD-B1 19.5inch, TN, HD+, DVI, głośniki
9.Microsoft OEM Win Home 10 64Bit Polish 1pk DVD
A. Pamięć RAM
B. Zasilacz
C. Wentylator procesora
D. Karta graficzna
Zasilacz jest kluczowym komponentem każdego zestawu komputerowego. Jego podstawową funkcją jest przekształcanie prądu zmiennego z sieci elektrycznej na prąd stały, który zasila poszczególne podzespoły komputera. Bez zasilacza żaden z elementów, takich jak płyta główna, procesor, pamięć RAM czy dyski twarde, nie będzie mógł prawidłowo funkcjonować. Zasilacze są także odpowiedzialne za stabilizację napięcia, co jest kluczowe dla zapobiegania uszkodzeniom sprzętu spowodowanym przez skoki napięcia. Wybierając zasilacz, należy zwrócić uwagę na jego moc, która powinna być dostosowana do zapotrzebowania energetycznego całego zestawu komputerowego. Zasilacze muszą spełniać określone standardy, takie jak ATX, aby pasować do typowych obudów i płyt głównych. Standardy te określają nie tylko fizyczne wymiary, ale także wymagania dotyczące napięć i złączy. Ważną cechą jest również certyfikacja sprawności, jak na przykład 80 PLUS, która świadczy o efektywności przetwarzania energii. Warto pamiętać, że odpowiedni dobór zasilacza wpływa na stabilność i niezawodność całego systemu, a także na jego energooszczędność, co w dłuższej perspektywie przekłada się na niższe rachunki za prąd oraz mniejsze obciążenie środowiska naturalnego.

Pytanie 3

Która norma odnosi się do okablowania strukturalnego?

A. EIA/TIA 568A
B. BN-76/8984-09
C. TDC-061-0506-S
D. ZN-96/TP
Odpowiedź EIA/TIA 568A jest poprawna, ponieważ jest to standard stworzony przez Electronic Industries Alliance i Telecommunications Industry Association, który definiuje wymagania dotyczące okablowania strukturalnego w instalacjach telekomunikacyjnych. Standard ten określa szczegółowe kroki dotyczące projektowania, instalacji oraz testowania okablowania sieciowego, co jest kluczowe dla zapewnienia wysokiej wydajności i niezawodności systemów komunikacyjnych. Przykładem zastosowania normy EIA/TIA 568A jest jej implementacja w biurach oraz budynkach komercyjnych, gdzie zapewnia ona właściwe połączenia dla różnych aplikacji, takich jak VoIP, transmisja danych czy systemy zabezpieczeń. Ponadto, standard ten kładzie nacisk na odpowiednie zastosowanie kabli krosowych oraz strukturę okablowania, co pozwala na łatwe skalowanie i modyfikację sieci w miarę potrzeb. Warto również podkreślić, że stosowanie standardów EIA/TIA 568A jest zgodne z najlepszymi praktykami branżowymi, co przyczynia się do zmniejszenia kosztów eksploatacyjnych oraz zwiększenia efektywności operacyjnej.

Pytanie 4

Program WinRAR pokazał okno informacyjne widoczne na ilustracji. Jakiego rodzaju licencją posługiwał się do tej pory użytkownik?

Ilustracja do pytania
A. Program z Public domain
B. Program typu Adware
C. Program typu Shareware
D. Program typu Freeware
WinRAR to program komputerowy, który jest dostępny w modelu licencyjnym typu shareware. Shareware to rodzaj licencji, który pozwala użytkownikom na wypróbowanie programu przez określony czas, zanim zdecydują się na zakup pełnej wersji. W przypadku WinRAR, użytkownik ma możliwość korzystania z programu przez 40 dni bez konieczności zakupu. Po upływie tego okresu pojawia się komunikat zachęcający do zakupu licencji, co jest typowym podejściem w modelu shareware. Ten typ licencji jest korzystny zarówno dla twórców oprogramowania, jak i użytkowników, ponieważ pozwala użytkownikom na przetestowanie pełnej funkcjonalności programu przed podjęciem decyzji o zakupie. Model shareware promuje także uczciwe praktyki w branży oprogramowania, umożliwiając twórcom generowanie dochodów niezbędnych do dalszego rozwoju i wsparcia produktu. Przykładem zastosowania shareware jest również promocja nowych funkcji, które mogą być dodane w przyszłych aktualizacjach, a użytkownicy mogą dokonać świadomego wyboru, czy chcą inwestować w dalszy rozwój aplikacji. Praktyczne podejście do shareware wskazuje na jego skuteczność w promocji i dystrybucji oprogramowania, co czyni go popularnym wyborem wśród wielu firm deweloperskich.

Pytanie 5

W których nośnikach pamięci masowej jedną z najczęstszych przyczyn uszkodzeń jest uszkodzenie powierzchni?

A. W pamięciach zewnętrznych Flash
B. W dyskach SSD
C. W dyskach twardych HDD
D. W kartach pamięci SD
Dyski twarde HDD to trochę taka klasyka, jeśli chodzi o tradycyjne nośniki danych. Mają w środku wirujące talerze z bardzo cienką warstwą magnetyczną, na której faktycznie zapisywane są wszystkie informacje. I tutaj właśnie leży pies pogrzebany – powierzchnia tych talerzy, mimo że wykonana z ogromną precyzją, jest bardzo podatna na uszkodzenia mechaniczne, zwłaszcza gdy głowica przypadkowo zetknie się z wirującą powierzchnią (tzw. crash głowicy). Moim zdaniem, to wręcz podręcznikowy przykład fizycznej awarii nośnika. W praktyce, wystarczy lekki wstrząs, upadek lub nawet nagłe odłączenie zasilania podczas pracy i już może dojść do mikrouszkodzeń powierzchni talerzy. Takie uszkodzenia są potem koszmarem dla informatyków próbujących odzyskać dane – często pojawiają się błędy odczytu i typowe „cykanie” dysku. Producenci, jak np. Western Digital czy Seagate, od lat implementują różne systemy parkowania głowic i czujniki wstrząsów, ale i tak to najbardziej newralgiczne miejsce HDD. Praktyka branżowa mówi wyraźnie – z HDD obchodzimy się bardzo delikatnie. I jeszcze jedno: w serwerowniach czy archiwach zawsze stosuje się systemy antywstrząsowe dla takich dysków. To wszystko pokazuje, jak bardzo powierzchnia talerza decyduje o trwałości HDD. Jeśli chodzi o inne nośniki, nie mają one takiego problemu, bo nie ma tam mechaniki – to duża przewaga SSD czy pamięci flash, ale to już inna bajka.

Pytanie 6

Komunikat biosu POST od firmy Award o treści "Display switch is set incorrectly" sugeruje

A. brak nośnika rozruchowego
B. nieprawidłowy tryb wyświetlania obrazu
C. problem z pamięcią operacyjną
D. błąd w inicjalizacji dysku twardego
Komunikat BIOS POST "Display switch is set incorrectly" rzeczywiście wskazuje na problem z ustawieniami trybu wyświetlania obrazu. Może to oznaczać, że system nie rozpoznaje prawidłowo urządzenia wyświetlającego lub że parametr wyświetlania nie jest zgodny z konfiguracją sprzętową. Na przykład, jeśli komputer jest podłączony do telewizora, a ustawienia są skonfigurowane na monitor, może wystąpić ten błąd. Użytkownicy powinni upewnić się, że wszystkie kable są prawidłowo podłączone, a w BIOSie ustawienia wyświetlania odpowiadają używanemu urządzeniu. W praktyce często zaleca się przywrócenie domyślnych ustawień BIOS lub aktualizację sterowników graficznych, jeśli problem się powtarza. To podejście jest zgodne z najlepszymi praktykami w diagnostyce problemów z wyświetlaniem, co może znacznie ułatwić rozwiązywanie podobnych problemów w przyszłości.

Pytanie 7

Plik ma wielkość 2 KiB. Co to oznacza?

A. 2000 bitów
B. 2048 bitów
C. 16384 bity
D. 16000 bitów
Odpowiedź 16384 bity to trafny wybór. Plik o wielkości 2 KiB, czyli 2048 bajtów, przelicza się na bity tak: 2048 bajtów razy 8 bitów w każdym bajcie, co daje razem 16384 bity. Warto znać różnice między jednostkami takimi jak KiB, MiB czy GiB, zwłaszcza kiedy pracujemy z pamięcią komputerową i transferem danych. To pomaga uniknąć zamieszania i jest zgodne z tym, co określa IEC. Wiedza o tych jednostkach to podstawa, szczególnie gdy mówimy o efektywnym zarządzaniu danymi i architekturze systemów operacyjnych.

Pytanie 8

Rejestr procesora, znany jako licznik rozkazów, przechowuje

A. liczbę rozkazów, które pozostały do zrealizowania do zakończenia programu
B. adres rozkazu, który ma być wykonany następnie
C. ilość rozkazów zrealizowanych przez procesor do tego momentu
D. liczbę cykli zegara od momentu rozpoczęcia programu
Rejestr mikroprocesora zwany licznikiem rozkazów (ang. Instruction Pointer, IP) jest kluczowym elementem w architekturze komputerowej. Jego główną funkcją jest przechowywanie adresu pamięci, który wskazuje na następny rozkaz do wykonania przez procesor. To fundamentalne dla zapewnienia prawidłowego przepływu kontroli w programach komputerowych. Gdy procesor wykonuje rozkaz, wartość w liczniku rozkazów jest automatycznie aktualizowana, aby wskazywała na kolejny rozkaz, co pozwala na sekwencyjne wykonywanie instrukcji. W praktyce oznacza to, że odpowiednia implementacja licznika rozkazów jest niezbędna do działania wszelkich systemów operacyjnych i aplikacji, które operują na procesorach. Standardy takie jak x86 i ARM mają swoje specyfikacje dotyczące działania tego rejestru, co zapewnia zgodność i optymalizację wydajności. Zrozumienie działania licznika rozkazów jest kluczowe dla każdego, kto zajmuje się programowaniem niskopoziomowym, co jest istotne m.in. w kontekście debugowania i optymalizacji kodu.

Pytanie 9

Po zainstalowaniu systemu Linux, użytkownik pragnie skonfigurować kartę sieciową poprzez wprowadzenie ustawień dotyczących sieci. Jakie działanie należy podjąć, aby to osiągnąć?

A. /etc/network/interfaces
B. /etc/shadow
C. /etc/resolv.configuration
D. /etc/profile
Poprawna odpowiedź to /etc/network/interfaces, ponieważ jest to główny plik konfiguracyjny używany w wielu dystrybucjach systemu Linux do zarządzania ustawieniami sieciowymi. W tym pliku użytkownik może definiować różne interfejsy sieciowe, przypisywać im adresy IP, maski podsieci oraz inne istotne parametry, takie jak brama domyślna i serwery DNS. Na przykład, aby skonfigurować interfejs eth0 z adresem IP 192.168.1.10, użytkownik wpisze: 'iface eth0 inet static' oraz 'address 192.168.1.10'. Warto zaznaczyć, że w zależności od wybranej dystrybucji, dostępne są różne narzędzia do edytowania tego pliku, takie jak nano czy vim. Praktyczna znajomość edycji pliku /etc/network/interfaces jest kluczowa dla administratorów systemu, którzy muszą zarządzać połączeniami sieciowymi w sposób wydajny i zgodny z najlepszymi praktykami branżowymi. Użytkowanie tego pliku wpisuje się w standardy konfiguracji systemów Unix/Linux, co czyni go niezbędnym narzędziem do zrozumienia i zarządzania infrastrukturą sieciową.

Pytanie 10

Tusz żelowy wykorzystywany jest w drukarkach

A. termotransferowych
B. igłowych
C. sublimacyjnych
D. fiskalnych
Wybór tuszy do drukarek nie jest prostym zadaniem i często prowadzi do nieporozumień co do kompatybilności z różnymi typami urządzeń. Drukarki igłowe, które stosują technologię druku matrycowego, wykorzystują zupełnie inny system tuszy, oparty na wkładach atramentowych lub taśmach barwiących, które są nanoszone na papier poprzez uderzenie igieł w taśmę. Takie podejście skutkuje innym rodzajem wykończenia wydruków, które nie osiągają jakości porównywalnej z drukiem sublimacyjnym. Z kolei drukarki termotransferowe działają na zasadzie przenoszenia tuszu na papier za pomocą wysokiej temperatury, co również nie jest związane z tuszami żelowymi. Drukarka ta wykorzystuje tusze w formie taśm barwiących, co różni się diametralnie od technologii sublimacyjnej. Natomiast drukarki fiskalne, przeznaczone do drukowania paragonów i innych dokumentów finansowych, w ogóle nie wykorzystują tuszy żelowych ani sublimacyjnych, ponieważ opierają się na technologii termicznej, która generuje obraz poprzez podgrzewanie papieru termicznego. Te różnice w technologii druku przyczyniają się do powszechnych nieporozumień, gdzie użytkownicy mogą mylnie sądzić, że tusze żelowe mogą być stosowane w różnych typach drukarek, co jest niezgodne z rzeczywistością techniczną oraz standardami branżowymi. Zrozumienie tych różnic jest kluczowe dla prawidłowego doboru materiałów eksploatacyjnych i uzyskania satysfakcjonujących efektów druku.

Pytanie 11

Jaką postać ma liczba dziesiętna 512 w systemie binarnym?

A. 1000000
B. 1000000000
C. 100000
D. 10000000
Odpowiedź 1000000000 jest poprawna, ponieważ 512 w systemie dziesiętnym jest równoważne z 1000000000 w systemie binarnym. Aby to zrozumieć, można posłużyć się konwersją liczby dziesiętnej na binarną, co polega na dzieleniu liczby przez 2 i zapisywaniu reszt. Proces ten wygląda następująco: 512 dzielimy przez 2, co daje 256 i resztę 0. Następnie 256 dzielimy przez 2, otrzymując 128 z resztą 0, i kontynuujemy ten proces, aż dojdziemy do 1. Gdy zarejestrujemy reszty w odwrotnej kolejności, uzyskujemy 1000000000. System binarny jest podstawą działania nowoczesnych komputerów i urządzeń cyfrowych. W praktyce wiedza ta jest niezbędna przy programowaniu, inżynierii oprogramowania i sieciach komputerowych. Zrozumienie konwersji między systemami liczbowymi jest kluczowe dla efektywnego rozwiązywania problemów w obszarze technologii informacyjnej.

Pytanie 12

Jaką konfigurację sieciową powinien mieć komputer, który jest częścią tej samej sieci LAN co komputer z adresem 10.8.1.10/24?

A. 10.8.1.101 i 255.255.255.0
B. 10.8.0.101 i 255.255.0.0
C. 10.8.0.101 i 255.255.255.0
D. 10.8.1.101 i 255.255.0.0
Adres IP 10.8.1.101 z maską podsieci 255.255.255.0 znajduje się w tej samej sieci LAN co adres 10.8.1.10. W przypadku maski 255.255.255.0 (znanej również jako /24), adresy IP w zakresie 10.8.1.1 do 10.8.1.254 są dostępne dla urządzeń w tej samej podsieci. Adres 10.8.1.10 jest jednym z tych adresów, więc każdy adres w tym zakresie, w tym 10.8.1.101, może komunikować się z nim bez potrzeby użycia routera. Zastosowanie odpowiedniej maski podsieci jest kluczowe w projektowaniu sieci LAN, ponieważ pozwala na efektywne zarządzanie adresacją IP oraz izolację ruchu między różnymi grupami urządzeń. Przy ustawieniu maski 255.255.255.0, wszystkie urządzenia w tej samej podsieci mogą się wzajemnie wykrywać i wymieniać dane bez dodatkowych ustawień. To podejście jest zgodne z najlepszymi praktykami w zakresie projektowania sieci, które zalecają wykorzystanie odpowiednich masek podsieci do organizacji i zarządzania ruchem sieciowym.

Pytanie 13

Do automatycznej synchronizacji dokumentów redagowanych przez kilka osób w tym samym czasie, należy użyć

A. poczty elektronicznej.
B. chmury sieciowej.
C. serwera IRC.
D. serwera DNS.
Poprawna jest odpowiedź z chmurą sieciową, bo tylko takie rozwiązania są zaprojektowane specjalnie do jednoczesnej pracy wielu osób na tym samym dokumencie, z automatyczną synchronizacją zmian. Usługi typu Google Drive, Microsoft OneDrive, Office 365, Dropbox czy Nextcloud umożliwiają współdzielenie plików w czasie rzeczywistym, wersjonowanie dokumentów, śledzenie kto co zmienił oraz odzyskiwanie poprzednich wersji. To jest dokładnie ten scenariusz, o który chodzi w pytaniu: kilka osób edytuje ten sam dokument i wszystko musi się bezkonfliktowo zsynchronizować. W praktyce takie systemy wykorzystują mechanizmy blokowania fragmentów dokumentu, scalania zmian (tzw. merge), a w aplikacjach biurowych – edycję współbieżną w czasie rzeczywistym (real-time collaboration). Dane są przechowywane centralnie na serwerach w chmurze, a klienci (przeglądarka, aplikacja desktopowa, mobilna) co chwilę przesyłają aktualizacje. Dzięki temu nie powstaje 10 różnych kopii pliku „raport_final_ostateczny_poprawiony_v7.docx”, tylko jeden spójny dokument z historią zmian. Z punktu widzenia dobrych praktyk branżowych, w firmach i instytucjach standardem jest dziś korzystanie z centralnych repozytoriów dokumentów: SharePoint/OneDrive w środowisku Microsoft 365, Google Workspace w środowisku Google, albo prywatne chmury oparte o Nextcloud/OwnCloud. Pozwala to nie tylko na współdzielenie i synchro, ale też na ustawianie uprawnień, kopie zapasowe, audyt dostępu i integrację z innymi usługami (systemy ticketowe, CRM, workflow). Moim zdaniem, w realnej pracy biurowej i projektowej bez takiej chmury robi się po prostu bałagan – maile z załącznikami, różne wersje na pendrive’ach, lokalne katalogi. Chmura porządkuje to wszystko i jeszcze zapewnia dostęp z domu, szkoły, telefonu. Dodatkowo te rozwiązania zwykle szyfrują transmisję (HTTPS/TLS), wspierają uwierzytelnianie wieloskładnikowe i są zgodne z różnymi normami bezpieczeństwa (ISO 27001, RODO w wersjach biznesowych). To też ważny element profesjonalnego podejścia do pracy z dokumentami, nie tylko sama „wygoda współdzielenia”.

Pytanie 14

Norma EN 50167 odnosi się do rodzaju okablowania

A. poziomego
B. pionowego
C. kampusowego
D. szkieletowego
Odpowiedzi odnoszące się do okablowania pionowego, szkieletowego oraz kampusowego są błędne, ponieważ nie dotyczą bezpośrednio normy EN 50167, która koncentruje się na okablowaniu poziomym. Okablowanie pionowe, w przeciwieństwie do poziomego, jest zaprojektowane dla łączenia różnych stref w budynku, na przykład pomiędzy różnymi piętrami. To typowe dla budynków wielopiętrowych, gdzie przesył sygnału odbywa się poprzez pionowe kanały. Z kolei okablowanie szkieletowe odnosi się do szerokiej infrastruktury sieciowej, która może łączyć różne budynki w kampusie lub dużych obiektach, a także obejmuje sieci WAN. W kontekście kampusowym, okablowanie jest bardziej złożone i wymaga innych podejść do zarządzania, co nie jest tematem normy EN 50167. Często błędne zrozumienie tej normy wynika z mylenia różnych typów okablowania oraz ich zastosowania w specyficznych środowiskach. Dla profesjonalistów istotne jest, aby dokładnie rozumieć, jakie normy odnoszą się do poszczególnych elementów infrastruktury sieciowej i jak te normy wpływają na jakość oraz wydajność instalacji.

Pytanie 15

Aby użytkownik systemu Linux mógł sprawdzić zawartość katalogu, wyświetlając pliki i katalogi, oprócz polecenia ls może skorzystać z polecenia

A. dir
B. man
C. pwd
D. tree
Polecenie dir w systemie Linux jest jednym z podstawowych narzędzi służących do wyświetlania zawartości katalogów — jest to bardzo przydatne, zwłaszcza jeśli ktoś wcześniej pracował z systemami Windows, gdzie polecenie dir jest równie popularne. W praktyce, zarówno ls, jak i dir pokazują podobne dane, czyli listę plików i katalogów w danym katalogu roboczym. Dla mnie dir to taki ukłon w stronę użytkowników przyzwyczajonych do środowiska DOS-owego, chociaż sam częściej korzystam z ls, bo daje więcej opcji formatowania i jest bardziej uniwersalny w skryptach bashowych. Dir można używać z różnymi przełącznikami, na przykład dir -l, żeby zobaczyć szczegółowe informacje o plikach. Warto wiedzieć, że w niektórych dystrybucjach Linuxa dir jest po prostu aliasem albo wrapperem do ls, więc działają niemal identycznie. Z punktu widzenia dobrych praktyk, znajomość obu tych poleceń może się przydać, zwłaszcza gdy administrujesz różnymi systemami albo ktoś poprosi cię o pomoc i używa dir z przyzwyczajenia. Dodatkowo, znajomość podstawowych poleceń do wyświetlania zawartości katalogów to absolutny fundament pracy z powłoką w Linuksie, zarówno jeśli chodzi o użytkowników, jak i administratorów. Sam polecam poeksperymentować z obydwoma — czasem różnice w wyjściu mogą być subtelne, ale to też dobra okazja, żeby lepiej zrozumieć filozofię narzędzi uniksowych.

Pytanie 16

Programy antywirusowe mogą efektywnie zabezpieczać komputer. Istotne jest, aby wybrać możliwość uruchamiania aplikacji razem z komputerem oraz opcję

A. skanowania ostatnio uruchamianych aplikacji
B. monitorowania w czasie rzeczywistym (skanowania w tle)
C. automatycznego usuwania zainfekowanych plików
D. automatycznego odłączenia od sieci w razie wykrycia infekcji
Monitorowanie w czasie rzeczywistym, zwane również skanowaniem w tle, jest kluczowym elementem nowoczesnych rozwiązań antywirusowych. Dzięki tej funkcji program antywirusowy może nieprzerwanie analizować aktywność systemu operacyjnego oraz uruchamiane aplikacje, wykrywając potencjalne zagrożenia w momencie ich pojawienia się. Działa to na zasadzie ciągłego skanowania plików i procesów, co pozwala na natychmiastową reakcję na złośliwe oprogramowanie. Przykładowo, gdy użytkownik pobiera plik z internetu, program antywirusowy sprawdza jego zawartość w czasie rzeczywistym, co minimalizuje ryzyko infekcji przed pełnym uruchomieniem pliku. Standardy branżowe, takie jak te określone przez AV-TEST oraz AV-Comparatives, podkreślają znaczenie tej funkcji, zalecając, aby oprogramowanie antywirusowe oferowało ciągłą ochronę jako podstawową cechę. Również dobre praktyki zarządzania bezpieczeństwem IT zakładają, że monitorowanie w czasie rzeczywistym powinno być standardem w każdej organizacji, aby zapewnić odpowiedni poziom ochrony przed różnorodnymi zagrożeniami z sieci.

Pytanie 17

Aktywacja opcji Udostępnienie połączenia internetowego w systemie Windows powoduje automatyczne przydzielanie adresów IP dla komputerów (hostów) z niej korzystających. W tym celu używana jest usługa

A. DHCP
B. NFS
C. WINS
D. DNS
Usługa DHCP (Dynamic Host Configuration Protocol) jest kluczowym elementem zarządzania siecią komputerową, który automatyzuje proces przypisywania adresów IP urządzeniom podłączonym do sieci. W momencie, gdy włączasz udostępnienie połączenia internetowego w systemie Windows, DHCP uruchamia serwer, który dostarcza dynamiczne adresy IP hostom w sieci lokalnej. Dzięki temu urządzenia nie muszą być konfigurowane ręcznie, co znacznie ułatwia zarządzanie siecią, zwłaszcza w przypadku większych środowisk, takich jak biura czy instytucje. DHCP pozwala również na centralne zarządzanie ustawieniami sieciowymi, takimi jak maska podsieci, brama domyślna, czy serwery DNS, co jest zgodne z dobrymi praktykami branżowymi. Przykładem zastosowania DHCP może być sytuacja, w której w biurze pracuje wielu pracowników, a każdy z nich korzysta z różnych urządzeń (laptopów, tabletów, smartfonów). Usługa DHCP sprawia, że każdy z tych urządzeń otrzymuje unikalny adres IP automatycznie, co minimalizuje ryzyko konfliktów adresów IP i zapewnia płynność działania sieci.

Pytanie 18

W systemie Linux istnieją takie prawa dostępu do konkretnego pliku rwxr--r--. Jakie polecenie użyjemy, aby zmienić je na rwxrwx---?

A. chmod 221 nazwapliku
B. chmod 544 nazwapliku
C. chmod 755 nazwapliku
D. chmod 770 nazwapliku
Odpowiedź 'chmod 770 nazwapliku' jest poprawna, ponieważ zmienia prawa dostępu do pliku zgodnie z zamierzonymi ustawieniami. Początkowe prawa dostępu 'rwxr--r--' oznaczają, że właściciel pliku ma pełne prawa (czytanie, pisanie, wykonywanie), grupa użytkowników ma prawo tylko do odczytu, a pozostali użytkownicy nie mają żadnych praw. Nowe prawa 'rwxrwx---' przydzielają pełne prawa również dla grupy użytkowników, co jest istotne w kontekście współdzielenia plików w zespołach. W praktyce, aby przyznać członkom grupy możliwość zarówno odczytu, jak i zapisu do pliku, należy zastosować polecenie chmod w odpowiedniej formie. Standardowe praktyki w zarządzaniu uprawnieniami w systemie Linux polegają na minimalizacji przydzielanych uprawnień, co zwiększa bezpieczeństwo systemu. Rekomenduje się również regularne audyty ustawień uprawnień w celu zapewnienia, że pliki są chronione przed nieautoryzowanym dostępem.

Pytanie 19

Zasada dostępu do medium CSMA/CA jest wykorzystywana w sieci o specyfikacji

A. IEEE802.1
B. IEEE802.3
C. IEEE802.11
D. IEEE802.8
Metoda dostępu do medium CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance) jest kluczowym elementem standardu IEEE 802.11, który jest powszechnie stosowany w sieciach bezprzewodowych, takich jak Wi-Fi. CSMA/CA pozwala urządzeniom na monitorowanie medium transmisyjnego przed rozpoczęciem wysyłania danych, co zmniejsza ryzyko kolizji z innymi transmisjami. W praktyce, gdy urządzenie chce nadawać dane, najpierw nasłuchuje, czy medium jest wolne. Jeśli zauważy, że medium jest zajęte, czeka przez losowy czas przed kolejną próbą. Dzięki temu, nawet w zatłoczonych sieciach, CSMA/CA znacząco poprawia efektywność transmisji. Przykładowo, w sieciach domowych, gdzie wiele urządzeń może próbować jednocześnie łączyć się z routerem, CSMA/CA minimalizuje problemy związane z kolizjami. Warto dodać, że standardy IEEE 802.11 obejmują różne wersje, takie jak 802.11n i 802.11ac, które rozwijają możliwości bezprzewodowe, ale zasady dostępu do medium pozostają spójne z CSMA/CA.

Pytanie 20

Interfejs SLI (ang. Scalable Link Interface) jest używany do łączenia

A. napędu Blu-Ray z kartą dźwiękową
B. czytnika kart z płytą główną
C. karty graficznej z odbiornikiem TV
D. dwóch kart graficznych
Interfejs SLI (Scalable Link Interface) to technologia opracowana przez firmę NVIDIA, która umożliwia połączenie dwóch lub więcej kart graficznych w celu zwiększenia mocy obliczeniowej i wydajności renderowania grafiki. Dzięki zastosowaniu SLI, użytkownicy mogą cieszyć się wyższymi klatkowymi w grze oraz lepszą jakością wizualną, co jest szczególnie istotne w przypadku zaawansowanych gier komputerowych oraz aplikacji do obróbki grafiki. Aby skorzystać z SLI, system operacyjny oraz aplikacje muszą być odpowiednio skonfigurowane do współpracy z tą technologią. W praktyce, użytkownicy często wybierają SLI w kontekście zestawów komputerowych przeznaczonych do gier, gdzie wymagania dotyczące wydajności są wysokie. Kluczowym aspektem SLI jest również konieczność posiadania odpowiedniej płyty głównej, która obsługuje tę technologię, a także zasilacza o wystarczającej mocy, aby zasilić obie karty graficzne. Dodatkowo, warto pamiętać, że nie wszystkie gry i aplikacje wspierają SLI, dlatego przed podjęciem decyzji o jego zastosowaniu, warto sprawdzić ich kompatybilność.

Pytanie 21

Jakie medium transmisyjne w sieciach LAN rekomenduje się do użycia w historycznych obiektach?

A. Kabel koncentryczny
B. Kabel typu skrętka
C. Światłowód
D. Fale radiowe
Fale radiowe stanowią zalecane medium transmisyjne w zabytkowych budynkach ze względu na minimalną ingerencję w infrastrukturę budynku. Instalacja kabli, takich jak skrętki, światłowody czy kable koncentryczne, może być trudna lub wręcz niemożliwa w obiektach historycznych, w których zachowanie oryginalnych elementów budowlanych jest kluczowe. Fale radiowe umożliwiają stworzenie lokalnej sieci bezprzewodowej, co eliminuje potrzebę kucia ścian czy naruszania struktury zabytku. Przykłady zastosowania to sieci Wi-Fi, które mogą być wdrożone w muzeach, galeriach sztuki czy innych zabytkowych obiektach. Zgodnie z normami IEEE 802.11, nowoczesne standardy bezprzewodowe oferują szybką transmisję danych oraz możliwość zabezpieczenia sieci, co czyni je odpowiednimi do użytku komercyjnego oraz prywatnego. Warto również dodać, że systemy bezprzewodowe można łatwo aktualizować, co jest istotne w kontekście przyszłych potrzeb technologicznych.

Pytanie 22

Transmisja danych typu półduplex to transmisja

A. dwukierunkowa naprzemienna
B. jednokierunkowa z kontrolą parzystości
C. dwukierunkowa równoczesna
D. jednokierunkowa z trybem bezpołączeniowym
Transmisja danych typu półduplex jest rzeczywiście transmisją dwukierunkową naprzemienną. Oznacza to, że urządzenia komunikujące się w trybie półduplex mogą wysyłać i odbierać dane, ale nie jednocześnie. Taki sposób transmisji jest często stosowany w aplikacjach, gdzie pełna dwukierunkowość w jednym czasie nie jest wymagana, co pozwala na efektywne wykorzystanie dostępnych zasobów. Przykładem zastosowania półduplexu są radiotelefony, gdzie jedna osoba mówi, a druga musi poczekać na zakończenie nadawania, by odpowiedzieć. W kontekście standardów telekomunikacyjnych, tryb półduplex jest praktyczny w sytuacjach, gdy koszt stworzenia pełnej komunikacji dwukierunkowej byłby zbyt wysoki, na przykład w systemach z ograniczoną przepustowością lub w sieciach bezprzewodowych. Dzięki tej metodzie można skutecznie zarządzać ruchem danych, co przyczynia się do optymalizacji komunikacji i obniżenia ryzyka kolizji pakietów. Półduplex znajduje również zastosowanie w technologii Ethernet, w której urządzenia mogą przesyłać dane w sposób naprzemienny, co zwiększa efektywność użycia medium transmisyjnego.

Pytanie 23

Użytkownik uszkodził płytę główną z gniazdem procesora AM2. Uszkodzoną płytę można zastąpić, bez konieczności wymiany procesora i pamięci, modelem z gniazdem

A. FM2+
B. AM2+
C. AM1
D. FM2
Gniazdo AM2+ to następca popularnego AM2, ale co ważne, zachowuje ono wsteczną kompatybilność z procesorami AMD przeznaczonymi na AM2. Oznacza to, że jeśli masz procesor działający na AM2, to w ogromnej większości przypadków możesz go po prostu przełożyć do płyty z gniazdem AM2+ – BIOS płyty powinien go rozpoznać i obsłużyć. Podobnie jest z pamięciami RAM – obie platformy korzystają z pamięci DDR2, nie trzeba więc wymieniać kości. Z praktyki wiem, że w serwisie komputerowym AM2+ często służyło jako szybka podmiana bez zbędnych komplikacji, szczególnie gdy klient nie chciał inwestować w nowy procesor czy RAM. Dla technika to spora wygoda, bo nie trzeba się martwić o zasilanie, rozmiar chłodzenia czy nietypowe ustawienia BIOS – wszystko zazwyczaj działa "z marszu". AMD przez długi czas trzymało się zasady, żeby kolejne platformy były kompatybilne wstecz, co pozwalało użytkownikom na stopniowy upgrade sprzętu bez dużych wydatków. Z własnego doświadczenia powiem, że różnice między AM2 a AM2+ były głównie po stronie obsługiwanych procesorów (nowsze modele na AM2+), ale stary sprzęt bez problemu działa na nowym gnieździe. To jest rozwiązanie w duchu dobrych praktyk branżowych – maksymalna elastyczność i minimalizacja kosztów modernizacji.

Pytanie 24

Do jakiego portu należy podłączyć kabel sieciowy zewnętrzny, aby uzyskać pośredni dostęp do sieci Internet?

Ilustracja do pytania
A. USB
B. WAN
C. LAN
D. PWR
Port WAN (Wide Area Network) jest specjalnie zaprojektowany do podłączenia urządzenia sieciowego, takiego jak router, do internetu. To połączenie z siecią zewnętrzną, dostarczone przez dostawcę usług internetowych (ISP). Port WAN działa jako brama między siecią lokalną (LAN) a internetem. Umożliwia to przesyłanie danych między komputerami w sieci domowej a serwerami zewnętrznymi. Konsekwentne używanie portu WAN zgodnie z jego przeznaczeniem zwiększa bezpieczeństwo i stabilność połączenia sieciowego. Praktycznym przykładem jest podłączenie modemu kablowego lub światłowodowego do tego portu, co pozwala na udostępnianie internetu wszystkim urządzeniom w sieci. Zgodnie z dobrymi praktykami branżowymi, port WAN powinien być używany w konfiguracji zewnętrznej, aby zapewnić spójność i niezawodność połączenia z internetem. Dzięki temu można lepiej zarządzać ruchem sieciowym i zabezpieczać sieć przed nieautoryzowanym dostępem. Port WAN jest istotnym elementem architektury sieciowej, umożliwiającym efektywną transmisję danych między różnymi segmentami sieci.

Pytanie 25

Wskaż nazwę programu stosowanego w systemie Linux do przekrojowego monitorowania parametrów, między innymi takich jak obciążenie sieci, zajętość systemu plików, statystyki partycji, obciążenie CPU czy statystyki IO.

A. samba
B. quota
C. nmon
D. totem
nmon to jedno z tych narzędzi, które każdy administrator Linuksa powinien mieć w swoim arsenale – takie moje zdanie po kilku latach pracy z serwerami. Program nmon (Nigel’s Monitor) umożliwia bardzo wygodne, przekrojowe monitorowanie zasobów systemowych praktycznie w czasie rzeczywistym. Można dzięki niemu obserwować obciążenie procesora, użycie pamięci RAM, statystyki sieciowe, zajętość partycji dyskowych, a nawet ilość operacji IO na dysku. Szczególnie przydatne jest to w sytuacjach, kiedy trzeba szybko ogarnąć, gdzie „coś się dławi” – czy to CPU, czy może dyski, albo sieć. Po uruchomieniu nmon prezentuje czytelny, znakowy interfejs, gdzie użytkownik sam decyduje, które dane chce widzieć. Z mojego doświadczenia wynika, że nmon świetnie sprawdza się jako narzędzie diagnostyczne przy awariach lub tuningu wydajności. Praktyka pokazuje, że administratorzy często wykorzystują nmon do tworzenia logów w dłuższym okresie, żeby potem analizować wykresy i trendy np. w Excelu – co jest mega wygodne i przydatne przy audytach czy planowaniu rozbudowy infrastruktury. Warto też zaznaczyć, że nmon jest open source i działa na wielu dystrybucjach Linuksa, a także na AIX. Branżowe best practices zalecają korzystanie z monitoringu w czasie rzeczywistym oraz archiwizacji danych historycznych – i tu właśnie nmon sprawdza się znakomicie. Według mnie to narzędzie, którego nie da się przecenić w codziennej pracy z serwerami.

Pytanie 26

Sprzęt, który umożliwia konfigurację sieci VLAN, to

A. most przezroczysty (transparent bridge)
B. switch
C. regenerator (repeater)
D. firewall
Switch, czyli przełącznik sieciowy, jest kluczowym urządzeniem w architekturze sieci VLAN (Virtual Local Area Network). Pozwala on na tworzenie wielu logicznych sieci w ramach jednej fizycznej infrastruktury, co jest szczególnie przydatne w dużych organizacjach. Dzięki VLAN można segmentować ruch sieciowy, co zwiększa bezpieczeństwo i efektywność zarządzania siecią. Przykładem może być sytuacja, w której dział finansowy i dział IT w tej samej firmie funkcjonują w odrębnych VLAN-ach, co ogranicza dostęp do poufnych danych. Standardy takie jak IEEE 802.1Q definiują, w jaki sposób przełączniki mogą tagować ramki Ethernet, aby rozróżniać różne VLAN-y. Dobrą praktyką jest stosowanie VLAN-ów do izolowania ruchu, co nie tylko poprawia bezpieczeństwo, ale także zwiększa wydajność sieci poprzez ograniczenie rozprzestrzeniania się broadcastów. Warto również zwrócić uwagę na możliwość zarządzania VLAN-ami przez protokoły takie jak VTP (VLAN Trunking Protocol), co upraszcza administrację siecią w skomplikowanych środowiskach.

Pytanie 27

Jakiego rodzaju plik należy stworzyć w systemie operacyjnym, aby zautomatyzować rutynowe działania, takie jak kopiowanie lub tworzenie plików oraz folderów?

A. Wsadowy
B. Systemowy
C. Początkowy
D. Konfiguracyjny
Odpowiedź 'Wsadowy' jest prawidłowa, ponieważ pliki wsadowe (np. pliki .bat w systemie Windows lub skrypty shellowe w systemie Unix/Linux) są specjalnie zaprojektowane do automatyzowania serii komend, które są wykonywane w określonej kolejności. Umożliwiają one użytkownikom nie tylko oszczędność czasu, ale także eliminują ryzyko błędów związanych z ręcznym wprowadzaniem poleceń. Na przykład, można stworzyć plik wsadowy do kopiowania określonych folderów i plików w systemie, co pozwala na jednoczesne wykonanie wielu operacji. W praktyce, w środowiskach produkcyjnych, automatyzacja zadań przy użyciu plików wsadowych znacznie ułatwia zarządzanie systemem oraz utrzymanie spójności w operacjach, co jest zgodne z dobrymi praktykami DevOps. Dodatkowo, wsadowe skrypty mogą być używane w harmonogramach zadań (np. Cron w Unix/Linux), co pozwala na regularne wykonywanie zautomatyzowanych zadań bez interwencji użytkownika, co czyni je niezastąpionym narzędziem w administracji systemami.

Pytanie 28

Która z usług serwerowych oferuje automatyczne ustawienie parametrów sieciowych dla stacji roboczych?

A. DHCP
B. DNS
C. NAT
D. WINS
DHCP, czyli Dynamic Host Configuration Protocol, to protokół, który automatycznie konfiguruje parametry sieciowe dla stacji roboczych, takie jak adres IP, maska podsieci, brama domyślna oraz serwery DNS. Użycie DHCP w sieciach komputerowych znacznie upraszcza proces zarządzania adresami IP, eliminując konieczność ręcznej konfiguracji każdego urządzenia w sieci. Dzięki DHCP, administratorzy mogą łatwo zarządzać pulą dostępnych adresów IP oraz wprowadzać zmiany w konfiguracji sieci bez konieczności bezpośredniego dostępu do każdego urządzenia. Na przykład, w typowej sieci biurowej, gdy nowe urządzenia są podłączane do sieci, automatycznie otrzymują odpowiednie parametry konfiguracyjne, co pozwala na szybkie i efektywne włączenie ich do infrastruktury sieciowej. Zgodnie z najlepszymi praktykami, stosowanie DHCP jest zalecane w sieciach o dużej liczbie urządzeń, gdzie ręczna konfiguracja byłaby czasochłonna i podatna na błędy. Protokół DHCP jest również zgodny z różnymi standardami IETF, co zapewnia jego niezawodność i szeroką kompatybilność.

Pytanie 29

Do kategorii oprogramowania określanego jako malware (z ang. malicious software) nie zalicza się oprogramowanie typu:

A. computer aided manufacturing
B. scumware
C. keylogger
D. exploit
Odpowiedź "computer aided manufacturing" (CAM) jest prawidłowa, ponieważ to oprogramowanie nie jest klasyfikowane jako malware. CAM to systemy wspomagające procesy produkcyjne, które zwiększają efektywność i precyzję wytwarzania. Przykłady zastosowania obejmują programy do projektowania wspomaganego komputerowo (CAD), które są używane w inżynierii i architekturze. CAM jest zgodne z najlepszymi praktykami przemysłowymi, które kładą duży nacisk na automatyzację i optymalizację procesów produkcyjnych. Warto również zauważyć, że oprogramowanie CAM przyczynia się do zmniejszenia błędów ludzkich oraz poprawy jakości produktów, co jest kluczowe w nowoczesnym przemyśle. W przeciwieństwie do tego, malware ma na celu szkodzenie użytkownikom lub systemom, a CAM jest narzędziem wspierającym rozwój i innowacyjność w branży. Rozpoznawanie różnic między tymi kategoriami oprogramowania jest istotne dla zapewnienia bezpieczeństwa IT oraz skutecznego zarządzania procesami produkcyjnymi.

Pytanie 30

W celu zrealizowania instalacji sieciowej na stacjach roboczych z systemem operacyjnym Windows, należy na serwerze zainstalować usługi

A. plików
B. wdrażania systemu Windows
C. terminalowe
D. pulpitu zdalnego
Wdrażanie systemu Windows to usługa, która umożliwia instalację systemu operacyjnego Windows na stacjach roboczych w sieci. Aby zrealizować ten proces, serwer musi dysponować odpowiednimi narzędziami, które automatyzują i centralizują zarządzanie instalacjami. Przykładem takiego narzędzia jest Windows Deployment Services (WDS), które pozwala na rozsyłanie obrazów systemów operacyjnych przez sieć. Dzięki WDS możliwe jest zarówno wdrażanie systemu z obrazu, jak i przeprowadzanie instalacji w trybie Preboot Execution Environment (PXE), co znacznie ułatwia proces w dużych środowiskach, gdzie wiele stacji roboczych wymaga identycznej konfiguracji. Umożliwia to również oszczędność czasu oraz redukcję błędów związanych z ręcznym wprowadzaniem danych. Zgodnie z najlepszymi praktykami branżowymi, WDS jest rekomendowane do zarządzania dużymi flotami komputerów, ponieważ zapewnia jednorodność i kontrolę nad wdrażanymi systemami.

Pytanie 31

W architekturze sieci lokalnych opartej na modelu klient - serwer

A. każdy z komputerów zarówno dzieli się pewnymi zasobami, jak i korzysta z zasobów pozostałych komputerów.
B. wszyscy klienci mają możliwość dostępu do zasobów innych komputerów.
C. żaden z komputerów nie odgrywa dominującej roli wobec innych.
D. wydzielone komputery pełnią funkcję serwerów, które udostępniają zasoby, podczas gdy inne komputery z tych zasobów korzystają.
Architektura sieci lokalnych typu klient-serwer opiera się na podziale ról pomiędzy komputerami w sieci. W tej konfiguracji wyodrębnia się komputery pełniące funkcję serwerów, które udostępniają zasoby, takie jak pliki, aplikacje czy drukarki, oraz komputery klienckie, które z tych zasobów korzystają. Serwery są zazwyczaj skonfigurowane w taki sposób, aby były w stanie obsługiwać jednocześnie wiele połączeń od różnych klientów, co zwiększa wydajność i efektywność zarządzania zasobami. Przykładami zastosowania tej architektury są serwery plików w biurach, które umożliwiają pracownikom dostęp do wspólnych dokumentów, oraz serwery baz danych, które zarządzają danymi wykorzystywanymi przez aplikacje klienckie. Warto również zaznaczyć, że ta struktura sieciowa jest zgodna z najlepszymi praktykami branżowymi dotyczącymi zarządzania sieciami, co przyczynia się do ich stabilności i bezpieczeństwa.

Pytanie 32

Jednym z zaleceń w zakresie ochrony przed wirusami jest przeprowadzanie skanowania całego systemu. W związku z tym należy skanować komputer

A. tylko po zaktualizowaniu baz danych oprogramowania antywirusowego
B. regularnie, na przykład co siedem dni
C. jedynie w sytuacji, gdy w systemie nie działa monitor antywirusowy
D. wyłącznie w przypadkach, gdy istnieje podejrzenie infekcji wirusem
Skanowanie całego komputera systematycznie, na przykład raz w tygodniu, jest kluczowym zaleceniem w zakresie ochrony antywirusowej i zabezpieczania systemu przed zagrożeniami. Regularne skanowanie pozwala na wczesne wykrywanie i eliminowanie potencjalnych wirusów oraz innych szkodliwych programów, zanim zdążą one wyrządzić poważne szkody. Przykładowo, wiele złośliwych oprogramowań potrafi się ukrywać w systemie przez dłuższy czas, a ich działanie może być wykryte dopiero po pewnym czasie. Dlatego skanowanie w regularnych odstępach czasu, zgodnie z dobrymi praktykami branżowymi, takimi jak zalecenia NIST (National Institute of Standards and Technology) dotyczące zarządzania ryzykiem, zapewnia, że system jest stale monitorowany i zabezpieczony. Dodatkowo warto zaznaczyć, że niektóre programy antywirusowe oferują funkcje automatycznego skanowania, które można skonfigurować do działania w wybranych porach, co ułatwia przestrzeganie tego zalecenia.

Pytanie 33

Równoległy interfejs, w którym magistrala składa się z 8 linii danych, 4 linii sterujących oraz 5 linii statusowych, nie zawiera linii zasilających i umożliwia transmisję na odległość do 5 metrów, pod warunkiem, że przewody sygnałowe są skręcane z przewodami masy; w przeciwnym razie limit wynosi 2 metry, nazywa się

A. AGP
B. LPT
C. EISA
D. USB
Wybór LPT (Parallel Port) jest naprawdę trafny. Ten interfejs równoległy ma swoje charakterystyczne cechy, takie jak 8 linii danych, 4 linie sterujące i 5 linii statusowych. Takie parametry pasują do standardowych specyfikacji. LPT był często używany do komunikacji z drukarkami, które przesyłały dane w trybie równoległym. Fajnie, że wiesz, że LPT działał na dość sporym zasięgu do 5 metrów, zwłaszcza gdy przewody były skręcone z masą, co redukowało zakłócenia. Gdy nie było skręcania, zasięg ograniczał się do 2 metrów. Znajomość tych parametrów jest naprawdę ważna, zwłaszcza przy projektowaniu systemów, gdzie stabilność sygnału ma kluczowe znaczenie. LPT wyznaczał więc standardy w komunikacji równoległej i był istotny w inżynierii komputerowej oraz w przemyśle, gdzie niezawodność była na wagę złota.

Pytanie 34

Którego wbudowanego narzędzia w systemie Windows 8 Pro można użyć do szyfrowania danych?

A. WinLocker
B. OneLocker
C. AppLocker
D. BitLocker
BitLocker to wbudowane narzędzie w systemie Windows 8 Pro, które umożliwia szyfrowanie danych na dyskach twardych, co znacząco zwiększa bezpieczeństwo przechowywanych informacji. BitLocker używa algorytmów szyfrowania opartych na standardzie AES, co zapewnia wysoki poziom ochrony przed nieautoryzowanym dostępem. Funkcjonalność ta jest szczególnie przydatna w środowisku biznesowym, gdzie dostęp do wrażliwych danych musi być ściśle kontrolowany. Przykładowo, jeśli pracownik straci laptopa, dane zaszyfrowane za pomocą BitLockera pozostaną niedostępne dla osób trzecich. Dodatkowo BitLocker jest zgodny z najlepszymi praktykami zarządzania bezpieczeństwem informacji, takimi jak standardy ISO/IEC 27001, które podkreślają znaczenie ochrony danych w organizacjach. Warto również zwrócić uwagę na to, że BitLocker może być używany w połączeniu z TPM (Trusted Platform Module), co zwiększa bezpieczeństwo kluczy szyfrujących oraz zapewnia dodatkowe zabezpieczenia podczas rozruchu systemu.

Pytanie 35

Jak nazywa się interfejs wewnętrzny w komputerze?

A. D-SUB
B. IrDA
C. PCMCIA
D. AGP
AGP, czyli Accelerated Graphics Port, to interfejs zaprojektowany specjalnie do szybkiej komunikacji między kartą graficzną a płytą główną komputera. Wprowadzenie tego standardu miało na celu zwiększenie wydajności renderowania grafiki, co jest szczególnie istotne w kontekście gier komputerowych oraz aplikacji wymagających intensywnego przetwarzania wizualnego. AGP zapewnia wyższą przepustowość niż wcześniejsze interfejsy, takie jak PCI, co pozwala na szybszy transfer danych. W praktyce oznacza to, że karty graficzne mogły korzystać z większej ilości pamięci i lepiej współpracować z procesorem, co przekładało się na płynniejsze działanie gier i programów graficznych. Standard AGP zyskał popularność w latach 90. i na początku XXI wieku, jednak z czasem został wyparty przez PCI Express, który oferuje jeszcze wyższą wydajność.

Pytanie 36

Jaką rolę pełni serwer FTP?

A. nadzór nad siecią
B. udostępnianie plików
C. zarządzanie kontami e-mail
D. uzgadnianie czasu
Funkcją serwera FTP (File Transfer Protocol) jest przede wszystkim udostępnianie plików w sieci. Protokół FTP umożliwia przesyłanie danych pomiędzy komputerami w sposób zorganizowany i bezpieczny. Dzięki FTP użytkownicy mogą łatwo wysyłać oraz pobierać pliki z serwera, co jest niezwykle przydatne w różnych zastosowaniach, od przesyłania dokumentów, przez synchronizację zasobów witryn internetowych, aż po zarządzanie danymi w chmurze. W kontekście biznesowym, serwery FTP często są wykorzystywane do udostępniania dużych plików, które nie mogą być przesyłane za pomocą zwykłych wiadomości e-mail. Zastosowanie FTP w branży IT opiera się na standardach IETF RFC 959 oraz 3659, które definiują zasady działania protokołu, co zapewnia dużą interoperacyjność pomiędzy różnymi systemami operacyjnymi. Dodatkowo, wiele firm implementuje zabezpieczenia, takie jak FTP Secure (FTPS) czy SSH File Transfer Protocol (SFTP), aby chronić dane podczas transmisji. W praktyce korzystanie z FTP jest kluczowe w środowiskach, gdzie wymagana jest efektywna wymiana plików w zespole lub z klientami.

Pytanie 37

Do ilu sieci należą komputery o podanych w tabeli adresach IP i standardowej masce sieci?

KomputerAdres IP
Komputer 1172.16.15.5
Komputer 2172.18.15.6
Komputer 3172.18.16.7
Komputer 4172.20.16.8
Komputer 5172.20.16.9
Komputer 6172.21.15.10
A. Sześciu
B. Czterech
C. Jednej
D. Dwóch
Odpowiedź 'Czterech' jest prawidłowa, ponieważ komputery opisane w tabeli mieszczą się w czterech różnych sieciach IP. Każdy adres IP w standardowym formacie IPv4 składa się z czterech oktetów, a w przypadku klasy adresowej A (jak w tym przypadku, gdzie pierwsza liczba to 172) pierwsze 8 bitów (pierwszy oktet) definiuje sieć, a pozostałe 24 bity mogą być używane do definiowania hostów w tej sieci. Używając standardowej maski podsieci 255.0.0.0 dla klasy A, możemy zauważyć, że pierwsze liczby różnych adresów IP decydują o przynależności do sieci. W tabeli mamy adresy 172.16, 172.18, 172.20 i 172.21, co oznacza, że komputery te są rozdzielone na cztery unikalne sieci: 172.16.0.0, 172.18.0.0, 172.20.0.0 i 172.21.0.0. Przykład praktyczny to sytuacja, gdy w firmie różne działy mają swoje własne podsieci, co pozwala na lepsze zarządzanie ruchem sieciowym i zwiększa bezpieczeństwo. Zrozumienie struktury adresacji IP oraz podziału na sieci jest kluczowe w projektowaniu i administracji sieci komputerowych, co jest zgodne z najlepszymi praktykami branżowymi.

Pytanie 38

Aby naprawić wskazaną awarię, należy

  • Dwa komputery pracują w sieci lokalnej.
  • Mają skonfigurowane protokoły TCP/IP.
  • Jednemu z nich przypisano numer IP 192.168.1.1, drugiemu – 192.168.2.1.
  • Komputery „widzą się" w otoczeniu sieciowym, natomiast próba połączenia się z wykorzystaniem protokołu TCP/IP kończy się niepowodzeniem, np. wynik polecenie ping jest negatywny.
A. dezaktywować system NetBIOS NWLink w ustawieniach połączeń LAN komputerów
B. zmienić ustawienia adresów IP i/lub masek podsieci odpowiadających im w taki sposób, aby oba komputery były w tej samej podsieci
C. sprawdzić, czy PROXY jest włączone i ewentualnie je aktywować
D. wyłączyć system NetBIOS przez TCP/IP w zaawansowanych opcjach TCP/IP kart sieciowych
Aby komputery mogły się komunikować w sieci lokalnej, muszą znajdować się w tej samej podsieci. Podsieć jest częścią sieci IP, której identyfikator jest określany przez maskę podsieci. W przypadku adresów IP 192.168.1.1 oraz 192.168.2.1, jeśli używana jest maska podsieci 255.255.255.0, oznacza to, że komputery są w różnych podsieciach, co uniemożliwia ich komunikację przez protokół TCP/IP. Aby rozwiązać ten problem, należy zmienić konfigurację adresów IP lub masek podsieci tak, aby oba komputery znalazły się w tej samej podsieci, na przykład zmieniając adres IP drugiego komputera na 192.168.1.x z maską 255.255.255.0. Dzięki temu adresy IP będą miały ten sam identyfikator sieciowy, co umożliwi skuteczne przesyłanie pakietów TCP/IP między nimi. Taka konfiguracja jest zgodna z dobrą praktyką projektowania sieci lokalnych, gdzie segmentacja sieci odbywa się zgodnie z potrzebami organizacyjnymi i funkcjonalnymi. Ponadto, właściwa konfiguracja podsieci ułatwia zarządzanie ruchem sieciowym i zwiększa jej wydajność.

Pytanie 39

Do wykonania kopii danych na dysk USB w systemie Linux stosuje się polecenie

A. mv
B. cp
C. su
D. rm
Polecenie cp to w praktyce podstawowe narzędzie do kopiowania plików i katalogów w systemach Linux. Bez niego trudno sobie wyobrazić codzienną pracę administratora czy zwykłego użytkownika. Moim zdaniem cp jest jednym z tych poleceń, które po prostu trzeba znać, szczególnie jeśli chodzi o operacje na różnych nośnikach, na przykład na dyskach USB. Warto pamiętać, że cp pozwala na kopiowanie zarówno pojedynczych plików, jak i całych katalogów (z opcją -r lub --recursive). Gdy podłączasz dysk USB, najczęściej montujesz go w /media lub /mnt, a potem używasz cp do przekopiowania danych. Przykładowo: cp /home/user/dokument.txt /media/usb/. Warto też zerknąć na opcje takie jak -v (verbose), która pokazuje co jest kopiowane, czy -u (update), która pozwala kopiować tylko nowsze pliki. To ułatwia życie, zwłaszcza jak ktoś się boi nadpisać ważne dane. Standardy POSIX jasno określają składnię i zachowanie cp, więc na praktycznie każdej dystrybucji Linuxa działa to identycznie. No i taka ciekawostka – cp nie pyta o pozwolenie przy nadpisywaniu plików, chyba że użyjesz opcji -i. Warto więc być ostrożnym! Kopiowanie danych na dysk USB za pomocą cp to podstawowa, ale bardzo istotna umiejętność – często od niej zaczyna się nauka zarządzania plikami w systemie Linux.

Pytanie 40

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. konfigurowaniem adresu karty sieciowej.
B. dodaniem drugiego dysku twardego.
C. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
D. wybraniem pliku z obrazem dysku.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.