Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 27 kwietnia 2026 08:16
  • Data zakończenia: 27 kwietnia 2026 08:33

Egzamin zdany!

Wynik: 30/40 punktów (75,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Czym jest klaster komputerowy?

A. komputer rezerwowy, na którym regularnie tworzy się kopię systemu głównego
B. zespół komputerów działających równocześnie, tak jakby stanowiły jeden komputer
C. komputer z systemem macierzy dyskowej
D. komputer z wieloma rdzeniami procesora
Klaster komputerowy to grupa komputerów, które współpracują ze sobą w celu realizacji zadań, jakby były jednym, potężnym systemem. Taka konfiguracja pozwala na równoległe przetwarzanie danych, co znacząco zwiększa wydajność i niezawodność systemu. Przykłady zastosowania klastrów obejmują obliczenia naukowe, analizy danych big data oraz usługi w chmurze, gdzie wiele maszyn wspólnie wykonuje zadania, dzieląc obciążenie i zwiększając dostępność. W praktyce klastry mogą być implementowane w różnych architekturach, na przykład klaster obliczeniowy, klaster serwerów czy klaster do przechowywania danych. Standardy takie jak OpenStack dla chmur obliczeniowych czy Apache Hadoop dla przetwarzania danych również korzystają z koncepcji klastrów. Kluczowe korzyści to poprawa wydajności, elastyczność oraz wysoka dostępność, co czyni klastry istotnym elementem nowoczesnych rozwiązań IT.

Pytanie 2

Jakim materiałem eksploatacyjnym jest ploter solwentowy?

A. ostrze tnące
B. atrament na bazie żelu
C. farba na bazie rozpuszczalników
D. komplet metalowych rylców
Farba na bazie rozpuszczalników jest kluczowym materiałem eksploatacyjnym w ploterach solwentowych, ponieważ pozwala na uzyskanie wysokiej jakości druku na różnorodnych powierzchniach, takich jak folia, banery czy materiały tekstylne. Solwentowe farby mają zdolność do penetracji porów w materiałach, co zapewnia doskonałą przyczepność i trwałość nadruku. W praktyce, ploter solwentowy wykorzystuje te farby do produkcji reklam, oznakowań oraz materiałów graficznych, które muszą być odporne na czynniki atmosferyczne. W branży reklamowej i graficznej farby solwentowe są preferowane za ich wydajność oraz żywotność kolorów. Standardy jakości, takie jak ISO 9001, podkreślają znaczenie stosowania odpowiednich materiałów eksploatacyjnych, co przekłada się na efektywność produkcji oraz satysfakcję klientów.

Pytanie 3

Co umożliwia połączenie trunk dwóch przełączników?

A. ustawienie agregacji portów, co zwiększa przepustowość między przełącznikami
B. zablokowanie wszystkich zbędnych połączeń na danym porcie
C. zwiększenie przepustowości połączenia poprzez użycie dodatkowego portu
D. przesyłanie ramek z różnych wirtualnych sieci lokalnych w jednym łączu
Połączenie typu trunk między przełącznikami pozwala na przesyłanie ramek z wielu wirtualnych sieci lokalnych (VLAN) przez jedno łącze. Standard IEEE 802.1Q definiuje sposób oznaczania ramek Ethernetowych, które muszą być przesyłane do różnych VLAN-ów. Dzięki temu rozwiązaniu można zredukować liczbę potrzebnych fizycznych połączeń między przełącznikami, co zwiększa efektywność wykorzystania infrastruktury sieciowej. Przykładowo, w dużych środowiskach, takich jak biura korporacyjne, trunking jest niezbędny do zapewnienia komunikacji pomiędzy różnymi działami, które korzystają z różnych VLAN-ów. W praktyce, trunking umożliwia także lepsze zarządzanie ruchem sieciowym i segregację danych, co jest zgodne z najlepszymi praktykami w zakresie bezpieczeństwa i wydajności sieci. Zastosowanie trunkingów jest kluczowe w architekturze sieciowej, zwłaszcza w kontekście rozwiązań opartych na wirtualizacji, gdzie wiele VLAN-ów może współistnieć w tym samym środowisku fizycznym.

Pytanie 4

Do jakiego pomiaru wykorzystywany jest watomierz?

A. mocy czynnej
B. rezystancji
C. napięcia prądu elektrycznego
D. natężenia prądu elektrycznego
Watomierz jest urządzeniem pomiarowym, które służy do pomiaru mocy czynnej w obwodach elektrycznych. Moc czynna, wyrażana w watach (W), jest miarą rzeczywistej energii zużywanej przez urządzenia elektryczne do wykonywania pracy. Jest to kluczowy parametr w analizie zużycia energii, szczególnie w kontekście rozliczeń za dostarczaną energię. Zastosowanie watomierza w praktyce obejmuje zarówno pomiary w domowych instalacjach elektrycznych, jak i w przemyśle, gdzie monitorowanie zużycia energii jest niezbędne dla optymalizacji kosztów operacyjnych. W kontekście standardów, pomiar mocy czynnej jest często regulowany normami, takimi jak IEC 62053, które definiują wymagania dla urządzeń pomiarowych. Dzięki temu, korzystanie z watomierzy pozwala nie tylko na dokładne pomiary, ale także na lepsze zarządzanie energią, co jest kluczowe w dobie rosnących kosztów energii i dążeń do efektywności energetycznej.

Pytanie 5

W formacie plików NTFS, do zmiany nazwy pliku potrzebne jest uprawnienie

A. odczytu i wykonania
B. zapisu
C. odczytu
D. modyfikacji
Zrozumienie uprawnień w systemie plików NTFS jest kluczowe dla prawidłowego zarządzania danymi. Przy analizie dostępnych odpowiedzi, warto zauważyć, że uprawnienie do zapisu, mimo że pozwala na zmianę zawartości pliku, nie jest wystarczające do zmiany jego nazwy. Użytkownik z uprawnieniem do zapisu może edytować plik, ale nie ma automatycznie uprawnień do modyfikacji jego atrybutów, co obejmuje zmianę nazwy. Uprawnienia do odczytu natomiast pozwalają jedynie na przeglądanie zawartości pliku, co nie ma żadnego wpływu na możliwość jego modyfikacji. W przypadku uprawnienia do odczytu i wykonania, użytkownik może uruchamiać pliki wykonywalne, ale również nie posiada uprawnień do ich modyfikacji. Powszechnym błędem jest założenie, że skoro użytkownik może otwierać plik, to ma prawo go zmieniać, co w kontekście NTFS jest mylną interpretacją. Ustalając odpowiednie uprawnienia, administratorzy muszą kierować się zasadą minimalnych uprawnień, co oznacza, że użytkownicy powinni mieć tylko te uprawnienia, które są niezbędne do wykonania ich zadań. Dlatego kluczowe jest, aby zrozumieć, że pełna kontrola nad plikiem, w tym zmiana jego nazwy, wymaga posiadania uprawnienia do modyfikacji, które daje szerszy zakres działań niż samo prawo do zapisu czy odczytu.

Pytanie 6

Z jaką informacją wiąże się parametr TTL po wykonaniu polecenia ping?

C:\Users\Właściciel>ping -n 1 wp.pl

Pinging wp.pl [212.77.98.9] with 32 bytes of data:
Reply from 212.77.98.9: bytes=32 time=17ms TTL=54

Ping statistics for 212.77.98.9:
    Packets: Sent = 1, Received = 1, Lost = 0 (0% loss),
Approximate round trip times in milli-seconds:
    Minimum = 17ms, Maximum = 17ms, Average = 17ms
A. czasem odpowiedzi z docelowego urządzenia
B. czasem trwania weryfikacji komunikacji w sieci
C. liczbą pakietów wysłanych w celu weryfikacji połączenia w sieci
D. liczbą routerów biorących udział w przesyłaniu pakietu od nadawcy do odbiorcy
Parametr TTL nie jest związany z czasem trwania sprawdzenia komunikacji ani z czasem odpowiedzi z urządzenia docelowego. Są to częste błędne interpretacje wynikające z mylenia dwóch niezależnych pomiarów wykonywanych podczas korzystania z narzędzia ping. Czas trwania sprawdzenia komunikacji to rzeczywisty czas potrzebny na przesłanie pakietu w obie strony między klientem a serwerem co jest reprezentowane przez wartości czasowe w milisekundach w wynikach ping. Natomiast liczba pakietów wysłanych w celu sprawdzenia komunikacji odnosi się do całkowitej liczby wysłanych wiadomości echo ale nie ma bezpośredniego związku z TTL. TTL określa liczbę routerów przez które pakiet może przejść zanim zostanie odrzucony a nie ilość wysłanych pakietów. Mylenie tych pojęć często prowadzi do błędów w diagnozowaniu problemów sieciowych. Rozumienie czym dokładnie jest TTL oraz jak działa mechanizm pętli pakietów w sieci jest kluczowe dla skutecznego monitorowania i rozwiązywania problemów w sieciach komputerowych. Poprawne zrozumienie tych zasad umożliwia efektywne zarządzanie ruchem w sieci i zapewnia lepszą kontrolę nad zasobami IT. Takie zagadnienia są kluczowe w codziennej pracy administratorów sieci gdzie precyzyjna interpretacja danych sieciowych jest niezbędna do utrzymania wysokiej jakości usług sieciowych. Zrozumienie różnicy między czasem odpowiedzi a parametrem TTL jest także podstawą do dalszego zgłębiania wiedzy o protokołach sieciowych i ich zastosowaniu w praktyce zarządzania infrastrukturą IT. Współczesne sieci wymagają dokładności i wiedzy na temat działania różnych protokołów co podkreśla znaczenie posiadania solidnej bazy wiedzy w tym zakresie. Dobrze zrozumiane podstawy takie jak TTL stanowią fundament do projektowania i utrzymywania wydajnych i bezpiecznych sieci komputerowych.

Pytanie 7

Komputer, którego naprawa ma zostać przeprowadzona u klienta, nie reaguje na wciśnięcie przycisku POWER. Pierwszą czynnością harmonogramu prac związanych z lokalizacją i usunięciem tej usterki powinno być

A. odłączenie wszystkich zbędnych podzespołów od komputera.
B. sprawdzenie zasilania w gniazdku sieciowym.
C. sporządzenie rewersu serwisowego.
D. sporządzenie kosztorysu naprawy.
To jest właśnie to, od czego powinno się zacząć w takiej sytuacji. Jeśli komputer nie reaguje na wciśnięcie przycisku POWER, pierwszym krokiem zgodnie z zasadami diagnozowania usterek sprzętu komputerowego powinno być sprawdzenie zasilania w gniazdku sieciowym. Z doświadczenia wiem, że w praktyce serwisowej bardzo często zdarza się, że usterka jest banalna i wynika z braku zasilania – na przykład kabel jest luźno wpięty, gniazdko jest wyłączone czy zabezpieczenie przeciwprzepięciowe się wyłączyło. Można się napracować, rozbierając komputer, testując podzespoły, a potem okazuje się, że winna jest listwa zasilająca… Według dobrych praktyk branżowych, zanim cokolwiek zaczniemy rozkręcać, zawsze trzeba upewnić się, że do urządzenia dociera napięcie sieciowe. To podstawa – nawet w podręcznikach do technikum jest to pierwsza rzecz na liście kroków diagnostycznych. Często technicy mają miernik napięcia lub po prostu podłączają inny, sprawny sprzęt do tego samego gniazdka, żeby się upewnić. Poza tym, to pozwala zaoszczędzić czas i niepotrzebną pracę – szczególnie, gdy naprawa odbywa się u klienta, gdzie każda minuta się liczy. Moim zdaniem, ta zasada sprawdza się nie tylko przy komputerach, ale i praktycznie każdym innym sprzęcie zasilanym z sieci. Lepiej najpierw wykluczyć najprostsze rzeczy, zanim przejdzie się do bardziej zaawansowanych działań.

Pytanie 8

Jakie polecenie pozwala na uzyskanie informacji o bieżących połączeniach TCP oraz o portach źródłowych i docelowych?

A. netstat
B. lookup
C. ping
D. ipconfig
Odpowiedzi takie jak 'ping', 'lookup' i 'ipconfig' nie są odpowiednie w kontekście uzyskiwania informacji o aktualnych połączeniach TCP oraz portach. Polecenie 'ping' jest narzędziem diagnostycznym, które służy do testowania osiągalności hosta w sieci IP. Działa poprzez wysyłanie pakietów ICMP Echo Request, a następnie oczekiwanie na odpowiedzi. Nie dostarcza ono informacji o bieżących połączeniach ani portach, co czyni je nieprzydatnym w tym kontekście. 'Lookup' odnosi się do procesów rozpoznawania nazw DNS, jednak nie ma zastosowania przy monitorowaniu połączeń sieciowych. Z kolei 'ipconfig' to polecenie służące do wyświetlania konfiguracji IP na komputerze lokalnym, w tym adresów IP, masek podsieci i bramy domyślnej. Chociaż jest ono ważne dla zarządzania siecią lokalną, nie dostarcza informacji o aktywnych połączeniach TCP. Wiele osób może mylić te narzędzia, myśląc, że każde z nich może dostarczyć informacji o połączeniach sieciowych, co jest mylnym wnioskiem. Dobrym nawykiem jest zrozumienie specyfiki każdego narzędzia oraz jego zastosowania w kontekście monitorowania i zarządzania siecią, co pozwala na bardziej skuteczne diagnozowanie problemów i zapewnienie optymalnej wydajności sieci.

Pytanie 9

Oblicz całkowity koszt za realizację poniższych czynności serwisowych, przy założeniu, że stawka za jedną roboczogodzinę wynosi 120,00 zł netto, a podatek VAT wynosi 23%.

LPZrealizowane czynności serwisoweIlość roboczogodzin
1.Diagnozowanie usterki0,2
2.Wymiana zasilacza0,5
3.Przygotowanie drukarki do eksploatacji0,6
4.Konserwacja urządzenia drukującego1,0
5.Sprawdzanie po zakończeniu naprawy0,2
A. 300,00 zł
B. 231,00 zł
C. 369,00 zł
D. 480,00 zł
Aby obliczyć należność brutto za wykonane czynności serwisowe, należy najpierw obliczyć koszt netto za roboczo-godziny i następnie dodać podatek VAT. Koszt jednej roboczogodziny wynosi 120,00 zł netto. Suma roboczogodzin to: 0,2 + 0,5 + 0,6 + 1,0 + 0,2 = 2,5 roboczogodziny. Koszt netto za 2,5 roboczogodziny wynosi: 120,00 zł * 2,5 = 300,00 zł. Następnie należy obliczyć podatek VAT: 300,00 zł * 23% = 69,00 zł. Ostateczna kwota brutto wynosi: 300,00 zł + 69,00 zł = 369,00 zł. Umiejętność obliczania kosztów serwisowych jest kluczowa w zawodach technicznych, gdzie precyzyjne wyceny są niezbędne dla efektywnego zarządzania finansami firmy oraz utrzymania konkurencyjności na rynku. Warto również znać stawki VAT, które mogą różnić się w zależności od kategorii usług. Przygotowanie dokładnych wycen jest często wymagane w ramach dobrych praktyk branżowych, co może przyczynić się do zwiększenia satysfakcji klienta.

Pytanie 10

Jaką kwotę będzie trzeba zapłacić za wymianę karty graficznej w komputerze, jeżeli jej koszt wynosi 250zł, czas wymiany to 80 minut, a każda rozpoczęta roboczogodzina to 50zł?

A. 300zł
B. 250zł
C. 350zł
D. 400zł
Koszt wymiany karty graficznej w komputerze składa się z dwóch głównych elementów: ceny samej karty oraz kosztu robocizny. W tym przypadku karta graficzna kosztuje 250zł. Czas wymiany wynosi 80 minut, co przelicza się na 1 godzinę i 20 minut. W przypadku kosztów robocizny, każda rozpoczęta roboczogodzina kosztuje 50zł, co oznacza, że za 80 minut pracy należy zapłacić za pełną godzinę, czyli 50zł. Zatem całkowity koszt wymiany karty graficznej wynosi 250zł (cena karty) + 50zł (koszt robocizny) = 300zł. Jednak, ponieważ za każdą rozpoczętą roboczogodzinę płacimy pełną stawkę, należy doliczyć dodatkowe 50zł, co daje 350zł. Praktycznym zastosowaniem tej wiedzy jest umiejętność dokładnego oszacowania kosztów związanych z serwisowaniem sprzętu komputerowego, co jest kluczowe dla osób prowadzących działalność gospodarczą oraz dla użytkowników indywidualnych planujących modernizację swojego sprzętu. Wiedza ta jest również dobrze przyjęta w standardach branżowych, gdzie precyzyjne szacowanie kosztów serwisowych jest nieodzowną praktyką.

Pytanie 11

Umowa, na podstawie której użytkownik ma między innymi dostęp do kodu źródłowego oprogramowania w celu jego analizy i ulepszania, to licencja

A. MOLP
B. GNU GPL
C. OEM
D. OLP
GNU GPL to jedna z popularniejszych licencji open source, która daje szansę każdemu na dostęp do kodu źródłowego oprogramowania. Dzięki temu można go analizować, zmieniać i dzielić się nim z innymi. To fajne, bo sprzyja współpracy i innowacjom wśród programistów. Przykładowo, Linux, który jest rozwijany przez wielu ludzi, korzysta z tej licencji. Z mojego doświadczenia, korzystanie z GNU GPL to krok w dobrym kierunku, bo to pozwala na większą transparentność i tworzenie lepszego oprogramowania, które odpowiada na potrzeby użytkowników. W ogóle, takie licencje są bardzo ważne w ruchu open source, bo dostępność kodu to klucz do rozwoju technologii i współpracy w IT.

Pytanie 12

Który protokół zamienia adresy IP na adresy MAC, używane w sieciach Ethernet?

A. ARP
B. IP
C. IRC
D. SNMP
Protokół ARP (Address Resolution Protocol) jest kluczowym elementem w komunikacji sieciowej, który umożliwia przekształcenie logicznych adresów IP na fizyczne adresy MAC (Media Access Control). Gdy urządzenie w sieci potrzebuje wysłać dane do innego urządzenia, musi znać jego adres MAC, ale zazwyczaj ma jedynie jego adres IP. Protokół ARP rozwiązuje ten problem, wysyłając zapytanie do lokalnej sieci, pytając, który z podłączonych urządzeń ma dany adres IP. Urządzenie, które rozpozna swój adres IP, odpowiada swoim adresem MAC. ARP działa w warstwie drugiej modelu OSI, co oznacza, że jest bezpośrednio związany z komunikacją na poziomie dostępu do sieci. Przykładem zastosowania ARP jest sytuacja, gdy komputer łączy się z routerem, aby uzyskać dostęp do internetu. ARP pozwala na wydajne przesyłanie danych w sieci Ethernet, co jest zgodne z normami IEEE 802.3. Bez ARP, komunikacja w sieciach opartych na protokole IP byłaby znacznie bardziej skomplikowana i mniej efektywna, co podkreśla jego fundamentalne znaczenie w architekturze sieciowej.

Pytanie 13

Ile adresów urządzeń w sieci jest dostępnych dzięki zastosowaniu klasy adresowej C w systemach opartych na protokołach TCP/IP?

A. 100
B. 200
C. 254
D. 256
Klasa adresowa C w sieciach opartych na protokole TCP/IP jest jedną z klas adresowych, której głównym celem jest umożliwienie przypisania adresów dla stosunkowo niewielkich sieci. Adresy w klasie C mają format 24-bitowy dla części sieciowej i 8-bitowy dla części hosta, co oznacza, że adresy te zaczynają się od 192.0.0.0 do 223.255.255.255. W teorii, przy użyciu 8-bitowego segmentu dla hostów, teoretycznie moglibyśmy uzyskać 256 adresów. Jednak dwa z tych adresów są zarezerwowane: jeden dla adresu sieci (np. 192.168.1.0) i jeden dla adresu rozgłoszeniowego (np. 192.168.1.255). Dlatego rzeczywista liczba dostępnych adresów urządzeń w klasie C wynosi 254, co jest wystarczające dla małych sieci, takich jak biura czy oddziały firm. Umożliwia to przypisanie unikalnych adresów do urządzeń, zapewniając jednocześnie możliwość efektywnego zarządzania i organizacji sieci w zgodzie z najlepszymi praktykami administracyjnymi.

Pytanie 14

Jakim symbolem powinien być oznaczony sprzęt komputerowy, aby spełniał wymogi prawne konieczne do sprzedaży w Unii Europejskiej?

Ilustracja do pytania
A. Symbolem 2
B. Symbolem 4
C. Symbolem 3
D. Symbolem 1
Symbol CE oznacza zgodność sprzętu z wymaganiami Unii Europejskiej dotyczącymi bezpieczeństwa zdrowia i ochrony środowiska. Oznaczenie to jest wymagane dla produktów takich jak sprzęt elektroniczny aby mogły być sprzedawane na rynku unijnym. CE to skrót od "Conformité Européenne" co oznacza zgodność europejską. Producent umieszczając ten symbol deklaruje że produkt spełnia wszystkie odpowiednie dyrektywy europejskie takie jak dyrektywa niskonapięciowa czy dyrektywa EMC dotycząca kompatybilności elektromagnetycznej. Przed wprowadzeniem produktu na rynek producent musi przeprowadzić ocenę zgodności która może obejmować testy wewnętrzne i dokumentację techniczną. Symbol CE jest powszechnie rozpoznawany i stanowi potwierdzenie że produkt przeszedł proces oceny zgodności. Dla konsumentów to gwarancja że produkt spełnia minimalne wymagania prawne związane z bezpieczeństwem oraz ochroną zdrowia i środowiska. Oznaczenie CE nie jest jednak znakiem jakości lecz jedynie potwierdzeniem zgodności z regulacjami UE co oznacza że każdy produkt oznaczony CE może być legalnie sprzedawany i użytkowany w krajach członkowskich. Przykładami produktów które muszą mieć oznaczenie CE są komputery sprzęt AGD i urządzenia medyczne.

Pytanie 15

Aby utworzyć kontroler domeny w systemach z rodziny Windows Server na serwerze lokalnym, konieczne jest zainstalowanie roli

A. usług LDS w Active Directory
B. usług zarządzania prawami dostępu w Active Directory
C. usług domenowej w Active Directory
D. usług certyfikatów w Active Directory
Usługi domenowe w usłudze Active Directory (AD DS) są kluczowym elementem infrastruktury Windows Server, które umożliwiają tworzenie i zarządzanie domenami, a tym samym kontrolerami domeny. Kontroler domeny jest serwerem, który autoryzuje i uwierzytelnia użytkowników oraz komputery w sieci, a także zarządza politykami zabezpieczeń. Instalacja roli AD DS na serwerze Windows Server pozwala na stworzenie struktury katalogowej, która jest niezbędna do prawidłowego funkcjonowania usług takich jak logowanie do sieci, zarządzanie dostępem do zasobów oraz centralne zarządzanie politykami grupowymi (GPO). Przykładem zastosowania tej roli może być organizacja, która chce wprowadzić jednolite zarządzanie kontami użytkowników i komputerów w wielu lokalizacjach. Dodatkowo, zgodnie z najlepszymi praktykami IT, każda instytucja korzystająca z systemów Windows powinna mieć w swojej architekturze przynajmniej jeden kontroler domeny, aby zapewnić ciągłość działania i bezpieczeństwo operacji sieciowych.

Pytanie 16

Jakie urządzenia dotyczą terminy SLI?

A. modemy
B. karty sieciowe
C. dyski twarde
D. karty graficzne
Termin SLI (Scalable Link Interface) odnosi się do technologii opracowanej przez firmę NVIDIA, która umożliwia łączenie kilku kart graficznych w celu zwiększenia ich wydajności w renderingach 3D i obliczeniach graficznych. Dzięki SLI, użytkownicy mogą zyskać znaczny wzrost wydajności w grach oraz aplikacjach wymagających intensywnego przetwarzania grafiki. SLI działa poprzez podział obciążenia graficznego między różne karty, co pozwala na równoległe przetwarzanie danych. Przykładem zastosowania SLI może być sytuacja, gdy gracz korzysta z dwóch kart graficznych w trybie SLI, co umożliwia uzyskanie wyższej liczby klatek na sekundę (FPS) w grach AAA, które wymagają dużej mocy obliczeniowej. Warto również zauważyć, że SLI jest zgodne z wieloma standardami branżowymi, a jego efektywność zależy od optymalizacji gier oraz sterowników. Dobrym przykładem jest implementacja SLI w popularnych silnikach gier, takich jak Unreal Engine, co pozwala na uzyskanie bardziej realistycznej grafiki i lepszej wydajności.

Pytanie 17

Za przydzielanie czasu procesora do konkretnych zadań odpowiada

A. chipset
B. system operacyjny
C. pamięć RAM
D. cache procesora
Pojęcie przydzielania czasu procesora do zadań związane jest wyłącznie z funkcją systemu operacyjnego, jednak wiele osób mylnie kojarzy to pojęcie z innymi komponentami komputera. Pamięć RAM, na przykład, jest odpowiedzialna za przechowywanie danych, które są aktywnie używane przez procesor, ale nie podejmuje decyzji o tym, jak długo dany proces ma używać tych zasobów. Możliwe jest, że myślenie w kategoriach pamięci RAM jako decyzyjnego komponentu wynika z błędnego zrozumienia roli różnych elementów architektury komputerowej. Chipset, z drugiej strony, to zestaw układów scalonych, które łączą procesor z innymi komponentami komputera, ale również nie zajmuje się przydzielaniem czasu procesora. Jego główną funkcją jest zapewnienie komunikacji między procesorem, pamięcią RAM i innymi urządzeniami peryferyjnymi. Cache procesora jest pamięcią podręczną, która przyspiesza dostęp do danych, ale także nie jest odpowiedzialna za zarządzanie czasem procesora. W rzeczywistości, zrozumienie roli każdego z tych komponentów jest kluczowe dla poprawnego postrzegania ich funkcji w systemie komputerowym. Często występuje nieporozumienie dotyczące tego, jak różne elementy współpracują ze sobą, co prowadzi do fałszywych wniosków na temat ich funkcji. W praktyce, aby efektywnie wykorzystać zasoby komputerowe, należy koncentrować się na roli systemu operacyjnego, który jest odpowiedzialny za zarządzanie czasem procesora.

Pytanie 18

Ile urządzeń jest w stanie współpracować z portem IEEE1394?

A. 8
B. 63
C. 55
D. 1
Odpowiedź 63 jest jak najbardziej trafna. Standard IEEE 1394, czyli FireWire, rzeczywiście pozwala podłączyć do 63 urządzeń w jednej sieci. Jak to działa? Otóż wszystko bazuje na adresacji 6-bitowej, przez co każde urządzenie dostaje swój unikalny identyfikator. Dzięki temu w jednym łańcuchu możemy podłączać różne sprzęty, jak kamery cyfrowe czy zewnętrzne dyski twarde. W profesjonalnych sytuacjach, na przykład w studiach nagraniowych, to naprawdę ważne, żeby móc obsługiwać tyle różnych urządzeń. Co więcej, standard ten nie tylko umożliwia podłączenie wielu sprzętów, ale także zapewnia szybki transfer danych, co jest super przy przesyłaniu dużych plików multimedialnych. I pamiętaj, że IEEE 1394 jest elastyczny, bo obsługuje też topologię gwiazdy, co jest przydatne w wielu konfiguracjach. W praktyce często korzysta się z hubów, co jeszcze bardziej zwiększa liczbę podłączonych urządzeń.

Pytanie 19

Pamięć RAM pokazana na ilustracji jest instalowana na płycie głównej posiadającej gniazdo

Ilustracja do pytania
A. DDR4
B. DDR
C. DDR3
D. DDR2
Pamięć RAM DDR3 ma charakterystyczny układ pinów i nacięcie, co wyróżnia ją spośród innych rodzajów. Wprowadzono ją w 2007 roku i szybko zyskała popularność, bo oferuje lepszy współczynnik wydajności do zużycia energii w porównaniu do DDR2. Pracuje na wyższych zegarach, co oznacza lepszą przepustowość danych. Częstotliwości DDR3 zaczynają się od 800 MHz, a czasem dochodzą nawet do 2133 MHz, co daje dużą elastyczność dla różnych użytkowników. Znajdziemy ją w komputerach, serwerach i różnorodnych urządzeniach sieciowych. Dodatkowo, moduły DDR3 działają na niższym napięciu - mają 1,5 V, a te niskonapięciowe to nawet 1,35 V. Dzięki tym cechom, DDR3 sprzyja budowie bardziej energooszczędnych i wydajnych systemów. Z mojego doświadczenia, lepiej jest wybierać pamięci o wysokiej częstotliwości i niskim opóźnieniu, żeby uzyskać jak najlepszą wydajność.

Pytanie 20

Jak brzmi pełna wersja adresu IPv6 2001:0:db8::1410:80ab?

A. 2001:0001:0db8:0000:0000:0000:1410:80ab
B. 2001:1000:0db8:0000:0000:0000:1410:80ab
C. 2001:0000:0db8:0000:0000:0000:1410:80ab
D. 2001:0000:db80:0000:0000:0000:1410:80ab
Odpowiedź 2001:0000:0db8:0000:0000:0000:1410:80ab jest poprawna, ponieważ przedstawia pełną postać adresu IPv6, gdzie wszystkie zera zostały uzupełnione. W adresach IPv6 można stosować skróty, takie jak pomijanie wiodących zer oraz użycie podwójnego dwukropka (::) w celu zastąpienia długich ciągów zer. Pełna postać adresu wymaga jednak, aby każdy segment miał 4 znaki szesnastkowe, co oznacza, że wiodące zera muszą być dodane, aby spełnić ten wymóg. Zastosowanie pełnych adresów IPv6 jest istotne w kontekście konfiguracji sieci, ponieważ może pomóc w uniknięciu pomyłek przy ręcznej konfiguracji lub debugowaniu. Standardy takie jak RFC 5952 zalecają stosowanie pełnych postaci adresów IPv6 w dokumentacji i interfejsach użytkownika, co zwiększa przejrzystość i jednoznaczność. Przykładowo, gdy skonfigurujemy urządzenie sieciowe lub serwer, pełny adres może być łatwiejszy do odczytania dla administratorów, co zmniejsza ryzyko błędów przy wprowadzaniu ustawień.

Pytanie 21

Jakim systemem operacyjnym jest system czasu rzeczywistego?

A. QNX
B. Windows
C. DOS
D. Linux
Linux, Windows i DOS to systemy operacyjne, które nie są klasyfikowane jako systemy czasu rzeczywistego. Chociaż są one powszechnie używane, ich architektura oraz model zarządzania czasem nie odpowiadają wymaganiom typowym dla aplikacji czasu rzeczywistego. Linux, mimo że jest wysoce konfigurowalny i może być dostosowany do niektórych zastosowań czasu rzeczywistego, domyślnie nie zapewnia deterministycznego zachowania w zarządzaniu procesami, co może prowadzić do nieprzewidywalnych opóźnień w działaniu aplikacji. Podobnie, Windows, będący systemem operacyjnym ogólnego przeznaczenia, jest optymalizowany podstawowo pod kątem interfejsu użytkownika i aplikacji biurowych, a nie real-time. DOS, będący systemem operacyjnym z lat 80-tych, nie ma architektury zdolnej do obsługi złożonych zadań czasu rzeczywistego, co sprawia, że jego zastosowanie w nowoczesnych systemach wbudowanych jest w zasadzie niemożliwe. Niepoprawne odpowiedzi mogą wynikać z błędnego myślenia o tym, że nowe technologie i systemy operacyjne mogą być konwertowane do czasu rzeczywistego bez odpowiednich modyfikacji i optymalizacji. Kluczowym błędem jest zakładanie, że każdy system operacyjny może działać w podobny sposób w każdej aplikacji, ignorując specyfikę i wymagania dotyczące czasu reakcji oraz niezawodności, które są kluczowe w środowiskach czasu rzeczywistego.

Pytanie 22

Urządzenie z funkcją Plug and Play, które zostało ponownie podłączone do komputera, jest identyfikowane na podstawie

A. unikalnego identyfikatora urządzenia
B. lokalizacji sprzętu
C. specjalnego oprogramowania sterującego
D. lokalizacji oprogramowania urządzenia
Odpowiedź dotycząca unikalnego identyfikatora urządzenia (UID) jest prawidłowa, ponieważ każdy sprzęt Plug and Play, po podłączeniu do komputera, jest identyfikowany na podstawie tego unikalnego identyfikatora, który jest przypisany do danego urządzenia przez producenta. UID pozwala systemowi operacyjnemu na właściwe rozpoznanie urządzenia i przypisanie mu odpowiednich sterowników. Dzięki temu użytkownik nie musi manualnie instalować oprogramowania, a system automatycznie rozpoznaje, co to za urządzenie. Przykładem mogą być drukarki, które po podłączeniu do komputera są automatycznie wykrywane i instalowane dzięki UID. W praktyce oznacza to, że proces dodawania nowych urządzeń do komputera stał się znacznie bardziej intuicyjny i przyjazny dla użytkownika. W celu zapewnienia pełnej zgodności, standardy takie jak USB (Universal Serial Bus) korzystają z unikalnych identyfikatorów, co jest uznawane za dobrą praktykę w projektowaniu nowoczesnych systemów komputerowych.

Pytanie 23

Które polecenie systemu Linux wyświetla czas pracy systemu oraz jego średnie obciążenie?

A. lastreboot
B. uname –a
C. dmidecode
D. uptime
Polecenie uptime w systemach Linux to taki mały klasyk, którego pewnie każdy administrator używał setki razy. Wyświetla ono w jednym wierszu kilka przydatnych informacji: przede wszystkim czas działania systemu od ostatniego uruchomienia (czyli tzw. uptime), liczbę zalogowanych użytkowników oraz średnie obciążenie CPU z ostatnich 1, 5 i 15 minut. Te średnie obciążenia (load average) są bardzo istotne przy diagnozowaniu wydajności maszyny – pozwalają szybko ocenić, czy system radzi sobie z aktualnym ruchem czy może już się "dusi". Osobiście często sprawdzam uptime na serwerach produkcyjnych, żeby ocenić, czy nie dochodzi do przeciążeń albo nieplanowanych restartów. W praktyce polecenie wygląda tak: wpisujesz po prostu uptime w terminalu i dostajesz odpowiedź w stylu "12:05:36 up 21 days, 3 users, load average: 0.28, 0.37, 0.41". Taki szybki rzut oka i już wiesz co się dzieje z serwerem. To narzędzie jest zgodne ze standardami POSIX, a load average jest obecny w większości dystrybucji Linuksa, więc naprawdę warto znać to polecenie na pamięć. Dla początkujących to świetny start w monitorowaniu systemu, a dla doświadczonych – narzędzie pierwszej potrzeby. Fajnie jest też pamiętać, że uptime można łączyć z innymi poleceniami w skryptach monitorujących, co pozwala automatycznie wykrywać i raportować nadmierne obciążenie systemu.

Pytanie 24

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
B. dodaniem drugiego dysku twardego.
C. wybraniem pliku z obrazem dysku.
D. konfigurowaniem adresu karty sieciowej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 25

Jakie oprogramowanie opisuje najnowsza wersja wieloplatformowego klienta, który cieszy się popularnością wśród użytkowników na całym świecie, oferującego wirtualną sieć prywatną do nawiązywania połączenia pomiędzy hostem a lokalnym komputerem, obsługującego uwierzytelnianie z wykorzystaniem kluczy, certyfikatów, nazwy użytkownika i hasła, a także dodatkowych kart w wersji dla Windows?

A. Putty
B. Ethereal
C. TightVNC
D. OpenVPN
OpenVPN to jeden z najpopularniejszych klientów dla wirtualnych sieci prywatnych (VPN), który wspiera wiele platform, w tym Windows, Linux i macOS. Jego główną cechą jest możliwość korzystania z różnych metod uwierzytelniania, takich jak klucze prywatne, certyfikaty oraz tradycyjne nazwy użytkownika i hasła. OpenVPN stosuje złożone algorytmy szyfrowania, co zapewnia wysoki poziom bezpieczeństwa danych przesyłanych przez niezabezpieczone sieci, takie jak Internet. Użytkownicy często wykorzystują OpenVPN do bezpiecznego łączenia się z sieciami firmowymi zdalnie, co stało się szczególnie istotne w dobie pracy zdalnej. Przykładem zastosowania może być sytuacja, w której pracownik łączy się z firmowym serwerem, aby uzyskać dostęp do zasobów niedostępnych w publicznej sieci. Dzięki OpenVPN, dane przesyłane są szyfrowane, co znacząco zwiększa bezpieczeństwo i prywatność. Dodatkowo, OpenVPN jest zgodny z różnymi standardami bezpieczeństwa, takimi jak IETF RFC 5280, co czyni go zgodnym z aktualnymi praktykami branżowymi w obszarze ochrony danych.

Pytanie 26

Aby połączyć cyfrową kamerę z interfejsem IEEE 1394 (FireWire) z komputerem, wykorzystuje się kabel z wtykiem zaprezentowanym na fotografii

Ilustracja do pytania
A. C
B. D
C. A
D. B
Interfejs IEEE 1394, znany również jako FireWire, był dość popularny, zwłaszcza w świecie multimediów. Używało się go często w kamerach cyfrowych. Wtyczka FireWire ma charakterystyczny, prostokątny kształt i najczęściej spotykane są wersje 4-pinowe lub 6-pinowe. W Stanach i Europie ten standard był wykorzystywany w profesjonalnych aplikacjach audio i video, bo pozwalał na przesyłanie danych z naprawdę dużą prędkością, nawet do 800 Mbps w wersji FireWire 800. Ta wtyczka na zdjęciu A to typowy przykład złącza FireWire. Dzięki niej można łatwo połączyć kamerę z komputerem, co znacznie ułatwia transfer plików wideo. Fajnie, że FireWire umożliwia łączenie kilku urządzeń w tzw. łańcuchu (daisy-chaining), więc można podłączyć kilka kamer do jednego portu. To była naprawdę duża zaleta dla tych, co zajmowali się produkcją multimedialną. Chociaż dzisiaj USB zdominowało rynek, FireWire wciąż sprawdza się w kilku niszach, głównie ze względu na niskie opóźnienia i stabilny transfer danych. Warto pamiętać, żeby odpowiednio dobrać kabel i złącze, bo to kluczowe dla ich współpracy i osiągnięcia najwyższej wydajności.

Pytanie 27

Jaki port na tylnym panelu płyty głównej jest w dokumentacji określany jako port zgodny z normą RS232C?

A. COM
B. PS/2
C. USB
D. LPT
Port COM, znany również jako port szeregowy, jest zgodny z standardem RS232C, który definiuje sposób komunikacji szeregowej pomiędzy urządzeniami. RS232C był jednym z pierwszych standardów komunikacyjnych używanych w komputerach osobistych, a jego odpowiednikiem w dzisiejszych czasach są złącza USB, które jednak nie są kompatybilne z RS232C bez użycia odpowiednich adapterów. Porty COM są używane do podłączania różnych urządzeń, takich jak modemy, drukarki czy urządzenia przemysłowe. W praktyce, porty COM mogą być wykorzystywane w aplikacjach wymagających komunikacji w czasie rzeczywistym, gdzie opóźnienia muszą być minimalne. Standard RS232C korzysta z napięć do komunikacji, gdzie logiczna '1' odpowiada napięciu od -3V do -15V, a '0' od +3V do +15V. Zrozumienie portu COM i jego zastosowania jest istotne dla inżynierów i techników, szczególnie w kontekście starszych technologii, które wciąż znajdują zastosowanie w wielu systemach i urządzeniach.

Pytanie 28

Nie jest możliwe wykonywanie okresowych kopii zapasowych dysków serwera na nośnikach wymiennych typu

A. karty SD
B. płyty DVD-ROM
C. karty MMC
D. płyty CD-RW
Płyty DVD-ROM to nośniki danych, które są zaprojektowane do przechowywania informacji w sposób stały, co oznacza, że nie można na nich ani zmieniać ani dodawać danych po ich zapisaniu. W kontekście tworzenia okresowych kopii zapasowych dysków serwera, kluczowe jest posiadanie nośników, które pozwalają na wielokrotne zapisywanie i aktualizowanie danych. Dobre praktyki w zakresie tworzenia kopii zapasowych zalecają używanie nośników, które umożliwiają regularne aktualizacje oraz łatwą wymianę danych, co jest szczególnie ważne w środowiskach produkcyjnych i serwerowych. Przykładem mogłyby być karty SD lub karty MMC, które są często wykorzystywane do przechowywania i transferu danych, ponieważ pozwalają na wielokrotne zapisywanie informacji. W przypadku płyty DVD-ROM, po zapisaniu danych, nośnik staje się statyczny, co uniemożliwia jego wykorzystanie w procesie regularnych kopii zapasowych. Właściwe podejście do przechowywania danych, zgodne z rekomendacjami ITIL oraz innymi standardami zarządzania danymi, wymaga stosowania nośników, które spełniają te wymagania.

Pytanie 29

Parametr pamięci RAM określany czasem jako opóźnienie definiuje się jako

A. RAS Precharge
B. RAS to CAS Delay
C. Command Rate
D. CAS Latency
Wybór odpowiedzi związanej z RAS to CAS Delay, Command Rate, czy RAS Precharge może wprowadzać w błąd, gdyż te terminy opisują różne aspekty działania pamięci RAM, ale nie odnoszą się do głównego zagadnienia opóźnienia, które jest reprezentowane przez CAS Latency. RAS to CAS Delay odnosi się do czasu, jaki zajmuje przełączenie z jednego wiersza pamięci do drugiego, a Command Rate jest miarą liczby cykli zegara między wydawaniem poleceń do pamięci, co nie jest tym samym co czas oczekiwania na dane. RAS Precharge natomiast to czas potrzebny na przygotowanie pamięci do nowego odczytu po zakończeniu bieżącego, co również nie dotyczy bezpośrednio opóźnienia dostępu do konkretnej kolumny pamięci. Wybierając te odpowiedzi, można łatwo pomylić różne parametry i ich funkcje, co często zdarza się osobom, które nie mają jeszcze pełnej wiedzy na temat architektury pamięci. Warto zrozumieć, że każde z tych pojęć ma swoje znaczenie w kontekście działania pamięci RAM, jednak CAS Latency jest kluczowym wskaźnikiem wydajności dostępu do danych, co czyni go najbardziej istotnym w kontekście tego pytania. Zrozumienie różnicy między tymi terminami jest istotne, aby podejmować świadome decyzje przy wyborze komponentów komputerowych.

Pytanie 30

Pliki specjalne urządzeń, tworzone podczas instalacji sterowników w systemie Linux, są zapisywane w katalogu

A. ./sbin
B. ./var
C. ./proc
D. ./dev
Katalog /dev w systemach Linux to miejsce, gdzie znajdują się tzw. pliki specjalne urządzeń, czyli device files. Są to specjalne obiekty plikowe reprezentujące sprzęt lub wirtualne urządzenia systemowe, takie jak dyski twarde, napędy USB, terminale, porty szeregowe czy nawet urządzenia wirtualne typu /dev/null. Tak naprawdę, dzięki temu katalogowi, system operacyjny i aplikacje mogą korzystać ze sprzętu w bardzo przejrzysty sposób – komunikacja z urządzeniem sprowadza się do operacji na pliku, np. odczytu czy zapisu. Moim zdaniem, to naprawdę eleganckie rozwiązanie. Większość plików w /dev tworzona jest dynamicznie przez menedżera urządzeń (np. udev), ale starsze systemy, albo jakieś egzotyczne zastosowania, mogą wymagać ręcznego tworzenia plików typu character device lub block device za pomocą polecenia mknod. Warto pamiętać, że zgodnie ze standardem Filesystem Hierarchy Standard (FHS), katalog /dev jest miejscem zarezerwowanym właśnie wyłącznie na takie pliki i nie powinno się tu umieszczać zwykłych plików użytkownika. Przykład praktyczny? Zamontowanie obrazu ISO, korzystanie z portu szeregowego ttyS0 albo podpięcie partycji przez /dev/sda1 – to wszystko dzięki plikom w /dev. Praktyka pokazuje, że rozumienie roli tego katalogu przydaje się zarówno przy administracji Linuksem, jak i przy pisaniu niskopoziomowych narzędzi.

Pytanie 31

Jaką liczbę adresów IP należy wykorzystać, aby 4 komputery podłączone do switcha mogły się swobodnie komunikować?

A. 5
B. 2
C. 3
D. 4
Wybór mniejszej liczby adresów IP, takich jak 2, 3 czy 5, jest błędny z perspektywy podstawowych zasad adresacji IP. W przypadku 2 adresów IP, można by pomyśleć, że dwa komputery mogłyby się komunikować, ale w praktyce nie wystarczy to, aby zapewnić komunikację między wszystkimi 4 komputerami. Komunikacja w sieci wymaga, aby każde urządzenie miało unikalny adres IP, co oznacza, że każdemu z 4 komputerów musi zostać przypisany oddzielny adres. Wybór 3 adresów IP również nie wystarcza, ponieważ brakujący adres uniemożliwi jednemu z komputerów komunikację. Wreszcie, wybór 5 adresów IP prowadzi do nadmiarowości, co nie jest konieczne w tej sytuacji i może prowadzić do nieefektywnej organizacji adresacji sieciowej. W myśleniu o adresacji IP kluczowe jest zrozumienie zasady, że każdy element sieci musi być identyfikowalny, co nie jest możliwe przy mniejszej liczbie adresów niż liczba urządzeń. Stosowanie dobrych praktyk w zarządzaniu adresami IP przyczynia się do efektywności i bezpieczeństwa w sieciach komputerowych.

Pytanie 32

Aby uzyskać więcej wolnego miejsca na dysku bez tracenia danych, co należy zrobić?

A. weryfikację dysku
B. kopię zapasową dysku
C. defragmentację dysku
D. oczyszczanie dysku
Wykonywanie backupu dysku ma na celu zabezpieczenie danych przed ich utratą, jednak nie wolno mylić tego procesu z zwalnianiem miejsca na dysku. Backup polega na tworzeniu kopii zapasowej plików i folderów, co jest kluczowe w kontekście ochrony danych, ale nie redukuje fizycznego zużycia przestrzeni na dysku. Sprawdzanie dysku to proces diagnostyczny, który identyfikuje błędy i uszkodzenia na nośniku, natomiast defragmentacja jest operacją mającą na celu reorganizację danych na dysku w celu poprawy wydajności. Choć wszystkie te działania są istotne dla zarządzania danymi, nie prowadzą one do zwolnienia miejsca na dysku. Często użytkownicy mogą sądzić, że wystarczy skopiować dane na inny nośnik lub sprawdzić stan dysku, aby rozwiązać problem z jego pojemnością. To mylące podejście może prowadzić do nieefektywnego zarządzania zasobami, gdzie użytkownicy próbują poprawić wydajność systemu poprzez działania, które nie mają wpływu na ilość dostępnego miejsca. Zrozumienie różnicy między tymi procesami jest kluczowe dla efektywnego zarządzania danymi oraz optymalizacji pracy systemu.

Pytanie 33

Na ilustracji ukazano złącze zasilające

Ilustracja do pytania
A. dysków SATA wewnętrznych
B. Molex do HDD
C. stacji dysków 3.5"
D. ATX12V do zasilania CPU
Złącze ATX12V jest kluczowym elementem w zasilaniu nowoczesnych komputerów osobistych. Przeznaczone jest do dostarczania dodatkowej mocy bezpośrednio do procesora. Złącze to zazwyczaj składa się z czterech pinów, choć istnieją również wersje ośmiopinowe, które zapewniają jeszcze większą moc. Zastosowanie tego typu złącza stało się standardem w płytach głównych ATX, aby sprostać rosnącym wymaganiom energetycznym nowoczesnych procesorów. ATX12V dostarcza napięcie 12V, które jest kluczowe dla stabilnej pracy CPU, zwłaszcza podczas intensywnych zadań, takich jak obróbka wideo czy gry komputerowe. Dzięki temu złączu możliwe jest stabilne dostarczenie dużej ilości mocy, co minimalizuje ryzyko niestabilności systemu. Podczas instalacji istotne jest, aby upewnić się, że konektor jest prawidłowo osadzony, co gwarantuje poprawne działanie całego systemu. Warto również zaznaczyć, że zasilacze komputerowe są projektowane zgodnie z normami ATX, co zapewnia kompatybilność i bezpieczeństwo użytkowania urządzeń komputerowych.

Pytanie 34

Protokół stosowany w sieciach komputerowych do zarządzania zdalnym terminalem w modelu klient-serwer, który nie gwarantuje bezpieczeństwa przekazywanych danych i funkcjonuje tylko w formacie tekstowym, to

A. Telnet
B. Internet Protocol
C. Remote Desktop Protocol
D. Secure Shell
Wybór odpowiedzi Secure Shell (SSH) jest zrozumiały, ponieważ jest to protokół zdalnego dostępu, który zapewnia bezpieczeństwo przesyłanych danych poprzez szyfrowanie. SSH jest standardem w zarządzaniu serwerami, a jego główną zaletą jest ochrona przed podsłuchiwaniem i atakami typu man-in-the-middle. Różni się on jednak od Telnetu, który nie oferuje żadnego z tych zabezpieczeń, co czyni go mniej odpowiednim do użytku w środowiskach, gdzie bezpieczeństwo jest kluczowe. Internet Protocol (IP) to protokół warstwy sieciowej odpowiedzialny za przesyłanie danych między urządzeniami w sieci, ale nie jest bezpośrednio związany z obsługą terminali zdalnych. Z kolei Remote Desktop Protocol (RDP) to protokół opracowany przez firmę Microsoft, który umożliwia zdalne sterowanie komputerem graficznym, co różni się od tekstowego interfejsu Telnetu. Dlatego, wybierając odpowiedź, należy zrozumieć, że protokoły mają różne przeznaczenia i zastosowania. Często myli się funkcjonalność i zastosowania tych technologii, co prowadzi do błędnych wyborów w kontekście ich użytkowania. Właściwe zrozumienie specyfiki każdego z protokołów oraz ich zastosowań w praktyce jest kluczowe dla efektywnego zarządzania systemami i sieciami komputerowymi.

Pytanie 35

Jakie polecenie diagnostyczne powinno się użyć, aby uzyskać informacje na temat tego, czy miejsce docelowe odpowiada oraz po jakim czasie nastąpiła odpowiedź?

A. ping
B. ipcconfig
C. route
D. nbtstat
Odpowiedzią, która prawidłowo odpowiada na pytanie o diagnostykę połączeń sieciowych, jest polecenie 'ping'. Jest to narzędzie, które służy do testowania dostępności hostów w sieci poprzez wysyłanie pakietów ICMP Echo Request i oczekiwanie na ICMP Echo Reply. Dzięki temu administratorzy sieci mogą ocenić, czy dane miejsce docelowe jest osiągalne, oraz zmierzyć czas, jaki zajmuje przesłanie pakietów i otrzymanie odpowiedzi, co jest istotnym wskaźnikiem opóźnienia w transmisji (latency). Przykładowo, wykonując polecenie 'ping www.example.com', uzyskujemy informacje o czasie odpowiedzi i ewentualnych utraconych pakietach, co pozwala na wstępną ocenę jakości połączenia. Jest to standardowa praktyka w diagnostyce sieci, stosowana przez specjalistów IT do szybkiej identyfikacji problemów z połączeniem i monitorowania stanu sieci. Warto także dodać, że narzędzie 'ping' jest dostępne w praktycznie wszystkich systemach operacyjnych, co czyni je uniwersalnym i niezbędnym narzędziem w codziennej pracy administratorów sieci.

Pytanie 36

Aby możliwe było zorganizowanie pracy w wydzielonych logicznie mniejszych podsieciach w sieci komputerowej, należy ustawić w przełączniku

A. WAN
B. VLAN
C. VPN
D. WLAN
VLAN, czyli Virtual Local Area Network, jest technologią, która umożliwia podział jednej fizycznej sieci lokalnej na wiele logicznych podsieci. Dzięki VLAN możliwe jest segregowanie ruchu sieciowego w zależności od określonych kryteriów, takich jak dział, zespół czy funkcja w organizacji. W praktyce, przełączniki sieciowe są konfigurowane w taki sposób, aby porty przełącznika mogły być przypisane do określonych VLAN-ów, co pozwala na izolację ruchu między różnymi grupami użytkowników. Na przykład, w dużej firmie można stworzyć osobne VLAN-y dla działu finansowego, sprzedażowego i IT, co zwiększa bezpieczeństwo oraz ogranicza wykorzystywanie pasma. Ponadto, VLAN-y ułatwiają zarządzanie siecią oraz zwiększają jej efektywność, ponieważ umożliwiają lepsze wykorzystanie zasobów sieciowych. Standardy takie jak IEEE 802.1Q definiują, jak realizować VLAN-y w sieciach Ethernet, co czyni je uznawanym podejściem w projektowaniu nowoczesnych infrastruktury sieciowych.

Pytanie 37

Która lokalizacja umożliwia utworzenie kopii zapasowej dysku systemowego Windows 11?

A. Dysk zewnętrzny.
B. Partycja rozruchowa.
C. Partycja systemowa.
D. Katalog C:\Windows\Boot
Wiele osób zakłada, że skoro coś jest „systemowe” albo „rozruchowe”, to nadaje się do kopii zapasowej systemu. I tu pojawia się typowe nieporozumienie: partycja rozruchowa czy partycja systemowa to elementy tego samego fizycznego dysku, z którego startuje Windows 11. One są częścią infrastruktury uruchamiania systemu, a nie miejscem do bezpiecznego przechowywania backupu. Jeśli ten dysk ulegnie awarii mechanicznej, logicznej albo zostanie zaszyfrowany przez ransomware, tracisz zarówno system, jak i wszystko, co było na tych partycjach, włącznie z ewentualną kopią zapasową trzymaną „obok”. Z punktu widzenia dobrych praktyk branżowych to klasyczny antywzorzec – backup nie może być zależny od tego samego punktu awarii. Partycja rozruchowa w nowoczesnych systemach z UEFI to zwykle mała partycja EFI, zawierająca pliki startowe, bootloader, wpisy BCD. Ona ma pełnić ściśle techniczną rolę uruchamiania systemu, a nie magazynu danych. Próba traktowania jej jako lokalizacji backupu mija się z celem, bo jest za mała i zbyt krytyczna. Podobnie partycja systemowa, czyli ta z zainstalowanym Windows (zazwyczaj C:), jest najbardziej narażona na błędy użytkownika, infekcje malware i uszkodzenia logiczne. Trzymanie tam kopii zapasowej systemu przypomina robienie kserokopii dokumentu i przechowywanie jej w tej samej teczce, którą najczęściej nosisz przy sobie – w razie zgubienia tracisz wszystko naraz. Katalog C:\Windows\Boot również bywa mylony z miejscem na kopię, bo kojarzy się z procesem startu. Technicznie to tylko folder z plikami rozruchowymi w obrębie tej samej partycji systemowej. Nie zapewnia żadnej izolacji ani ochrony fizycznej. To nadal ten sam dysk, te same ryzyka: awaria sprzętu, uszkodzenie systemu plików, zaszyfrowanie danych. Dobre praktyki security i backupu (również w dokumentacji Microsoftu) mówią wprost: kopia zapasowa powinna być na oddzielnym nośniku, najlepiej zewnętrznym lub sieciowym, a kluczowe backupy powinny być odłączane od systemu na co dzień. Typowy błąd myślowy polega na myleniu „elementu systemu” z „miejscem bezpiecznym”. To, że coś jest ważne dla startu Windows, nie znaczy, że jest bezpieczne do przechowywania kopii zapasowej. Bezpieczeństwo backupu wynika z separacji: inny nośnik, inny punkt awarii, często też inna lokalizacja fizyczna. Dlatego jedynie zewnętrzny dysk spełnia w tym pytaniu realne wymagania poprawnego backupu systemu Windows 11.

Pytanie 38

Czym jest mapowanie dysków?

A. przypisaniem etykiety dysku do określonego katalogu w sieci
B. ustawienie interfejsów sieciowych
C. przyznawaniem praw do folderu użytkownikom w sieci WAN
D. określaniem użytkowników oraz grup użytkowników
Mapowanie dysków to proces, który polega na przypisaniu oznaczenia literowego do określonego katalogu sieciowego, co umożliwia łatwiejszy dostęp do zasobów przechowywanych na innych komputerach w sieci. Dzięki mapowaniu dysków użytkownicy mogą korzystać z tych zasobów tak, jakby były one lokalne, co znacznie upraszcza pracę w środowisku sieciowym. Na przykład, w środowisku firmowym, administratorzy sieci mogą zmapować zdalny folder serwera plików do litery dysku, co pozwala pracownikom na bezproblemowe otwieranie i edytowanie dokumentów. Zgodnie z najlepszymi praktykami branżowymi, mapowanie dysków powinno być realizowane przy użyciu odpowiednich protokołów, takich jak SMB (Server Message Block), co zapewnia bezpieczeństwo i integralność danych podczas przesyłania. Dodatkowo, administracja powinna regularnie monitorować dostęp do zmapowanych dysków, aby zabezpieczyć dostęp tylko dla uprawnionych użytkowników, co zwiększa bezpieczeństwo danych w organizacji.

Pytanie 39

Która norma określa parametry transmisji dla komponentów kategorii 5e?

A. EIA/TIA 607
B. TIA/EIA-568-B-1
C. TIA/EIA-568-B-2
D. CSA T527
Norma TIA/EIA-568-B-2 jest kluczowym dokumentem w zakresie specyfikacji parametrów transmisyjnych komponentów kategorii 5e, które są powszechnie stosowane w sieciach lokalnych. Ta norma definiuje wymagania dotyczące wydajności, w tym poziomy tłumienia, zniekształcenia sygnału oraz inne istotne parametry, które wpływają na jakość i stabilność przesyłania danych. Przykładowo, komponenty kategorii 5e są zaprojektowane z myślą o transmisji danych z prędkością do 1 Gbps na dystansie do 100 metrów, co czyni je odpowiednimi do zastosowań w biurach i domach. TIA/EIA-568-B-2 wprowadza również wytyczne dotyczące instalacji, co pozwala na stworzenie wydajnych i niezawodnych sieci. Stosowanie tej normy jest zgodne z najlepszymi praktykami branżowymi, co zapewnia wysoką jakość usług i minimalizację problemów związanych z transmisją. Zrozumienie i wdrożenie wymagań tej normy jest kluczowe dla inżynierów i techników zajmujących się projektowaniem oraz implementacją infrastruktury sieciowej.

Pytanie 40

Aby zmierzyć tłumienie łącza światłowodowego w dwóch zakresach transmisyjnych 1310nm oraz 1550nm, powinno się zastosować

A. testera UTP
B. miernika mocy optycznej
C. rejestratora cyfrowego
D. reflektometru TDR
Miernik mocy optycznej jest kluczowym narzędziem do pomiaru tłumienia łącza światłowodowego w określonych długościach fal, takich jak 1310 nm i 1550 nm. Oferuje on możliwość dokładnego określenia ilości energii optycznej przechodzącej przez włókno, co pozwala na ocenę jego wydajności oraz jakości transmisji. Tłumienie w systemach światłowodowych jest mierzona w decybelach na kilometr (dB/km) i jest istotnym parametrem dla inżynierów zajmujących się projektowaniem oraz konserwacją sieci. Przykładem zastosowania miernika mocy optycznej jest wykonywanie pomiarów w sytuacjach, gdy wprowadzane są nowe segmenty łącza lub podczas przeprowadzania regularnych testów konserwacyjnych, aby zapewnić, że tłumienie nie przekracza dopuszczalnych norm, co zazwyczaj wynosi 0,35 dB/km dla długości fali 1550 nm i 0,5 dB/km dla 1310 nm. Praktyczne zastosowanie miernika mocy optycznej zgodnie z normami ANSI/TIA-568 i ITU-T G.652 umożliwia zachowanie wysokiej jakości sygnału oraz wykrywanie potencjalnych problemów, takich jak uszkodzenia włókna czy niewłaściwe połączenia spawane.