Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik programista
  • Kwalifikacja: INF.04 - Projektowanie, programowanie i testowanie aplikacji
  • Data rozpoczęcia: 10 kwietnia 2026 12:46
  • Data zakończenia: 10 kwietnia 2026 13:00

Egzamin niezdany

Wynik: 13/40 punktów (32,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu— sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

W języku Python, jak nazywa się funkcja, która jest wykonywana automatycznie, gdy obiekt jest niszczony?

A. __del__
B. __repr__
C. __init__
D. __str__
W Pythonie funkcja <code>__del__</code> to metoda destruktora, która jest wywoływana, gdy obiekt jest niszczony. Jest to część procesu zarządzania pamięcią, gdzie interpreter Pythona automatycznie usuwa obiekty, które nie są już potrzebne, aby zwolnić pamięć. <code>__del__</code> pozwala na wykonanie dodatkowych czynności przed ostatecznym usunięciem obiektu, takich jak zamknięcie plików czy połączeń sieciowych. Warto jednak pamiętać, że użycie <code>__del__</code> nie jest zalecane do zarządzania zasobami, ponieważ może prowadzić do trudnych do zdiagnozowania błędów, szczególnie gdy obiekty są usuwane w nieprzewidywalnym momencie. Zamiast tego, lepiej jest używać menedżerów kontekstu (z instrukcją <code>with</code>), które zapewniają bardziej kontrolowane i bezpieczne zwalnianie zasobów. Przykładowo, otwierając plik za pomocą <code>with open('plik.txt', 'r') as f:</code>, masz pewność, że plik zostanie zamknięty poprawnie po zakończeniu bloku kodu, niezależnie od tego, czy wystąpił błąd.

Pytanie 2

Jakie słowa kluczowe są stosowane w języku C++ do zarządzania wyjątkami?

A. except i finally
B. try i catch
C. throw i handle
D. try i raise
Słowa kluczowe 'try' i 'catch' są podstawą obsługi wyjątków w języku C++. Umożliwiają one przechwytywanie i obsługę błędów, które mogą wystąpić podczas wykonywania programu. Blok 'try' zawiera kod, który jest monitorowany pod kątem błędów, a blok 'catch' przechwytuje i przetwarza zgłoszony wyjątek, zapobiegając nieoczekiwanemu zakończeniu programu. Mechanizm ten jest kluczowy dla tworzenia niezawodnego i odpornego na błędy oprogramowania. Dzięki 'try' i 'catch' programista może implementować logikę naprawczą lub logować błędy, co zwiększa stabilność i bezpieczeństwo aplikacji.

Pytanie 3

Podaj wspólną cechę wszystkich kontrolek umieszczonych w ramce

<Label Text="5" BackgroundColor="Blue" TextColor="Tan" isVisible="True" />
<Stepper BackgroundColor="Blue" Value="5" isVisible="True" />
<Entry TextColor="Tan" BackgroundColor="Blue" Placeholder="5" />
<Slider ThumbColor="Tan" BackgroundColor="Blue" Value="5" isVisible="False" />
A. mają tło w tym samym kolorze
B. wszystkie są widoczne
C. mają identyczny kolor czcionki
D. są w nich ustawione te same wartości domyślne
W tym przypadku wskazałeś/aś, że wszystkie kontrolki mają tło w tym samym kolorze, i to jest faktycznie prawidłowa odpowiedź. Gdy spojrzymy na definicje: Label ma BackgroundColor="Blue", Stepper także BackgroundColor="Blue", Entry również BackgroundColor="Blue", a Slider—no właśnie—też BackgroundColor="Blue". To pokazuje, że niezależnie od typu kontrolki, wszystkie mają ustawione tło na dokładnie ten sam kolor. W praktyce bardzo często spotyka się wymóg zachowania spójności wizualnej interfejsu, szczególnie w aplikacjach profesjonalnych czy korporacyjnych. Ustalanie wspólnego BackgroundColor jest jednym z najprostszych kroków ku temu, by UI wyglądało porządnie i było czytelne dla użytkownika końcowego. Moim zdaniem, kiedy projektuje się cały ekran lub jakąś sekcję UI, warto od razu narzucić style lub korzystać z szablonów (np. Styles w XAML czy resourcach), żeby uniknąć przypadkowych rozbieżności kolorystycznych, które potem tylko irytują i programistów, i użytkowników. W branży jest to uznawane za dobrą praktykę – jednolity background ułatwia szybkie ogarnięcie, które elementy należą do jednej grupy funkcjonalnej. Poza tym, kolor tła bywa często wykorzystywany do komunikowania stanu albo priorytetu (np. alerty na czerwono itp.), więc to naprawdę ważne, żeby takie detale były przemyślane i konsekwentnie stosowane. No i jeszcze taka ciekawostka: nie wszystkie kontrolki domyślnie wyświetlają tło, więc czasem trzeba to jawnie ustawić, żeby efekt był taki sam na każdej platformie.

Pytanie 4

Jakie czynności należy wykonać, aby zrealizować zdarzenie kliknięcia na przycisk w aplikacji desktopowej?

A. Powiązać zdarzenie kliknięcia z odpowiednią metodą w kodzie
B. Utworzyć metodę w systemie menu
C. Zaprojektować nowy dialog modalny
D. Zmienić plik XAML
Podłączenie zdarzenia kliknięcia do odpowiedniej metody w kodzie to podstawowy krok w obsłudze interakcji użytkownika z przyciskiem w aplikacjach desktopowych. W środowiskach takich jak WPF (Windows Presentation Foundation), WinForms czy Qt, każda kontrolka (np. przycisk) może posiadać przypisaną metodę, która zostanie wywołana w momencie kliknięcia. Dzięki temu możliwe jest wykonywanie operacji, takich jak otwieranie nowych okien, przetwarzanie danych lub aktualizacja interfejsu użytkownika. Prawidłowa implementacja zdarzeń jest kluczowa dla funkcjonalności aplikacji i umożliwia dynamiczne reagowanie na działania użytkownika. W środowiskach takich jak Visual Studio, proces ten jest intuicyjny i często realizowany przez mechanizm 'kliknij i przeciągnij', a następnie przypisanie kodu do wygenerowanego szkieletu funkcji.

Pytanie 5

Jakie elementy powinny być ujęte w dokumentacji programu?

A. Opis funkcji, klas i zmiennych w kodzie
B. Zestawienie błędów zidentyfikowanych w trakcie testów
C. Szczegóły dotyczące konfiguracji serwera
D. Strategia marketingowa aplikacji
Opis funkcji, klas i zmiennych w kodzie to kluczowy element dokumentacji programu. Tego rodzaju dokumentacja pozwala na lepsze zrozumienie struktury aplikacji, jej logiki biznesowej oraz wzajemnych zależności pomiędzy poszczególnymi komponentami. Dokumentacja techniczna obejmuje szczegółowe informacje na temat implementacji, interfejsów API, schematów baz danych oraz sposobów integracji z innymi systemami. Dzięki niej programiści mogą szybciej wdrażać się w projekt, a błędy i niejasności są minimalizowane. Kompleksowa dokumentacja zawiera także przykłady użycia poszczególnych funkcji, co dodatkowo ułatwia rozwój i rozbudowę aplikacji. W dobrze prowadzonym projekcie dokumentacja kodu jest na bieżąco aktualizowana, co zwiększa jego przejrzystość i wspiera proces refaktoryzacji.

Pytanie 6

Jak określa się proces, w trakcie którego klasa przejmuje właściwości innej klasy w programowaniu obiektowym?

A. Dziedziczenie
B. Abstrakcja
C. Polimorfizm
D. Hermetyzacja
Dziedziczenie to kluczowa cecha programowania obiektowego (OOP), która pozwala jednej klasie (klasie pochodnej) przejmować cechy i zachowania innej klasy (klasy bazowej). Dzięki dziedziczeniu można wielokrotnie wykorzystywać kod, co prowadzi do większej modularności i zmniejszenia redundancji. Dziedziczenie umożliwia rozszerzanie funkcjonalności klas bazowych poprzez dodawanie nowych metod lub modyfikowanie istniejących, bez konieczności ingerencji w oryginalny kod. Przykład w C++: `class Pojazd { ... }; class Samochod : public Pojazd { ... };` – `Samochod` dziedziczy wszystkie publiczne i chronione (protected) elementy klasy `Pojazd`.

Pytanie 7

Algorytmy, które są wykorzystywane do rozwiązywania problemów przybliżonych lub takich, które nie mogą być opisane za pomocą algorytmu dokładnego, na przykład w prognozowaniu pogody czy identyfikacji nowych wirusów komputerowych, to algorytmy.

A. rekurencyjne
B. liniowe
C. iteracyjne
D. heurystyczne
Algorytmy liniowe, iteracyjne i rekurencyjne, choć użyteczne w wielu kontekstach, nie są optymalnym rozwiązaniem dla problemów, które nie mogą być opisane klasycznymi algorytmami dokładnymi. Algorytmy liniowe działają na zasadzie sekwencyjnego przetwarzania danych, co sprawia, że są niewystarczające w kontekście złożonych problemów, takich jak przewidywanie pogody, gdzie musimy uwzględnić wiele zmiennych i ich interakcje. Algorytmy iteracyjne często polegają na powtarzaniu tego samego procesu wielokrotnie, co może prowadzić do nieefektywności w sytuacjach, gdy celem jest szybkie osiągnięcie rozwiązania agnosticznym podejściem. Z kolei algorytmy rekurencyjne, mimo swojej elegancji w rozwiązywaniu złożonych problemów przez podział na mniejsze jednostki, również nie radzą sobie z problemami, gdzie nie można precyzyjnie określić, w jaki sposób podzielić problem na mniejsze części. W takich przypadkach algorytmy heurystyczne wprowadzają elastyczność i są bardziej odpowiednie, gdyż pozwalają na eksplorację rozwiązań bazujących na intuicji i doświadczeniu, co jest kluczowe w dziedzinach takich jak rozpoznawanie wirusów komputerowych, gdzie nieznane wzorce mogą wymagać kreatywnego podejścia do analizy.

Pytanie 8

Które zdarzenie w JavaScript jest wywoływane po całkowitym załadowaniu strony?

A. document.ready
B. window.render
C. page.complete
D. window.onload
Wszystkie inne odpowiedzi, takie jak "document.ready", "page.complete" oraz "window.render", są niepoprawne w kontekście pytania o zdarzenie wywoływane po całkowitym załadowaniu strony. Odpowiedź "document.ready" odnosi się do jQuery, a nie do czystego JavaScript. To zdarzenie wywoływane jest, gdy DOM jest załadowany, ale niekoniecznie wszystkie zasoby, takie jak obrazy czy arkusze stylów, są już dostępne. Używanie tego zdarzenia może prowadzić do nieporozumień, gdyż programiści mogą zakładać, że strona jest gotowa do pełnej interakcji, gdy w rzeczywistości zachowanie różnych elementów może się różnić w zależności od ładowania zasobów. Z kolei "page.complete" nie jest standardowym zdarzeniem w JavaScript i nie istnieje w dokumentacji, co czyni tę odpowiedź całkowicie błędną. "window.render" również nie jest znanym zdarzeniem w kontekście JavaScript, co może prowadzić do nieporozumień wśród programistów. Używanie niepoprawnych terminów lub zrozumienie ich znaczenia może prowadzić do błędów w kodzie, które z kolei skutkują nieprawidłowym działaniem aplikacji. Dlatego tak ważne jest, aby znać dokładne zdarzenia i ich zastosowanie w kontekście pełnego ładowania strony, co ma kluczowe znaczenie w tworzeniu responsywnych i dobrze działających aplikacji internetowych.

Pytanie 9

Z analizy złożoności obliczeniowej różnych algorytmów sortowania na dużych zbiorach danych (przekraczających 100 elementów) wynika, że najefektywniejszą metodą jest algorytm sortowania

sortowanie bąbelkoweO(n²)
sortowanie przez wstawianieO(n²)
sortowanie przez scalanieO(n log n)
sortowanie przez zliczanieO(n)
sortowanie kubełkoweO(n²)
A. bąbelkowego
B. kubełkowego
C. przez zliczanie
D. przez scalanie
Sortowanie bąbelkowe, mimo że jest łatwe do zrozumienia i zaimplementowania, ma złożoność czasową O(n²), co czyni je nieefektywnym dla dużych zbiorów danych, takich jak ponad 100 elementów. Działa poprzez wielokrotne przechodzenie przez listę, porównując sąsiednie elementy i zamieniając je miejscami, jeśli są w niewłaściwej kolejności. To powoduje, że algorytm ten staje się wolny przy większej ilości danych. Sortowanie przez scalanie, choć bardziej wydajne niż bąbelkowe, z złożonością O(n log n), nadal nie dorównuje szybkością sortowaniu przez zliczanie w specyficznych warunkach, gdzie zakres wartości jest ograniczony. Jest to metoda rekurencyjna, która dzieli listę na mniejsze części, sortuje je, a następnie scala w jedną posortowaną listę. Natomiast sortowanie kubełkowe, podobnie jak przez zliczanie, korzysta z dodatkowych struktur danych, lecz jego efektywność zależy od tego, jak elementy są równomiernie rozmieszczone w kubełkach, co może prowadzić do złożoności O(n²) w przypadku złej dystrybucji. Typowe błędy myślowe polegają na przecenianiu prostoty implementacji ponad złożoność czasową, a także niedocenianiu specyfiki danych wejściowych, co jest kluczowe dla wyboru odpowiedniego algorytmu sortującego. Przy rozważaniu wyboru algorytmu należy zawsze brać pod uwagę zarówno jego złożoność, jak i charakterystykę danych, jakie będą przetwarzane, co jest podstawą dobrych praktyk inżynierii oprogramowania.

Pytanie 10

W jednostce centralnej, za obliczenia na liczbach zmiennoprzecinkowych odpowiada

A. AU
B. IU
C. ALU
D. FPU
Funkcjonuje takie przekonanie, że wszystkie jednostki w procesorze ogarniają po trochu te same rzeczy, ale to nie do końca tak działa. ALU, czyli Arithmetic Logic Unit, rzeczywiście odpowiada za większość podstawowych operacji arytmetycznych oraz logicznych – dodawanie, odejmowanie, AND, OR czy XOR, ale jest zoptymalizowana do operacji na liczbach całkowitych. Kiedy jednak w grę wchodzą liczby zmiennoprzecinkowe, ALU sobie zwyczajnie nie radzi – nie została do tego zaprojektowana. Warto też wspomnieć o IU, czyli Integer Unit, która – jak sugeruje sama nazwa – jest odpowiedzialna za przetwarzanie liczb całkowitych. Spotkałem się z sytuacjami, gdzie niektórzy mylą IU z FPU, bo niby też coś liczy, ale jeśli chodzi o typy float czy double, to IU nic nie wskóra. AU natomiast, tak szczerze, nie jest powszechnie stosowanym terminem w kontekście architektury procesora. Może się czasem pojawić jako ogólne określenie Arithmetic Unit, ale to raczej archaiczne albo bardzo szerokie pojęcie, nie wskazujące konkretnie, które operacje są obsługiwane. Spotkałem się z tym głównie w starych podręcznikach lub bardzo ogólnych opisach sprzętu, ale dzisiaj nikt poważny nie mówi o AU w kontekście obliczeń zmiennoprzecinkowych. Typowym błędem myślowym jest założenie, że skoro coś jest „arytmetyczne”, to obsłuży dowolny typ liczby. W praktyce inżynierowie projektujący architekturę procesorów zawsze wyraźnie rozdzielają jednostki dla liczb całkowitych od tych dla zmiennoprzecinkowych, bo to zupełnie inne algorytmy i logika działania. Standardy takie jak IEEE 754 dotyczą właśnie FPU i precyzji operacji na floatach, a nie ALU czy IU. W praktycznym zastosowaniu, np. w oprogramowaniu do grafiki, multimediach czy symulacjach naukowych, to właśnie obecność FPU decyduje o wydajności i poprawności obliczeń. Dlatego akurat w tej dziedzinie nie ma miejsca na dowolność – każda jednostka procesora ma swoje konkretne zadanie i nie warto ich ze sobą mieszać.

Pytanie 11

Co to jest event bubbling w JavaScript?

A. System powiadomień o błędach w konsoli JavaScript
B. Metoda zarządzania kolejką zdarzeń w aplikacjach asynchronicznych
C. Technika optymalizacji wydajności zdarzeń na stronie
D. Proces, w którym zdarzenie zaczyna się od najbardziej szczegółowego elementu i propaguje w górę hierarchii DOM
Zrozumienie koncepcji event bubbling jest kluczowe dla pracy z interaktywnymi aplikacjami webowymi, a nieprawidłowe interpretacje mechanizmu zdarzeń mogą prowadzić do wielu problemów w codziennej pracy programisty. Twierdzenie, że event bubbling jest techniką optymalizacji wydajności zdarzeń na stronie, jest mylące, ponieważ owszem, skuteczne wykorzystanie event bubbling może poprawić wydajność, ale sam mechanizm nie jest techniką optymalizacji. Zamiast tego, jest to naturalna cecha modelu zdarzeń w JavaScript, która umożliwia propagację zdarzeń w hierarchii DOM. Warto również zauważyć, że zarządzanie kolejką zdarzeń w aplikacjach asynchronicznych to zupełnie inny temat, który dotyczy asynchroniczności oraz mechanizmu event loop, a nie procesu przekazywania zdarzeń. Dodatkowo, twierdzenie, że event bubbling jest systemem powiadomień o błędach w konsoli JavaScript, wprowadza w błąd, gdyż event bubbling dotyczy jedynie propagacji zdarzeń interfejsu użytkownika, a nie obsługi błędów czy logowania. Często nieporozumienia te wynikają z braku znajomości podstawowych zasad dotyczących zdarzeń w JavaScript oraz z pomylenia różnych mechanizmów, które wspierają interaktywność aplikacji. Dobrze jest zapoznać się z dokumentacją i przykładami, aby lepiej zrozumieć te kluczowe koncepcje.

Pytanie 12

Jakie jest wymagane minimalne natężenie światła w biurze na stanowisku pracy?

A. 800 lx
B. 100 lx
C. 200 lx
D. 500 lx
Oświetlenie na poziomie 100 lx czy 200 lx jest na pewno za słabe do pracy biurowej. Tego typu natężenia nadają się bardziej do korytarzy czy miejsc, gdzie nie ma za dużo aktywności wzrokowej. Z kolei 800 lx to już dość dużo, ale w biurze może być zbyt mocne i prowadzić do zmęczenia oczu. Jasne, że natężenie światła zależy od tego, co się robi, ale dla zwykłych biur 500 lx to zdecydowanie najlepszy wybór, bo pasuje do przepisów i zapewnia komfort.

Pytanie 13

Który z wymienionych parametrów dysku twardego ma największy wpływ na jego wydajność?

A. Pojemność dysku
B. Prędkość obrotowa talerzy (RPM)
C. Ilość pamięci podręcznej (Cache)
D. Rodzaj złącza (SATA/PCIe)
Pojemność dysku jest istotnym parametrem, ale nie wpływa bezpośrednio na jego szybkość działania. Większa pojemność oznacza, że na dysku można przechowywać więcej danych, jednak nie przyspiesza to operacji odczytu i zapisu. Wydajność jest bardziej związana z tym, jak szybko dane mogą być przesyłane do i z dysku, co nie jest bezpośrednio związane z jego pojemnością. Rodzaj złącza, takiego jak SATA czy PCIe, również ma swoje znaczenie, ale w przypadku dysków HDD to prędkość obrotowa jest kluczowa dla szybkości pracy. Złącza PCIe, które są znacznie szybsze od SATA, są bardziej relevantne w kontekście dysków SSD, gdzie czas dostępu i szybkość transferu są znacznie wyższe niż w przypadku talerzowych dysków HDD. Na koniec, ilość pamięci podręcznej (Cache) dysku, choć ma znaczenie w usprawnieniu operacji odczytu i zapisu, to jej wpływ jest marginalny w porównaniu do prędkości obrotowej. Cache działa jako bufor, ale nie zastąpi wyższej prędkości obrotowej talerzy, która decyduje o tym, jak быстро można uzyskać dostęp do danych przechowywanych na dysku.

Pytanie 14

Jaką istotną właściwość ma algorytm rekurencyjny?

A. Wywołuje się wielokrotnie w jednej iteracji
B. Jest podzielony na wiele niezwiązanych funkcji
C. Zawiera wywołanie samego siebie
D. Funkcjonuje tylko w przypadku tablic dynamicznych
Wywołanie funkcji wielokrotnie w jednej iteracji jest charakterystyczne dla algorytmów iteracyjnych, a nie rekurencyjnych. Podział algorytmu na wiele niezależnych funkcji to część modularności i nie wskazuje jednoznacznie na rekurencję. Algorytmy działające wyłącznie na tablicach dynamicznych mogą być zarówno iteracyjne, jak i rekurencyjne, jednak to rekurencyjne wywołanie samego siebie stanowi kluczowy wyróżnik rekurencyjnego podejścia do problemów.

Pytanie 15

Który z poniższych nie jest typem danych w języku JavaScript?

A. Integer
B. Boolean
C. Object
D. String
Wybór typów danych, takich jak Boolean, String i Object, jest prawidłowy w kontekście JavaScript, ponieważ wszystkie te typy są integralnymi elementami tego języka. Boolean reprezentuje dwie wartości: true i false, co jest niezbędne do tworzenia warunków i logiki w kodzie. Z kolei typ String służy do przechowywania tekstu, co jest kluczowe w każdej aplikacji webowej, umożliwiając manipulację danymi tekstowymi. Przykładowo, można korzystać z metod takich jak `toUpperCase()` czy `substring()`, aby przetwarzać napisy. Typ Object, z kolei, to bardziej złożona struktura, która może przechowywać wiele par klucz-wartość, co pozwala na modelowanie bardziej złożonych danych, takich jak obiekty użytkowników, produkty, czy cokolwiek, co wymaga złożonej struktury danych. Typowe błędy myślowe, które prowadzą do nieprawidłowych wniosków dotyczących typów danych, mogą wynikać z braku zrozumienia różnicy między typami w różnych językach programowania. Na przykład, w językach takich jak Java czy C#, Integer jest odrębnym typem, co może prowadzić do myślenia, że JavaScript działa w podobny sposób. W rzeczywistości jednak, JavaScript zapewnia uproszczoną i bardziej elastyczną obsługę typów numerycznych, a zrozumienie tych różnic jest kluczowe dla efektywnego programowania w tym języku.

Pytanie 16

Jakie są kluczowe etapy resuscytacji krążeniowo-oddechowej?

A. 20 uciśnięć klatki piersiowej na przemian z 5 wdechami ratowniczymi
B. 30 wdechów ratowniczych bez uciśnięć
C. 30 uciśnięć klatki piersiowej na przemian z 2 wdechami ratowniczymi
D. 10 uciśnięć klatki piersiowej bez wdechów
20 uciśnięć klatki piersiowej na przemian z 5 wdechami ratowniczymi nie jest zgodne z obecnymi wytycznymi i może obniżyć skuteczność resuscytacji. 10 uciśnięć klatki piersiowej bez wdechów jest niewystarczające do utrzymania przepływu krwi i dotlenienia organizmu. 30 wdechów bez uciśnięć nie zapewnia odpowiedniego przepływu krwi przez serce i mózg, co może prowadzić do nieodwracalnych uszkodzeń narządów i śmierci mózgu w ciągu kilku minut.

Pytanie 17

Co będzie wynikiem działania poniższego kodu JavaScript?

const obj = { name: 'John', greet: function() { setTimeout(function() { console.log(`Hello, ${this.name}`); }, 1000); } }; obj.greet();
A. Hello, John
B. Hello, undefined
C. TypeError
D. Hello, null
Odpowiedzi `Hello, John`, `TypeError` oraz `Hello, null` są wynikiem niepełnego zrozumienia zasad działania kontekstu `this` w JavaScript oraz mechanizmów związanych z wywołaniami funkcji w różnych kontekstach. W przypadku pierwszej z tych odpowiedzi, można by sądzić, że `this` w funkcji anonimowej odwołuje się do obiektu `obj`, co jest błędne, ponieważ w momencie wywołania funkcji przez `setTimeout` kontekst `this` traci odniesienie do obiektu, a zamiast tego wskazuje na obiekt globalny. W efekcie `this.name` nie zwraca wartości `'John'`, lecz `undefined`. Druga odpowiedź, związana z `TypeError`, nie zrozumiała, że żadne błędy nie są generowane w tym kodzie, a funkcja anonimowa wykonuje się bezproblemowo, jednak z błędnym kontekstem. Ostatnia propozycja, `Hello, null`, również jest nietrafiona, ponieważ nie istnieje sytuacja, w której `this` w tym kontekście mogłoby się odwoływać do `null`. Należy również pamiętać, że JavaScript różni się od wielu innych języków programowania, gdzie `this` jest bardziej ściśle powiązane z obiektem, w którym metoda została wywołana. Zrozumienie kontekstu `this` jest kluczowe w pracy z JavaScript, szczególnie w pracy z funkcjami asynchronicznymi oraz w zastosowaniach programowania obiektowego.

Pytanie 18

Co to jest debouncing w JavaScript?

A. Technika ograniczająca częstotliwość wywoływania funkcji poprzez opóźnienie jej wykonania
B. Proces optymalizacji kodu JavaScript podczas kompilacji
C. Mechanizm zarządzania pamięcią dla zmiennych globalnych
D. Metoda usuwania zduplikowanych zdarzeń w kodzie
Błędne odpowiedzi na to pytanie wynikają z nieporozumienia dotyczącego funkcji i technik w JavaScript. Wspomnienie o metodzie usuwania zduplikowanych zdarzeń w kodzie sugeruje mylne rozumienie debouncingu, który nie ma na celu eliminacji zdarzeń, ale kontrolę nad ich częstością wywoływania. Terminy związane z eliminacją zduplikowanych zdarzeń odnoszą się raczej do technik takich jak throttling, które również ograniczają liczbę wywołań, ale w sposób, który różni się od debouncingu. Proces optymalizacji kodu JavaScript podczas kompilacji to zupełnie inny temat, dotyczący narzędzi takich jak minifikatory i kompilatory, które nie mają związku z zarządzaniem zdarzeniami. Ponadto, mechanizm zarządzania pamięcią dla zmiennych globalnych to odrębna kwestia, dotycząca zarządzania pamięcią w JavaScript, a nie techniki związanej z wywoływaniem funkcji. Właściwe zrozumienie debouncingu wymaga uwzględnienia kontekstu zdarzeń oraz ich wpływu na wydajność aplikacji, co jest istotnym zagadnieniem w nowoczesnym programowaniu webowym. Typowe błędy myślowe prowadzące do mylnego wnioskowania mogą obejmować utożsamianie różnych technik programistycznych lub mylenie pojęć związanych z optymalizacją i zarządzaniem zdarzeniami.

Pytanie 19

Co oznacza akronim IDE w kontekście programowania?

A. Interaktywny Silnik Programistyczny
B. Integrated Development Environment
C. Interaktywny Edytor Debugowania
D. Zintegrowane Środowisko Debugowania
IDE, czyli Zintegrowane Środowisko Programistyczne, to naprawdę przydatne narzędzie. Zajmuje się nie tylko edytowaniem kodu, ale łączy w sobie kompilator, debugger i wiele innych rzeczy, które pomagają w tworzeniu oprogramowania. Dzięki IDE można szybciej pisać programy i lepiej ogarniać projekty. A najpopularniejsze z nich, jak Visual Studio, IntelliJ IDEA czy Eclipse, wspierają różne języki programowania, więc są bardzo uniwersalne. Moim zdaniem, korzystanie z IDE to prawie obowiązek dla każdego programisty!

Pytanie 20

Co to jest algorytm QuickSort?

A. Technika przeszukiwania grafu wszerz
B. Algorytm wyszukiwania binarnego w posortowanej tablicy
C. Metoda kompresji danych bez strat
D. Wydajny algorytm sortowania oparty na strategii 'dziel i zwyciężaj'
Algorytm QuickSort to jeden z najbardziej popularnych i efektywnych algorytmów sortowania, który opiera się na strategii 'dziel i zwyciężaj'. W praktyce działa w ten sposób, że wybiera element zwany pivotem (osią) i dzieli zbiór na dwie części: jeden z elementami mniejszymi od pivota, a drugi z elementami większymi. Następnie rekurencyjnie sortuje te podzbiory. QuickSort jest niezwykle szybki i wydajny, zwłaszcza dla dużych zbiorów danych, a jego średnia złożoność czasowa wynosi O(n log n). Używa się go w wielu aplikacjach, gdzie istotne jest szybkie przetwarzanie danych, takich jak sortowanie list w aplikacjach webowych czy organizacja danych w bazach. Warto jednak pamiętać, że w najgorszym przypadku, gdy pivot jest źle wybierany, złożoność może wynosić O(n^2), co występuje na przykład w przypadku już posortowanej tablicy. W kontekście praktycznym, dobre praktyki obejmują dobór odpowiedniej metody wyboru pivota, co może znacznie poprawić wydajność algorytmu.

Pytanie 21

Dlaczego w wyniku działania tego kodu w języku C++ na ekranie pojawiła się wartość 0 zamiast 50?

int oblicz(int x)  {
    int i = 50;
    x = x + i;
    return i;
}

int main()  {
    int x = 0;
    int wynik = oblicz(x);
    std::cout << x;
}
A. Zmienna x powinna być inicjowana wartością równą 1, a nie 0.
B. Argument funkcji został przekazany przez wartość, a nie przez referencję.
C. Funkcja zwraca wartość, chociaż nie powinna jej zwracać.
D. Niepoprawnie zdefiniowano działanie wewnątrz funkcji.
Błąd związany z przekazywaniem argumentu przez wartość, a nie przez referencję, to klasyka w C++. W tym kodzie zmienna x idzie jako kopia, więc zmiany w oblicz nie wpływają na oryginał w main. Może popełniłeś błąd, bo nie do końca rozumiesz różnicę między tymi dwoma metodami. Te inne odpowiedzi wskazują na różne problemy, jak źle zainicjowana zmienna czy błędy w zwracaniu wartości. Ale w oblicz wszystko powinno działać poprawnie, bo zwraca wartość typu int, a problem leży w tym, że przekazujesz kopię argumentu. Warto pamiętać, że poprawny kod wymaga sensownego przepływu wartości między funkcjami i zrozumienia, że x w main nie zmienia się, bo modyfikujesz kopię. Często mylimy to i myślimy, że zmiany w funkcji wpływają na oryginały, a w C++ musisz użyć referencji albo wskaźników, żeby to zadziałało. Zrozumienie tego jest kluczowe, żeby dobrze ogarniać funkcje w C++ i unikać takich problemów w przyszłości.

Pytanie 22

Które narzędzie służy do automatyzacji procesu budowania aplikacji?

A. Postman
B. Figma
C. Swagger
D. Jenkins
Postman jest narzędziem skoncentrowanym na testowaniu API, które pozwala na wysyłanie żądań do serwerów i analizowanie odpowiedzi. Chociaż Postman jest niezwykle użyteczny w procesie tworzenia i testowania interfejsów API, nie ma funkcji automatyzacji budowy aplikacji. W praktyce, użycie Postmana do tego celu może prowadzić do nieporozumień dotyczących jego rzeczywistego zastosowania, co może skutkować niewłaściwym podejściem do automatyzacji i niewykorzystaniem pełnego potencjału narzędzi CI/CD. Figma jest narzędziem do projektowania interfejsów użytkownika, które pozwala na tworzenie prototypów oraz współpracę zespołową nad projektami graficznymi. Pomimo że Figma jest nieoceniona w procesie tworzenia wizualnych aspektów aplikacji, nie ma nic wspólnego z automatyzacją budowy kodu. Swagger to narzędzie służące do dokumentowania API oraz generowania jego interfejsów. Choć Swagger wspiera dokumentację i umożliwia łatwe zrozumienie, jak działa API, nie jest to narzędzie do automatyzacji procesów budowania aplikacji. Typowe błędy myślowe przy wyborze niewłaściwych narzędzi często wynikają z mylnego przekonania, że każde narzędzie do automatyzacji zadań może obsługiwać każdy aspekt cyklu życia oprogramowania, co nie jest zgodne z rzeczywistością. Właściwe zrozumienie funkcji i przeznaczenia narzędzi jest kluczowe dla efektywnego zarządzania projektem oraz dla optymalizacji procesów developerskich.

Pytanie 23

Które z poniższych jest podstawowym rodzajem testów używanych w testowaniu jednostkowym?

A. Testy integracyjne
B. Testy jednostkowe
C. Testy systemowe
D. Testy akceptacyjne
Pozostałe rodzaje testów, mimo że są istotne w procesie testowania oprogramowania, nie są podstawowymi elementami testowania jednostkowego. Testy integracyjne mają na celu sprawdzenie, czy różne moduły systemu współpracują ze sobą poprawnie. Są one wykonywane po testach jednostkowych i skupiają się na interakcjach między komponentami. Testy systemowe to kolejny poziom testowania, który bada cały zintegrowany system pod kątem zgodności z wymaganiami. Są one szeroko zakrojone i testują zarówno funkcjonalność, jak i niefunkcjonalne aspekty systemu, takie jak wydajność czy bezpieczeństwo. Testy akceptacyjne to ostatnia faza testowania, w której sprawdza się, czy system spełnia kryteria akceptacji i jest gotowy do wdrożenia. Są one często wykonywane przez końcowych użytkowników lub klientów, aby upewnić się, że system spełnia ich potrzeby i oczekiwania. Wszystkie te formy testowania są ważne, ale nie zastępują testów jednostkowych, które są fundamentem weryfikacji poprawności poszczególnych części kodu. Typowym błędem jest myślenie, że można całkowicie polegać na testach wyższego poziomu, zaniedbując testy jednostkowe, co może prowadzić do trudnych do wykrycia błędów w późniejszych etapach projektów.

Pytanie 24

Co to jest dependency injection w programowaniu?

A. Technika, w której obiekt otrzymuje inne obiekty, od których zależy
B. Metoda optymalizacji zapytań do bazy danych
C. Proces kompilacji kodu źródłowego do kodu maszynowego
D. Metoda projektowania interfejsu użytkownika
Wiele osób myli dependency injection z innymi technikami i procesami programistycznymi, co prowadzi do nieporozumień. Przykładowo, niektóre odpowiedzi sugerują, że DI odnosi się do optymalizacji zapytań do bazy danych lub procesu kompilacji kodu źródłowego do kodu maszynowego. W rzeczywistości, technika DI nie ma nic wspólnego z wydajnością zapytań ani z samym procesem kompilacji. Optymalizacja zapytań do bazy danych koncentruje się na sposobach zwiększenia efektywności interakcji z bazą, na przykład poprzez indeksowanie lub odpowiednie formułowanie zapytań SQL, co jest zupełnie inną dziedziną. Z kolei kompilacja kodu źródłowego dotyczy procesu tłumaczenia kodu napisanego przez programistę na kod zrozumiały dla maszyny, co również nie ma związku z DI. Inną mylną koncepcją jest przypisanie DI do projektowania interfejsu użytkownika. Choć projektowanie UI i DI mogą wpływać na końcowy produkt, DI odnosi się bezpośrednio do architektury aplikacji, a nie do aspektów wizualnych. Typowe błędy myślowe polegają na mówieniu o DI jako o technice optymalizacji lub fragmentacji kodu, gdy tak naprawdę chodzi o ułatwienie zarządzania zależnościami i poprawę testowalności aplikacji. Użycie DI w odpowiedni sposób, zgodnie z zasadami dobrego programowania, pozwala tworzyć aplikacje o wyższej jakości, które są łatwiejsze w utrzymaniu i rozwijaniu.

Pytanie 25

Jak wygląda kod uzupełnienia do dwóch dla liczby -5 w formacie binarnym przy użyciu 8 bitów?

A. 10000101
B. 11111011
C. 00000101
D. 11111101
Pierwsza z niepoprawnych odpowiedzi, która przedstawia wartość 00000101, jest błędna, ponieważ jest to binarna reprezentacja liczby 5, a nie -5. Kod uzupełnieniowy do dwóch wymaga przedstawienia liczby ujemnej poprzez inwersję bitów i dodanie jedynki. Ta odpowiedź nie ma zastosowania przy obliczaniu liczb ujemnych, stąd jest niewłaściwa. Kolejna odpowiedź, 11111101, również jest nieprawidłowa. W przypadku tej liczby, zainwersowanie bitów liczby 5 dawałoby 11111010, a dodanie 1 do tej wartości prowadziłoby do 11111011, co wskazuje, że ta odpowiedź nie jest zgodna z zasadą uzupełnienia do dwóch. Ostatnia z niepoprawnych odpowiedzi, 10000101, jest również błędna, ponieważ nie odpowiada żadnej z reprezentacji liczby -5. Gdybyśmy spróbowali konwertować ją z powrotem na wartość dziesiętną, otrzymalibyśmy 133, co jest zdecydowanie niepoprawne. Warto zauważyć, że każda z tych niepoprawnych odpowiedzi wskazuje na brak zrozumienia zasad konwersji liczb ujemnych w systemie binarnym, co jest kluczowe w informatyce i programowaniu, a ich użycie w praktycznych aplikacjach mogłoby prowadzić do poważnych błędów w obliczeniach.

Pytanie 26

W przedstawionym filmie ukazano kreator interfejsu użytkownika, dla którego automatycznie powstaje

A. obsługa przycisku ekranu dotykowego
B. kod Java
C. kod XML
D. obsługa wciśniętego przycisku
Często można się pomylić, sądząc, że narzędzia do projektowania interfejsów użytkownika generują od razu kod w takich językach jak Java czy implementują obsługę konkretnych zdarzeń, np. wciśnięcia przycisku. Z mojego doświadczenia wynika, że to jeden z najczęstszych błędów myślowych na początku nauki programowania. W praktyce, narzędzia typu drag&drop koncentrują się na warstwie prezentacyjnej – opisują, jak mają wyglądać poszczególne elementy, ale nie zajmują się logiką działania. Kod Java albo inny kod źródłowy odpowiedzialny za obsługę zdarzeń czy funkcjonalności aplikacji musi być dopisany ręcznie przez programistę. Automatyczne generowanie kodu logicznego przez edytory graficzne jest raczej niezalecane, bo prowadzi do trudnego w utrzymaniu kodu i sprawia, że aplikacja traci na przejrzystości. Jeśli chodzi o obsługę wciśnięcia przycisku czy przycisku ekranu dotykowego, to są to akcje, które definiuje się później w kodzie źródłowym – na przykład poprzez implementację listenerów w kodzie Java w Androidzie albo przez bindingi w innych frameworkach. Te narzędzia mają za zadanie generować opis struktury interfejsu, a nie jego zachowanie. Często spotyka się też przekonanie, że to właśnie kod Java stanowi podstawę aplikacji – oczywiście to prawda, ale nie w kontekście automatycznego generowania przez narzędzia graficzne; one skupiają się na XML, który jest dużo bardziej uniwersalny do takich celów. Moim zdaniem najlepszą praktyką jest wyraźne oddzielenie warstwy prezentacji (np. XML) od logiki biznesowej i ręcznego kodowania zdarzeń, bo to pozwala na wygodne rozwijanie i utrzymywanie aplikacji, szczególnie w większych zespołach.

Pytanie 27

Co to jest git rebase?

A. Technika integracji zmian z jednej gałęzi do drugiej przez przeniesienie lub połączenie sekwencji commitów
B. Metoda tworzenia kopii zapasowej repozytorium
C. Narzędzie do rozwiązywania konfliktów między plikami
D. Polecenie do tworzenia nowego repozytorium
Nieprawidłowe odpowiedzi wskazują na nieporozumienie dotyczące podstawowych funkcji narzędzi do kontroli wersji. Tworzenie nowego repozytorium to operacja rozpoczęcia nowego projektu, co jest zupełnie inną funkcjonalnością i nie ma związku z integracją zmian w istniejącym projekcie. Narzędzia do rozwiązywania konfliktów między plikami, takie jak merge, są stosowane w sytuacjach, gdy zmiany w dwóch gałęziach kolidują, ale nie dotyczą one bezpośrednio rebase, który ma na celu uporządkowanie i uproszczenie historii commitów. Metoda tworzenia kopii zapasowej repozytorium również nie ma związku z rebase, gdyż rebase nie jest narzędziem do zabezpieczania danych, lecz do przekształcania historii commitów. Często błędne rozumienie polecenia rebase wynika z mylenia go z innymi operacjami, takimi jak merge, które łączą zmiany dwóch gałęzi bez modyfikacji istniejącej historii. Zaleca się, aby deweloperzy dobrze zapoznali się z różnicami między tymi operacjami, aby skutecznie zarządzać historią projektu i unikać nieporozumień.

Pytanie 28

Co zostanie wyświetlone w konsoli po wykonaniu poniższego kodu?

console.log(0.1 + 0.2 === 0.3);
console.log(0.1 + 0.2);
A. false, 0.3
B. true, 0.30000000000000004
C. true, 0.3
D. false, 0.30000000000000004
Niepoprawne odpowiedzi wynikają z nieporozumienia dotyczącego reprezentacji liczb zmiennoprzecinkowych w JavaScript. Wiele osób ma tendencję do sądzenia, że operacje matematyczne z użyciem liczb dziesiętnych będą prowadziły do oczekiwanych rezultatów. Przykład `0.1 + 0.2`, który wydaje się prosty, w rzeczywistości ujawnia istotne różnice w precyzji. W przeciwieństwie do liczb całkowitych, które są reprezentowane jednoznacznie, liczby zmiennoprzecinkowe mogą wprowadzać błędy zaokrągleń. Gdyby nasze porównanie zwracało `true`, wskazywałoby to na to, że na poziomie binarnym liczby te są identyczne, co jest w przypadku JavaScript nieprawdziwe. Z kolei podanie `0.3` jako wyniku sumy w niektórych odpowiedziach nie uwzględnia tej samej zasady, co sugeruje, że porównanie tych wartości jest właściwe, mimo że nie jest. Warto zrozumieć, że takie błędne wnioski mogą prowadzić do poważnych problemów w bardziej złożonych obliczeniach, zwłaszcza w aplikacjach finansowych, gdzie precyzja jest niezbędna. Dobrym zwyczajem jest korzystanie z odpowiednich metod, które pozwalają na bezpieczne porównywanie wartości zmiennoprzecinkowych, minimalizując ryzyko błędów. Stosując podejście oparte na tolerancji błędu, można uniknąć pułapek związanych z reprezentacją liczb i poprawić dokładność obliczeń.

Pytanie 29

Która z poniższych technologii służy do tworzenia interaktywnych aplikacji webowych bez przeładowania strony?

A. SQL
B. AJAX
C. HTML5
D. CSS3
HTML5, choć jest potężnym językiem znacznie rozszerzającym możliwości aplikacji webowych, nie jest technologią służącą do asynchronicznego przesyłania danych. HTML5 dostarcza strukturę dla stron internetowych i wprowadza nowe elementy, takie jak <canvas> czy <video>, ale nie ma wbudowanych mechanizmów do zarządzania komunikacją z serwerem bez przeładowania strony. SQL, będący językiem zapytań do baz danych, służy do manipulacji danymi, a nie do tworzenia interaktywnych aplikacji. Umożliwia on wykonywanie operacji takich jak dodawanie, usuwanie czy aktualizowanie danych w bazie danych, ale nie odnosi się do bezpośredniej interakcji z użytkownikami przez przeglądarkę. CSS3, z kolei, to technologia odpowiedzialna za stylizację stron internetowych, co oznacza, że kontroluje wygląd elementów, ale nie wpływa na sposób komunikacji z serwerem. Niektórzy mogą błędnie myśleć, że te technologie mają podobne zastosowania, jednak każda z nich ma swoje specyficzne funkcje i zastosowanie w ekosystemie webowym. Aby zbudować naprawdę interaktywną aplikację, kluczowe jest zrozumienie, że AJAX jest niezbędnym narzędziem do asynchronicznej komunikacji, co pozwala na bardziej płynne i responsywne doświadczenia dla użytkowników.

Pytanie 30

Programista może wykorzystać framework Angular do realizacji aplikacji

A. typu front-end
B. mobilnej
C. desktopowej
D. typu back-end
Wybór odpowiedzi mobilnej nie jest trafiony. Angular sam w sobie nie jest stworzony do aplikacji mobilnych, jak chociażby React Native czy Flutter, które są do tego specjalnie zaprojektowane. Można co prawda budować mobilki z Angular w połączeniu z Ionic, ale to nie jest jego główne przeznaczenie. Jeśli chodzi o back-end, to też się nie nadaje, bo Angular to framework front-endowy, a więc nie ma tu mowy o logice serwerowej czy zarządzaniu bazami danych, co jest kluczowe w aplikacjach back-endowych. Trochę można by kombinować z aplikacjami desktopowymi, bo są rozwiązania jak Electron, ale na dobrą sprawę Angular powstał głównie do webu. Tak więc użycie Angulara w kontekście back-endu lub desktopów nie jest zgodne z jego przeznaczeniem i w związku z tym te odpowiedzi są po prostu błędne.

Pytanie 31

Jakie znaczenie ma krajowa normalizacja dla produktów i usług?

A. Usuwa konieczność przeprowadzania kontroli jakości
B. Restrukcjonuje innowacje technologiczne
C. Gwarantuje lepszą zgodność oraz jakość
D. Ogranicza liczbę dostępnych towarów
Wielu ludzi myśli, że normalizacja zmniejsza liczbę dostępnych produktów, ale to nie tak. W rzeczywistości standardy sprawiają, że pojawia się jeszcze więcej różnych produktów, które spełniają określone normy. A ten pomysł, że pozbywanie się kontroli jakości to coś dobrego, to chyba jakieś nieporozumienie – normalizacja wcale nie zastępuje kontroli jakości, ona ją raczej wspiera. I nie ma co mówić, że innowacji technologicznych jest mniej przez normalizację – wręcz przeciwnie, standardy dają solidny podstawy do tego, żeby rozwijać nowe technologie i produkty, które odpowiadają potrzebom rynku.

Pytanie 32

Jakie kwestie związane z percepcją są uwzględnione w rekomendacjach standardu WCAG 2.0?

A. jasności i dokładności w dostarczonych treściach na stronie
B. zapewnienia odpowiedniego czasu na zapoznanie się i przetworzenie informacji
C. umożliwienia interakcji między elementami użytkownika za pomocą klawiatury
D. prezentacji elementów interfejsu użytkownika
Odpowiedzi odnoszące się do zapewnienia odpowiedniego czasu na zapoznanie się z informacjami, umożliwienia interakcji poprzez klawiaturę czy jasności i dokładności treści są ważne w kontekście dostępności stron, ale nie dotyczą bezpośrednio percepcji według standardu WCAG 2.0. Często zdarza się, że osoby uczące się mylą pojęcia percepcji z innymi zasadami WCAG, na przykład zrozumiałością (understandable) czy funkcjonalnością (operable). Percepcja w WCAG skupia się na tym, jak treści są postrzegane przez zmysły – głównie wzrok i słuch, ale czasem też dotyk, gdy mowa np. o wyświetlaczach brajlowskich. Zapewnienie odpowiedniego czasu i interakcji klawiaturą to typowe wymagania dla użytkowników z ograniczeniami motorycznymi, i chociaż są one bardzo istotne, to WCAG klasyfikuje je w innych kategoriach niż percepcja. Jasność i dokładność treści to cecha istotna dla zrozumiałości, jednak nie gwarantuje, że użytkownik w ogóle tę treść zauważy lub rozpozna – do tego potrzebna jest właśnie prawidłowa prezentacja elementów interfejsu. Tu najczęściej pojawia się błąd myślowy: zakłada się, że jak coś jest napisane jasno, to każdy to zobaczy i zrozumie, ale wielu użytkowników ma problemy z odbiorem samych wizualnych aspektów strony. WCAG 2.0 podkreśla, żeby nie polegać tylko na jednym kanale percepcji, np. kolorze, dźwięku czy obrazie. Dopiero dbałość o prezentację elementów interfejsu – kontrast, czytelność, alternatywy tekstowe – sprawia, że strona jest dostępna percepcyjnie. Warto zapamiętać, że kategorie WCAG są celowo podzielone właśnie w ten sposób, aby każda istotna kwestia była rozpatrywana osobno i nie mieszana z innymi.

Pytanie 33

Zajmując się pracą w zespole oraz dbając o jego efektywne funkcjonowanie, nie powinniśmy

A. sumiennie i w ustalonym terminie realizować swoje zadania
B. wspierać się nawzajem
C. skupiać się jedynie na własnych korzyściach
D. przyjmować odpowiedzialności za swoje decyzje
Dokładnie o to chodzi – skupianie się tylko na własnych korzyściach prawie zawsze działa na szkodę zespołu. W praktyce, gdy ktoś patrzy wyłącznie na siebie, najczęściej zaniedbuje współpracę, co prowadzi do napięć i spadku efektywności grupy. W zespole liczy się wspólny cel, a nie indywidualne interesy, bo to właśnie dzięki wzajemnemu wsparciu i otwartej komunikacji można osiągnąć lepsze wyniki. Z mojego doświadczenia wynika, że projekty, w których członkowie współpracowali i dzielili się odpowiedzialnością, szły sprawniej i bez zbędnych spięć. Profesjonalne standardy, np. metodyki Scrum czy Agile, akcentują wartość pracy zespołowej i transparentności – jeśli każdy ciągnie w swoją stronę, cały model współpracy się sypie. Warto pamiętać, że nawet najlepszy specjalista sam nie pociągnie projektu, jeśli nie będzie działał fair wobec innych. Najlepiej się sprawdza takie podejście, gdzie ludzie podchodzą do pracy z otwartością, potrafią poprosić o pomoc i wspólnie świętują sukcesy, a nie tylko skupiają się na własnych liczbach czy bonusach. To naprawdę widać w praktyce – zespoły, gdzie nie liczy się tylko własny interes, mają zwykle znacznie lepsze efekty i atmosferę pracy.

Pytanie 34

Jakie z wymienionych działań jest fundamentalne w modelu kaskadowym?

A. Iteracyjne wprowadzanie modyfikacji na każdym poziomie
B. Równoległe prowadzenie wielu etapów projektu
C. Przeprowadzanie testów systemu po zakończeniu każdej fazy
D. Zakończenie jednej fazy przed rozpoczęciem następnej
Kończenie jednej fazy przed rozpoczęciem kolejnej to kluczowa cecha modelu kaskadowego (Waterfall). W tym podejściu projekt jest realizowany etapami – analiza, projektowanie, implementacja, testowanie i wdrożenie – bez możliwości powrotu do poprzednich faz. Dzięki temu model Waterfall jest przejrzysty i łatwy do zarządzania, szczególnie w projektach o stabilnych wymaganiach. Jednak jego ograniczeniem jest brak elastyczności, co może prowadzić do problemów, jeśli wymagania zmienią się w trakcie trwania projektu.

Pytanie 35

Jakie oprogramowanie służy jako przykład programu do komunikacji audio-wideo?

A. Notion
B. Microsoft Teams
C. Google Drive
D. Slack
Microsoft Teams to naprawdę fajne narzędzie do komunikacji. Łączy w sobie czat, wideo i audio, więc wszystko masz w jednym miejscu. Zostało stworzone przez Microsoft, żeby ułatwić współpracę w zespołach. To idealne, gdy trzeba prowadzić spotkania online z kilkoma osobami. Myślę, że to super rozwiązanie dla firm, które pracują zdalnie. Dzięki WebRTC jakość transmisji audio i wideo jest naprawdę wysoka. Można w nim organizować spotkania, webinary, a nawet stworzyć przestrzeń dla zespołów projektowych, gdzie można dzielić się plikami i prowadzić dyskusje. A jak jeszcze połączysz go z innymi aplikacjami Microsoft 365, jak OneNote czy SharePoint, to masz pełny zestaw do zarządzania projektami. Dobrze też, że Microsoft Teams dba o ochronę danych osobowych, więc jest bezpieczny dla różnych organizacji.

Pytanie 36

W C++ mechanizm programowania obiektowego, który wykorzystuje funkcje wirtualne (ang. Virtual) i umożliwia programiście pominięcie kontroli klasy pochodnej podczas wywoływania metod, nazywa się

A. polimorfizmem
B. dziedziczeniem
C. przeciążeniem
D. hermetyzacją
Dziedziczenie pozwala na przejmowanie metod i właściwości z klasy bazowej, ale samo w sobie nie umożliwia dynamicznego wyboru metody w czasie działania programu. Przeciążenie (overloading) polega na definiowaniu wielu metod o tej samej nazwie, ale różnych parametrach, co nie jest równoznaczne z polimorfizmem. Hermetyzacja (encapsulation) koncentruje się na ukrywaniu szczegółów implementacyjnych i dostępie do danych tylko przez interfejs klasy, ale nie dotyczy mechanizmu wyboru metody w trakcie działania aplikacji.

Pytanie 37

Jakie jest wyjście działania kompilatora?

A. Plik źródłowy w języku o wyższym poziomie
B. Zestaw błędów występujących w kodzie
C. Kolekcja instrukcji w języku pośrednim
D. Plik maszynowy gotowy do uruchomienia
Plik maszynowy gotowy do uruchomienia jest wynikiem działania kompilatora. Po przekształceniu kodu źródłowego na język maszynowy tworzony jest plik binarny, który może być uruchomiony na komputerze bez konieczności ponownej kompilacji. Pliki te są szybkie i efektywne, ponieważ kod został wcześniej zoptymalizowany i przetworzony na instrukcje rozumiane przez procesor. Przykłady takich plików to .exe w systemie Windows lub pliki binarne w systemach Linux. Plik maszynowy to ostateczna forma programu, gotowa do dystrybucji i użytkowania.

Pytanie 38

Który element HTML5 służy do wyświetlania zawartości video?

A. &lt;video&gt;
B. &lt;film&gt;
C. &lt;play&gt;
D. &lt;media&gt;
Element HTML5 <video> jest kluczowym składnikiem do wyświetlania treści wideo w przeglądarkach. Dzięki niemu można łatwo osadzić filmy na stronach internetowych, co sprawia, że są one bardziej interaktywne i atrakcyjne dla użytkowników. Przykład użycia tego tagu wygląda następująco: <video src='film.mp4' controls></video>. Atrybut 'controls' pozwala na dodanie prostych przycisków odtwarzania, pauzy i regulacji głośności, co znacząco poprawia doświadczenia użytkownika. Warto również wspomnieć, że element <video> wspiera różne formaty wideo, takie jak MP4, WebM czy Ogg, co jest istotne w kontekście zgodności z różnymi przeglądarkami i urządzeniami. W praktyce, stosowanie <video> pozwala na łatwe zarządzanie wideo, w tym na dodawanie napisów, ustawienie automatycznego odtwarzania czy loopowania. To sprawia, że jest on niezwykle popularny w tworzeniu nowoczesnych stron internetowych, które chcą dostarczać wartościowe multimedia. Zastosowanie tego elementu jest zgodne z najlepszymi praktykami w zakresie dostępności i użyteczności, co czyni go niezwykle ważnym w dzisiejszym web development.

Pytanie 39

Jakie elementy powinny być uwzględnione w dokumentacji testowej aplikacji?

A. Zalecenia dotyczące optymalizacji kodu
B. Opis procedur testowych oraz rezultaty wykonanych testów
C. Specyfikacje techniczne serwera
D. Harmonogram wdrożenia aplikacji
Plan wdrożenia aplikacji opisuje proces implementacji oprogramowania w środowisku produkcyjnym i nie zawiera szczegółów związanych z przeprowadzaniem testów. Instrukcje dotyczące optymalizacji kodu koncentrują się na poprawie wydajności i refaktoryzacji, ale nie obejmują raportów z testów i procedur ich przeprowadzania. Dane techniczne serwera dotyczą infrastruktury IT, np. konfiguracji sprzętu i oprogramowania, ale nie odnoszą się do procesu testowania aplikacji webowych.

Pytanie 40

Co oznacza termin 'polimorfizm' w programowaniu obiektowym?

A. Dziedziczenie metod z klasy bazowej
B. Ustanowienie tylko jednego typu dla klasy
C. Zdolność do przyjmowania wielu form przez obiekt
D. Ograniczenie do jednej formy dla obiektu
Dziedziczenie metod z klasy bazowej to ważna koncepcja, jednak różni się od polimorfizmu. Dziedziczenie polega na tym, że klasa pochodna może korzystać z metod i atrybutów klasy bazowej, co pozwala na ponowne wykorzystanie kodu. Jednak sam fakt dziedziczenia nie implikuje polimorfizmu. Polimorfizm wymaga, aby metody mogły być nadpisywane, dostarczając różne implementacje w klasach pochodnych. Ograniczenie do jednej formy dla obiektu jest sprzeczne z ideą polimorfizmu, ponieważ sama definicja polimorfizmu zakłada zdolność obiektu do przyjmowania wielu form, w zależności od kontekstu, w jakim jest używany. Jest to kluczowy aspekt, który odróżnia polimorfizm od zwykłego dziedziczenia. Ustanowienie tylko jednego typu dla klasy również nie jest powiązane z polimorfizmem. W rzeczywistości, polimorfizm pozwala na traktowanie wielu różnych typów jako jednego wspólnego typu bazowego, co zwiększa elastyczność kodu. Polimorfizm umożliwia nam korzystanie z interfejsów i klas abstrakcyjnych, co pozwala na tworzenie systemów, gdzie różne obiekty mogą być traktowane w jednolity sposób, mimo że rzeczywiście reprezentują różne typy.