Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik geolog
  • Kwalifikacja: GIW.06 - Wykonywanie prac geologicznych
  • Data rozpoczęcia: 16 kwietnia 2026 13:59
  • Data zakończenia: 16 kwietnia 2026 14:01

Egzamin niezdany

Wynik: 11/40 punktów (27,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Do określenia położenia lądów i mórz w przeszłości geologicznej stosuje się badania

A. elektrooporowe.
B. izotopowe.
C. magnetyczne.
D. sejsmiczne.
Zdarza się, że ludzie mylą różne metody badań geologicznych i chcą je stosować do wszystkiego, co związane z dawnymi dziejami Ziemi. Przykładowo, badania izotopowe są fantastyczne, jeśli chodzi o określanie wieku skał – tzw. datowanie radiometryczne. Dzięki analizie rozpadu izotopów (na przykład uranu czy potasu) można ustalić, kiedy dana warstwa powstała, ale nie daje to praktycznie żadnej informacji o tym, gdzie kiedyś znajdował się kontynent czy morze. Sejsmika z kolei służy do badania wnętrza Ziemi, wykrywania struktur podziemnych czy poszukiwania złóż, a nie do śledzenia dawnych pozycji lądów. Sejsmogramy pokazują, jak rozchodzą się fale przez różne warstwy skał, ale niestety nie powiedzą nam nic o starych polach magnetycznych ani o położeniu kontynentów w przeszłości. Elektrooporówka, czyli pomiary elektrooporowe, to już totalnie inna bajka – tu chodzi o ocenę przewodnictwa elektrycznego podłoża, co jest przydatne np. przy poszukiwaniach wód podziemnych albo minerałów. To, że ktoś pomyli te metody, wynika chyba głównie z tego, że każda z nich jest szeroko stosowana w geologii, ale każda ma swoje jasno określone zadania. W praktyce, jeśli chodzi o rozgryzanie dawnych położeń lądów i oceanów, tylko metoda magnetyczna pozwala badać zakodowane w skałach kierunki pola Ziemi i rekonstruować układ kontynentów. Reszta służy zupełnie innym celom i nie da się na ich podstawie wyciągnąć takich wniosków. Warto zapamiętać, że w paleogeografii kluczowe są te „magnetyczne ślady” sprzed milionów lat – bez nich ani rusz.

Pytanie 2

Urwanie przewodu wiertniczego objawia się nagłym

A. zmniejszeniem ciśnienia płuczki wiertniczej i ciężaru na haku.
B. zwiększeniem ciśnienia płuczki wiertniczej i zmniejszeniem ciężaru na haku.
C. zmniejszeniem ciśnienia płuczki wiertniczej i zwiększeniem ciężaru na haku.
D. zwiększeniem ciśnienia płuczki wiertniczej i ciężaru na haku.
Wielu osobom może się wydawać, że urwanie przewodu wiertniczego powinno skutkować wzrostem ciśnienia płuczki lub zwiększeniem ciężaru na haku – to popularny błąd wynikający z mylenia skutków różnych awarii mechanicznych. Przede wszystkim, zwiększenie ciśnienia najczęściej kojarzy się z zatorami, zapychaniem się przewodu lub nagłym wzrostem oporów przepływu – takie objawy są typowe dla sytuacji, gdy płuczka nie może swobodnie przepływać przez przewód lub narzędzie wiertnicze, ale nie dla jego urwania. W momencie, gdy przewód faktycznie się urywa, otwieramy drogę dla płuczki – ona ucieka do otworu, a ciśnienie gwałtownie spada, bo nie ma już oporów. Z kolei ciężar na haku maleje, bo część przewodu zostaje w otworze (czyli hak odciąża się), a nie zwiększa – często początkujący myślą odwrotnie, bo wydaje im się, że sprzęt musi być „cięższy”, skoro dzieje się coś złego. W rzeczywistości jest wręcz przeciwnie: odciążenie haka to pierwszy sygnał urwania. Praktyka pokazuje, że błędne skojarzenia wynikają z ogólnego założenia, że każda awaria musi powodować wzrost ciśnienia lub oporów – a to nie zawsze prawda. W branżowych standardach, takich jak wytyczne API czy PGNiG, właśnie spadek obu parametrów jest uznawany za kluczowy wskaźnik sytuacji awaryjnej związanej z zerwaniem przewodu. Dodatkowo, warto pamiętać, że skrupulatne monitorowanie parametrów to obowiązek osoby odpowiedzialnej za prowadzenie procesu – każde odchylenie, zwłaszcza nagłe, powinno być analizowane w kontekście mechaniki przewodu i obiegu płuczki. Mylenie tych objawów może prowadzić do błędów w ocenie sytuacji i niepotrzebnego przedłużania postoju albo, co gorsza, do pogłębiania awarii. Dlatego tak istotne jest rozumienie, co fizycznie dzieje się podczas urwania przewodu i jak reagują wskaźniki na pulpicie – to podstawa bezpiecznej i efektywnej pracy na wiertni.

Pytanie 3

Zapis położenia warstw 30/60/N w postaci graficznej przedstawia rysunek

A. Rysunek 4
Ilustracja do odpowiedzi A
B. Rysunek 1
Ilustracja do odpowiedzi B
C. Rysunek 3
Ilustracja do odpowiedzi C
D. Rysunek 2
Ilustracja do odpowiedzi D
Częstym problemem przy rozróżnianiu graficznego zapisu położenia warstw 30/60/N jest mylenie kolejności oraz sposobu oznaczania kąta względem osi bazowej. Wiele osób patrząc jedynie na wartość liczbową przy linii, nie zwraca uwagi na położenie poprzecznej kreski, która w rzeczywistości odgrywa kluczową rolę w zapisie technicznym. W praktyce błędne rozpoznanie symbolu może prowadzić do nieprawidłowego ułożenia warstw, co z kolei ma ogromny wpływ na wytrzymałość całego elementu. Zdarza się, że kierując się intuicją, wybieramy rysunek, gdzie liczba jest po tej stronie, do której skłania się linia, a nie tam, gdzie jest to zgodne z normą zapisu (na przykład PN-EN ISO 14171). Kolejnym typowym błędem jest nieuwzględnianie, po której stronie linii znajduje się poprzeczna kreska – ona wyznacza nam kierunek ułożenia włókien w warstwie. Sam spotkałem się z sytuacjami, gdzie rysunek techniczny został zinterpretowany odwrotnie i dopiero na etapie produkcji wychodziło, że warstwy idą pod złym kątem. To niestety wymaga poprawek, a często nawet wymiany całego komponentu. Dlatego tak ważne jest, żeby nauczyć się tej symboliki na pamięć i przy każdej wątpliwości wracać do dokumentacji technicznej lub odpowiednich norm branżowych. W rysunku technicznym liczy się nie tylko liczba, ale cały układ symbolu – kolejność, orientacja kreski, miejsce wpisania kąta. W świecie produkcji, gdzie liczy się precyzja, takie detale mają często kluczowe znaczenie dla bezpieczeństwa i jakości konstrukcji.

Pytanie 4

Metodą opróbowania otworu podczas wiercenia, stosowaną w celu zwiększenia efektywności poszukiwania złóż, jest

A. wykonywanie analiz pobranych rdzeni.
B. badanie rurowym próbnikiem złoża.
C. opróżnianie otworu.
D. wykonywanie pomiarów geofizycznych.
Opróżnianie otworu podczas wiercenia nie jest metodą opróbowania sensu stricte, a raczej czynnością konieczną do usuwania zwiercin oraz cieczy wiertniczej. To, oczywiście, ważny etap wiertniczy – pozwala utrzymać drożność otworu i sprawia, że można prowadzić wiercenie dalej bez zakłóceń, ale nie daje żadnej wiarygodnej informacji o rozmieszczeniu złoża ani jego właściwościach. W praktyce zwierciny, które wydostają się na powierzchnię, są przemieszane i nie oddają w żaden sposób rzeczywistych warunków zalegania warstw. Z kolei wykonywanie analiz pobranych rdzeni to już etap laboratoryjny po pobraniu próbki, a nie sama metoda jej pozyskiwania podczas wiercenia. Analiza rdzeni jest bardzo istotna, ale bez prawidłowego pobrania próbki (czyli właśnie próbnikiem rurowym) nie ma czego analizować. Wiele osób myli ten etap z właściwym opróbowaniem, ale to trochę jakby zaczynać badanie od końca. Natomiast wykonywanie pomiarów geofizycznych, choć bardzo nowoczesne i pomocne, odnosi się do całkiem innej kategorii badań – dostarcza danych pośrednich na temat budowy geologicznej, struktur czy nawet zawartości złoża, jednak nie polega na fizycznym pobraniu próbki z otworu. Pomiarami geofizycznymi można uzupełnić obraz, ale one nigdy nie zastąpią klasycznego opróbowania rurowego, bo nie umożliwiają przeprowadzenia analiz petrograficznych, mineralogicznych czy testów laboratoryjnych na konkretnej próbce. Najczęstszy błąd w myśleniu to traktowanie tych czynności jako wzajemnie zamiennych, a przecież w praktyce każdy etap ma swoje miejsce. Bez solidnego pobrania próbki rurowym próbnikiem nie da się mówić o efektywnym poszukiwaniu złóż zgodnie z branżowymi standardami. Z mojego doświadczenia wynika, że wielu początkujących myli samo pobranie próby z jej analizą, a także przecenia rolę pomiarów geofizycznych – tymczasem są to narzędzia raczej pomocnicze niż podstawowe w tym kontekście.

Pytanie 5

Teren na niewielkiej wysokości nad poziomem morza, który został zerodowany prawie całkowicie i stanowi końcową fazę erozji w klimacie wilgotnym, określany jest jako

A. terasa.
B. penelpena.
C. dolina.
D. mierzeja.
Analizując odpowiedzi, warto pochylić się nad każdym z tych pojęć, bo często pojawiają się w rozmowach o krajobrazie, ale znaczą co innego niż penelpena. Terasa to fragment terenu, zwykle wzdłuż rzeki, powstały w wyniku erozji i akumulacji – to takie „schodki” na zboczach dolin rzecznych. Ich wysokość potrafi być bardzo różna i nie dotyczą całych rozległych powierzchni. Dolina natomiast to zagłębienie terenu, przez które przepływa rzeka lub potok; jej powstanie związane jest z erozją rzeczną, ale w żadnym wypadku nie jest to końcowa faza wyrównywania terenu. Mierzeja zaś to typowa forma przybrzeżna, powstała z materiału naniesionego przez morze – to wąski pas piasku oddzielający zatokę od otwartego morza. Ani terasa, ani dolina, ani mierzeja nie mają nic wspólnego z pojęciem krańcowej powierzchni zrównania w wyniku długotrwałej erozji. Typowym błędem jest mylenie tych pojęć tylko dlatego, że wszystkie dotyczą form terenu – ale geneza, procesy i efekt końcowy są zupełnie różne. Penelpena, choć rzadko spotykana w czystej postaci, to teoretyczny model krajobrazu wyrównanego, coś jak stolnica dla geologa. Dobrą praktyką w naukach o Ziemi jest zawsze dopytać o genezę i warunki powstawania danej formy, zamiast polegać wyłącznie na ogólnym wyglądzie lub skojarzeniach z wysokością terenu. Z mojego doświadczenia największe zamieszanie wprowadza tu słowo „końcowa faza erozji” – bo terasa czy dolina to raczej jej etapy pośrednie. Warto zawsze analizować szerszy kontekst procesów geologicznych, żeby nie dać się złapać na takie podchwytliwe sformułowania.

Pytanie 6

Gazem cieplarnianym nie jest

A. metan.
B. ozon.
C. freon.
D. azot.
Ozon rzeczywiście nie jest klasycznym gazem cieplarnianym, choć wiele osób go z nimi myli. Ozon występuje głównie w stratosferze, gdzie tworzy tzw. warstwę ozonową, chroniącą nas przed szkodliwym promieniowaniem UV. To całkiem inne zadanie niż udział w efekcie cieplarnianym. Oczywiście – ozon w dolnych warstwach atmosfery może mieć wpływ na zdrowie i środowisko, ale nie odgrywa kluczowej roli jako gaz cieplarniany jak CO2, metan czy freony. Z mojego doświadczenia wynika, że zamieszanie bierze się z tego, że o ozonie mówi się zarówno w kontekście ochrony klimatu, jak i zanieczyszczeń powietrza. Co ciekawe, w niektórych regulacjach unijnych podkreśla się rozróżnienie funkcji ozonu: jest korzystny w stratosferze, a szkodliwy w troposferze – stąd takie nieporozumienia. Dla praktyków, np. inżynierów środowiska, kluczowe jest rozgraniczanie tych funkcji. Gazami cieplarnianymi określamy substancje, które realnie przyczyniają się do zatrzymywania ciepła w atmosferze – typowo są to dwutlenek węgla, metan, podtlenek azotu czy freony. Ozon na tej liście nie jest kluczowy. W praktyce przy projektowaniu instalacji przemysłowych czy raportach środowiskowych rzadko uwzględnia się ozon jako parametr emisji cieplarnianej. Takie rozumienie tematu ułatwia zgodność z normami ISO serii 14000 czy dyrektywami UE, gdzie gazami cieplarnianymi nazywa się tzw. GHG – Greenhouse Gases – i ozon tam nie występuje jako jeden z głównych.

Pytanie 7

Aby znaleźć skamieniałości dewońskie, należy zaplanować wycieczkę w rejon

A. Kazimierza Dolnego.
B. Jeleniej Góry.
C. Zakopanego.
D. Kielc.
Kielce to naprawdę jedno z tych miejsc w Polsce, które można uznać za raj dla miłośników paleontologii, zwłaszcza jeśli chodzi o skamieniałości z okresu dewońskiego. Dlaczego? Przede wszystkim rejon Gór Świętokrzyskich, a szczególnie okolice Kielc, to klasyczne stanowiska geologiczne, gdzie warstwy skał pochodzące z dewonu są bardzo dobrze odsłonięte. Zresztą, wystarczy odwiedzić chociażby rezerwat Wietrznia czy Kadzielnię, żeby zobaczyć gołym okiem fragmenty dawnych raf koralowych, skorupiaki, trylobity i inne organizmy sprzed ponad 350 milionów lat. W praktyce, geolodzy, studenci geologii i nawet turyści co roku przyjeżdżają tu właśnie po to, żeby prowadzić badania terenowe czy nawet amatorskie zbieranie okazów. Z mojego doświadczenia wynika, że znaleziska z okolic Kielc często trafiają do muzeów naukowych i stanowią kanon w każdej poważnej publikacji o paleontologii Europy Środkowej. Co ciekawe, są tam też ścieżki dydaktyczne, które pokazują jak kiedyś wyglądało życie w dewonie. Moim zdaniem to świetny przykład, że teoria w podręczniku może być zobaczona na żywo. Warto wiedzieć, że zgodnie z dobrymi praktykami branżowymi, teren Gór Świętokrzyskich traktuje się jako wzorcowy przy badaniach dewońskich osadów karbonatowych. Niewiele jest miejsc w Polsce, które umożliwiają aż tak praktyczne zastosowanie wiedzy geologicznej, nie tylko dla naukowców, ale i dla każdego zainteresowanego. To miejsce zdecydowanie wyróżnia się na tle pozostałych rejonów kraju pod kątem dewońskich skamieniałości i nawet największe autorytety w branży to potwierdzają.

Pytanie 8

Na mapie widoczny jest uskok

Ilustracja do pytania
A. zrzutowy normalny.
B. przesuwczy.
C. zawiasowy.
D. nożycowy.
W analizie uskoków geologicznych bardzo istotne jest zrozumienie mechanizmu przemieszczeń oraz właściwe rozpoznanie śladów tych ruchów na mapie. Często pojawiają się błędne interpretacje dotyczące nazewnictwa rodzajów uskoków. Uskok nożycowy charakteryzuje się tym, że przemieszczenie zachodzi wokół pewnego punktu obrotu, trochę jakby skały rozsuwały się albo zaciskały na kształt nożyczek – jednak taki rodzaj uskoku na mapach jest wyjątkowo rzadko spotykany i trudno go precyzyjnie rozpoznać bez szczegółowych danych strukturalnych, bo wymaga obecności osi obrotu, co tutaj nie występuje. Uskok zawiasowy natomiast to określenie odnoszące się raczej do ruchów blokowych, gdzie jedna część warstw działa jak skrzydło drzwiowe, obracając się wokół zawiasu – taki uskok wymaga obecności wyraźnej osi obrotu i zwykle wiąże się z wyraźnym przemieszczeniem pionowym po jednej stronie, co na tej mapie nie ma miejsca. Z kolei zrzutowy normalny jest związany z pionowym przemieszczeniem, gdzie jedna część warstw opada względem drugiej, często wskutek rozciągania skorupy ziemskiej – typowym przykładem są uskoki normalne w obrębie rowów tektonicznych. Na prezentowanej mapie wyraźnie nie widać takiego typu przemieszczenia, a dominują przesunięcia poziome warstw względem siebie. Typowym błędem jest utożsamianie każdego uskoku z przemieszczeniem pionowym tylko na podstawie różnicy warstw, bez analizy kierunku przesunięcia. Dobre praktyki kartowania geologicznego zawsze nakazują sprawdzić, czy warstwy zostały przesunięte góra-dół czy lewo-prawo – tylko wtedy można poprawnie określić charakter uskoku. W geologii strukturalnej rozpoznanie typu uskoku to podstawa do dalszych analiz, np. oceny zagrożeń sejsmicznych czy projektowania tuneli i innych obiektów inżynierskich.

Pytanie 9

Pasmo górskie Tatr zostało wypiętrzone podczas orogenezy

A. kaledońskiej.
B. alpejskiej.
C. hercyńskiej.
D. waryscyjskiej.
W geologii dosyć często myli się różne okresy orogenezy, szczególnie gdy chodzi o tak znane pasma jak Tatry. Odpowiedzi typu hercyńska, kaledońska czy waryscyjska wydają się na pierwszy rzut oka logiczne, bo każda z tych orogenez rzeczywiście pozostawiła swoje ślady w strukturach geologicznych Europy. Ale prawda jest taka, że te wcześniejsze fazy górskie dotyczyły raczej innych pasm oraz tworzenia starszych struktur. Orogeneza kaledońska miała miejsce w paleozoiku, głównie w sylurze i dewonie, i odpowiada za wypiętrzenie na przykład Gór Skandynawskich czy części Gór Świętokrzyskich. Hercyńska (nazywana też waryscyjską – to ta sama nazwa, tylko inne określenie), była nieco późniejsza, bo przypadała na karbon i perm, i jej efekty widać dziś w Sudetach, Górach Harzu czy we Francji. Typowym błędem jest utożsamianie każdej dużej fazy górskiej z wypiętrzeniem Tatr – tymczasem to, co widzimy dzisiaj w Karpatach, to rezultat znacznie młodszych procesów, czyli właśnie orogenezy alpejskiej z trzeciorzędu. W praktyce znajomość tej chronologii przydaje się np. wtedy, gdy trzeba rozpoznać potencjalne zagrożenia geologiczne w danym regionie – stare góry mają inne typy skał, inne procesy erozyjne i zupełnie inną historię deformacji. Moim zdaniem, jeśli ktoś chce dobrze rozumieć topografię i możliwości zagospodarowania terenów górskich, to taka podstawowa wiedza o orogenezach to absolutna podstawa. Właśnie dlatego tak ważne jest rozróżnienie, które pasma powstały podczas jakiej fazy orogenezy – to nie tylko sucha teoria, ale sprawa praktyczna chociażby przy projektowaniu dróg, zabezpieczeniach przed osuwiskami czy w analizie lokalnych warunków gruntowych.

Pytanie 10

Do minerałów o takim samym wzorze chemicznym należą

A. piryt i pirotyn.
B. gips i anhydryt.
C. kowelin i chalkozyn.
D. kalcyt i aragonit.
Wielu uczniów i nawet trochę bardziej zaawansowanych pasjonatów geologii myli się w tym temacie, bo intuicyjnie szukają podobieństw „na oko” lub po nazwie minerału, a nie wg rzeczywistego wzoru chemicznego. Popatrzmy na piryt i pirotyn – mają zbliżone nazwy i oba są siarczkami żelaza, ale ich skład chemiczny jest już inny: piryt to FeS₂, a pirotyn to Fe₁₋ₓS (gdzie x to zmienna liczba atomów żelaza), więc to nie są różne minerały o tym samym wzorze, tylko siarczki z innego układu krystalicznego i o zmiennym składzie. Gips i anhydryt wyglądają podobnie w terenie, ale gips to CaSO₄·2H₂O a anhydryt to CaSO₄ – ta obecność wody to ogromna różnica, zwłaszcza w praktyce budowlanej, gdzie gips i anhydryt mają inne zastosowania i właściwości. Z kolei kowelin i chalkozyn to siarczki miedzi (CuS i Cu₂S), więc nawet jeśli oba zawierają miedź i siarkę, to proporcje pierwiastków są zupełnie inne. Typowym błędem jest skupianie się na tym, że oba minerały mogą współwystępować w rudach albo mają podobną barwę – ale to nie jest wyznacznik identycznego wzoru chemicznego. Dla praktyki zawodowej, np. przy identyfikacji rud metali czy analizie surowców skalnych, precyzyjna znajomość wzorów chemicznych i zjawiska polimorfizmu gwarantuje poprawne rozpoznanie minerałów. Z mojego doświadczenia, szczególnie na egzaminach i w codziennych zadaniach laboratoryjnych, zwracanie uwagi na detale składu chemicznego pozwala uniknąć pomyłek, które później mogłyby skutkować błędnymi decyzjami przy doborze technologii wydobycia czy obróbki materiałów. Warto więc zawsze sprawdzać, nie tylko domyślać się po nazwie lub wyglądzie.

Pytanie 11

Terra rossa powstaje w wyniku wietrzenia

A. mułowców i iłowców.
B. pyłów wulkanicznych.
C. piaskowców i kwarcytów.
D. wapieni i dolomitów.
Wybierając inne podłoża niż wapienie i dolomity, można się łatwo zaplątać w typowe pułapki myślowe, bo w Polsce czy ogólnie w Europie mamy różnorodne skały i wiele różnych rodzajów gleb, które z nich powstają. Gleby powstałe z mułowców i iłowców to raczej gleby ilaste, często są ciężkie i mają zupełnie inną strukturę niż terra rossa; są bardziej związane z procesami sedymentacyjnymi niż z intensywnym wietrzeniem chemicznym. Pyły wulkaniczne to z kolei surowiec do powstawania gleb wulkanicznych, które potrafią być bardzo żyzne, ale mają inną mineralizację, brak im charakterystycznej czerwieni terra rossa, bo dominuje tam azot, potas, czasem krzemionka, a nie tlenki żelaza. Piaskowce i kwarcyty nawet nie zawierają tyle wapnia czy magnezu, żeby mogły po wietrzeniu zostawić typowe, czerwone gleby – te skały są raczej odporne na chemiczne wietrzenie, często tworzą glebę bardzo ubogą, lekką, czasem wręcz bielicową, czyli jasną i kwaśną. Moim zdaniem łatwo pomylić terra rossa z innymi czerwonymi glebami, bo kolor bywa mylący, ale w praktyce liczy się mineralogia podłoża i mechanizm powstawania. Branżowe standardy gleboznawcze i geologiczne, zwłaszcza przy klasyfikacji gleb w Europie, jasno wskazują, że terra rossa to produkt długotrwałego rozpuszczania wapieni lub dolomitów i osadzania się pozostałych, mniej rozpuszczalnych minerałów. Takie gleby mają duże znaczenie w rolnictwie śródziemnomorskim i, co ciekawe, są często brane pod uwagę przy planowaniu inwestycji ze względu na ich specyficzne właściwości fizykochemiczne – chociażby retencję wody czy podatność na erozję. Najczęstszy błąd to patrzenie tylko na kolor, a nie na genezę gleby – tu warto zawsze sprawdzić, z czego powstało podłoże. To jedna z tych rzeczy, które naprawdę dobrze wiedzieć, bo potem łatwiej ogarnąć zarówno mapy glebowe, jak i praktyczne aspekty zarządzania gruntami.

Pytanie 12

Ruch masowy przedstawiony na rysunku to

Ilustracja do pytania
A. zsuw.
B. spełzywanie.
C. osuwisko.
D. obryw.
Obryw to bardzo charakterystyczny rodzaj ruchu masowego, który polega na gwałtownym oddzieleniu się dużych bloków skalnych z wysokich i stromych ścian skalnych czy urwisk. W przypadku obrywu najważniejsze jest to, że skały odrywają się nagle, bez wcześniejszego widocznego przemieszczania się czy pęknięć, a potem spadają praktycznie pionowo na niższy poziom. Z mojego doświadczenia to najbardziej spektakularny ze wszystkich ruchów masowych – często powoduje poważne zagrożenia dla ludzi, dróg czy infrastruktury, zwłaszcza w górach. Na zdjęciu widać typowe efekty: duże, ostrokrawędziste głazy leżące u podnóża stromego zbocza, a wyżej w skale często można zauważyć miejsce, z którego się oderwały. W literaturze branżowej i materiałach szkoleniowych geologów czy inżynierów środowiska powtarza się, że obrywy najczęściej spotyka się w miejscach silnie spękanych czy zwięzłych skał, gdzie czynniki zewnętrzne (np. deszcz, mrozy, wietrzenie) osłabiają przyczepność fragmentów skały do ściany. Stosuje się tu specjalne zabezpieczenia, np. siatki stalowe czy bariery ochronne, co jest standardem przy projektowaniu tras górskich lub linii kolejowych. W praktyce wiedza na temat obrywów jest kluczowa dla planowania zagospodarowania przestrzennego w obszarach górskich – pozwala unikać prowadzenia dróg czy budynków w miejscach podwyższonego ryzyka. Moim zdaniem rozpoznawanie obrywów na zdjęciach to naprawdę ważna umiejętność dla każdego technika geologa czy inżyniera zajmującego się bezpieczeństwem terenów osuwiskowych.

Pytanie 13

Do poszukiwania form krasowych występujących płytko pod powierzchnią ziemi należy stosować metody

A. geotermiczne.
B. grawimetryczne.
C. magnetyczne.
D. izotopowe.
Wiele osób zakłada, że przy poszukiwaniu form krasowych warto sięgnąć po różnorodne techniki geofizyczne, jak metody izotopowe, magnetyczne czy geotermiczne. To dość popularny błąd interpretacyjny, wynikający z mylenia pojęć i charakteru badanych zjawisk. Metody izotopowe służą głównie do badania wieku skał, obiegu wody czy procesów związanych z radioaktywnością, więc do wykrywania pustek pod powierzchnią ziemi zupełnie się nie nadają. Magnetyczne techniki z kolei są użyteczne przy poszukiwaniu struktur zawierających minerały żelaza lub innych substancji o silnych właściwościach magnetycznych – w typowych terenach krasowych nie znajdziemy takich minerałów, więc metoda ta nie wskaże jaskiń czy szczelin. Zdarza się, że ktoś myśli o magnetometrii, bo kojarzy ją z wykrywaniem anomalii, ale tu chodzi raczej o pole magnetyczne, nie o gęstość skał. Metody geotermiczne polegają na analizie przepływu ciepła w podłożu i o ile mogą wykazać pewne różnice w głębi ziemi (np. przy poszukiwaniach złóż geotermalnych), tak w przypadku płytkich form krasowych są praktycznie bezużyteczne – te pustki nie generują wyraźnych anomalii temperaturowych. Typowy błąd wynika z przekonania, że każda metoda geofizyczna sprawdzi się w każdym przypadku, a to nieprawda. W branżowych standardach do oceny płytkich struktur pustkowych zdecydowanie poleca się właśnie grawimetrię, bo mierzy ona subtelne zmiany masy i gęstości, które są charakterystyczne dla krasu. Praktyka pokazuje, że próba zastosowania innych metod nie daje wiarygodnych efektów i często prowadzi do błędnych wniosków lub niepotrzebnych kosztów.

Pytanie 14

Najmłodszy taras rzeczny oznaczony jest

Ilustracja do pytania
A. cyfrą 4
B. cyfrą 2
C. cyfrą 3
D. cyfrą 1
Wielu uczniów zakłada, że najwyższe tarasy rzeczne, te oznaczone wyższymi cyframi, są najmłodsze, bo leżą „na górze” i wydają się najświeższe. To bardzo częsty błąd logiczny, wynikający z przekładania intuicji z innych dziedzin (na przykład budownictwa) na procesy rzeczne. W rzeczywistości, w geomorfologii rzecznych dolin tarasy numeruje się od najstarszego (najwyżej położonego względem aktualnego poziomu koryta rzeki) do najmłodszego (tuż przy obecnej rzece). Taras oznaczony cyfrą 1 to stary taras nadzalewowy, który powstał dawno temu, kiedy rzeka płynęła znacznie wyżej i szerzej. Cyfry 3 i 4 odnoszą się do tarasów wyższych, które zwykle są już silnie przekształcone przez procesy erozyjne i akumulacyjne. W praktyce, wybierając taras o wyższym numerze, można pomylić się, bo nie bierze się pod uwagę, że rzeka z czasem wcina się głębiej w podłoże, zostawiając starsze formy wyżej. To takie trochę odwrócenie myślenia – im bliżej obecnego koryta rzeki, tym młodszy taras. Standardowe podręczniki do geografii fizycznej oraz dokumentacje geologiczne zawsze podkreślają tę zasadę, bo ma ona ogromne znaczenie w hydrogeologii, budownictwie oraz przy analizie zagrożeń powodziowych. Moim zdaniem, warto zapamiętać to od razu, bo takie błędne skojarzenia mogą prowadzić do nieprawidłowych analiz terenowych czy błędów projektowych przy inwestycjach w dolinach rzecznych.

Pytanie 15

Ile wynosi wilgotność gruntu użytego do badania w aparacie Casagrande'a, którego wyniki przedstawione są na wykresie?

Ilustracja do pytania
A. 32%
B. 54%
C. 25%
D. 20%
Wielu uczniów i nawet niektórzy technicy mają czasem kłopot z interpretacją wyników testu Casagrande’a, bo na pierwszy rzut oka wartości wilgotności mogą wydawać się podobne, a skalowanie wykresu potrafi zmylić. Często wybierane są wartości skrajne, jak 20% czy 54%, ale to są typowe błędy polegające na nieuwzględnianiu sposobu odczytu przecięcia charakterystycznej prostej z wyznaczoną wartością 25 uderzeń. W rzeczywistości, aby poprawnie odczytać wilgotność graniczną, należy znaleźć punkt przecięcia linii regresji z poziomą odpowiadającą standardowej liczbie uderzeń (czyli 25 według normy PN-B-04481:1988) – i dopiero wtedy odczytać wartość wilgotności z osi pionowej. Wybierając 20% lub 25%, najprawdopodobniej sugerowano się pojedynczymi punktami pomiarowymi lub błędnie ekstrapolowano wykres, nie uwzględniając linii trendu. Natomiast wartość 54% to już ewidentne przeszacowanie, być może wzięte w wyniku złego zrozumienia osi lub przypadkowego wskazania najwyższego punktu na wykresie. Takie podejście prowadzi do poważnych błędów projektowych, bo zaniżona lub zawyżona wilgotność płynności skutkuje złymi decyzjami dotyczącymi stateczności skarp albo filtracji przez podłoże. Prawidłowe wyznaczenie tej wartości to nie tylko kwestia poprawności teoretycznej, ale i bezpieczeństwa wykonywanych robót ziemnych. Z moich obserwacji wynika, że dobre praktyki polegają zawsze na dokładnym nanoszeniu prostych i precyzyjnym odczycie – bo właśnie w tych szczegółach tkwi cała sztuka geotechniki. Jeżeli masz wątpliwości, zawsze wróć do metodyki opisanej w normie i nie bój się kilka razy sprawdzić, gdzie naprawdę przecina się wykres.

Pytanie 16

W terenie spadek mierzy się przy pomocy

A. poziomicy.
B. klinomieru.
C. węgelnicy.
D. świstawki.
Świstawka, poziomica i węgelnica często pojawiają się w rozmowach o pomiarach, ale mają zupełnie inne zastosowanie niż określanie spadków w terenie. Świstawka w ogóle nie jest narzędziem pomiarowym – to po prostu niewielki gwizdek używany przez pracowników np. na budowach do sygnalizacji dźwiękowej. Zadziwiające, jak często ktoś myli ją z narzędziami pomiarowymi, może przez podobnie brzmiące nazwy. Poziomica natomiast, chociaż bardzo przydatna w budownictwie, służy przede wszystkim do sprawdzania czy dana powierzchnia jest pozioma czy pionowa. Przykładowo, kładąc płytki albo montując stelaż, poziomica jest niezbędna, ale nie daje możliwości mierzenia wartości spadku – nie pokaże nam czy stok ma 5% czy 15% nachylenia. Węgelnica to narzędzie stolarskie lub murarskie, dzięki któremu łatwo sprawdzić kąty proste, np. przy wznoszeniu ścian czy układaniu elementów pod kątem 90 stopni. Uważam, że częsty błąd wynika z tego, iż poziomica kojarzy się ogólnie z jakimś „mierzeniem poziomu”, a węgelnica z „kątami”, więc czasem ktoś błędnie zakłada, że można nią zmierzyć spadek. Jednak w praktyce do wyznaczania spadków terenu albo konstrukcji liniowych, zgodnie ze standardami branżowymi, stosuje się właśnie klinomierz. To on jest skonstruowany tak, żeby dokładnie określić kąt nachylenia, zarówno w stopniach, jak i w procentach – co w terenie bardzo się przydaje. Nieprawidłowe wybranie innego narzędzia może prowadzić do poważnych błędów, np. źle wykonanych odwodnień czy tras, co w praktyce może się skończyć kosztownymi poprawkami lub awariami. Tak więc warto pamiętać – każde narzędzie ma swoje miejsce, ale do pomiaru spadków nie ma lepszego niż klinomierz.

Pytanie 17

Do której grupy skał należą granitoidy?

A. Obojętnych.
B. Zasadowych.
C. Ultrazasadowych.
D. Kwaśnych.
W klasyfikacji skał magmowych podział na kwaśne, obojętne, zasadowe i ultrazasadowe wynika bezpośrednio z zawartości krzemionki (SiO2) w składzie chemicznym. Często spotykam się z przekonaniem, że granitoidy to skały obojętne albo nawet zasadowe, bo ktoś sugeruje się ich jasną barwą lub twardością, ale to błąd. Obojętne skały, takie jak dioryty, mają średnią zawartość krzemionki (ok. 52–65%), co czyni je wyraźnie inną grupą – ich skład mineralny to głównie plagioklazy i amfibole, a mniejszość stanowią kwarc i inne minerały. Z kolei zasadowe skały magmowe, na przykład bazalty czy gabra, charakteryzują się niską zawartością krzemionki (od ok. 45 do 52%), a ich dominującymi minerałami są pirokseny i oliwiny. Ultrazasadowe to już zupełnie inny świat – tu krzemionki jest jeszcze mniej, a skały te są bardzo bogate w żelazo i magnez; przykładem mogą być perydotyty czy dunit. Te typy skał praktycznie nie zawierają kwarcu, a ich wygląd i właściwości są zupełnie inne niż granitoidów. Mylenie granitoidów z tymi grupami wynika czasem z niewłaściwego odczytu barwy lub struktury, jednak to zawartość krzemionki (powyżej 65% dla kwaśnych) jest kluczowa. Warto opierać się na fachowych klasyfikacjach, jak np. diagram QAPF, który jasno ustawia granitoidy wśród skał kwaśnych. W praktyce inżynierskiej i budowlanej, niewłaściwe rozpoznanie rodzaju skały może prowadzić do błędnego doboru materiału do konstrukcji czy architektury, co może skutkować problemami eksploatacyjnymi. Dlatego tak ważne jest zrozumienie tej klasyfikacji – granitoidy to typowy przedstawiciel skał kwaśnych, a nie obojętnych, zasadowych czy ultrazasadowych.

Pytanie 18

Statusu Geoparku Krajowego obecnie nie posiada

A. Łuk Mużakowa.
B. Karkonoski Park Narodowy.
C. Góra Św. Anny.
D. Rezerwat Przyrody Nieożywionej Bonarka.
Założenie, że Góra Św. Anny, Łuk Mużakowa czy nawet Karkonoski Park Narodowy nie posiadają statusu Geoparku Krajowego, to często efekt mylenia różnych form ochrony przyrody lub nieścisłości w rozumieniu, czym w ogóle jest geopark. W praktyce, zarówno Góra Św. Anny, jak i Łuk Mużakowa to oficjalnie uznane Geoparki Krajowe, a nawet mają certyfikację UNESCO Global Geopark, co jest potwierdzeniem ich wyjątkowych walorów geologicznych i dobrze rozwiniętej infrastruktury edukacyjnej oraz turystycznej. W przypadku Karkonoskiego Parku Narodowego, choć park ten jest dobrze znany z ochrony przyrody i walorów krajobrazowych, nie należy on do sieci Geoparków Krajowych – tu jednak często myli się pojęcia, bo parki narodowe i geoparki to zupełnie inne formy ochrony i promocji dziedzictwa geologicznego. Typowym błędem jest założenie, że każdy rezerwat, park lub ciekawe miejsce geologiczne automatycznie może być geoparkiem – to nieprawda. Geoparki muszą spełnić dużo szersze kryteria, m.in. prowadzić aktywną edukację, angażować lokalną społeczność oraz być promowane na szczeblu krajowym lub międzynarodowym. Problemem jest też nieuwzględnianie tego, że status Geoparku często oznacza współpracę wielu instytucji, a nie tylko ochronę przyrody. W branży geoturystycznej zwraca się uwagę, że takie pomyłki wynikają z pobieżnej znajomości przepisów i standardów. Warto więc zawsze sprawdzać aktualne listy Geoparków Krajowych – są one publikowane np. przez Ministerstwo Klimatu i Środowiska albo Polskie Towarzystwo Geologiczne. Moim zdaniem, szczególnie dla osób uczących się w technikum lub planujących pracę w ochronie środowiska, taka wiedza to podstawa, bo pozwala rozumieć, jak praktycznie działają systemy ochrony dziedzictwa geologicznego w Polsce.

Pytanie 19

Geolog planujący marszrutę bezpośrednio z punktu A do B będzie przemieszczał się w kierunku

Ilustracja do pytania
A. północno-wschodnim.
B. południowo-zachodnim.
C. północno-zachodnim.
D. południowo-wschodnim.
Z mojego doświadczenia wynika, że błędy w określaniu kierunków na mapie poziomicowej wynikają najczęściej z nieprawidłowej interpretacji orientacji mapy oraz nieuważnego śledzenia położenia punktów względem siebie. Często osoby patrzą na poziomice i automatycznie zakładają, że kierunek przemieszczania się pokrywa się z kierunkiem północnym lub wschodnim, co jest mylące, jeśli nie weźmie się pod uwagę standardowej orientacji mapy (północ zawsze u góry). Przy takim założeniu, łatwo pomylić się i wybrać północno-zachodni lub północno-wschodni kierunek, jednak analizując mapę, widać wyraźnie, że punkt B leży na południe i zachód od punktu A. Kolejny błąd to sugerowanie się wartościami poziomic – różnica wysokości nie determinuje kierunku, tylko informuje o przewyższeniu. Często spotykam się też z myśleniem, że wybór kierunku południowo-wschodniego wynika z układu linii, ale wtedy zupełnie pomija się faktyczną lokalizację punktów. Najlepiej od razu przyłożyć linijkę lub palec do mapy, przeciągnąć prostą z A do B i wtedy łatwo wychwycić, że przesuwamy się na południowy zachód. W pracy geologa taka precyzyjna orientacja w terenie to podstawa – błędne określenie kierunku może skutkować nadkładaniem drogi albo nawet zgubieniem się w terenie. Dlatego warto zawsze weryfikować swoje rozumowanie przez analizę mapy i wypracować nawyk sprawdzania azymutu – to dobra praktyka, którą stosuje się w geologii, geodezji i kartografii.

Pytanie 20

Które roztwory przenikają do skał i zawartych w nich szczątków organicznych w procesie sylifikacji?

A. Manganowe.
B. Solne.
C. Krzemionki.
D. Węglanowe.
Wybór roztworów innych niż krzemionkowe świadczy o pewnym niezrozumieniu procesu sylifikacji. Często spotykam się z przekonaniem, że każda mineralizacja ma podobny przebieg, tymczasem w geologii precyzja jest kluczowa. Roztwory solne, choć mogą prowadzić do powstawania skał takich jak hality czy inne sole, nie mają zdolności do zastępowania materii organicznej krzemionką. One raczej sprzyjają procesom ewaporacji i powstawaniu złóż soli kamiennej, co ma znaczenie np. w przemyśle wydobywczym, ale nie w sylifikacji. Roztwory węglanowe są odpowiedzialne za powstawanie trawertynów, wapieni czy innych skał węglanowych – to z ich udziałem formują się typowe skamieniałości w wapieniach, jednak nie dochodzi tu do sylifikacji. Węglan wapnia raczej zastępuje martwą materię, szczególnie tam, gdzie środowisko jest bogate w CO2 i Ca2+. Z kolei roztwory manganowe są dość specyficzne – mogą tworzyć złoża manganu czy nadać skałom charakterystyczne zabarwienie, ale praktycznie nie uczestniczą w procesie mineralizacji organizmów w postaci krzemionki. Moim zdaniem często myli się mechanizmy przesiąkania skał przez różne roztwory, bo w praktyce terenowej wiele procesów zachodzi jednocześnie, ale należy rozróżniać mineralizację przez krzemionkę od innych typów diagenezy. Warto odwołać się do klasycznych źródeł wiedzy geologicznej, gdzie wyraźnie podkreśla się, że tylko krzemionka odpowiada za powstawanie skamieniałości sylifikowanych, a pozostałe roztwory prowadzą do innych efektów geochemicznych.

Pytanie 21

Powierzchnia oznaczona na rysunku literą A nazywana jest powierzchnią nieciągłości

Ilustracja do pytania
A. Lehmana.
B. Conrada.
C. Golicyna.
D. Moho.
Wiele osób myli pojęcia związane z powierzchniami nieciągłości we wnętrzu Ziemi, bo nazwy są do siebie dość podobne i często pojawiają się na różnych etapach nauki. Nieciągłość Conrada to powierzchnia oddzielająca dwa typy skorupy ziemskiej – górną i dolną, ale nie oddziela ona skorupy od płaszcza, więc nie ma tak fundamentalnego znaczenia w kontekście globalnej budowy Ziemi. Z kolei nieciągłość Lehmann to granica między jądrem zewnętrznym a jądrem wewnętrznym i jest położona dużo głębiej niż powierzchnia oznaczona na schemacie literą A, więc jej rola dotyczy głównie badań nad strukturą jądra ziemi, a nie skorupy i płaszcza. Nazwa Golicyna natomiast raczej nie pojawia się w podręcznikach jako nazwa jakiejś specyficznej powierzchni nieciągłości – spotkać ją można raczej przy kontekstach historycznych lub w pracach dotyczących fal sejsmicznych, ale nie jako konkretny poziom podziału wnętrza planety. Błędne przypisywanie tych nazw wynika trochę z chaosu w podręcznikach i czasem zbyt szybkiego omawiania tych zagadnień na lekcjach. Warto pamiętać, że dla praktyki inżynierskiej i badań geologicznych najważniejszą, bo najłatwiej detekowalną i najlepiej zbadaną powierzchnią, jest właśnie Moho – to ona stanowi klucz do zrozumienia głównych podziałów wnętrza Ziemi i umożliwia porównywanie struktur litosfery na różnych kontynentach. Zwracanie uwagi na nazwy i głębokości tych nieciągłości pozwala uniknąć typowych błędów interpretacyjnych przy analizie danych sejsmicznych czy geologicznych.

Pytanie 22

Złoża, które powstały w wyniku osadzania materiału transportowanego przez rzekę, nazywa się

A. koluwialnymi.
B. eluwialnymi.
C. deluwialnymi.
D. aluwialnymi.
Złoża aluwialne to temat, który w geologii czy budownictwie naprawdę często przewija się w praktyce. Są to złoża powstające przez osadzanie materiału transportowanego przez rzekę – najczęściej chodzi o żwiry, piaski albo muły. Z mojego doświadczenia wynika, że w Polsce na przykład żwiry aluwialne mają ogromne znaczenie w budownictwie, bo są świetnym surowcem do produkcji betonu. W literaturze branżowej i podręcznikach geotechnicznych, jak np. „Podstawy geologii inżynierskiej”, wyraźnie podkreśla się, że skały osadowe rzeczne, czyli właśnie aluwia, charakteryzują się dobrą sortacją i zaokrągleniem ziaren. To wpływa na ich właściwości filtracyjne i nośność – a to przecież kluczowe np. przy projektowaniu fundamentów pod mosty czy drogi. Co ciekawe, dobre praktyki w geologii stosowanej zalecają zawsze szczegółowe badania aluwiów przed rozpoczęciem inwestycji, bo ich zmienność lokalna potrafi zaskoczyć nawet doświadczonych inżynierów. Moim zdaniem nie można zapominać, że osady aluwialne stanowią też ważne środowisko dla gospodarki wodnej, bo rzeki budują na nich często swoje koryta meandrujące. Takie złoża spotkasz np. w dolinach Wisły czy Odry. Słowem – pojęcie aluwialne to absolutna podstawa, jeśli myśli się poważnie o pracy w branży budowlano-geologicznej.

Pytanie 23

Woda wolna, występująca w porach skalnych, może się przemieszczać swobodnie tylko w porach

A. kapilarnych.
B. nadkapilarnych.
C. podkapilarnych.
D. subkapilarnych.
Woda wolna, czyli ta, która może się swobodnie przemieszczać w przestrzeni porowej skały, występuje właśnie w porach nadkapilarnych. To one mają na tyle duże rozmiary, że siły kapilarne już nie utrzymują cząsteczek wody przy ścianach porów, przez co woda swobodnie odpływa pod wpływem grawitacji. Tak jest na przykład w żwirach albo piaskach gruboziarnistych – po podlaniu woda szybko przemieszcza się w dół, bo nie jest związana z podłożem. Tej właściwości nie mają pory kapilarne ani subkapilarne, bo tam woda jest uwięziona przez napięcie powierzchniowe i nie da się jej łatwo wydobyć metodami grawitacyjnymi. W praktyce, chociażby przy projektowaniu studni czy systemów odwadniających, zawsze bierze się pod uwagę udział porów nadkapilarnych, bo od nich zależy szybkość przesączania się wody i jej dostępność. W normach dotyczących hydrogeologii, jak PN-EN ISO 14688, można znaleźć klasyfikacje dotyczące wielkości porów i ich wpływu na przepuszczalność gruntu. Z własnego doświadczenia powiem, że rozpoznanie rodzaju porów w podłożu pozwala przewidzieć, czy dany teren będzie podatny na szybkie odwodnienie albo czy woda będzie się długo utrzymywać. Z punktu widzenia inżyniera to absolutna podstawa, żeby odróżniać pory nadkapilarne od reszty – praktycznie cała gospodarka wodna gruntów opiera się na tym rozróżnieniu.

Pytanie 24

Stan naprężenia gruntu przedstawiony na rysunku należy do naprężeń

Ilustracja do pytania
A. pierwotnych.
B. osiowych.
C. mimośrodowych.
D. wtórnych.
Stan naprężenia gruntu przedstawiony na tym rysunku to zdecydowanie przypadek naprężeń osiowych. W praktyce geotechnicznej takie sytuacje pojawiają się najczęściej pod fundamentami i wszelkimi obciążeniami skupionymi lub rozłożonymi symetrycznie względem osi. Moim zdaniem bardzo ważne jest, żeby rozumieć, że naprężenia osiowe oznaczają rozkład sił (czyli tutaj obciążeń) względem osi symetrii, np. pod środkową częścią fundamentu prostokątnego albo kołowego. Standardy branżowe, takie jak Eurokod 7 (PN-EN 1997-1), wyraźnie odnoszą się do analizy takich układów, bo są one podstawą do określania nośności i osiadań podłoża gruntowego. W życiu codziennym, szczególnie przy projektowaniu fundamentów budynków, rozpatruje się stany naprężeń osiowych, by przewidzieć, jak grunt się ugnie i gdzie wystąpią największe naprężenia. Warto też wiedzieć, że ten rozkład jest bazą do obliczeń stateczności i trwałości konstrukcji. Często spotykam się z sytuacją, że ktoś pomija analizę tego rozkładu i wtedy pojawiają się bardzo poważne błędy projektowe. Przykładowo – pod płytą fundamentową o równomiernym obciążeniu powstaje właśnie taki stan naprężeń jak na rysunku. Dlatego znajomość tego zagadnienia to podstawa dla każdego technika czy inżyniera geotechnika.

Pytanie 25

Którą cyfrą oznaczono miejsce pomiaru głębokości zapuszczania sondy pomiarowej do otworu wiertniczego?

Ilustracja do pytania
A. 2
B. 4
C. 1
D. 3
Wiele osób myli miejsca pomiaru głębokości sondy, wybierając np. punkt przy ciężarówce (1), lub myśląc, że właściwym miejscem jest samo wejście do otworu (3), bądź położenie sondy głęboko w otworze (4). To są bardzo częste błędy, które wynikają z nieznajomości procedur lub po prostu z faktu, że sprzęt na pierwszy rzut oka może wydawać się skomplikowany. W praktyce terenowej najważniejsze jest, żeby pomiar głębokości zaczynać od miejsca, gdzie kabel zaczyna schodzić do otworu – ani wcześniej, ani później. Wybranie innych punktów prowadzi do poważnych przekłamań, które mogą skutkować nawet błędną interpretacją budowy geologicznej. Moim zdaniem, wiele osób wybiera miejsce oznaczone 1, bo wydaje się ono początkiem całego układu pomiarowego, ale w rzeczywistości to miejsce nie daje żadnej informacji o faktycznym zanurzeniu sondy. Z kolei wskazanie 3 lub 4 wynika często z przekonania, że najważniejsze jest miejsce pracy sondy lub jej aktualne położenie w otworze – a to już jest efektem samego pomiaru, nie jego początkiem. Branżowe standardy i zalecenia producentów jasno podkreślają, żeby zawsze bazować na punkcie wejścia kabla do otworu jako początku pomiaru, bo tylko wtedy dane są wiarygodne i porównywalne między różnymi odwiertami i operatorami. Typowym błędem jest też brak uwzględnienia długości przewodów wchodzących do systemu przed wejściem do otworu – i to potrafi rozjechać cały dziennik pomiarowy. W praktyce zdarza się nawet, że różne ekipy raportują zupełnie inne wartości dla tego samego odwiertu, bo każda używa innego punktu pomiaru, co prowadzi do poważnych nieporozumień czy nawet reklamacji. Z mojego doświadczenia wynika, że przemyślany wybór punktu pomiaru to podstawa dobrej praktyki i oszczędność czasu przy późniejszej analizie danych.

Pytanie 26

Popioły wulkaniczne osadzone w środowisku wodnym nazywa się

A. laharami.
B. lapillami.
C. tufami.
D. tufitami.
Popioły wulkaniczne, które osadzają się w środowisku wodnym, bywają mylone z kilkoma innymi typami skał i produktów erupcji wulkanicznych, co czasem prowadzi do nieporozumień w nazewnictwie. Tufy to rzeczywiście skały wulkaniczne, powstające w wyniku zlepienia i scementowania popiołów i innych drobnych fragmentów piroklastycznych, ale zasadniczo ten termin zarezerwowany jest dla skał osadzonych na lądzie, bez istotnego udziału materiału pochodzenia osadowego ze środowiska wodnego. Bardzo często spotykam się z tym, że ludzie utożsamiają tufy z tufitami, ale różnica polega właśnie na tym, że tufity są efektem mieszania popiołów wulkanicznych z osadami wodnymi, co wpływa zarówno na ich teksturę, jak i skład mineralny. Lapille natomiast to termin określający fragmenty piroklastyczne o średnicy 2–64 mm, są większe od popiołów i raczej nie stanowią samodzielnej skały, tylko są składnikiem tufów czy aglomeratów. Uważam, że to częsty błąd wynika z tego, że ludzie mieszają pojęcia dotyczące wielkości z nazwami skał. Lahar z kolei to zupełnie inne zjawisko – to gwałtowny, błotnisty przepływ, będący mieszaniną wody, popiołu i fragmentów skalnych spływający po stokach wulkanu, najczęściej podczas intensywnych opadów deszczu lub nagłego topnienia śniegu. Lahar jest procesem geologicznym, a nie typem skały. Moim zdaniem kluczowe jest rozróżnianie tych pojęć, bo mają zupełnie inne znaczenie w geologii i praktycznych badaniach terenowych czy analizie profili. Często spotyka się pomyłki wynikające z podobieństw w nazwach lub braku praktycznego doświadczenia z terenowymi obserwacjami. Z mojego doświadczenia jasno wynika, że dla prawidłowej interpretacji skał wulkanicznych i ich środowiska powstawania trzeba zwracać uwagę nie tylko na materiał źródłowy, ale też na to, w jakim środowisku został zdeponowany – i właśnie tufity są najlepszym przykładem skały powstałej na styku wulkanizmu i procesów osadowych w wodzie.

Pytanie 27

Skamieniałe pozostałości działalności życiowej zwierząt, np. żerowanie, drążenie w osadzie, tropy, odchody, określane są jako skamieniałości

A. strukturalne.
B. skałotwórcze.
C. kompletne.
D. śladowe.
Wybór innej odpowiedzi niż „skamieniałości śladowe” często wynika z mylenia pojęć związanych z paleontologią i procesami fosylizacyjnymi. Zacznijmy od opcji „kompletne” – to określenie sugeruje, że chodzi o pełne, nienaruszone szkielety lub całe organizmy zachowane w skale. Owszem, takie znaleziska się zdarzają, ale to zupełnie inna kategoria skamieniałości, nie mająca nic wspólnego ze śladami działalności biologicznej. Skamieniałości kompletne to najczęściej kości, muszle czy odciski ciała, a nie ślady ruchu czy żerowania. Co do „strukturalnych” – to pojęcie w paleontologii praktycznie się nie pojawia jako oficjalna kategoria. Częsty błąd polega tu na mieszaniu pojęć ze strukturami geologicznymi, które odnoszą się raczej do układu warstw w skałach, a nie do działalności życiowej zwierząt. Skamieniałości strukturalne nie są terminem stosowanym w uznanych podręcznikach czy klasyfikacjach branżowych. Z kolei „skałotwórcze” sugeruje, jakby chodziło o elementy budujące skałę, czyli minerały czy fragmenty skał, które biorą udział w tworzeniu skał osadowych. Skamieniałości skałotwórcze to też nie jest pojęcie używane w paleontologii – co najwyżej szczątki organizmów mogą być składnikiem skał, ale nie dotyczy to śladów jak nory lub tropy. Typowy błąd myślowy to utożsamianie wszystkich znalezisk w skałach jako „skałotwórczych”, bez rozróżnienia ich genezy i funkcji. W praktyce, żeby dobrze odróżniać rodzaje skamieniałości, warto korzystać z klasycznych podziałów: skamieniałości śladowe (ichnofosylia) dotyczą śladów działalności zwierząt, natomiast pozostałe to szczątki ciał albo elementy chemiczne. W podręcznikach i standardach paleontologicznych zawsze zwraca się uwagę na tę różnicę – pozwala ona właściwie interpretować przeszłe środowiska i zachowania organizmów. Dlatego zawsze warto, zamiast zgadywać, sprawdzić definicje w dobrych źródłach i nie mylić śladów życia z samymi szczątkami czy elementami skał.

Pytanie 28

Jak nazywa się rodzaj erozji zachodzącej najczęściej w górnym odcinku rzeki, która doprowadza do cofania się źródła?

A. Poprzeczna.
B. Wgłębna.
C. Wsteczna.
D. Boczna.
Zagadnienie erozji rzecznej bywa często mylnie rozumiane, szczególnie jeśli chodzi o różne jej rodzaje i miejsce ich występowania. Erozja boczna, choć jest bardzo istotna w procesie kształtowania dolin rzecznych, zachodzi głównie w środkowym i dolnym biegu rzeki, gdzie woda podmywa brzegi i poszerza dolinę. To prowadzi do meandrowania, czyli powstawania zakoli, ale raczej nie wpływa na cofanie się źródła. Z kolei erozja wgłębna to proces typowo związany z pogłębianiem koryta – rzeka wycina w podłożu coraz głębszy kanał, co faktycznie dominuje w górnym biegu, ale nie powoduje przesuwania się źródła w górę doliny. To raczej aspekt pionowy, a nie poziomy, więc łatwo się tutaj pomylić. Odpowiedź „poprzeczna” natomiast nie odnosi się do żadnego z klasycznych procesów erozyjnych w geomorfologii – to pojęcie raczej nie jest stosowane w naukach o Ziemi w tym kontekście, co bywa pułapką w testach. Z mojego doświadczenia wynika, że wiele osób utożsamia wszystkie te typy erozji z ogólną działalnością rzek, jednak tylko erozja wsteczna powoduje realne cofanie się źródła, czyli przesuwanie początku cieku wodnego w górę. W praktyce to bardzo ważne np. przy planowaniu infrastruktury, bo cofające się źródło może zagrażać osadom, drogom czy nawet liniom przesyłowym. Typowe błędy myślowe wynikają z braku rozróżnienia między kierunkiem działania erozji a jej skutkami dla kształtu doliny. Moim zdaniem warto zawsze najpierw spróbować wyobrazić sobie procesy zachodzące w różnych częściach rzeki, bo to zdecydowanie ułatwia poprawne rozpoznanie typu erozji. Taką wiedzę można potem wykorzystać w praktyce, np. przy rozpoznawaniu zagrożeń naturalnych w terenie czy analizie zmian środowiskowych.

Pytanie 29

Pełne nasycenie wodą wolnych przestrzeni w warstwie skalnej zachodzi w strefie

A. higroskopijnej.
B. kapilarnej.
C. saturacji.
D. aeracji.
Pełne nasycenie wodą wolnych przestrzeni w warstwie skalnej rzeczywiście zachodzi w strefie saturacji. To właśnie tutaj, każda wolna przestrzeń pomiędzy ziarnami lub szczelinami w skale jest całkowicie wypełniona wodą gruntową. W praktyce, ta strefa odgrywa kluczową rolę dla hydrogeologów, bo to z niej najczęściej czerpie się wodę ze studni głębinowych. Z moich obserwacji wynika, że często bagatelizuje się znaczenie tej strefy przy projektowaniu odwodnień czy ujęć wód podziemnych – a to błąd! W strefie saturacji ciśnienie hydrostatyczne jest wyższe niż atmosferyczne, co sprawia, że woda z łatwością przepływa przez ośrodek skalny. To bardzo ważne w planowaniu eksploatacji złóż wodonośnych czy ocenie zagrożenia podtopieniami np. przy dużych inwestycjach. Standardy branżowe, np. wytyczne PGI czy normy ISO dotyczące badań wód podziemnych, wyraźnie wskazują, żeby rozróżniać strefę saturacji od innych – bo tylko tutaj mamy do czynienia z pełnym nasyceniem wodą. Z mojego doświadczenia wynika jeszcze jedno: rozumienie tej granicy w terenie, np. przy rozpoznaniu profilu geologicznego, znacznie ułatwia identyfikację poziomu zwierciadła wody, takiego prawdziwego, a nie tylko wilgotnego gruntu.

Pytanie 30

Próbkę gruntu do badań laboratoryjnych suszy się w temperaturze

A. 125÷130°C
B. 105÷110°C
C. 95÷100°C
D. 75÷80°C
Temperatura 105–110°C to taki standard, któremu ufają praktycznie wszyscy laboranci zajmujący się badaniami gruntów. Suszenie próbki gruntu właśnie w takim zakresie pozwala na niemal całkowite usunięcie wody grawitacyjnej i kapilarnej, czyli tej, która nie jest chemicznie związana z cząstkami gleby. To superważne, bo podczas wyznaczania wilgotności, czyli jednego z kluczowych parametrów gruntów, chodzi nam tylko o wodę nietrwałą, która odparowuje przy tej temperaturze. W normie PN-88/B-04481 jasno pisze się o tej temperaturze – i nie bez powodu, bo wyższe temperatury mogą powodować utratę składników organicznych (np. materii humusowej), a zbyt niskie nie gwarantują pełnego wysuszenia. Z mojego doświadczenia, jeśli ktoś zastosuje niższą temperaturę, to próbka może dalej zawierać trochę wody, co przekłamuje wyniki i czasem prowadzi do poważnych błędów przy projektowaniu fundamentów czy nasypów drogowych. W praktyce laboratoryjnej nawet stare suszarki mają ustawienie „110°C” jako domyślne dla takich prób. Tak więc odpowiedź 105–110°C nie tylko jest zgodna z teorią, ale i z praktyką inżynierską, bo dzięki temu mamy pewność, że wyniki są rzetelne i porównywalne z innymi laboratoriami.

Pytanie 31

Przedstawiona na rysunku soczewka jest przykładem złoża występującego w formie

Ilustracja do pytania
A. izometrycznej.
B. płytowej.
C. słupowej (kominowej).
D. złożonej.
Złoża występujące w przyrodzie przyjmują wiele różnych form, co wynika z procesów ich powstawania i budowy geologicznej terenu. Soczewka przedstawiona na ilustracji to przykład formacji o wyraźnie uwarstwionej strukturze z dominacją rozciągłości poziomej przy niewielkiej miąższości – nie jest to układ złożony (gdzie mamy mieszankę wielu różnych typów skał czy dużą zmienność morfologiczną), ani izometryczny, bo w złożu izometrycznym długość, szerokość i wysokość są mniej więcej zbliżone, co przypomina raczej bryłę lub soczewkę o podobnych wymiarach we wszystkich kierunkach. Takie złoża są raczej rzadkie i trudniejsze do wydobycia ze względu na brak wyraźnej orientacji warstw. Często myli się też złoża płytowe ze słupowymi (kominowymi), ale tu jest zasadnicza różnica: złoża słupowe rozciągają się pionowo i mają bardzo ograniczoną rozciągłość w poziomie, tworząc coś w rodzaju komina, co widać na przykładzie rud siarki w niektórych rejonach Polski albo kimberlitów z diamentami. Tymczasem na rysunku wyraźnie widać strukturę przypominającą plaster lub soczewkę rozciągniętą poziomo. To najprostszy do rozpoznania układ, który w praktyce górniczej pozwala na zastosowanie efektywnych technik eksploatacji i dobrej organizacji pracy. Częstym błędem jest też zakładanie, że każde nietypowe złoże to złoże złożone – w rzeczywistości większość złóż ma dość przewidywalne kształty, a prawidłowa identyfikacja pomaga uniknąć poważnych błędów projektowych lub logistycznych. Warto więc zawsze dokładnie analizować rysunek i przypomnieć sobie typowe definicje z podręczników geologii i górnictwa.

Pytanie 32

Na przekroju hydrogeologicznym zakreskowano

Ilustracja do pytania
A. strefę saturacji.
B. strefę aeracji.
C. obszar wznosu kapilarnego.
D. obszar wód artezyjskich.
W hydrogeologii dość często pojawia się zamieszanie wokół pojęć takich jak strefa aeracji, saturacji, obszar wód artezyjskich czy strefa wznosu kapilarnego. Zacznijmy od strefy aeracji – to jest przede wszystkim ta górna warstwa profilu, gdzie pory w podłożu są częściowo wypełnione wodą, a częściowo powietrzem. I tutaj bardzo łatwo się pomylić, bo na schematach bywa to pokazane jako przestrzeń pod powierzchnią terenu, ale bez typowego zakreskowania, które symbolizuje pełne nasycenie. Strefa wznosu kapilarnego natomiast to cienka warstewka tuż nad zwierciadłem wody gruntowej, gdzie woda podciągana jest do góry dzięki siłom kapilarnym. Często się ją myli z całą strefą saturacji, jednak w praktyce jej grubość jest niewielka i nie traktuje się jej jako głównego magazynu wód podziemnych. Obszar wód artezyjskich to zupełnie inna bajka – to już sytuacja, gdzie wody podziemne są pod ciśnieniem i po przewierceniu warstwy nieprzepuszczalnej same wypływają na powierzchnię. Identyfikacja takiego obszaru wymaga znajomości regionalnej budowy geologicznej i obecności warstw izolujących. Typowym problemem jest tu mylenie graficznych oznaczeń – część osób automatycznie przypisuje zakreskowanie warstwie artezyjskiej, a to błąd. Z mojego doświadczenia wynika, że kluczowym błędem jest nieuważne czytanie schematu: zakreskowanie niemal zawsze odnosi się do strefy, gdzie grunt jest w pełni nasycony wodą, czyli strefy saturacji. Prawidłowa interpretacja tych oznaczeń ma realny wpływ na ocenę zagrożenia migracją zanieczyszczeń czy dobór odpowiednich technologii oczyszczania wód. Dlatego warto dobrze zrozumieć, co naprawdę oznaczają te poszczególne strefy, zanim podejmie się decyzję o tym, które oznaczenie do której warstwy pasuje.

Pytanie 33

Cięcie poziomicowe na przedstawionym fragmencie mapy wynosi

Ilustracja do pytania
A. 20 m
B. 10 m
C. 25 m
D. 5 m
Wiele osób na początku nauki kartografii i czytania map topograficznych ma trudności z właściwym rozpoznaniem cięcia poziomicowego. Moim zdaniem, problem często wynika z niedokładnego spojrzenia na wartości punktów wysokościowych lub zbyt automatycznego założenia, że poziomice na każdej mapie są oddalone od siebie o duże wartości – na przykład 10, 20 czy 25 metrów. W praktyce jednak, dobór cięcia poziomicowego wynika z dwóch czynników: rodzaju terenu oraz skali mapy. W przypadku płaskich lub lekko pofałdowanych terenów, stosuje się raczej mniejsze cięcie, np. 5 m, ponieważ większe wartości spowodowałyby utratę szczegółów i zatarcie różnic wysokościowych istotnych dla wielu analiz, choćby hydrologicznych, urbanistycznych czy inżynierskich. Typowym błędem jest też nieuwzględnianie wartości konkretnych punktów wysokościowych – na przedstawionym fragmencie mapa prezentuje punkty 252,6 i 257,1, a poziomice są ułożone w taki sposób, że przy cięciu większym niż 5 m nie dałoby się uzyskać aż tylu linii pomiędzy nimi. Przyjęcie cięcia 10, 20 lub 25 metrów prowadziłoby do poważnych błędów w analizie spadków terenu i mogłoby skutkować pomyłkami podczas projektowania inwestycji lub planowania jakichkolwiek prac ziemnych. Moim zdaniem szczególnie w branży budowlanej i geodezyjnej konsekwencje takiego błędu bywają bardzo kosztowne – na przykład przy wytyczaniu dróg, odwodnień czy ustalaniu przebiegu instalacji podziemnych. Dlatego warto sobie utrwalić, że na większości map szczegółowych w Polsce stosuje się cięcie 5 m, a dopiero na mapach przeglądowych i w terenie górskim stosuje się większe cięcia. Z doświadczenia wiem, że dobrze jest za każdym razem sprawdzić legendę mapy lub porównać wartości punktów wysokościowych i rozkład poziomic, zamiast polegać na domysłach.

Pytanie 34

Eratyki to inna nazwa

A. głazów narzutowych.
B. bruków deflacyjnych.
C. grzybów skalnych.
D. graniaków.
Eratyki, czyli głazy narzutowe, to takie duże, często naprawdę potężne fragmenty skał, które zostały przyniesione przez lodowiec z bardzo odległych miejsc i „porzucone” w zupełnie innych rejonach. Z mojego doświadczenia, spotyka się je na przykład na Mazurach czy Pomorzu, gdzie leżą takie samotne „kamulce” na polach lub w lasach i czasem ludzie dziwią się, skąd się tam wzięły. To jest właśnie efekt działalności lodowca – przynosił on głazy z północy, z terenów Skandynawii i zostawiał je tam, gdzie się wycofał. W praktyce geologicznej głazy narzutowe mają znaczenie nie tylko jako ciekawostka, ale też pomagają określić kierunki przemieszczania się lądolodu – są takim naturalnym „dowodem w sprawie” dla geologów. Często wykorzystywane są w edukacji terenowej, czasem nawet w budownictwie, bo kamień polodowcowy jest bardzo trwały. Według standardów geologicznych jednym z kluczowych wskaźników polodowcowego charakteru krajobrazu są właśnie eratyki, zwłaszcza jeśli ich skład mineralny wyraźnie nie pasuje do okolicznych skał. Moim zdaniem warto kojarzyć tę nazwę, bo eratyki pojawiają się nie tylko na lekcjach geografii, ale i w sztuce krajobrazu czy nawet w urbanistyce – są świetnym materiałem na elementy małej architektury.

Pytanie 35

Którą literą oznaczono formę plutoniczną określaną jako sill?

Ilustracja do pytania
A.
B.
C.
D.
Wiele osób myli różne formy plutoniczne na przekrojach geologicznych, co jest zrozumiałe, bo niektóre z nich mogą wyglądać pozornie podobnie. W praktyce geologicznej rozróżnienie między sillem, dajką, batolitem czy lakolitem jest kluczowe, bo każdy z tych intruzji charakteryzuje się innym sposobem powstawania i innym wpływem na otaczające skały. Na przykład dajki (często oznaczane jako pionowe lub skośne żyły przecinające warstwy) są wynikiem przeciskania się magmy przez szczeliny, które przecinają istniejące już warstwy skalne – to prowadzi do charakterystycznego przecinania struktur, czego nie obserwujemy przy sillach. Batolity i inne większe formy plutoniczne z kolei są masywnymi ciałami magmowymi, najczęściej o nieregularnych kształtach, które nie wykazują zgodności z warstwami osadowymi i leżą znacznie głębiej. Lakolity natomiast tworzą soczewkowate wyniesienia, które wypychają warstwy nad sobą, ale nie układają się zgodnie z nimi na dużej powierzchni. Typowy błąd polega na ocenianiu formy intruzji wyłącznie na podstawie koloru lub wielkości na przekroju, a nie jej relacji do warstwowania skał. Z mojego doświadczenia wynika, że szczególnie na testach i egzaminach uczniowie próbują zgadywać na podstawie położenia czy intensywności barwy magmy, co nie zawsze prowadzi do dobrego wyniku. Kluczowe jest, żeby zawsze patrzeć na ułożenie względem warstw – tylko wtedy łatwo rozpoznać sill i nie pomylić go z innymi strukturami, co jest niezbędne w pracy terenowej, poszukiwaniu zasobów czy planowaniu inwestycji geologicznych. Właściwa identyfikacja form intruzji pozwala uniknąć kosztownych pomyłek, szczególnie w sektorach wydobywczych i hydrologicznych.

Pytanie 36

Od czego w największym stopniu zależy przepuszczalność hydrauliczna skał magmowych?

A. Wielkości kryształów.
B. Szczelinowatości.
C. Porowatości.
D. Składu mineralnego.
W temacie przepuszczalności hydraulicznej skał magmowych często pojawiają się różne błędne przekonania, zwłaszcza dotyczące porowatości czy składu mineralnego. Wiele osób myśli, że skoro porowatość w skałach osadowych jest kluczowa, to podobnie będzie w magmowych. Tymczasem w skałach magmowych, takich jak granity czy bazalty, porów niemal nie ma – są one bardzo zwarte, więc ich porowatość pierwotna jest praktycznie zerowa. Oczywiście, można się spotkać z mikroporami, ale ich wpływ na przepuszczalność jest znikomy i raczej teoretyczny. Skład mineralny to kolejny punkt, który bywa mylący. Owszem, różne minerały w skałach magmowych mogą wpływać na odporność na wietrzenie czy barwę, ale sam skład nie określa, czy skała będzie przepuszczalna. Nawet jeśli skała zbudowana jest z minerałów łatwo rozpuszczalnych, to bez szczelin i tak nie przepuści wody. Często pojawia się też pomysł, że wielkość kryształów może mieć znaczenie. Moim zdaniem to takie skróty myślowe wynikające z mylenia tekstury skały z jej właściwościami filtracyjnymi. Faktycznie, wielkość kryształów decyduje o wyglądzie, ale nie wpływa na to, czy skała przepuszcza wodę – chyba że duże kryształy powodują powstawanie mikroszczelin, ale to naprawdę marginalny efekt. Generalnie przepuszczalność hydrauliczna w skałach magmowych to nie kwestia tego, z czego są zbudowane ani jak duże mają ziarna, tylko tego, jak bardzo są poprzecinane przez szczeliny. Takie podejście potwierdzają też normy europejskie i zalecenia dotyczące badań geotechnicznych – bez analizy szczelinowatości nie da się rzetelnie ocenić przepuszczalności magmatyków. W praktyce inżynierskiej ignorowanie tego aspektu prowadzi do poważnych błędów projektowych, zwłaszcza przy inwestycjach związanych z wodą podziemną. Warto więc wystrzegać się tych uproszczeń i zawsze patrzeć na skałę jak na system potencjalnych szczelin, a nie zbiór porów czy pojedynczych minerałów.

Pytanie 37

Wyniki pomiarów i interpretacji pola siły ciężkości można odczytać z mapy

A. hipsometrycznej.
B. sejsmicznej.
C. grawimetrycznej.
D. magnetycznej.
Wiele osób myli mapy grawimetryczne z innymi typami map geofizycznych, co jest dość częstym błędem, zwłaszcza na początku nauki. Mapa sejsmiczna służy do przedstawiania wyników badań fal sejsmicznych, czyli rozchodzenia się fal dźwiękowych przez skorupę ziemską – pozwala to odtwarzać strukturę warstw geologicznych, ale nie daje informacji o rozkładzie pola siły ciężkości. Z kolei mapa magnetyczna prezentuje rozkład natężenia pola magnetycznego Ziemi, co jest kluczowe przy poszukiwaniu rud żelaza i innych surowców magnetycznych, ale nie ma związku z grawitacją. Mapa hipsometryczna natomiast to w zasadzie klasyczna mapa pokazująca ukształtowanie terenu, wysokości nad poziomem morza – przydatna w kartografii i turystyce, lecz nie w analizie siły ciężkości. Typowym błędem jest założenie, że skoro mapa hipsometryczna pokazuje wysokości, to można z niej wywnioskować coś o polu grawitacyjnym – niestety, to mylne uproszczenie, bo pole siły ciężkości zależy nie tylko od wysokości, ale i od rozkładu mas pod powierzchnią. Równie często spotykam się z myśleniem, że mapy sejsmiczne czy magnetyczne mogą dać podobną informację jak grawimetryczne, ale to zupełnie inne aspekty geofizyki. Z mojego doświadczenia, ważne jest, aby rozumieć, że każda z tych map ma swoje konkretne zastosowanie i pokazuje zupełnie inne właściwości fizyczne Ziemi – stąd właściwy wybór mapy to podstawa dobrej interpretacji danych terenowych.

Pytanie 38

Przy wierceniach kierunkowych wykonywanych metodą stołową odchylanie osi otworu od pionu wykonuje się za pomocą

A. zakrzywionego elektrowiertu sekcyjnego.
B. klinów odchylających, odchylaczy przegubowych i świdra z dyszą.
C. turbowiertów z krzywym łącznikiem.
D. turbowiertu z odchylaczem i ekscentryczną nakładką.
Wielu osobom podczas nauki technologii wiercenia może się wydawać, że urządzenia takie jak turbowiert z krzywym łącznikiem albo zakrzywione elektrowierty sekcyjne pełnią główną rolę w odchylaniu osi otworu od pionu, zwłaszcza gdy podobne nazwy pojawiają się w literaturze czy na prezentacjach sprzętu. W praktyce jednak te narzędzia mają zupełnie inne zastosowanie i ich głównym zadaniem nie jest kształtowanie kierunku wiercenia, lecz zapewnienie odpowiedniego obrotu świdra lub poprawienie efektywności pracy w określonych warunkach geologicznych. Turbowiert z krzywym łącznikiem, chociaż teoretycznie mógłby wprowadzać niewielkie zmiany w trajektorii, nie daje takiej kontroli i precyzji jak klasyczne kliny odchylające czy przegubowe odchylacze. Zakrzywione elektrowierty też nie zostały zaprojektowane z myślą o dokładnej korekcie kierunku, a raczej do pracy w specyficznych przestrzeniach lub materiałach. Z kolei turbowiert z odchylaczem i ekscentryczną nakładką brzmi dość innowacyjnie, ale w rzeczywistości nie jest standardem przy klasycznym kierunkowaniu odwiertów stołowych. Z mojego punktu widzenia, częsty błąd polega na myleniu narzędzi służących do napędu z tymi, które faktycznie mają wpływ na kierunek wiercenia. Warto pamiętać, że w profesjonalnych wytycznych branży (np. API, PKN) właśnie kliny odchylające, odchylacze przegubowe i świdry z dyszą są wskazywane jako sprawdzone i najbardziej efektywne rozwiązania do odchylania osi otworu od pionu w wierceniach stołowych. Pozostałe wymienione narzędzia mogą wspomagać niektóre procesy, ale nie zastąpią precyzyjnych urządzeń kierunkowych. To dość częsty temat na egzaminach i naprawdę warto zapamiętać, czym się różnią poszczególne technologie i na czym polega ich praktyczne zastosowanie. Takie rozróżnienie jest podstawą rzetelnej pracy wiertnika i pozwala uniknąć niepotrzebnych problemów podczas realizacji odwiertów.

Pytanie 39

Przedstawiony wykres nazywany jest trójkątem

Ilustracja do pytania
A. Pitagorasa.
B. Pascala.
C. Casagrande´a.
D. Fereta.
Trójkąt przedstawiony na wykresie to właśnie trójkąt Fereta. Moim zdaniem, jest to jedno z najważniejszych narzędzi, jakie spotykasz w geotechnice czy inżynierii środowiska, gdy chodzi o klasyfikację gruntów niespoistych i spoistych. Trójkąt Fereta służy do określania typu gruntu na podstawie udziału procentowego trzech podstawowych frakcji: piaskowej, pylastej i iłowej. Pracując na budowie czy przy badaniu gruntu pod fundamenty, szybko docenisz ten diagram, bo pozwala ci w jeden rzut oka określić, czy masz glinę, piasek, pył czy mieszankę i jakiego rodzaju. To z kolei wpływa na decyzje dotyczące posadowienia budowli, odwodnień lub nawet doboru technologii robót ziemnych. Ważne jest, że trójkąt Fereta bazuje na normach i standardach, np. PN-EN ISO 14688-2, które jasno określają, jakie są granice poszczególnych frakcji. W praktyce, kiedy dostajesz dane z analiz sitowych i areometrycznych, po prostu zaznaczasz wyniki na tym diagramie i od razu masz odpowiedź, bez konieczności długich obliczeń. Niby proste, ale bardzo pomocne narzędzie – z mojego doświadczenia praktyczna znajomość obsługi trójkąta Fereta bardzo przyspiesza i ułatwia pracę w laboratorium czy na budowie.

Pytanie 40

Akratopegi to wody podziemne, w których zawartość minerałów mieści się w przedziale

A. 1 500 ÷ 2 000 mg/dm³
B. 500 ÷ 1 000 mg/dm³
C. 1 000 ÷ 1 500 mg/dm³
D. 100 ÷ 500 mg/dm³
Akratopegi to specyficzny rodzaj wód podziemnych, których ogólna mineralizacja mieści się w zakresie od 500 do 1000 mg/dm³. Ten przedział nie jest przypadkowy – wynika ze ściśle przyjętych kryteriów hydrogeologicznych, które stosuje się w praktyce, szczególnie przy ocenie jakości wód użytkowych i pitnych. Woda o takiej mineralizacji jest najczęściej neutralna smakowo, przez co idealnie sprawdza się nie tylko w codziennym użytkowaniu domowym, ale też w przemyśle spożywczym czy farmaceutycznym, gdzie niepożądane są zarówno zbyt wysokie, jak i zbyt niskie stężenia soli mineralnych. Moim zdaniem, bardzo ważne jest, że akratopegi są często wybierane jako źródło zaopatrzenia w wodę pitną dla większych aglomeracji miejskich, bo pozwalają uniknąć problemów z osadami czy korozją w instalacjach wodociągowych. Woda o mineralizacji poniżej 500 mg/dm³ – czyli tzw. oligocenne – bywa zbyt miękka i może powodować wypłukiwanie minerałów z organizmu, zaś powyżej 1000 mg/dm³ zaczyna się już odczuwać smak minerałów, co nie każdemu pasuje. W normach branżowych, takich jak wytyczne WHO czy polskie rozporządzenia dotyczące jakości wody do spożycia, te przedziały są bardzo jasno podkreślone. Z mojego doświadczenia, wiedza o akratopegach przydaje się nawet w takich sprawach jak dobór filtrów czy eksploatacja studni głębinowych.