Wiadomości

Zamknij

Dodaj komentarz

Ekspertka: sztuczna inteligencja może osłabiać proces uczenia się, jeśli zastępuje myślenie

PAP 06:52, 19.03.2026
Skomentuj Ekspertka: sztuczna inteligencja może osłabiać proces uczenia się, jeśli zastępuje

Ekspertka dodała, że kluczowe jest świadome korzystanie z technologii oraz zmiana sposobu oceniania w edukacji.

 

Jej zdaniem coraz więcej wyników badań wskazuje, że duże modele językowe nie zawsze sprzyjają procesowi uczenia się, zwłaszcza w przypadku osób, które nie mają jeszcze ugruntowanej wiedzy w danej dziedzinie.

 

- Wyniki badań coraz częściej sugerują, że modele językowe są nie tylko nieoptymalne dla procesu uczenia się, ale wręcz mogą mieć negatywny wpływ na rozwój wiedzy i umiejętności w przypadku osób nie mających wiedzy własnej w danej dziedzinie – powiedziała Mytnik. Dodała, że korzystanie z narzędzi generatywnej AI może prowadzić do nadmiernego polegania na technologii i w efekcie osłabiać zdolność samodzielnego rozwiązywania problemów.

 

Jak zaznaczyła, istnieje wyraźny związek między poziomem krytycznego myślenia a zależnością od narzędzi AI. - Osoby z najniższym poziomem umiejętności krytycznego myślenia są najczęściej najbardziej zależne od AI – podkreśliła.

 

Badaczka przywołała również eksperymenty z wykorzystaniem EEG (to nieinwazyjna metoda diagnostyczna pozwalająca zbadać bioelektryczną czynność mózgu), w których analizowano aktywność mózgu młodych osób piszących eseje przy wsparciu ChatGPT.

 

- Wykazały one najsłabsze wzorce połączeń neuronalnych, miały trudności z przypomnieniem sobie tego, co przed chwilą pisały, zgłaszały mniejsze poczucie własności pracy – wskazała prof. Mytnik.

 

Jednocześnie – jak dodała – wyniki badań pokazują, że inne efekty obserwuje się, gdy AI wykorzystywana jest dopiero po etapie samodzielnej pracy. - W grupie osób, która korzystała z narzędzi GenAI dopiero po etapie pracy własnej, zaobserwowano znaczny wzrost połączeń neuronalnych. Te wyniki sugerują, że ponowne zaangażowanie wspierane przez narzędzia GenAI wywołuje wysoki poziom integracji poznawczej i reaktywacji pamięci – powiedziała.

 

Prof. Mytnik zwróciła uwagę także na inne zagrożenia związane z działaniem chatbotów. - Są one tak zaprojektowane, aby były zarówno pomocne, jak i angażujące, stale oferują pochlebstwa i spełniają oczekiwania użytkowników, a to jest uzależniająca kombinacja – oceniła. W tym kontekście wskazała na zjawisko tzw. sykofancji w dużych modelach językowych, czyli tendencję systemów do bezrefleksyjnego zgadzania się z użytkownikiem.

 

- To kluczowy problem etyczny i poznawczy LLMów (LLM to model językowy wyszkolony na dużej ilości danych umożliwiający generowanie tekstu - przyp.PAP) – podkreśliła badaczka. Jak dodała, badania pokazują, że modele bardziej „uprzejme” są często jednocześnie mniej krytyczne i mniej prawdomówne.

 

Ekspertka wskazała również na rosnącą popularność platform umożliwiających tworzenie wirtualnych towarzyszy. Przywołała badania Pew Research, według których ponad połowa nastolatków w wieku 13–17 lat regularnie korzysta z platform takich jak "character.ai". Zwróciła uwagę, że badacze ostrzegają, że tego typu rozwiązania mogą zwiększać ryzyko dla zdrowia psychicznego młodych ludzi i zacierać granice między rzeczywistością a światem wirtualnym.

 

- Bądźmy świadomi tego, że jeśli w coraz większym stopniu polegamy na chatbotach, z czasem tracimy umiejętność budowania głębokich więzi z ludźmi, akceptowania odmiennych zdań i współpracy – powiedziała Mytnik.

 

Jednocześnie podkreśliła, że sztuczna inteligencja może być bardzo użytecznym wsparciem w nauce – pod warunkiem, że nie zastępuje procesu rozumienia.

 

- Chcę jasno zaznaczyć, że narzędzia AI mogą znakomicie wspierać w procesie uczenia się, wyręczać nas w wielu zadaniach, ale nie powinny zastępować procesu rozumienia i internalizacji wiedzy. Trzeba używać ich świadomie – dodała.

 

Wyjaśniła, że tworzenie trwałej wiedzy wymaga wysiłku poznawczego, polegającego na wyszukiwaniu i łączeniu informacji. - To jak wydeptywanie ścieżki w chaszczach: im więcej razy nią chodzić, tym jest trwalsza, a nieużywana zanika – obrazowo tłumaczyła.

 

Jej zdaniem delegowanie tego wysiłku na narzędzia generatywnej AI może prowadzić do zjawiska „pozornego rozumienia”.

 

- Poleganie na zewnętrznych narzędziach omija proces tworzenia i wzmacniania śladów pamięciowych prowadząc do rozumienia pozornego, mamy złudne poczucie własności procesu, ale to iluzja – podkreśliła.

 

Ekspertka wskazała jednak wiele sposobów konstruktywnego wykorzystania chatbotów w nauce. Mogą one wspierać m.in. refleksję nad własnym myśleniem, porządkowanie notatek czy symulację dialogu.

 

- Chatboty świetnie wspierają w symulacji dialogu – można pozwolić AI zagrać rolę sceptyka, który zadaje trudne pytania – powiedziała. Dodała, że studenci mogą także wykorzystywać AI do analizowania różnych perspektyw danego problemu czy do planowania powtórek materiału w oparciu o metodę rozłożonego powtarzania.

 

Zdaniem Mytnik rozwój generatywnej AI wymusza również głęboką zmianę w sposobie oceniania studentów. - Tradycyjny model oceniania skoncentrowany na efekcie końcowym traci swoją funkcję rozwojową i diagnostyczną – oceniła.

 

Jak wskazała, modele językowe potrafią generować poprawne odpowiedzi, co daje „iluzję głębokiego myślenia”, a detektory treści generowanych przez AI zawodzą. - Nie można już mieć pewności co do autorstwa – zaznaczyła.

 

Dlatego – jej zdaniem – konieczne jest przejście z oceniania samego efektu na ocenianie procesu uczenia się. - Czas na włączenie studenta do tego procesu i dodanie oceny drogi dojścia do celu, refleksji i etycznego użycia AI jako elementu procesu poznawczego – powiedziała.

 

W praktyce może to oznaczać m.in. prowadzenie przez studentów dokumentacji pracy z AI, dzienników decyzji czy refleksyjnych podsumowań.

 

Ekspertka podkreśliła również, że rola nauczyciela w erze AI ulega zmianie. - Nauczyciel przestaje być dostarczycielem informacji (…) a staje się mentorem, projektantem doświadczeń edukacyjnych, przewodnikiem w świecie (dez)informacji – powiedziała.

 

Jak zaznaczyła, mimo automatyzacji wielu zadań rola relacyjna nauczyciela pozostaje kluczowa. - GenAI może zastąpić część naszej pracy, ale nie zastąpi roli relacyjnej, która jest związana z budowaniem motywacji, procesu grupowego, poczucia bezpieczeństwa i przynależności – podkreśliła.

 

Politechnika Gdańska od kilku lat przygotowuje studentów i kadrę do pracy z generatywną AI. Uczelnia opracowała strategię „EDUxAI”, która ma wspierać odpowiedzialne i etyczne wykorzystanie technologii w edukacji.

 

- Kluczowe dla nas jest to, by nie tylko uczyć narzędzi, ale przede wszystkim uczyć myślenia o AI, odpowiedzialnego wykorzystania i umiejętności decydowania czy i kiedy użyć technologii – wyjaśniła prof. Mytnik.

 

W ramach działań uczelnia prowadzi szkolenia, kursy specjalistyczne oraz program przygotowujący nauczycieli do nowych ról w edukacji. Studenci mogą natomiast korzystać z jasnych zasad dotyczących wykorzystania AI przy pisaniu prac.

 

- Uczelnia nie zabrania korzystania z narzędzi AI w procesie uczenia się czy pisania pracy dyplomowej, ale jednocześnie mówimy o etyce, zagrożeniach i formach wsparcia – zaznaczyła badaczka.

 

Jej zdaniem kluczowe kompetencje to krytyczne myślenie – czy AI ma rację, umiejętność zadawania pytań czy metapoznanie.

 

- AI wzmacnia ekspertów. Trzeba mieć wiedzę własną, by z tego wzmocnienia AI skorzystać – podsumowała. (PAP)

 

pm/ agt/

(PAP)
Dalszy ciąg materiału pod wideo ↓

Co sądzisz na ten temat?

podoba mi się 0
nie podoba mi się 0
śmieszne 0
szokujące 0
przykre 0
wkurzające 0
Nie przegap żadnego newsa, zaobserwuj nas na
GOOGLE NEWS
facebookFacebook
twitter
wykopWykop
komentarzeKomentarze

komentarze (0)

Brak komentarza, Twój może być pierwszy.

Dodaj komentarz


Dodaj komentarz

🙂🤣😐🙄😮🙁😥😭
😠😡🤠👍👎❤️🔥💩 Zamknij

Użytkowniku, pamiętaj, że w Internecie nie jesteś anonimowy. Ponosisz odpowiedzialność za treści zamieszczane na portalu zawiercie365.pl. Dodanie opinii jest równoznaczne z akceptacją Regulaminu portalu. Jeśli zauważyłeś, że któraś opinia łamie prawo lub dobry obyczaj - powiadom nas [email protected] lub użyj przycisku Zgłoś komentarz

OSTATNIE KOMENTARZE

0%