Reklama
Rozwiń
Reklama

AI niszczy samodzielne myślenie? Naukowcy biją na alarm

Sztuczna inteligencja wyręcza nas w coraz większej liczbie zadań. Eksperci ostrzegają jednak, że może to prowadzić do mniejszego zaangażowania mózgu i osłabienia krytycznego myślenia. Czy AI robi nas „leniwymi umysłowo”?

Publikacja: 25.12.2025 11:39

Czy boty AI tylko zwiększają ludzkie możliwości? Mogą też szkodzić

Czy boty AI tylko zwiększają ludzkie możliwości? Mogą też szkodzić

Foto: Adobe Stock

Z tego artykułu dowiesz się:

  • W jaki sposób może sztuczna inteligencja wpływać na samodzielność myślenia?
  • Jakie wyniki badań przedstawiono w MIT dotyczących użycia ChatGPT przez studentów?
  • Jakie obawy dotyczące edukacji z AI przedstawia prof. Wayne Holmes z University College London?
  • Dlaczego ważne jest rozumienie zasad działania AI i weryfikowanie jej wyników?

Massachusetts Institute of Technology (MIT) opublikował w tym roku badanie, z którego wynika, że osoby korzystające z ChatGPT do pisania esejów wykazywały mniejszą aktywność w sieciach mózgowych odpowiedzialnych za przetwarzanie poznawcze. Miały one również większe trudności z cytowaniem własnych tekstów niż uczestnicy, którzy nie używali chatbota AI. Zdaniem badaczy wyniki wskazują na „pilną potrzebę zbadania możliwego spadku zdolności uczenia się”.

Mózg na autopilocie. Co pokazują badania?

W badaniu wzięło udział 54 studentów z MIT i pobliskich uczelni, a aktywność ich mózgów rejestrowano za pomocą EEG. Uczestnicy wykorzystywali AI m.in. do streszczania tematów wypracowań, wyszukiwania źródeł oraz poprawy gramatyki i stylu. Narzędzie było także używane do generowania pomysłów, choć część badanych oceniała jego skuteczność w tym zakresie jako ograniczoną.

Czytaj więcej

AI osłabia umiejętności lekarzy? O badaniu z Polski rozpisują się światowe media

Podobne wnioski przyniosło oddzielne badanie Carnegie Mellon University i Microsoftu, dotyczące pracowników umysłowych regularnie korzystających z AI w pracy. Analiza 900 zadań wykazała, że im większa była wiara w możliwości narzędzia, tym mniejszy wysiłek wkładano w myślenie krytyczne. Naukowcy ostrzegli, że choć generatywna AI zwiększa wydajność, może jednocześnie osłabiać samodzielne rozwiązywanie problemów.

Reklama
Reklama

Z kolei badanie Oxford University Press przeprowadzone wśród uczniów w Wielkiej Brytanii pokazało, że sześciu na dziesięciu respondentów uważa, iż AI negatywnie wpłynęła na ich umiejętności szkolne. Dr Alexandra Tomescu z OUP podkreśla jednak, że obraz nie jest jednoznaczny – dziewięciu na dziesięciu uczniów deklaruje rozwój co najmniej jednej kompetencji dzięki AI, choć około jedna czwarta przyznaje, że technologia zbyt ułatwiała im wykonywanie zadań.

Dodaje również, że wielu uczniów oczekuje lepszych wskazówek dotyczących korzystania z AI. ChatGPT, który – według szefa firmy OpenAI Sama Altmana – ma ponad 800 milionów aktywnych użytkowników tygodniowo, opublikował zestaw 100 promptów dla studentów, mających pomóc w jak najlepszym wykorzystaniu technologii.

Gdy AI myśli za nas – spadek krytycznego zaangażowania

Jednak prof. Wayne Holmes, badacz krytycznych studiów nad sztuczną inteligencją i edukacją na University College London (UCL), przekonuje w rozmowie z BBC, że potrzeba znacznie więcej badań akademickich nad wpływem narzędzi AI na uczenie się, zanim uczniowie i studenci będą zachęcani do ich używania. Jak mówi: „Obecnie nie istnieją niezależne, szeroko zakrojone dowody na skuteczność tych narzędzi w edukacji, na ich bezpieczeństwo ani nawet na to, że mają pozytywny wpływ”.

Prof. Holmes wskazuje na badania dotyczące atrofii poznawczej – zjawiska, w którym zdolności i umiejętności pogarszają się po korzystaniu z AI. Zwraca uwagę, że był to problem m.in. wśród radiologów używających narzędzi AI do interpretacji zdjęć rentgenowskich przed postawieniem diagnozy. Badanie Harvard Medical School opublikowane w zeszłym roku wykazało, że wsparcie AI poprawiło wyniki części lekarzy, ale zaszkodziło innym – z powodów, których badacze do końca nie rozumieją.

Czytaj więcej

Ciemna strona AI w medycynie. Eksperci ostrzegają: Pacjenci mogą stracić

Autorzy wezwali do dalszych badań nad interakcją ludzi z AI, aby znaleźć sposoby korzystania z narzędzi, które „wzmacniają ludzkie możliwości zamiast im szkodzić”. Prof. Holmes obawia się, że uczniowie – zarówno w szkołach, jak i na uniwersytetach – mogą stać się zbyt zależni od AI i nie rozwinąć podstawowych umiejętności, które powinna zapewniać edukacja.

Reklama
Reklama

Wypracowanie studenta może dostać lepszą ocenę dzięki pomocy AI, ale pytanie brzmi, czy student rzeczywiście rozumie więcej. Jak ujął to prof. Holmes: „Rezultaty są lepsze, ale nauka – gorsza”.

Narzędzie czy zagrożenie? Jak mądrze korzystać z AI w edukacji

Jayna Devani, odpowiedzialna za międzynarodową edukację w OpenAI – firmie stojącej za ChatGPT – i współtwórczyni umowy z Uniwersytetem Oksfordzkim, przyznaje, że firma jest „bardzo świadoma tej debaty”. W rozmowie z BBC mówi: „Zdecydowanie nie uważamy, że studenci powinni używać ChatGPT do zlecania pracy”. Jej zdaniem najlepiej traktować go jak korepetytora, a nie dostawcę gotowych odpowiedzi.

Podaje przykład studenta prowadzącego dialog z ChatGPT w trybie nauki. Student wpisuje pytanie, z którym ma trudność, a chatbot rozkłada je na części i pomaga je zrozumieć. – Jeśli masz prezentację do przygotowania i jest północ, nie wyślesz maila do swojego wykładowcy z prośbą o pomoc” – mówi. – „Uważam, że potencjał ChatGPT do przyspieszania nauki jest ogromny, o ile jest używany w ukierunkowany sposób” – mówi.

Prof. Holmes podkreśla jednak, że każdy student korzystający z AI powinien rozumieć, jak działa jej rozumowanie i w jaki sposób firmy przetwarzają dane. Zaznacza też, że wyniki zawsze należy weryfikować. „To nie jest po prostu kolejna wersja kalkulatora” – mówi, opisując dalekosiężne możliwości i konsekwencje AI. – Nigdy nie mówię studentom: nie używajcie AI. Staram się raczej powiedzieć: musimy to wszystko zrozumieć, żebyście mogli podejmować świadome decyzje.

Technologie
Rusza nowy polski chatbot. To początek prawdziwej rewolucji
Technologie
Straż graniczna USA sięgnęła po nową broń. Nielegalni imigranci muszą szukać nowych dróg
Technologie
Sztuczna inteligencja w medycynie wykazuje uprzedzenia. Nowe badania z Harvardu
Technologie
Na ADHD kamizelka z AI. Zaskakujący projekt naukowców z Hongkongu
Technologie
5G, AI, metaverse i cyfrowe bliźniaki: technologie, które dziś zmieniają biznes
Materiał Promocyjny
W kierunku zrównoważonej przyszłości – konkretne działania
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama