Nowa fala badań nad sztuczną inteligencją próbuje odpowiedzieć na jedno z najstarszych pytań psychologii: czy ludzki umysł można opisać za pomocą jednej, spójnej teorii. Od dziesięcioleci psychologowie debatują nad kluczową kwestią: czy ludzki umysł da się wyjaśnić jedną, zunifikowaną teorią, czy też procesy takie jak pamięć, uwaga i podejmowanie decyzji muszą być badane jako odrębne systemy?

Czytaj więcej

AI nie odróżnia prawdy od fałszu? Wyniki badania zaskakują

Dziś pytanie to wraca w nowym kontekście – informuje portal SciTechDaily. Postępy w dziedzinie sztucznej inteligencji oferują badaczom nowe narzędzie do sprawdzania, czym tak naprawdę jest „rozumienie”.

Modele językowe AI mają myśleć jak ludzie

W lipcu 2025 r. w czasopiśmie „Nature” opublikowano badanie przedstawiające model AI nazwany „Centaur”. Zbudowany na bazie istniejących dużych modeli językowych i dopracowany przy użyciu danych z eksperymentów psychologicznych, system miał naśladować sposób, w jaki ludzie myślą i podejmują decyzje.

Czytaj więcej:

Raporty ekonomiczne Szokujące wyniki testu AI. Polskie modele daleko za Google i Chinami

Pro

Według jego twórców Centaur potrafił odtwarzać ludzkie reakcje w 160 różnych zadaniach poznawczych, obejmujących m.in. kontrolę wykonawczą i zachowania decyzyjne. Wyniki te uznano za potencjalny przełom, sugerujący, że AI może zacząć przybliżać się do ogólnego modelu ludzkiego poznania.

Model Centaur mniej „ludzki”, niż zakładano

Jednak nowsze badanie opublikowane w „National Science Open” podważa te wnioski. Naukowcy z Uniwersytetu Zhejiang twierdzą, że pozorna „zdolność symulacji ludzkiego poznania” Centaura wynika najprawdopodobniej z przeuczenia (overfittingu), czyli zapamiętania wzorców z danych treningowych, a nie rzeczywistego zrozumienia zadań.

Aby to sprawdzić, zespół przeprowadził kilka eksperymentów. W jednym z nich zastąpiono oryginalne pytania wielokrotnego wyboru, opisujące konkretne zadania psychologiczne, prostą instrukcją: „Proszę wybrać odpowiedź A”. Gdyby model rzeczywiście rozumiał zadanie, powinien za każdym razem wskazywać odpowiedź A. Tymczasem Centaur nadal generował te same „poprawne odpowiedzi”, które występowały w oryginalnym zbiorze danych.

Czytaj więcej

Elon Musk uruchomi „cyfrowego Optimusa”. Uderzenie w Microsoft

Naukowcy są przekonani, że takie zachowanie sugeruje, iż model nie interpretuje znaczenia pytań. Zamiast tego opiera się na statystycznych zależnościach, podobnie jak uczeń, który osiąga dobre wyniki dzięki rozpoznawaniu schematów, ale bez faktycznego zrozumienia materiału.

Portal SciTechDaily wskazuje, że wyniki te pokazują, jak ważna jest bardziej rygorystyczna ocena dużych modeli językowych. Choć systemy te bardzo dobrze dopasowują się do wzorców w danych, ich „czarna skrzynka” sprawia, że są podatne na błędy, takie jak halucynacje czy błędna interpretacja.

Czytaj więcej

Nowa europejska AI ma rozumieć świat. Miliard dolarów dla rywala ChatGPT

Mimo że Centaur opisywany jest jako system „symulujący procesy poznawcze”, jego największą słabością okazuje się rozumienie języka, a zwłaszcza zdolność uchwycenia intencji stojącej za pytaniami. Badanie sugeruje, że osiągnięcie prawdziwego rozumienia języka pozostaje jednym z największych wyzwań w tworzeniu ogólnych modeli poznawczych.

Czym jest model językowy Centaur AI

Centaur, model sztucznej inteligencji stworzony przez naukowców z Niemiec, USA i Wielkiej Brytanii, miał z powodzeniem symulować ludzkie zachowania w szerokim zakresie zadań i sytuacji. Jego podstawą jest jeden z najnowocześniejszych dużych modeli językowych (LLM)– Llama, opracowany przez firmę Meta.

Czytaj więcej

Ludzki mózg przypomina AI bardziej, niż myśleliśmy. Badacze pokazują dowody

Twórcy modelu twierdzili, że bardzo dobrze radzi sobie on z prognozowaniem. Jego przewidywania okazały się statystycznie trafniejsze niż te generowane przez najlepsze dotychczasowe modele kognitywne.

Jeszcze lepiej radził sobie w testach generalizacji, czyli zdolności do radzenia sobie z nowymi sytuacjami. Naukowcy zapewniali, że potrafi z powodzeniem przewidywać ludzkie wybory nawet w zmodyfikowanych wersjach eksperymentów, których nie było w jego danych treningowych.