Nowa fala badań nad sztuczną inteligencją próbuje odpowiedzieć na jedno z najstarszych pytań psychologii: czy ludzki umysł można opisać za pomocą jednej, spójnej teorii. Od dziesięcioleci psychologowie debatują nad kluczową kwestią: czy ludzki umysł da się wyjaśnić jedną, zunifikowaną teorią, czy też procesy takie jak pamięć, uwaga i podejmowanie decyzji muszą być badane jako odrębne systemy?
Czytaj więcej
ChatGPT potrafi brzmieć przekonująco, ale nowe badanie pokazuje, że ma poważne problemy z odróżnianiem prawdy od fałszu. Naukowcy wskazują na błędy...
Dziś pytanie to wraca w nowym kontekście – informuje portal SciTechDaily. Postępy w dziedzinie sztucznej inteligencji oferują badaczom nowe narzędzie do sprawdzania, czym tak naprawdę jest „rozumienie”.
Modele językowe AI mają myśleć jak ludzie
W lipcu 2025 r. w czasopiśmie „Nature” opublikowano badanie przedstawiające model AI nazwany „Centaur”. Zbudowany na bazie istniejących dużych modeli językowych i dopracowany przy użyciu danych z eksperymentów psychologicznych, system miał naśladować sposób, w jaki ludzie myślą i podejmują decyzje.
Czytaj więcej:
Miały świetnie operować polskim słowem, znać niuanse językowe i historyczne. Rodzima chluba w świecie sztucznej inteligencji – Bielik i PLLum – pol...
Pro
Według jego twórców Centaur potrafił odtwarzać ludzkie reakcje w 160 różnych zadaniach poznawczych, obejmujących m.in. kontrolę wykonawczą i zachowania decyzyjne. Wyniki te uznano za potencjalny przełom, sugerujący, że AI może zacząć przybliżać się do ogólnego modelu ludzkiego poznania.
Model Centaur mniej „ludzki”, niż zakładano
Jednak nowsze badanie opublikowane w „National Science Open” podważa te wnioski. Naukowcy z Uniwersytetu Zhejiang twierdzą, że pozorna „zdolność symulacji ludzkiego poznania” Centaura wynika najprawdopodobniej z przeuczenia (overfittingu), czyli zapamiętania wzorców z danych treningowych, a nie rzeczywistego zrozumienia zadań.
Aby to sprawdzić, zespół przeprowadził kilka eksperymentów. W jednym z nich zastąpiono oryginalne pytania wielokrotnego wyboru, opisujące konkretne zadania psychologiczne, prostą instrukcją: „Proszę wybrać odpowiedź A”. Gdyby model rzeczywiście rozumiał zadanie, powinien za każdym razem wskazywać odpowiedź A. Tymczasem Centaur nadal generował te same „poprawne odpowiedzi”, które występowały w oryginalnym zbiorze danych.
Czytaj więcej
Rynek autonomicznych agentów AI rośnie w siłę. Swoje projekty ogłosili właśnie Perplexity oraz Elon Musk. Ten ostatni dzięki fuzji swojej spółki mo...
Naukowcy są przekonani, że takie zachowanie sugeruje, iż model nie interpretuje znaczenia pytań. Zamiast tego opiera się na statystycznych zależnościach, podobnie jak uczeń, który osiąga dobre wyniki dzięki rozpoznawaniu schematów, ale bez faktycznego zrozumienia materiału.
Portal SciTechDaily wskazuje, że wyniki te pokazują, jak ważna jest bardziej rygorystyczna ocena dużych modeli językowych. Choć systemy te bardzo dobrze dopasowują się do wzorców w danych, ich „czarna skrzynka” sprawia, że są podatne na błędy, takie jak halucynacje czy błędna interpretacja.
Czytaj więcej
Były główny badacz sztucznej inteligencji w firmie Meta zdobył potężne wsparcie od inwestorów. Jego nowy start-up, zamiast skupiać się na języku, s...
Mimo że Centaur opisywany jest jako system „symulujący procesy poznawcze”, jego największą słabością okazuje się rozumienie języka, a zwłaszcza zdolność uchwycenia intencji stojącej za pytaniami. Badanie sugeruje, że osiągnięcie prawdziwego rozumienia języka pozostaje jednym z największych wyzwań w tworzeniu ogólnych modeli poznawczych.
Czym jest model językowy Centaur AI
Centaur, model sztucznej inteligencji stworzony przez naukowców z Niemiec, USA i Wielkiej Brytanii, miał z powodzeniem symulować ludzkie zachowania w szerokim zakresie zadań i sytuacji. Jego podstawą jest jeden z najnowocześniejszych dużych modeli językowych (LLM)– Llama, opracowany przez firmę Meta.
Czytaj więcej
Naukowcy odkryli, że ludzki mózg rozumie mowę w sposób zaskakująco podobny do zaawansowanych systemów sztucznej inteligencji. Badacze znaleźli nieo...
Twórcy modelu twierdzili, że bardzo dobrze radzi sobie on z prognozowaniem. Jego przewidywania okazały się statystycznie trafniejsze niż te generowane przez najlepsze dotychczasowe modele kognitywne.
Jeszcze lepiej radził sobie w testach generalizacji, czyli zdolności do radzenia sobie z nowymi sytuacjami. Naukowcy zapewniali, że potrafi z powodzeniem przewidywać ludzkie wybory nawet w zmodyfikowanych wersjach eksperymentów, których nie było w jego danych treningowych.