Z tego artykułu dowiesz się:
- Jakie mechanizmy prowadzą do halucynacji w chatbotach AI?
- Dlaczego szkolenie modeli językowych sprzyja zgadywaniu?
- Jakie podejścia są stosowane w celu zmniejszenia liczby halucynacji w modelach językowych?
Badacze z OpenAI opisują halucynacje jako „prawdopodobne, ale fałszywe stwierdzenia generowane przez modele językowe. Mogą się one pojawiać w zaskakujący sposób, nawet w przypadku pozornie prostych pytań”. Podany przez nich przykład halucynacji dotyczy odpowiedzi na pytanie o tytuł rozprawy doktorskiej Adama Taumana Kalai, jednego ze współautorów artykułu. Zadano je „powszechnie używanemu chatbotowi”, który podał trzy różne odpowiedzi. Wszystkie błędne. Błędne były również odpowiedzi na pytanie o datę urodzin badacza. Z czego to wynika?
Halucynacje w chatbotach AI jako efekt uboczny treningu
Odpowiadając na pytanie o przyczyny halucynowania modeli językowych, badacze wskazują na powody związane ze sposobem trenowania tych modeli. „(…) modele językowe są halucynogenne, ponieważ standardowe procedury szkoleniowe i ewaluacyjne nagradzają zgadywanie bardziej niż przyznawanie się do niepewności” – czytamy w omówieniu, które trafiło właśnie na firmowego bloga OpenAI.
Autorzy podają m.in. taki przykład: „Załóżmy, że model językowy zostaje zapytany o czyjąś datę urodzin, ale nie wie, jaka to data. Jeśli zgadnie „10 września”, ma 1 do 365 szans na poprawną odpowiedź. Powiedzenie „nie wiem” gwarantuje zero punktów. Po tysiącach pytań testowych model zgadujący wypada lepiej na tablicach wyników niż model ostrożny, który dopuszcza niepewność” – tłumaczą.
Czytaj więcej
Twórcy ChatGPT zdecydowali się na nietypowy ruch – pozyskali uznanego naukowca z Harvardu i Stanf...