Reklama

AI wymyśla fakty? Twórcy ChatGPT wyjaśniają halucynacje i sposób walki z nimi

Chatboty odpowiadają na pytania nawet wtedy, gdy w gruncie rzeczy jej nie znają. Są jak uczniowie, którzy „strzelają” podczas testów, bo wiedzą, że to bardziej racjonalne rozwiązanie, niż brak odpowiedzi. Skalę halucynacji da się jednak zmniejszyć.

Publikacja: 10.09.2025 18:13

Halucynacje chatbotów AI wynikają bezpośrednio ze sposobów trenowania modeli językowych. Da się jedn

Halucynacje chatbotów AI wynikają bezpośrednio ze sposobów trenowania modeli językowych. Da się jednak zmniejszyć ich skalę - uważają badacze z OpenAI

Foto: Adobe Stock

Z tego artykułu dowiesz się:

  • Jakie mechanizmy prowadzą do halucynacji w chatbotach AI?
  • Dlaczego szkolenie modeli językowych sprzyja zgadywaniu?
  • Jakie podejścia są stosowane w celu zmniejszenia liczby halucynacji w modelach językowych?

Badacze z OpenAI opisują halucynacje jako „prawdopodobne, ale fałszywe stwierdzenia generowane przez modele językowe. Mogą się one pojawiać w zaskakujący sposób, nawet w przypadku pozornie prostych pytań”. Podany przez nich przykład halucynacji dotyczy odpowiedzi na pytanie o tytuł rozprawy doktorskiej Adama Taumana Kalai, jednego ze współautorów artykułu. Zadano je „powszechnie używanemu chatbotowi”, który podał trzy różne odpowiedzi. Wszystkie błędne. Błędne były również odpowiedzi na pytanie o datę urodzin badacza. Z czego to wynika?

Halucynacje w chatbotach AI jako efekt uboczny treningu

Odpowiadając na pytanie o przyczyny halucynowania modeli językowych, badacze wskazują na powody związane ze sposobem trenowania tych modeli. „(…) modele językowe są halucynogenne, ponieważ standardowe procedury szkoleniowe i ewaluacyjne nagradzają zgadywanie bardziej niż przyznawanie się do niepewności” – czytamy w omówieniu, które trafiło właśnie na firmowego bloga OpenAI.

Autorzy podają m.in. taki przykład: „Załóżmy, że model językowy zostaje zapytany o czyjąś datę urodzin, ale nie wie, jaka to data. Jeśli zgadnie „10 września”, ma 1 do 365 szans na poprawną odpowiedź. Powiedzenie „nie wiem” gwarantuje zero punktów. Po tysiącach pytań testowych model zgadujący wypada lepiej na tablicach wyników niż model ostrożny, który dopuszcza niepewność” – tłumaczą.

Czytaj więcej

OpenAI zatrudnia wybitnego neurobiologa z Harvardu. Chce przełomów w AI i w medycynie
Reklama
Reklama

Co dziś robią firmy, żeby zmniejszyć skalę halucynacji w modelach językowych?

OpenAI wyjaśnia, że jedną z metod stosowaną do zmniejszenia liczby halucynacji jest „karanie za błędy wynikające z pewności siebie” (czyli za błędy wynikające z podawania odpowiedzi, które są efektem „zgadywania”, a nie wiedzy). „Ta koncepcja nie jest nowa. Niektóre testy standaryzowane od dawna stosują wersje z ujemnym punktowaniem za błędne odpowiedzi lub częściowym punktowaniem za pozostawienie pustych pytań, aby zniechęcić do zgadywania na ślepo” – czytamy.

Według badaczy OpenAI takie podejście nie rozwiązuje jednak problemu. „Nie wystarczy dodać kilka nowych testów uwzględniających niepewność. Powszechnie stosowane testy oparte na dokładności muszą zostać zaktualizowane, aby ich punktacja zniechęcała do zgadywania” – wyjaśniają. „Jeśli główne tablice wyników będą nadal nagradzać trafne zgadywanie, modele będą się uczyć zgadywania. Poprawianie tablic wyników może zwiększyć popularność technik redukcji halucynacji, zarówno nowo opracowanych, jak i tych z wcześniejszych badań” – czytamy.

Czytaj więcej

ChatGPT zrobił z Norwega mordercę własnych dzieci. Dlaczego AI halucynuje?

Halucynacje to nieodłączna cecha modeli językowych?

Badacze starają się też odpowiedzieć na pytanie, dlaczego ryzyko halucynacji jest związane bezpośrednio z mechanizmami stojącymi za generowaniem treści przez modele językowe. „Modele językowe uczą się najpierw poprzez wstępne trenowanie, czyli proces przewidywania kolejnego słowa w ogromnej ilości tekstu. W przeciwieństwie do tradycyjnych problemów uczenia maszynowego, do każdego stwierdzenia nie są przypisywane etykiety „prawda/fałsz”. Model rozpoznaje tylko pozytywne przykłady płynnego języka i musi aproksymować rozkład ogólny” – wyjaśniają.

Dalej czytamy: „Podwójnie trudno odróżnić stwierdzenia prawidłowe od niepoprawnych, gdy nie ma żadnych przykładów oznaczonych jako nieprawidłowe. Ale nawet z etykietami, pewne błędy są nieuniknione” – dodają.

W idealnej sytuacji błędy będące wynikiem wstępnego treningu powinny być eliminowane na kolejnych etapach. Praktyka pokazuje jednak, że nie są, ponieważ modele językowe są „rozliczane” z efektywności, a nie umiejętności „przyznania się” do niewiedzy.

Z tego artykułu dowiesz się:

  • Jakie mechanizmy prowadzą do halucynacji w chatbotach AI?
  • Dlaczego szkolenie modeli językowych sprzyja zgadywaniu?
  • Jakie podejścia są stosowane w celu zmniejszenia liczby halucynacji w modelach językowych?

Pozostało jeszcze 95% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Technologie
OpenAI zatrudnia wybitnego neurobiologa z Harvardu. Chce przełomów w AI i w medycynie
Psychologia
OpenAI wprowadza nowe funkcje w ChatGPT. To odpowiedź na pozew przeciwko gigantowi AI?
Technologie
Tajemnicze obiekty w oceanie. Marynarka USA: „To nie nasza technologia”
Technologie
Nowy Concorde. W trzy godziny przez Atlantyk jeszcze w 2029 roku
Technologie
AI może pozbawić pracy 99 proc. pracowników w 5 lat. „Nie ma planu B”
Reklama
Reklama