Z tego artykułu dowiesz się:
- Jakie wady mają duże modele językowe według naukowców z MIT?
- Dlaczego modele LLM mogą udzielać przekonujących, ale nieadekwatnych odpowiedzi?
- W jaki sposób duże modele językowe uczą się błędnie kojarzyć wzorce zdań z tematami?
- Jakie zagrożenia bezpieczeństwa mogą wynikać z błędów w odpowiedziach modeli LLM?
Badania naukowców potwierdziły, że nawet najpotężniejsze modele LLM (Large Language Models) mogą popełniać ten sam błąd. Zdarza się bowiem, że udzielają przekonujących odpowiedzi, rozpoznając znajome sformułowanie, bez zrozumienia tematu. Może to zmniejszać ich wiarygodność i stwarzać zagrożenie bezpieczeństwa.
Naukowcy ostrzegają. Na te błędy modeli LLM trzeba uważać
Jak ustalili naukowcy z MIT (Massachusetts Institute of Technology), duże modele językowe mogą nauczyć się błędnie łączyć określone wzorce zdań z konkretnymi tematami i powtarzać je, zamiast przeprowadzać rozumowanie.
Zdarza się, że odczytując pytania użytkowników, wykorzystują schematy gramatyczne, których nauczyły się podczas szkolenia i wyciągają błędne wnioski. Przez to czasami udzielają nieadekwatnych odpowiedzi.
Do szkolenia modeli LLM wykorzystywana jest ogromna ilość treści z internetu. Modele uczą się rozumieć relacje między słowami i frazami, by móc odpowiadać na pytania z różnych dziedzin. Wychwytują w tym celu wzorce często powtarzające się w częściach mowy, które są określane „szablonami składniowymi”.