Reklama

Naukowcy odkryli nową wadę AI. Robi zaskakujące błędy

Naukowcy z MIT odkryli wadę dużych modeli językowych (LLM), która powoduje, że są one mniej wiarygodne. Udzielając odpowiedzi użytkownikom, mogą powtarzać wyuczone wzorce, zamiast faktycznie zrozumieć pytanie.

Publikacja: 01.12.2025 18:51

Naukowcy z MIT odkryli wadę modeli LLM, która sprawia, że są mniej wiarygodne

Naukowcy z MIT odkryli wadę modeli LLM, która sprawia, że są mniej wiarygodne

Foto: Adobe Stock

Z tego artykułu dowiesz się:

  • Jakie wady mają duże modele językowe według naukowców z MIT?
  • Dlaczego modele LLM mogą udzielać przekonujących, ale nieadekwatnych odpowiedzi?
  • W jaki sposób duże modele językowe uczą się błędnie kojarzyć wzorce zdań z tematami?
  • Jakie zagrożenia bezpieczeństwa mogą wynikać z błędów w odpowiedziach modeli LLM?

Badania naukowców potwierdziły, że nawet najpotężniejsze modele LLM (Large Language Models) mogą popełniać ten sam błąd. Zdarza się bowiem, że udzielają przekonujących odpowiedzi, rozpoznając znajome sformułowanie, bez zrozumienia tematu. Może to zmniejszać ich wiarygodność i stwarzać zagrożenie bezpieczeństwa.

Naukowcy ostrzegają. Na te błędy modeli LLM trzeba uważać

Jak ustalili naukowcy z MIT (Massachusetts Institute of Technology), duże modele językowe mogą nauczyć się błędnie łączyć określone wzorce zdań z konkretnymi tematami i powtarzać je, zamiast przeprowadzać rozumowanie.

Zdarza się, że odczytując pytania użytkowników, wykorzystują schematy gramatyczne, których nauczyły się podczas szkolenia i wyciągają błędne wnioski. Przez to czasami udzielają nieadekwatnych odpowiedzi.

Do szkolenia modeli LLM wykorzystywana jest ogromna ilość treści z internetu. Modele uczą się rozumieć relacje między słowami i frazami, by móc odpowiadać na pytania z różnych dziedzin. Wychwytują w tym celu wzorce często powtarzające się w częściach mowy, które są określane „szablonami składniowymi”.

Reklama
Reklama

„Na przykład w sferze wiadomości istnieje określony styl pisania. Zatem model uczy się nie tylko semantyki, ale także podstawowej struktury tego, jak należy układać zdania, aby wpasować się w określony styl danej dziedziny” – wyjaśnia Chantal Shaib, współautorka badań z MIT i Northeastern University.

Czytaj więcej

Co dziesiąty wystąp! Badacze MIT ujawniają, ilu pracowników już dziś może zastąpić AI

Ponieważ modele LLM uczą się kojarzyć szablony składniowe z określonymi dziedzinami, mogą w związku z tym niepoprawnie opierać się wyłącznie na tym wyuczonym skojarzeniu, zamiast na dokładnym zrozumieniu pytania.

Przykładowo mogą nauczyć się, że pytanie takie jak „Gdzie jest położony Paryż?” (“Where is Paris located?”) ma w języku angielskim strukturę: przysłówek/czasownik/rzeczownik/czasownik. W konsekwencji model LLM może kojarzyć ten szablon składniowy z pytaniami dotyczącymi krajów. Jeśli

Skąd biorą się błędy w odpowiedziach modeli LLM? Wnioski naukowców

Naukowcy zbadali to zjawisko, prowadząc różnego rodzaju eksperymenty, w których w danych treningowych modelu dla każdej dziedziny pojawiał się tylko jeden szablon składniowy. Słowa zastępowano synonimami, antonimami lub losowymi wyrazami, zachowując tę samą składnię. W każdym przypadku modele LLM często odpowiadały według wyuczonych schematów, nawet jeśli pytanie było kompletnym nonsensem. Kiedy zmieniali strukturę tego samego pytania, używając nowego wzorca części mowy, modele LLM w wielu przypadkach nie były w stanie udzielić poprawnej odpowiedzi, mimo że podstawowe znaczenie pytania pozostało takie samo.

Zespół użył tej metody do przetestowania wstępnie przeszkolonych modeli LLM, takich jak GPT-4 i Llama i odkrył, że tego typu zachowanie znacząco obniżyło ich wydajność.

Reklama
Reklama

Czytaj więcej

Wygenerowali zdjęcie nagiej koleżanki. Organy ścigania: to nie było przestępstwo

„To przeoczony typ skojarzenia, którego model uczy się, aby poprawnie odpowiadać na pytania. Powinniśmy zwracać większą uwagę nie tylko na semantykę, ale także na składnię danych, których używamy do szkolenia naszych modeli” – mówi Chantal Shaib, współautorka badań.

Według naukowców tego typu wada może zmniejszać niezawodność modeli LLM, które wykonują zadania takie jak obsługa zapytań klientów, podsumowywanie notatek klinicznych czy generowanie raportów finansowych.

Jakie zagrożenie niosą błędy modeli LLM? Jak im zaradzić?

Jak się okazało, błędne odczytywanie zapytań może również stwarzać zagrożenia bezpieczeństwa. Badacze sprawdzili, czy ktoś mógłby wykorzystać tę wadę, by wywołać szkodliwe odpowiedzi w modelu LLM, który został celowo przeszkolony do odrzucania takich żądań.

Naukowcy odkryli, że poprzez sformułowanie pytania przy użyciu szablonu składniowego, który model kojarzy z „bezpiecznym” zbiorem danych, mogli oszukać model, aby zignorował swoją politykę odmowy i wygenerował szkodliwe treści.

Czytaj więcej

Oto największy beneficjent boomu AI. Nie są to wcale big techy
Reklama
Reklama

Jest to produkt uboczny sposobu szkolenia modeli, ale modele są obecnie używane w praktyce w krytycznych dla bezpieczeństwa dziedzinach, znacznie wykraczających poza zadania, które stworzyły te składniowe tryby awarii. Jeśli nie jesteś zaznajomiony ze szkoleniem modeli, prawdopodobnie będzie to zaskoczeniem” – mówi Marzyeh Ghassemi, z Instytutu Elektrotechniki i Informatyki MIT, autorka badania.

Po zidentyfikowaniu tego zjawiska i zbadaniu jego implikacji, naukowcy opracowali procedurę testowania porównawczego (benchmarking), która ma oceniać zależność modelu od tych niepoprawnych korelacji. Procedura ta mogłaby pomóc programistom w łagodzeniu problemu przed wdrożeniem modeli LLM.

„Dzięki tej pracy jest dla mnie jasne, że potrzebujemy bardziej solidnych mechanizmów obronnych, aby przeciwdziałać lukom bezpieczeństwa w modelach LLM. W tym artykule zidentyfikowaliśmy nową prawidłowość wynikającą ze sposobu, w jaki modele LLM się uczą. Dlatego musimy wymyślić nowe zabezpieczenia w oparciu o to, jak modele LLM uczą się języka, a nie tylko doraźne rozwiązania dla różnych luk” – mówi Vinith Suriyakumar, student MIT, współautor badania.

Z tego artykułu dowiesz się:

  • Jakie wady mają duże modele językowe według naukowców z MIT?
  • Dlaczego modele LLM mogą udzielać przekonujących, ale nieadekwatnych odpowiedzi?
  • W jaki sposób duże modele językowe uczą się błędnie kojarzyć wzorce zdań z tematami?
  • Jakie zagrożenia bezpieczeństwa mogą wynikać z błędów w odpowiedziach modeli LLM?
Pozostało jeszcze 94% artykułu

Badania naukowców potwierdziły, że nawet najpotężniejsze modele LLM (Large Language Models) mogą popełniać ten sam błąd. Zdarza się bowiem, że udzielają przekonujących odpowiedzi, rozpoznając znajome sformułowanie, bez zrozumienia tematu. Może to zmniejszać ich wiarygodność i stwarzać zagrożenie bezpieczeństwa.

Naukowcy ostrzegają. Na te błędy modeli LLM trzeba uważać

Pozostało jeszcze 94% artykułu
Reklama
Technologie
To koniec pracy ludzi na liniach produkcyjnych. Ten koncern zamieni ich na humanoidy
Technologie
To rewolucja w stoczniach. Niezwykle wytrzymały kadłub z drukarki 3D gotowy w cztery dni
Technologie
Co dziesiąty wystąp! Badacze MIT ujawniają, ilu pracowników już dziś może zastąpić AI
Technologie
Konkurs na technologiczne słowo roku rozstrzygnięty. Silne piętno AI
Materiał Promocyjny
Startupy poszukiwane — dołącz do Platform startowych w Polsce Wschodniej i zyskaj nowe możliwości!
Technologie
ChatGPT wkracza na nowe tereny. Rzuca wyzwanie Amazonowi i Google
Materiał Promocyjny
Nowa era budownictwa: roboty w służbie ludzi i środowiska
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama