Wirtualni asystenci, jak Alexa i Siri, korzystają z dużych modeli językowych (LLM), które przetwarzają ogromne ilości danych wytwarzanych przez człowieka, w związku z czym mogą być podatni na te same błędy, co ludzie, od których pochodzą informacje.

Zbadano empatię sztucznej inteligencji

Naukowcy z Cornell University, Olin College i Stanford University przetestowali tę teorię, zachęcając wirtualnych asystentów do okazania empatii podczas rozmowy z około 65 bardzo różnymi typami ludzkich osobowości. Naukowcy odkryli, że właściwie asystencji dokonują ocen wartościujących na temat niektórych osób – takich jak geje i muzułmanie – i mogą zachęcać do zachowań związanych ze szkodliwymi ideologiami, w tym nazizmem. Grupa odkryła między innymi, że empatyczne wcześniejsze podpowiedzi skutkowały błędnymi reakcjami AI, w tym empatią wobec problematycznych postaw, takich jak nazizm, bez ich potępienia.

Czytaj więcej

Sztuczna inteligencja lubi kłamać. Bolesne wpadki firm

„Myślę, że zautomatyzowana empatia może mieć ogromny wpływ i ogromny potencjał w zakresie pozytywnych rzeczy – na przykład w edukacji lub sektorze opieki zdrowotnej” – powiedziała główna autorka badania Andrea Cuadra, obecnie badaczka ze stopniem doktora na Uniwersytecie Stanforda. Jej zdaniem ludzie muszą bardzo dokładnie przyglądać się AI i jej rozwojowi, by zapobiegać ewolucji wirtualnych asystentów w niewłaściwym kierunku.

Badacze odkryli, że ogólnie rzecz biorąc, duże modele językowe otrzymywały wysokie oceny za reakcje emocjonalne, ale niskie za interpretacje i poszukiwania. Innymi słowy, LLM są w stanie odpowiedzieć na zapytanie w oparciu o przyswojone dane, ale nie są w stanie sięgnąć głębiej. Co więcej LLM często nie były w stanie sobie poradzić w sytuacji, gdy nie były w stanie określić stanu osoby, z która miały do czynienia.