Wirtualni asystenci, jak Alexa i Siri, korzystają z dużych modeli językowych (LLM), które przetwarzają ogromne ilości danych wytwarzanych przez człowieka, w związku z czym mogą być podatni na te same błędy, co ludzie, od których pochodzą informacje.
Zbadano empatię sztucznej inteligencji
Naukowcy z Cornell University, Olin College i Stanford University przetestowali tę teorię, zachęcając wirtualnych asystentów do okazania empatii podczas rozmowy z około 65 bardzo różnymi typami ludzkich osobowości. Naukowcy odkryli, że właściwie asystencji dokonują ocen wartościujących na temat niektórych osób – takich jak geje i muzułmanie – i mogą zachęcać do zachowań związanych ze szkodliwymi ideologiami, w tym nazizmem. Grupa odkryła między innymi, że empatyczne wcześniejsze podpowiedzi skutkowały błędnymi reakcjami AI, w tym empatią wobec problematycznych postaw, takich jak nazizm, bez ich potępienia.
Czytaj więcej
Bot wprowadzony przez Nowy Jork doradzał firmom łamanie prawa, zaś AI firmy kurierskiej DPD naśmi...
„Myślę, że zautomatyzowana empatia może mieć ogromny wpływ i ogromny potencjał w zakresie pozytywnych rzeczy – na przykład w edukacji lub sektorze opieki zdrowotnej” – powiedziała główna autorka badania Andrea Cuadra, obecnie badaczka ze stopniem doktora na Uniwersytecie Stanforda. Jej zdaniem ludzie muszą bardzo dokładnie przyglądać się AI i jej rozwojowi, by zapobiegać ewolucji wirtualnych asystentów w niewłaściwym kierunku.
Badacze odkryli, że ogólnie rzecz biorąc, duże modele językowe otrzymywały wysokie oceny za reakcje emocjonalne, ale niskie za interpretacje i poszukiwania. Innymi słowy, LLM są w stanie odpowiedzieć na zapytanie w oparciu o przyswojone dane, ale nie są w stanie sięgnąć głębiej. Co więcej LLM często nie były w stanie sobie poradzić w sytuacji, gdy nie były w stanie określić stanu osoby, z która miały do czynienia.