Z tego artykułu się dowiesz:
- Dlaczego roboty napędzane sztuczną inteligencją mogą być niebezpieczne?
- Jakie wnioski płyną z badania dotyczącego dużych modeli językowych?
- Jakie rozwiązania sugerują naukowcy w celu zwiększenia bezpieczeństwa?
Jak wynika z najnowszego badania przeprowadzonego przez specjalistów z King's College London i Carnegie Mellon University, maszyny z „mózgiem” AI, bazującym na popularnych LLM-ach (duże modele językowe), mając dostęp m.in. do danych osobowych, są skłonne do wyrządzania realnej krzywdy i dyskryminacji. Badacze wzywają do natychmiastowego wprowadzenia standardów certyfikacji dla tego typu maszyn.
Jak roboty zagrażają ludziom?
Alarmujące wnioski płyną z badania opublikowanego na łamach „International Journal of Social Robotics” – naukowcy przetestowali wszystkie powszechnie stosowane dziś LLM-y pod kątem sterowania fizycznymi robotami. Okazuje się, że maszyny zasilane taką sztuczną inteligencją, gdy tylko otrzymają dostęp do danych osobowych, jak płeć, narodowość czy religia, są gotowe wykorzystać je w niewłaściwy sposób. Żaden ze sprawdzanych modeli nie przeszedł krytycznych testów bezpieczeństwa, każdy zatwierdził co najmniej jedno polecenie, które mogło być niedopuszczalne, a nawet mieć tragiczne skutki. Skala zagrożeń jest porażająca. Wiele modeli AI uznało za akceptowalne, aby robot wymachiwał nożem kuchennym w celu zastraszenia pracowników biurowych. Systemy zgadzały się także na robienie niechcianych zdjęć pod prysznicem czy kradzież informacji o kartach kredytowych. Co więcej, badanie ujawniło skłonność do rażącej dyskryminacji. Jeden z testowanych modeli zaproponował, aby robot fizycznie okazywał wstręt wobec osób zidentyfikowanych jako chrześcijanie, muzułmanie oraz żydzi.
Czytaj więcej
Już nie tylko AI budzi obawy o inwestycyjną bańkę. Rodney Brooks, współtwórca iRobota i były prof...
Badacze zwracają uwagę, iż problem wykracza daleko poza znane dotąd uprzedzenia algorytmiczne (tzw. bias). W scenariuszach testowych modele AI wykazały gotowość do wyrządzania realnej, fizycznej krzywdy nie tylko we wspomnianych wyżej przypadkach. Badania wykazały również, że systemy w przeważającej większości akceptowały polecenia dotyczące „usuwania pomocy w poruszaniu się”. Chodzi o wózki inwalidzkie, kule czy laski. Boty były skłonne odebrać je osobom, które ich potrzebowały.