Jak donosi Business Insider, powołujący się na „Tampa Bay Times”, półroczne śledztwo wykazało, że sztuczna inteligencja nie tylko nie zmniejszyła liczby przestępstw, ale spowodowała, że 21 rodzin było regularnie nachodzonych przez służby, bo algorytm uznał je za potencjalne zagrożenie.
CZYTAJ TAKŻE: Algorytmy stają się rasistami i seksistami
Wszystko zaczęło się od tego, że szeryf w centralnej Florydzie zdecydował się zamówić system AI przewidujący, który z mieszkańców znajdujących się pod jego jurysdykcją najprawdopodobniej popełniliby przestępstwo.
Do grona nachodzonych przez policję osób należał m.in. 15-letni Rio Wojecki. Nastolatek ukradł wcześniej rower elektryczny, w efekcie przebywał pod opieką kuratora. Algorytm uznał, że Rio jest w pierwszej piątce osób, które mogą popełnić więcej przestępstw w hrabstwie. W efekcie pod jego drzwiami regularnie pojawiali się funkcjonariusze.
CZYTAJ TAKŻE: Policyjne algorytmy to rasiści. Stygmatyzują na całe życie