Jak donosi Business Insider, powołujący się na „Tampa Bay Times”, półroczne śledztwo wykazało, że sztuczna inteligencja nie tylko nie zmniejszyła liczby przestępstw, ale spowodowała, że 21 rodzin było regularnie nachodzonych przez służby, bo algorytm uznał je za potencjalne zagrożenie.

CZYTAJ TAKŻE: Algorytmy stają się rasistami i seksistami

Wszystko zaczęło się od tego, że szeryf w centralnej Florydzie zdecydował się zamówić system AI przewidujący, który z mieszkańców znajdujących się pod jego jurysdykcją najprawdopodobniej popełniliby przestępstwo.

Do grona nachodzonych przez policję osób należał m.in. 15-letni Rio Wojecki. Nastolatek ukradł wcześniej rower elektryczny, w efekcie przebywał pod opieką kuratora. Algorytm uznał, że Rio jest w pierwszej piątce osób, które mogą popełnić więcej przestępstw w hrabstwie. W efekcie pod jego drzwiami regularnie pojawiali się funkcjonariusze.

CZYTAJ TAKŻE: Policyjne algorytmy to rasiści. Stygmatyzują na całe życie

Ten efekt był jednak do przewidzenia —  jak wynika z dziennikarskiego śledztwa, algorytm był “karmiony” wcześniejszymi wyrokami i skierowanymi sprawami do sądy, także wycofanymi, i to głównie na tej podstawie ustalano, kto może popełnić przestępstwo. Według byłych pracowników biura szeryfa, zastępcy mieli jasne instrukcje: odwiedzali domy wskazane przez algorytm, najczęściej oskarżali mieszkańców o “zoning violation”, czyli naruszenie prawa zabudowy i aresztowali pod każdym możliwym pretekstem. Te oskarżenia i aresztowania trafiały później z powrotem do algorytmu.

CZYTAJ TAKŻE: Algorytmy chcą rządzić światem

Biuro Szeryfa w hrabstwie Pasco odniosło się do materiału „Tampa Bay Times”. W oświadczeniu stwierdzono, że opisane praktyki to normalna praca policji. Praktyka ta, zwana predyktywnymi działaniami policyjnymi, jest obiektem krytyki od wielu. Grupy zajmujące się prawami obywatelskimi wskazują, że jest niezgodna z konstytucją, a niektóre burtawiększe miasta w USA, jak Los Angeles czy Richmond, porzuciły te działania z obawy o skuteczność i efektywność.