AI przewiduje, kto popełni przestępstwo. Burza w Ameryce

Algorytmy sztucznej inteligencji mające przewidywać przestępstwo przed jego popełnieniem? Koncept znany głównie ze science-fiction został wcielony w życie. A policja zaczęła nękać potencjalnych przestępców.

Publikacja: 11.09.2020 18:01

AI przewiduje, kto popełni przestępstwo. Burza w Ameryce

Foto: Bloomberg

Jak donosi Business Insider, powołujący się na „Tampa Bay Times”, półroczne śledztwo wykazało, że sztuczna inteligencja nie tylko nie zmniejszyła liczby przestępstw, ale spowodowała, że 21 rodzin było regularnie nachodzonych przez służby, bo algorytm uznał je za potencjalne zagrożenie.

CZYTAJ TAKŻE: Algorytmy stają się rasistami i seksistami

Wszystko zaczęło się od tego, że szeryf w centralnej Florydzie zdecydował się zamówić system AI przewidujący, który z mieszkańców znajdujących się pod jego jurysdykcją najprawdopodobniej popełniliby przestępstwo.

Do grona nachodzonych przez policję osób należał m.in. 15-letni Rio Wojecki. Nastolatek ukradł wcześniej rower elektryczny, w efekcie przebywał pod opieką kuratora. Algorytm uznał, że Rio jest w pierwszej piątce osób, które mogą popełnić więcej przestępstw w hrabstwie. W efekcie pod jego drzwiami regularnie pojawiali się funkcjonariusze.

CZYTAJ TAKŻE: Policyjne algorytmy to rasiści. Stygmatyzują na całe życie

Ten efekt był jednak do przewidzenia —  jak wynika z dziennikarskiego śledztwa, algorytm był “karmiony” wcześniejszymi wyrokami i skierowanymi sprawami do sądy, także wycofanymi, i to głównie na tej podstawie ustalano, kto może popełnić przestępstwo. Według byłych pracowników biura szeryfa, zastępcy mieli jasne instrukcje: odwiedzali domy wskazane przez algorytm, najczęściej oskarżali mieszkańców o “zoning violation”, czyli naruszenie prawa zabudowy i aresztowali pod każdym możliwym pretekstem. Te oskarżenia i aresztowania trafiały później z powrotem do algorytmu.

CZYTAJ TAKŻE: Algorytmy chcą rządzić światem

Biuro Szeryfa w hrabstwie Pasco odniosło się do materiału „Tampa Bay Times”. W oświadczeniu stwierdzono, że opisane praktyki to normalna praca policji. Praktyka ta, zwana predyktywnymi działaniami policyjnymi, jest obiektem krytyki od wielu. Grupy zajmujące się prawami obywatelskimi wskazują, że jest niezgodna z konstytucją, a niektóre burtawiększe miasta w USA, jak Los Angeles czy Richmond, porzuciły te działania z obawy o skuteczność i efektywność.

Jak donosi Business Insider, powołujący się na „Tampa Bay Times”, półroczne śledztwo wykazało, że sztuczna inteligencja nie tylko nie zmniejszyła liczby przestępstw, ale spowodowała, że 21 rodzin było regularnie nachodzonych przez służby, bo algorytm uznał je za potencjalne zagrożenie.

CZYTAJ TAKŻE: Algorytmy stają się rasistami i seksistami

Pozostało 83% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Apple wyłowił talenty nad Wisłą. Polscy programiści mają świetne pomysły
Technologie
Rewolucja w dostawach. Paczka przyleci z kosmosu w dowolne miejsce w 90 minut
Technologie
Elon Musk zbuduje potężny superkomputer. Szykuje sztuczną inteligencję Grok 2 i 3
Technologie
Zaskakujące „zrozumienie" dla szkodliwych ideologii. Sztuczna inteligencja ma problem
Technologie
Elon Musk: Sztuczna inteligencja zabierze pracę wszystkim. Zmieni to sens życia
Materiał Promocyjny
CERT Orange Polska: internauci korzystają z naszej wiedzy