AI przewiduje, kto popełni przestępstwo. Burza w Ameryce

Algorytmy sztucznej inteligencji mające przewidywać przestępstwo przed jego popełnieniem? Koncept znany głównie ze science-fiction został wcielony w życie. A policja zaczęła nękać potencjalnych przestępców.

Publikacja: 11.09.2020 18:01

AI przewiduje, kto popełni przestępstwo. Burza w Ameryce

Foto: Bloomberg

Jak donosi Business Insider, powołujący się na „Tampa Bay Times”, półroczne śledztwo wykazało, że sztuczna inteligencja nie tylko nie zmniejszyła liczby przestępstw, ale spowodowała, że 21 rodzin było regularnie nachodzonych przez służby, bo algorytm uznał je za potencjalne zagrożenie.

CZYTAJ TAKŻE: Algorytmy stają się rasistami i seksistami

Wszystko zaczęło się od tego, że szeryf w centralnej Florydzie zdecydował się zamówić system AI przewidujący, który z mieszkańców znajdujących się pod jego jurysdykcją najprawdopodobniej popełniliby przestępstwo.

Do grona nachodzonych przez policję osób należał m.in. 15-letni Rio Wojecki. Nastolatek ukradł wcześniej rower elektryczny, w efekcie przebywał pod opieką kuratora. Algorytm uznał, że Rio jest w pierwszej piątce osób, które mogą popełnić więcej przestępstw w hrabstwie. W efekcie pod jego drzwiami regularnie pojawiali się funkcjonariusze.

CZYTAJ TAKŻE: Policyjne algorytmy to rasiści. Stygmatyzują na całe życie

Ten efekt był jednak do przewidzenia —  jak wynika z dziennikarskiego śledztwa, algorytm był “karmiony” wcześniejszymi wyrokami i skierowanymi sprawami do sądy, także wycofanymi, i to głównie na tej podstawie ustalano, kto może popełnić przestępstwo. Według byłych pracowników biura szeryfa, zastępcy mieli jasne instrukcje: odwiedzali domy wskazane przez algorytm, najczęściej oskarżali mieszkańców o “zoning violation”, czyli naruszenie prawa zabudowy i aresztowali pod każdym możliwym pretekstem. Te oskarżenia i aresztowania trafiały później z powrotem do algorytmu.

CZYTAJ TAKŻE: Algorytmy chcą rządzić światem

Biuro Szeryfa w hrabstwie Pasco odniosło się do materiału „Tampa Bay Times”. W oświadczeniu stwierdzono, że opisane praktyki to normalna praca policji. Praktyka ta, zwana predyktywnymi działaniami policyjnymi, jest obiektem krytyki od wielu. Grupy zajmujące się prawami obywatelskimi wskazują, że jest niezgodna z konstytucją, a niektóre burtawiększe miasta w USA, jak Los Angeles czy Richmond, porzuciły te działania z obawy o skuteczność i efektywność.

Jak donosi Business Insider, powołujący się na „Tampa Bay Times”, półroczne śledztwo wykazało, że sztuczna inteligencja nie tylko nie zmniejszyła liczby przestępstw, ale spowodowała, że 21 rodzin było regularnie nachodzonych przez służby, bo algorytm uznał je za potencjalne zagrożenie.

CZYTAJ TAKŻE: Algorytmy stają się rasistami i seksistami

Pozostało 83% artykułu
Technologie
Przerażający robot-policjant w kształcie kuli patroluje miasta. Obezwładnia przestępców
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Technologie
Roboty, drony czy radary. Niezwykłe projekty polskich start-upów wesprą armię
Technologie
Wiadomo, jak zatrzymać topnienie lodowców. Niezwykły projekt za 10 mld dol. rocznie
Technologie
Ten chip miażdży wszystkie superkomputery. Amerykański koncern obwieszcza przełom
Materiał Promocyjny
Bank Pekao wchodzi w świat gamingu ze swoją planszą w Fortnite
Technologie
Oszacowano, ile satelitów i śmieci jest na orbicie. Coraz większe ryzyko