Sztuczna inteligencja (AI) korzysta od kilku lat z algorytmu, który ocenia ryzyko ewentualnego zwolnienia zatrzymanego z aresztu. Problem w tym, że ICE – dzięki tej technologii – realizowało „tajną politykę zakazu uwalniania podejrzanych do czasu rozprawy” – pisze „The Verge”.
CZYTAJ TAKŻE: Algorytmy stają się rasistami i seksistami
New York Civil Liberties Union (NYCLU) i Bronx Defenders, które zajęły się tą sprawą, twierdzą, że algorytm, który dwukrotnie był zmieniany (w latach 2015-2017), stracił możliwość rekomendowania zwolnienia z aresztu. Dotyczyło to nawet tych zatrzymanych, którzy nie stanowili żadnego zagrożenia. Organizacje te oskarżają ICE o celową zmianę systemu RCA.
RCA, czyli właśnie napędzany przez sztuczną inteligencję system oceny klasyfikacji ryzyka, opracowano do analizy historii kryminalnej zatrzymanych, a także ich więzów rodzinnych i powiązań z innymi podejrzanymi. Idea była taka, by na podstawie takich danych AI oceniała, czy dana osoba była zatrzymana lub zwolniona (ewentualnie również za kaucją). Już w 2018 r. Reuters informował jednak, że ta druga opcja została usunięta. AI więc jedynie zalecało zatrzymanie, bądź kierowało sprawę do przełożonego w ICE. W latach 2017-2019 zwalniano tylko 3 proc. aresztowanych przez urzędników imigracyjnych. Tymczasem, gdy w 2013 r. ruszał system AI, odsetek ten wynosił ok. 40 proc.
CZYTAJ TAKŻE: Pechowa aktualizacja oprogramowania. Więźniowie na wolności