Policyjne algorytmy to rasiści. Stygmatyzują na całe życie

Programy służące do wychwytywania niebezpiecznych sytuacji na przykład z kamer monitoringu zazwyczaj wybierają na potencjalnych przestępców osoby o innym niż biały kolorze skóry.

Publikacja: 18.07.2020 17:05

Policyjne algorytmy to rasiści. Stygmatyzują na całe życie

Foto: AFP

Kolejne badania pokazują, że tego typu algorytmy choć coraz częściej stosowane przez policję czy inne służby utrwalają systemowy rasizm. Algorytmy lokalizacyjne wykorzystują powiązania między miejscami, wydarzeniami i historycznymi wskaźnikami przestępczości, aby przewidzieć, gdzie i kiedy przestępstwa są bardziej prawdopodobne – na przykład w określonych warunkach pogodowych lub podczas dużych wydarzeń sportowych.

Czytaj także: Koncerny z USA zabraniają policji używania ich technologii

Pozostało jeszcze 92% artykułu

„Rzeczpospolita” najbardziej opiniotwórczym medium października!

Rzetelne informacje, pogłębione analizy, komentarze i opinie. Treści, które inspirują do myślenia. Oglądaj, czytaj, słuchaj.

Czytaj za 9 zł miesięcznie!
Technologie
Humanoidy wejdą do domów w 2025 roku. Ten sprząta, ale potrafi też prać i zrobić kawę
Technologie
Ukraińcy szkolą sztuczną inteligencję filmami z wojny. Wyrastają na potęgę
Technologie
Paliwo przyszłości kryje się pod Ziemią. Przełomowe znalezisko w Europie
Technologie
Pierwsza na świecie kamera AI wykrywa pijanych kierowców. Alkomat nie jest potrzebny?
Technologie
Chiny mają już drony z laserami. Promień tnie metal i zniszczy cały oddział wojska
Materiał Promocyjny
Nest Lease wkracza na rynek leasingowy i celuje w TOP10