Reklama

Policyjne algorytmy to rasiści. Stygmatyzują na całe życie

Programy służące do wychwytywania niebezpiecznych sytuacji na przykład z kamer monitoringu zazwyczaj wybierają na potencjalnych przestępców osoby o innym niż biały kolorze skóry.

Publikacja: 18.07.2020 17:05

Policyjne algorytmy to rasiści. Stygmatyzują na całe życie

Foto: AFP

Kolejne badania pokazują, że tego typu algorytmy choć coraz częściej stosowane przez policję czy inne służby utrwalają systemowy rasizm. Algorytmy lokalizacyjne wykorzystują powiązania między miejscami, wydarzeniami i historycznymi wskaźnikami przestępczości, aby przewidzieć, gdzie i kiedy przestępstwa są bardziej prawdopodobne – na przykład w określonych warunkach pogodowych lub podczas dużych wydarzeń sportowych.

Czytaj także: Koncerny z USA zabraniają policji używania ich technologii

Pozostało jeszcze 92% artykułu

Tylko 19 zł miesięcznie przez cały rok.

Bądź na bieżąco. Czytaj sprawdzone treści od Rzeczpospolitej. Polityka, wydarzenia, społeczeństwo, ekonomia i psychologia.

Treści, którym możesz zaufać.

Reklama
Technologie
Rewolucja AI w modzie. Ubrania, które słuchają i mówią
Technologie
Hydraulicy z AI: Sztuczna inteligencja wkracza tam, gdzie nikt się nie spodziewał
Technologie
Przełomowy wynalazek MIT. Te baterie będą wszędzie i same się naprawią
Technologie
Nikt wcześniej na to nie wpadł. Genialny pomysł Amerykanów na ładowanie elektryków
Technologie
Shadow AI to już plaga. Nowe badania pokazują skalę niebezpieczeństwa
Reklama
Reklama