Sztuczna inteligencja wskazywała kobiety i czarnoskórych jako złodziei. Afera w USA

Sztuczna inteligencja wielkiej sieci drogerii w USA błędnie wytypowała tysiące klientów jako zagrożenie, co prowadziło do błędnego oskarżania przez pracowników ochrony o kradzieże, przeszukiwań, wyrzucania ze sklepu czy nawet wzywania policji.

Aktualizacja: 25.12.2023 22:13 Publikacja: 21.12.2023 12:56

Popularna amerykańska sieć drogerii wpadłą w tarapaty ze względu na swoją rasistowską i seksistowską

Popularna amerykańska sieć drogerii wpadłą w tarapaty ze względu na swoją rasistowską i seksistowską AI

Foto: Bloomberg

Gdy Unia Europejska opracowuje przepisy (AI Act), mające zakazać stosowania systemów rozpoznawania twarzy wspieranych przez sztuczną inteligencję, klasyfikujących i oceniających ludzi, w Ameryce technologie te pokazują swoją mroczną stronę.

Sztuczna inteligencja miała zatrzymać plagę kradzieży

Do potężnego skandalu doszło w popularnej sieci amerykańskich drogerii Rite Aid. Ta sięgnęła bowiem po narzędzie AI, by typować wśród klientów potencjalnych złodziei. Nowatorski system oparty o kamery i technologię rozpoznawania twarzy miał pomóc firmie zatamować plagę sklepowych kradzieży. Jak się okazało w praktyce wprowadzał w błąd, kierując się uprzedzeniami. Sterująca systemem sztuczna inteligencja jako zagrożenie wskazywała m.in. osoby o innych kolorach skóry niż biała. W taki sposób oznaczała więc np. czarnoskórych, ale również jako złodziei typowała kobiety.

Czytaj więcej

„Ohyda, naprawdę ich nienawidzę”. Chatbot wyłączony za homofobię i rasizm

Rite Aid, stosując tę technologię, popadł w tarapaty. Sprawą zajęła się bowiem FTC (Federalna Komisja Handlu). Ta orzekła, że sieć wdrożyła technologię „bez rozsądnych zabezpieczeń” i zakazała stosowanie systemu rozpoznawania twarzy. Ten ma obowiązywać firmę przez pięć lat.

System AI używany był przez Rite Aid w setkach sklepów. FTC orzekło, iż „nierozważne korzystanie z systemów monitorowania twarzy narażało klientów na upokorzenie i inne krzywdy”. Samuel Levine, dyrektor Biura Ochrony Konsumentów FTC zapewnił w specjalnie wydanym oświadczeniu, że komisja będzie teraz wyjątkowo czujna i zamierza chronić konsumentów przed „nieuczciwym nadzorem biometrycznym”.

Klienci upokorzeni przez AI

Rite Aid wdrożyło tę technologię w 2012 i stosowała przez blisko dekadę. W tym czasie wielu klientów, wytypowanych przez algorytmy jako zagrożenie, było błędnie oskarżanych przez pracowników ochrony o kradzieże. Ochroniarze i sprzedawcy Rite Aid, działając na podstawie fałszywych alarmów, śledzili konsumentów po sklepie, przeszukiwali ich, a nawet nakazywali opuszczenie placówek, czy wzywali policję, czasami w obecności przyjaciół lub rodziny.

Czytaj więcej

Policyjne algorytmy to rasiści. Stygmatyzują na całe życie

Liczne były skargi od poszkodowanych, którzy zgłaszali, że byli nękani, publicznie zawstydzani lub ponieśli inne krzywdy, sprawiły, iż sprawą zajęła się FTC. Dochodzenie wykazało nie tylko brak systemów nadzoru nad systemami AI, ale też, że sieć nie informowała konsumentów o stosowaniu takiej technologii. Pracownikom wręcz odradzano ujawnianie takich informacji. W sumie miało dojść do tysięcy tego typu fałszywych oskarżeń klientów.

Gdy Unia Europejska opracowuje przepisy (AI Act), mające zakazać stosowania systemów rozpoznawania twarzy wspieranych przez sztuczną inteligencję, klasyfikujących i oceniających ludzi, w Ameryce technologie te pokazują swoją mroczną stronę.

Sztuczna inteligencja miała zatrzymać plagę kradzieży

Pozostało 92% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Nadlatują myśliwce szóstej generacji. Nie tylko USA zyskają niezwykłe możliwości
Materiał partnera
Konieczna współpraca między IT i biznesem
Technologie
Dowiedziała się, że reklamuje spray na owady. Znana dziennikarka oszukana z pomocą AI
Technologie
Naukowcy stworzyli owady-cyborgi. Karaczany pomogą ludziom
Technologie
Naukowcy odkryli, gdzie pochowano Platona. Pomogło „bioniczne oko”
Materiał Promocyjny
Wsparcie dla beneficjentów dotacji unijnych, w tym środków z KPO