Sztuczna inteligencja wskazywała kobiety i czarnoskórych jako złodziei. Afera w USA

Sztuczna inteligencja wielkiej sieci drogerii w USA błędnie wytypowała tysiące klientów jako zagrożenie, co prowadziło do błędnego oskarżania przez pracowników ochrony o kradzieże, przeszukiwań, wyrzucania ze sklepu czy nawet wzywania policji.

Aktualizacja: 25.12.2023 22:13 Publikacja: 21.12.2023 12:56

Popularna amerykańska sieć drogerii wpadłą w tarapaty ze względu na swoją rasistowską i seksistowską

Popularna amerykańska sieć drogerii wpadłą w tarapaty ze względu na swoją rasistowską i seksistowską AI

Foto: Bloomberg

Gdy Unia Europejska opracowuje przepisy (AI Act), mające zakazać stosowania systemów rozpoznawania twarzy wspieranych przez sztuczną inteligencję, klasyfikujących i oceniających ludzi, w Ameryce technologie te pokazują swoją mroczną stronę.

Sztuczna inteligencja miała zatrzymać plagę kradzieży

Do potężnego skandalu doszło w popularnej sieci amerykańskich drogerii Rite Aid. Ta sięgnęła bowiem po narzędzie AI, by typować wśród klientów potencjalnych złodziei. Nowatorski system oparty o kamery i technologię rozpoznawania twarzy miał pomóc firmie zatamować plagę sklepowych kradzieży. Jak się okazało w praktyce wprowadzał w błąd, kierując się uprzedzeniami. Sterująca systemem sztuczna inteligencja jako zagrożenie wskazywała m.in. osoby o innych kolorach skóry niż biała. W taki sposób oznaczała więc np. czarnoskórych, ale również jako złodziei typowała kobiety.

Czytaj więcej

„Ohyda, naprawdę ich nienawidzę”. Chatbot wyłączony za homofobię i rasizm

Rite Aid, stosując tę technologię, popadł w tarapaty. Sprawą zajęła się bowiem FTC (Federalna Komisja Handlu). Ta orzekła, że sieć wdrożyła technologię „bez rozsądnych zabezpieczeń” i zakazała stosowanie systemu rozpoznawania twarzy. Ten ma obowiązywać firmę przez pięć lat.

System AI używany był przez Rite Aid w setkach sklepów. FTC orzekło, iż „nierozważne korzystanie z systemów monitorowania twarzy narażało klientów na upokorzenie i inne krzywdy”. Samuel Levine, dyrektor Biura Ochrony Konsumentów FTC zapewnił w specjalnie wydanym oświadczeniu, że komisja będzie teraz wyjątkowo czujna i zamierza chronić konsumentów przed „nieuczciwym nadzorem biometrycznym”.

Klienci upokorzeni przez AI

Rite Aid wdrożyło tę technologię w 2012 i stosowała przez blisko dekadę. W tym czasie wielu klientów, wytypowanych przez algorytmy jako zagrożenie, było błędnie oskarżanych przez pracowników ochrony o kradzieże. Ochroniarze i sprzedawcy Rite Aid, działając na podstawie fałszywych alarmów, śledzili konsumentów po sklepie, przeszukiwali ich, a nawet nakazywali opuszczenie placówek, czy wzywali policję, czasami w obecności przyjaciół lub rodziny.

Czytaj więcej

Policyjne algorytmy to rasiści. Stygmatyzują na całe życie

Liczne były skargi od poszkodowanych, którzy zgłaszali, że byli nękani, publicznie zawstydzani lub ponieśli inne krzywdy, sprawiły, iż sprawą zajęła się FTC. Dochodzenie wykazało nie tylko brak systemów nadzoru nad systemami AI, ale też, że sieć nie informowała konsumentów o stosowaniu takiej technologii. Pracownikom wręcz odradzano ujawnianie takich informacji. W sumie miało dojść do tysięcy tego typu fałszywych oskarżeń klientów.

Technologie
Po które boty AI sięgamy najczęściej? „Król” jest jeden, ale trwa walka o podium
Materiał Promocyjny
Suzuki e VITARA jest w pełni elektryczna
Technologie
Nowe organiczne ogniwa słoneczne odpowiedzią na kosmiczne zagrożenie
Technologie
Kamizelka kuloodporna nie do przebicia? Powstał najbardziej wytrzymały materiał
Technologie
Chcą przywrócić do życia dodo i mamuty. Firma osiągnęła astronomiczną wartość
Materiał Promocyjny
Warta oferuje spersonalizowaną terapię onkologiczną
Technologie
Chińska firma stworzyła imponującego robota. Ma wiele wspólnego z „Rodziną Addamsów”
Materiał Promocyjny
Najlepszy program księgowy dla biura rachunkowego