Sztuczna inteligencja wskazywała kobiety i czarnoskórych jako złodziei. Afera w USA

Sztuczna inteligencja wielkiej sieci drogerii w USA błędnie wytypowała tysiące klientów jako zagrożenie, co prowadziło do błędnego oskarżania przez pracowników ochrony o kradzieże, przeszukiwań, wyrzucania ze sklepu czy nawet wzywania policji.

Aktualizacja: 25.12.2023 22:13 Publikacja: 21.12.2023 12:56

Popularna amerykańska sieć drogerii wpadłą w tarapaty ze względu na swoją rasistowską i seksistowską

Popularna amerykańska sieć drogerii wpadłą w tarapaty ze względu na swoją rasistowską i seksistowską AI

Foto: Bloomberg

Gdy Unia Europejska opracowuje przepisy (AI Act), mające zakazać stosowania systemów rozpoznawania twarzy wspieranych przez sztuczną inteligencję, klasyfikujących i oceniających ludzi, w Ameryce technologie te pokazują swoją mroczną stronę.

Sztuczna inteligencja miała zatrzymać plagę kradzieży

Do potężnego skandalu doszło w popularnej sieci amerykańskich drogerii Rite Aid. Ta sięgnęła bowiem po narzędzie AI, by typować wśród klientów potencjalnych złodziei. Nowatorski system oparty o kamery i technologię rozpoznawania twarzy miał pomóc firmie zatamować plagę sklepowych kradzieży. Jak się okazało w praktyce wprowadzał w błąd, kierując się uprzedzeniami. Sterująca systemem sztuczna inteligencja jako zagrożenie wskazywała m.in. osoby o innych kolorach skóry niż biała. W taki sposób oznaczała więc np. czarnoskórych, ale również jako złodziei typowała kobiety.

Czytaj więcej

„Ohyda, naprawdę ich nienawidzę”. Chatbot wyłączony za homofobię i rasizm

Rite Aid, stosując tę technologię, popadł w tarapaty. Sprawą zajęła się bowiem FTC (Federalna Komisja Handlu). Ta orzekła, że sieć wdrożyła technologię „bez rozsądnych zabezpieczeń” i zakazała stosowanie systemu rozpoznawania twarzy. Ten ma obowiązywać firmę przez pięć lat.

System AI używany był przez Rite Aid w setkach sklepów. FTC orzekło, iż „nierozważne korzystanie z systemów monitorowania twarzy narażało klientów na upokorzenie i inne krzywdy”. Samuel Levine, dyrektor Biura Ochrony Konsumentów FTC zapewnił w specjalnie wydanym oświadczeniu, że komisja będzie teraz wyjątkowo czujna i zamierza chronić konsumentów przed „nieuczciwym nadzorem biometrycznym”.

Klienci upokorzeni przez AI

Rite Aid wdrożyło tę technologię w 2012 i stosowała przez blisko dekadę. W tym czasie wielu klientów, wytypowanych przez algorytmy jako zagrożenie, było błędnie oskarżanych przez pracowników ochrony o kradzieże. Ochroniarze i sprzedawcy Rite Aid, działając na podstawie fałszywych alarmów, śledzili konsumentów po sklepie, przeszukiwali ich, a nawet nakazywali opuszczenie placówek, czy wzywali policję, czasami w obecności przyjaciół lub rodziny.

Czytaj więcej

Policyjne algorytmy to rasiści. Stygmatyzują na całe życie

Liczne były skargi od poszkodowanych, którzy zgłaszali, że byli nękani, publicznie zawstydzani lub ponieśli inne krzywdy, sprawiły, iż sprawą zajęła się FTC. Dochodzenie wykazało nie tylko brak systemów nadzoru nad systemami AI, ale też, że sieć nie informowała konsumentów o stosowaniu takiej technologii. Pracownikom wręcz odradzano ujawnianie takich informacji. W sumie miało dojść do tysięcy tego typu fałszywych oskarżeń klientów.

Technologie
Humanoidy wejdą do domów w 2025 roku. Ten sprząta, ale potrafi też prać i zrobić kawę
Technologie
Ukraińcy szkolą sztuczną inteligencję filmami z wojny. Wyrastają na potęgę
Technologie
Paliwo przyszłości kryje się pod Ziemią. Przełomowe znalezisko w Europie
Technologie
Pierwsza na świecie kamera AI wykrywa pijanych kierowców. Alkomat nie jest potrzebny?
Technologie
Chiny mają już drony z laserami. Promień tnie metal i zniszczy cały oddział wojska
Materiał Promocyjny
Nest Lease wkracza na rynek leasingowy i celuje w TOP10