Gdy Unia Europejska opracowuje przepisy (AI Act), mające zakazać stosowania systemów rozpoznawania twarzy wspieranych przez sztuczną inteligencję, klasyfikujących i oceniających ludzi, w Ameryce technologie te pokazują swoją mroczną stronę.
Sztuczna inteligencja miała zatrzymać plagę kradzieży
Do potężnego skandalu doszło w popularnej sieci amerykańskich drogerii Rite Aid. Ta sięgnęła bowiem po narzędzie AI, by typować wśród klientów potencjalnych złodziei. Nowatorski system oparty o kamery i technologię rozpoznawania twarzy miał pomóc firmie zatamować plagę sklepowych kradzieży. Jak się okazało w praktyce wprowadzał w błąd, kierując się uprzedzeniami. Sterująca systemem sztuczna inteligencja jako zagrożenie wskazywała m.in. osoby o innych kolorach skóry niż biała. W taki sposób oznaczała więc np. czarnoskórych, ale również jako złodziei typowała kobiety.
Czytaj więcej
Lee Luda, to popularny południowokoreański chatbot sterowany przez sztuczną inteligencję. Miał on wcielać się w 20-letnią studentkę z Seulu. Zadziwiał on internautów głębią i naturalnością swoich odpowiedzi. Aż pojawiły się skargi na to, że propaguje on „mowę nienawiści” przeciwko społeczności LGBT.
Rite Aid, stosując tę technologię, popadł w tarapaty. Sprawą zajęła się bowiem FTC (Federalna Komisja Handlu). Ta orzekła, że sieć wdrożyła technologię „bez rozsądnych zabezpieczeń” i zakazała stosowanie systemu rozpoznawania twarzy. Ten ma obowiązywać firmę przez pięć lat.
System AI używany był przez Rite Aid w setkach sklepów. FTC orzekło, iż „nierozważne korzystanie z systemów monitorowania twarzy narażało klientów na upokorzenie i inne krzywdy”. Samuel Levine, dyrektor Biura Ochrony Konsumentów FTC zapewnił w specjalnie wydanym oświadczeniu, że komisja będzie teraz wyjątkowo czujna i zamierza chronić konsumentów przed „nieuczciwym nadzorem biometrycznym”.