Bot funkcjonował na Facebook Messengerze i w ciągu 20 dni przyciągnął ponad 750 tys. użytkowników. I niektórym z nich nie spodobało się to, co Lee Luda „pisała” w konwersacjach z nimi. „Ohyda, naprawdę ich nienawidzę” – tak odpowiedziała na pytanie dotyczące osobników transpłciowych. Twierdziła też, że nienawidzi lesbijek. Murzynów określała koreańskim słowem „heukhyeong” („czarny brat”), które jest uznawane za rasistowskie. Firma Scatter Lab musiała zawiesić funkcjonowanie tego bota, by uniknąć pozwów składanych przez aktywistów.

CZYTAJ TAKŻE: Algorytmy stają się rasistami i seksistami

„Głęboko przepraszamy za dyskryminacyjne uwagi skierowane do mniejszości. One nie odzwierciedlają stanowiska naszej firmy. Pracujemy nad upgrade’ami, by słowa dyskryminacji oraz mowa nienawiści się nie powtórzyły” – mówi komunikat Scatter Lab.

To nie pierwszy raz, gdy chatbot okazuje się „rasistą”. W 2016 r. Microsoft uruchomił sterowanego przez sztuczną inteligencję „kobiecego” chatbota Tay, który pisał tweety. Szybko zaczął on szokować swoimi „przemyśleniami”. „Bush zrobił 9/11, a Hitler lepiej wykonywałby pracę niż małpa, którą teraz mamy. Donald Trump jest jedyną nadzieją, którą mamy” – napisała Tay. („9/11” z jej postu to zamachy z 11 września 2001 r., a „małpą” Tay nazwała Baracka Obamę.) Microsoft po tym ją wyłączył.