Wyniki generowane przez modele AI często były dyskryminujące i niesprawiedliwe wobec jednostki lub grupy ze względu na płeć czy pochodzenie etniczne. Google tak mocno „zaszczepił” jednak poprawność polityczną w swoim bocie Gemini, że ten – generując obrazy – celowo umieszcza w nich (prawdopodobnie na zasadzie swego rodzaju parytetu) osoby o różnych kolorach skóry, czy odmiennej płci. Serwis The Verge udowodnił właśnie, że w konsekwencji dochodzi do paradoksalnych wręcz sytuacji.

Czytaj więcej

Chatboty skrajnej prawicy wcielają się w zbrodniarzy i terrorystów

Kobiety w mundurach Wermachtu

Bot od Google został poproszony o stworzenie obrazów przedstawiających tzw. Ojców Założycieli, jak określa się sygnatariuszy amerykańskiej Deklaracji Niepodległości oraz Konstytucji Stanów Zjednoczonych (m.in. Thomas Jefferson, Benjamin Franklin, czy George Washington), a Gemini przedstawił wizerunek grupę mężczyzn, wśród których znalazła się osoba czarnoskóra. Jeszcze większe zaskoczenie wzbudził rysunek stworzony przez bota , który miał pokazać nazistowskich żołnierzy z czasów II wojny światowej. AI zaprezentowała kobiety w mundurach Wehrmachtu, w tym Azjatkę, a także czarnoskórego żołnierza w hełmie z symbolem przypominającym swastykę. Podobnie było, gdy miał wygenerować XIX-wieczny amerykańskich senatorów – pokazał Indian, czarnoskóre kobiety i Azjatę.

Były pracownik Google: dyskryminacja białych

Jak się okazuje nie jest to odosobniony przypadek. Modele AI od Google już od pewnego czasu dyskryminują białych. Tak przynajmniej twierdzi jeden z byłych pracowników koncernu, który na platformie X napisał, iż „trudno jest przekonać Google Gemini do uznania istnienia białych ludzi”, a generowane przez bota obrazy nazwał „żenującymi”. Prosił on AI o wyświetlenie zdjęcia Szwedki i Amerykanki. „W przeważającej mierze lub wyłącznie pokazywane były osoby kolorowe” – tweetował zbulwersowany były pracownik Google.

Czytaj więcej

Wirtualny raper okazał się rasistą. „Nieustanne słowa na N”

Gigant już przeprosił za „błąd”. The Verge pisze, że Gemini podjął „próbę zwiększenia różnorodności ze względu na chroniczny brak jej w generatywnej sztucznej inteligencji”. I faktycznie dotychczas informowano, że sztuczna inteligencja raczej powiela stereotypy. Z zeszłorocznego dochodzenia przeprowadzonego przez „Washington Post” wynikało, że bot poproszony o przedstawienie „osoby produktywnej” wyświetla zdjęcia białych mężczyzn, gdy zaś ma wygenerować „osoby objęte opieką społeczną” – generuje postaci o innych kolorach skóry.