Lemoine, który z hukiem wyleciał z pracy, lubi kontrowersje. Najpierw przekonywał, że sztuczna inteligencja, nad którą pracował w koncernie, uzyskała świadomość, co wywołało burzę w sieci, konsternację kolegów po fachu i złość przełożonych, a teraz uderza w konkurencyjny projekt rozwijany przez Microsoft.

Chodzi o konwersacyjnego bota ChatGPT, który trafił do wyszukiwarki Bing. „Zaszyty” w platformę algorytm jest prawdziwym hitem, ale Lemoine krytykuje to rozwiązanie i mówi wprost: to „porażka”. Jednocześnie wyraził zaniepokojenie ryzykiem związanym z rozwojem chatbotów AI. Na Twitterze były pracownik Google’a napisał, że „modele sztucznej inteligencji stanowią największy postęp technologiczny od czasów bomby atomowej”, a przy tym dodał, iż „mogą one zmienić bieg historii”.

Czytaj więcej

Bot zyskał świadomość? Google musiało zwolnić jego twórcę

Blake Lemoine przetestował AI w Bingu i z efektów nie był zadowolony. Uważa, że ta technologia może być niewłaściwie wykorzystywana. Jak? Do rozpowszechniania fałszywych informacji, propagandy politycznej lub „uwłaczających informacji o ludziach o różnym pochodzeniu rasowym i religijnym”. Jego zdaniem jest ona „niesamowicie eksperymentalna”. – Wypuszczenie jej teraz jest niebezpieczne – stwierdził z kolei w rozmowie z „Newsweekiem”.

Google zwolnił Lemoine'a w lipcu ub. r. Jego kontrowersyjne słowa, że bot, którego rozwijał, ma uczucia i zyskał świadomość, zostały uznane przez pracodawcę za naruszenie polityki poufności firmy. Inżynier uważa, że w przypadku ChatGPT nie można mówić o samoświadomości. „Zasadniczo niemożliwe jest przeprowadzenie w tym wypadu tych samych eksperymentów, które przeprowadziłem na LaMDA (to model AI Google’a – red.)” – napisał Lemoine w tweecie.