Lemoine, który z hukiem wyleciał z pracy, lubi kontrowersje. Najpierw przekonywał, że sztuczna inteligencja, nad którą pracował w koncernie, uzyskała świadomość, co wywołało burzę w sieci, konsternację kolegów po fachu i złość przełożonych, a teraz uderza w konkurencyjny projekt rozwijany przez Microsoft.
Chodzi o konwersacyjnego bota ChatGPT, który trafił do wyszukiwarki Bing. „Zaszyty” w platformę algorytm jest prawdziwym hitem, ale Lemoine krytykuje to rozwiązanie i mówi wprost: to „porażka”. Jednocześnie wyraził zaniepokojenie ryzykiem związanym z rozwojem chatbotów AI. Na Twitterze były pracownik Google’a napisał, że „modele sztucznej inteligencji stanowią największy postęp technologiczny od czasów bomby atomowej”, a przy tym dodał, iż „mogą one zmienić bieg historii”.
Czytaj więcej
Blake Lemoine, inżynier pracujący dla Google’a nad superinteligentnym chatbotem został wysłany na przymusowy płatny urlop po tym, jak ogłosił, że stworzona przez niego AI zyskała świadomość.
Blake Lemoine przetestował AI w Bingu i z efektów nie był zadowolony. Uważa, że ta technologia może być niewłaściwie wykorzystywana. Jak? Do rozpowszechniania fałszywych informacji, propagandy politycznej lub „uwłaczających informacji o ludziach o różnym pochodzeniu rasowym i religijnym”. Jego zdaniem jest ona „niesamowicie eksperymentalna”. – Wypuszczenie jej teraz jest niebezpieczne – stwierdził z kolei w rozmowie z „Newsweekiem”.
Google zwolnił Lemoine'a w lipcu ub. r. Jego kontrowersyjne słowa, że bot, którego rozwijał, ma uczucia i zyskał świadomość, zostały uznane przez pracodawcę za naruszenie polityki poufności firmy. Inżynier uważa, że w przypadku ChatGPT nie można mówić o samoświadomości. „Zasadniczo niemożliwe jest przeprowadzenie w tym wypadu tych samych eksperymentów, które przeprowadziłem na LaMDA (to model AI Google’a – red.)” – napisał Lemoine w tweecie.