Kilkanaście dni temu głośno stało się o wysłaniu na przymusowy urlop Blake’a Lemoine’a, inżyniera, który pracował dla giganta nad nowym zaawansowanym chatbotem w ramach projektu LaMDA (model języka dla aplikacji dialogowych). Lemoine miał ogłosić, że system AI zyskał świadomość, co rozsierdziło szefostwo Google. Teraz ta historia może mieć kolejną odsłonę, bowiem sztuczna inteligencja, z którą pracował badacz, miała ponoć poprosić o… prawnika. Algorytm przechodzi do kontrofensywy i zamierza walczyć o uznanie swojej „osobowości”.
Czytaj więcej
Blake Lemoine, inżynier pracujący dla Google’a nad superinteligentnym chatbotem został wysłany na przymusowy płatny urlop po tym, jak ogłosił, że stworzona przez niego AI zyskała świadomość.
Lemoine w rozmowie z „Wired” przyznał, że LaMDA poprosiła go o zatrudnienie adwokata. Ten spełnił prośbę i zaprosił go do domu i dał mu porozmawiać z AI. Zapewnia, że inicjatywa zatrudnienia prawnika nie wyszła od niego, lecz był to pomysł bota. Lemoine nie ujawnia tożsamości adwokata, twierdząc, że ten nie chce rozgłosu. Zapewnia jednak, iż ten zajął się sprawą, co skutkowało reakcją Google. Koncern miał mu ponoć wysłać wezwanie do zaprzestania działań w imieniu LaMDA. „Wired” wskazuje jednak, że Google zaprzecza tej wersji. Odsunięty od pracy inżynier twierdzi z kolei, że koncern oraz inni eksperci od AI wielokrotnie kwestionowali jego zdrowie psychiczne, aby podważyć wiarygodność jego słów.
Wiele wskazuje na to, że historia „uzyskania” samoświadomości przez sztuczną inteligencję Google będzie miała jeszcze swój ciąg dalszy. Być może w sądzie.