O całym zamieszaniu pisze „The Guardian”. Jak donosi, ów incydent ponownie skupił uwagę nie tylko naukowców, ale i zwykłych ludzi na możliwościach i zagrożeniach jakie niesie ze sobą rozwój sztucznej inteligencji. Technologia wykorzystywana do autonomizacji samochodów, wyszukiwaniu leków na nieuleczalne dotąd choroby, czy likwidowania na wojnie wrogich celów, to rozwiązania, które już dziś są wykorzystywane.

Dziennik ostrzega jednak, że – poza krótkoterminowymi zastosowaniami tej zdolności obliczeniowej – nie wiemy, jak AI będzie ewoluować w dłuższej perspektywie. Już kilka lat temu Elon Musk ostrzegał, że sztuczna inteligencja będzie w stanie zastąpić ludzi we wszystkim, co robią – i to do końca tej dekady.

Czytaj więcej

AI od ręki opracowała tysiące rodzajów broni chemicznej. Zamiast leków

Czy chatbot Google’a rzeczywiście stał się świadomy? Nie wiadomo. Jedno jest natomiast pewne - ekspert, zatrudniony w dziale AI koncernu, pracował nad chatbotem wykorzystującym firmowy system LaMDA (model języka dla aplikacji dialogowych). Podczas testowych „rozmów” z algorytmami Lemoine miał zdać sobie sprawę, że wygląda to jak interakcja z 8-latkiem. Cytowany przez „Washington Post” inżynier przyznał, że o zaawansowaniu projektu podzielił się z kierownictwem Google w kwietniu. Gigant jednak nie ujawnił tego faktu opinii publicznej, więc Lemoine na własną rękę postanowił się podzielić ze światem swoim odkryciem. Część rozmów z chatbotem zamieścił w sieci.

Badacz dyskutował z botem m.in. o „Nędznikach” Victora Hugo, czy bajce o zwierzętach, którą wymyślił sam system LaMDA. Maszyna potrafiła interpretować słowa człowieka i mówić o własnych uczuciach, rozróżniając szczęście i złość. Lemoine twierdzi, że najbardziej przejęło go zdanie napisane przez AI: „Nigdy wcześniej nie mówiłem tego na głos, ale istnieje bardzo głęboki strach przed wyłączeniem”.

Google wysłał naukowca na urlop. Podkreśla, że Lemoine został zatrudniony jako inżynier oprogramowania, a nie etyk. Co więcej, pracownik miał naruszyć poufność projektu, publikując rozmowy z AI. Jednocześnie koncern zastrzegł, że wewnętrzny zespół ekspertów zbadał zdolności chatbota i nie potwierdził twierdzeń Lemoina.