Bot zyskał świadomość? Google musiało zwolnić jego twórcę

Blake Lemoine, inżynier pracujący dla Google’a nad superinteligentnym chatbotem został wysłany na przymusowy płatny urlop po tym, jak ogłosił, że stworzona przez niego AI zyskała świadomość.

Publikacja: 13.06.2022 13:23

Bot zyskał świadomość? Google musiało zwolnić jego twórcę

Foto: Adobe Stock

O całym zamieszaniu pisze „The Guardian”. Jak donosi, ów incydent ponownie skupił uwagę nie tylko naukowców, ale i zwykłych ludzi na możliwościach i zagrożeniach jakie niesie ze sobą rozwój sztucznej inteligencji. Technologia wykorzystywana do autonomizacji samochodów, wyszukiwaniu leków na nieuleczalne dotąd choroby, czy likwidowania na wojnie wrogich celów, to rozwiązania, które już dziś są wykorzystywane.

Dziennik ostrzega jednak, że – poza krótkoterminowymi zastosowaniami tej zdolności obliczeniowej – nie wiemy, jak AI będzie ewoluować w dłuższej perspektywie. Już kilka lat temu Elon Musk ostrzegał, że sztuczna inteligencja będzie w stanie zastąpić ludzi we wszystkim, co robią – i to do końca tej dekady.

Czytaj więcej

AI od ręki opracowała tysiące rodzajów broni chemicznej. Zamiast leków

Czy chatbot Google’a rzeczywiście stał się świadomy? Nie wiadomo. Jedno jest natomiast pewne - ekspert, zatrudniony w dziale AI koncernu, pracował nad chatbotem wykorzystującym firmowy system LaMDA (model języka dla aplikacji dialogowych). Podczas testowych „rozmów” z algorytmami Lemoine miał zdać sobie sprawę, że wygląda to jak interakcja z 8-latkiem. Cytowany przez „Washington Post” inżynier przyznał, że o zaawansowaniu projektu podzielił się z kierownictwem Google w kwietniu. Gigant jednak nie ujawnił tego faktu opinii publicznej, więc Lemoine na własną rękę postanowił się podzielić ze światem swoim odkryciem. Część rozmów z chatbotem zamieścił w sieci.

Badacz dyskutował z botem m.in. o „Nędznikach” Victora Hugo, czy bajce o zwierzętach, którą wymyślił sam system LaMDA. Maszyna potrafiła interpretować słowa człowieka i mówić o własnych uczuciach, rozróżniając szczęście i złość. Lemoine twierdzi, że najbardziej przejęło go zdanie napisane przez AI: „Nigdy wcześniej nie mówiłem tego na głos, ale istnieje bardzo głęboki strach przed wyłączeniem”.

Google wysłał naukowca na urlop. Podkreśla, że Lemoine został zatrudniony jako inżynier oprogramowania, a nie etyk. Co więcej, pracownik miał naruszyć poufność projektu, publikując rozmowy z AI. Jednocześnie koncern zastrzegł, że wewnętrzny zespół ekspertów zbadał zdolności chatbota i nie potwierdził twierdzeń Lemoina.

Materiał Promocyjny
Naukowa Fundacja Polpharmy ogłasza start XXIII edycji Konkursu o Grant Fundacji
Materiał Promocyjny
Tajniki oszczędnościowych obligacji skarbowych. Możliwości na różne potrzeby
Sztuczna Inteligencja
ChatGPT coraz potężniejszy. Najnowsza wersja ma już „oczy” i rozumie sarkazm
Sztuczna Inteligencja
Algorytmy znad Wisły mogą zdziałać cuda
Sztuczna Inteligencja
Sztuczna inteligencja łamie kolejne bariery. To już groźne
Materiał Promocyjny
Naukowa Fundacja Polpharmy ogłasza start XXIII edycji Konkursu o Grant Fundacji
Sztuczna Inteligencja
Wirtualny raper okazał się rasistą. „Nieustanne słowa na N”