Wśród tematów konwersacji z chatbotem opartym na sztucznej inteligencji firmy xAI znalazła się m.in. dokładna instrukcja produkcji bomby czy szczegółowy plan zabójstwa Elona Muska.
Prywatne rozmowy z Grokiem można wyszukać w Google
Magazyn Forbes podał, że w środę 20 sierpnia w wyszukiwarce Google po wpisaniu hasła „Grok chats” można było odnaleźć ponad 370 tys. rozmów użytkowników z chatbotem firmy xAI. Wśród tych przeanalizowanych przez magazyn znalazły się zarówno konwersacje dotyczące próśb o napisanie tweetów, jak i pomocy przy włamaniu do portfeli kryptowalut. Nie zabrakło również intymnych pytań z zakresu medycyny i psychologii, przy których niektórzy ujawniali dane osobowe.
Czytaj więcej
Rozwój AI to nie tylko możliwości, ale także nowe zagrożenia. Mustafa Suleyman, szef działu rozwo...
To jednak nie wszystko. Grok udzielał również użytkownikom na ich prośbę instrukcji dotyczących metod samobójstwa, wytwarzania nielegalnych narkotyków czy kodowania samoczynnie uruchamiającego się złośliwego oprogramowania.
Wiele rozmów z Grokiem, które możliwe były do wyszukania w Google, naruszały tym samym, jak informuje Forbes, zasady związane z korzystaniem z chatbota opublikowane przez firmę xAI. Użytkownicy łamali zakaz używania Groka do „promowania działań poważnie zagrażających życiu ludzkiemu” lub do „rozwoju broni biologicznej, chemicznej lub broni masowego rażenia”.