37-letni Altman podkreślił, że organy regulacyjne i społeczeństwo muszą być zaangażowane w prace nad tą technologią, aby chronić się przed potencjalnie negatywnymi konsekwencjami dla ludzkości. - Musimy być tutaj ostrożni - powiedział Altman w wywiadzie dla ABC News, dodając: - Myślę, że ludzie powinni być zadowoleni, że trochę się tego boimy.
- Jestem szczególnie zaniepokojony, że te modele mogą być wykorzystywane do dezinformacji na dużą skalę i do cyberataków - powiedział Altman. Ale, mimo niebezpieczeństw, może to być również „największa technologia, jaką ludzkość kiedykolwiek opracowała”.
Altman udzielił wywiadu zaraz po wydaniu najnowszej wersji chatbota - GPT-4, mniej niż cztery miesiące od wydania oryginalnej wersji, która stała się najszybciej rozwijającą się aplikacją konsumencką w historii. Teraz nie ma dnia, by możliwości popularnej konwersacyjnej sztucznej inteligencji od OpenAI nie zaskakiwały, przełamując kolejne bariery. A nowa wersja ChatGPT jest jeszcze potężniejsza. Model GPT-4 udowodnił właśnie, że jest w stanie obejść blokady dla botów i umyślnie zwieść człowieka, aby osiągnąć cel.
Czytaj więcej
Sztuczna inteligencja ChatGPT w nowej wersji GPT-4 w zaledwie kilkadziesiąt sekund stworzyła grę wideo, napisała nowy scenariusz kultowego serialu i oszukała człowieka, udając osobę niewidomą.
W wywiadzie Altman stwierdził, że chociaż nowa wersja „nie jest doskonała”, uzyskała 90 proc. punktów w USA na egzaminach adwokackich i prawie doskonały wynik na teście matematycznym SAT w szkole średniej. Może również pisać kod komputerowy w większości języków programowania.
Prezes OpenAI broni zaawansowanej sztucznej inteligencji, ale ostrzega: - Czeka, aż ktoś da mu odpowiedni wkład, jest pod kontrolą człowieka, ale w przyszłości mogą pojawić się ludzie, którzy nie nałożą takich limitów bezpieczeństwa jak my - dodał.
Jak pisze brytyjski „The Guardian” dyrektor generalny Tesli, Elon Musk, jeden z pierwszych inwestorów w OpenAI, gdy była jeszcze firmą non-profit, wielokrotnie ostrzegał, że sztuczna inteligencja jest bardziej niebezpieczna niż broń jądrowa. Teraz wyraził zaniepokojenie, że Microsoft, który wsparł miliardami OpenAI i wprowadza ChatGPT-4 do swoich produktów, w tym do swojej wyszukiwarki Bing, rozwiązał swój dział nadzoru etycznego. „Nie ma nadzoru regulacyjnego nad sztuczną inteligencją, co jest poważnym problemem. Od ponad dekady wzywam do wprowadzenia regulacji bezpieczeństwa AI!” - Musk tweetował w grudniu. Kilka dni temu Musk zaniepokoił się, również na Twitterze, którego jest właścicielem: „Co pozostanie nam, ludziom, do zrobienia?”
Czytaj więcej
Wartość założonej przez Wojciecha Zarembę, Elona Muska i Sama Altmana firmy OpenAI, która oferuje konwersacyjną sztuczną inteligencję, wzrosła aż 20-krotnie. Rozwiązania typu ChatGPT w przyszłości mogą zastąpić tradycyjne wyszukiwarki.
Co ciekawe, grupa "ojców-założycieli" OpenAI, wcześniej, na przełomie lat 2000. stworzyła firmę PayPal. Wystarczy wspomnieć takie nazwiska, jak Peter Thiel (król świata technologii, jego fundusze mają udziały w wielu przedsiębiorstwach, on też był jednym z pierwszych inwestorów w Faceboku i współtwórcą firmy Palantir), Elon Musk (najbogatszy człowiek świata, twórca m.in. takich koncernów, jak SpaceX i Tesla, właściciel Twittera) czy Reid Hoffman (współzałożyciel LinkedIna i jego wieloletni prezes). Twórcę rewolucyjnej sztucznej inteligencji wspierały więc największe nazwiska Doliny Krzemowej.
Czytaj więcej
Firma OpenAI pokazała najnowszy model swojej rewolucyjnej sztucznej inteligencji: GPT-4. Teraz ta budząca nadzieje, ale i obawy technologia, stanie się jeszcze inteligentniejsza i powszechniejsza. Czy jesteśmy na to gotowi?
Sam Altman przyznał, że najnowsza wersja ChatGPT-4 używa rozumowania dedukcyjnego, a nie zapamiętywania, procesu, który może prowadzić do dziwacznych reakcji. - Rzeczą, którą staram się ostrzec ludzi najbardziej, jest to, co nazywamy „problemem halucynacji. Model będzie śmiało stwierdzał zmyślone rzeczy tak, jakby były faktami - powiedział Altman. - Chcemy, aby sztuczna inteligencja robiła coś bliższego zdolności rozumowania, a nie zapamiętywania.
To, co wyjmiesz, zależy od tego, co włożysz, ostrzegł niedawno Guardian w analizie o ChatGPT. „Zasługujemy na lepsze narzędzia, których używamy, media, które konsumujemy i społeczności, w których żyjemy, a dostaniemy to, na co zasługujemy, tylko wtedy, gdy będziemy w stanie w pełni w nich uczestniczyć” – ostrzega brytyjski dziennik.