„Trochę się boimy”. Opracował ChatGPT, a teraz ostrzega

Sam Altman, dyrektor generalny OpenAI, firmy, która opracowała rewolucyjną sztuczną inteligencję i właśnie wprowadza udoskonaloną wersję ChatGPT-4, ostrzegł, że technologia ta wiąże się z poważnymi zagrożeniami i wymaga nadzoru.

Aktualizacja: 20.03.2023 15:25 Publikacja: 18.03.2023 09:37

Sam Altman uważa, że ChatGPT może być „największą technologią, jaką ludzkość kiedykolwiek opracowała

Sam Altman uważa, że ChatGPT może być „największą technologią, jaką ludzkość kiedykolwiek opracowała”

Foto: Bloomberg

37-letni Altman podkreślił, że organy regulacyjne i społeczeństwo muszą być zaangażowane w prace nad tą technologią, aby chronić się przed potencjalnie negatywnymi konsekwencjami dla ludzkości. - Musimy być tutaj ostrożni - powiedział Altman w wywiadzie dla ABC News, dodając: - Myślę, że ludzie powinni być zadowoleni, że trochę się tego boimy.

- Jestem szczególnie zaniepokojony, że te modele mogą być wykorzystywane do dezinformacji na dużą skalę i do cyberataków - powiedział Altman. Ale, mimo niebezpieczeństw, może to być również „największa technologia, jaką ludzkość kiedykolwiek opracowała”.

Altman udzielił wywiadu zaraz po wydaniu najnowszej wersji chatbota - GPT-4, mniej niż cztery miesiące od wydania oryginalnej wersji, która stała się najszybciej rozwijającą się aplikacją konsumencką w historii. Teraz nie ma dnia, by możliwości popularnej konwersacyjnej sztucznej inteligencji od OpenAI nie zaskakiwały, przełamując kolejne bariery. A nowa wersja ChatGPT jest jeszcze potężniejsza. Model GPT-4 udowodnił właśnie, że jest w stanie obejść blokady dla botów i umyślnie zwieść człowieka, aby osiągnąć cel.

Czytaj więcej

ChatGPT udawał niewidomego. Sprytny, szalony, groźny

W wywiadzie Altman stwierdził, że chociaż nowa wersja „nie jest doskonała”, uzyskała 90 proc. punktów w USA na egzaminach adwokackich i prawie doskonały wynik na teście matematycznym SAT w szkole średniej. Może również pisać kod komputerowy w większości języków programowania.

Prezes OpenAI broni zaawansowanej sztucznej inteligencji, ale ostrzega: - Czeka, aż ktoś da mu odpowiedni wkład, jest pod kontrolą człowieka, ale w przyszłości mogą pojawić się ludzie, którzy nie nałożą takich limitów bezpieczeństwa jak my - dodał.

Jak pisze brytyjski „The Guardian” dyrektor generalny Tesli, Elon Musk, jeden z pierwszych inwestorów w OpenAI, gdy była jeszcze firmą non-profit, wielokrotnie ostrzegał, że sztuczna inteligencja jest bardziej niebezpieczna niż broń jądrowa. Teraz wyraził zaniepokojenie, że Microsoft, który wsparł miliardami OpenAI i wprowadza ChatGPT-4 do swoich produktów, w tym do swojej wyszukiwarki Bing, rozwiązał swój dział nadzoru etycznego. „Nie ma nadzoru regulacyjnego nad sztuczną inteligencją, co jest poważnym problemem. Od ponad dekady wzywam do wprowadzenia regulacji bezpieczeństwa AI!” - Musk tweetował w grudniu. Kilka dni temu Musk zaniepokoił się, również na Twitterze, którego jest właścicielem: „Co pozostanie nam, ludziom, do zrobienia?”

Czytaj więcej

Polak z Kluczborka stoi za ChatGPT. Ta sztuczna inteligencja podbija świat

Co ciekawe, grupa "ojców-założycieli" OpenAI, wcześniej, na przełomie lat 2000. stworzyła firmę PayPal. Wystarczy wspomnieć takie nazwiska, jak Peter Thiel (król świata technologii, jego fundusze mają udziały w wielu przedsiębiorstwach, on też był jednym z pierwszych inwestorów w Faceboku i współtwórcą firmy Palantir), Elon Musk (najbogatszy człowiek świata, twórca m.in. takich koncernów, jak SpaceX i Tesla, właściciel Twittera) czy Reid Hoffman (współzałożyciel LinkedIna i jego wieloletni prezes). Twórcę rewolucyjnej sztucznej inteligencji wspierały więc największe nazwiska Doliny Krzemowej.

Czytaj więcej

ChatGPT coraz potężniejszy. Najnowsza wersja ma już „oczy” i rozumie sarkazm

Sam Altman przyznał, że najnowsza wersja ChatGPT-4 używa rozumowania dedukcyjnego, a nie zapamiętywania, procesu, który może prowadzić do dziwacznych reakcji. - Rzeczą, którą staram się ostrzec ludzi najbardziej, jest to, co nazywamy „problemem halucynacji. Model będzie śmiało stwierdzał zmyślone rzeczy tak, jakby były faktami - powiedział Altman. - Chcemy, aby sztuczna inteligencja robiła coś bliższego zdolności rozumowania, a nie zapamiętywania.

To, co wyjmiesz, zależy od tego, co włożysz, ostrzegł niedawno Guardian w analizie o ChatGPT. „Zasługujemy na lepsze narzędzia, których używamy, media, które konsumujemy i społeczności, w których żyjemy, a dostaniemy to, na co zasługujemy, tylko wtedy, gdy będziemy w stanie w pełni w nich uczestniczyć” – ostrzega brytyjski dziennik.


37-letni Altman podkreślił, że organy regulacyjne i społeczeństwo muszą być zaangażowane w prace nad tą technologią, aby chronić się przed potencjalnie negatywnymi konsekwencjami dla ludzkości. - Musimy być tutaj ostrożni - powiedział Altman w wywiadzie dla ABC News, dodając: - Myślę, że ludzie powinni być zadowoleni, że trochę się tego boimy.

- Jestem szczególnie zaniepokojony, że te modele mogą być wykorzystywane do dezinformacji na dużą skalę i do cyberataków - powiedział Altman. Ale, mimo niebezpieczeństw, może to być również „największa technologia, jaką ludzkość kiedykolwiek opracowała”.

Pozostało 87% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Ukraińcy stworzyli niezwykły okręt podwodny w technologii stealth. Rosja ma problem
Technologie
Legenda muzyki została pierwszym pasażerem latającego samochodu
Technologie
Naukowcy odkryli, gdzie pochowano Platona. Pomogło „bioniczne oko”
Technologie
Ozempic to również lek na niepłodność? Zaskakujące doniesienia o ciążach
Technologie
Wystarczy zdjęcie twarzy. Sztuczna inteligencja posiadła groźną umiejętność