„Trochę się boimy”. Opracował ChatGPT, a teraz ostrzega

Sam Altman, dyrektor generalny OpenAI, firmy, która opracowała rewolucyjną sztuczną inteligencję i właśnie wprowadza udoskonaloną wersję ChatGPT-4, ostrzegł, że technologia ta wiąże się z poważnymi zagrożeniami i wymaga nadzoru.

Aktualizacja: 20.03.2023 15:25 Publikacja: 18.03.2023 09:37

Sam Altman uważa, że ChatGPT może być „największą technologią, jaką ludzkość kiedykolwiek opracowała

Sam Altman uważa, że ChatGPT może być „największą technologią, jaką ludzkość kiedykolwiek opracowała”

Foto: Bloomberg

37-letni Altman podkreślił, że organy regulacyjne i społeczeństwo muszą być zaangażowane w prace nad tą technologią, aby chronić się przed potencjalnie negatywnymi konsekwencjami dla ludzkości. - Musimy być tutaj ostrożni - powiedział Altman w wywiadzie dla ABC News, dodając: - Myślę, że ludzie powinni być zadowoleni, że trochę się tego boimy.

- Jestem szczególnie zaniepokojony, że te modele mogą być wykorzystywane do dezinformacji na dużą skalę i do cyberataków - powiedział Altman. Ale, mimo niebezpieczeństw, może to być również „największa technologia, jaką ludzkość kiedykolwiek opracowała”.

Altman udzielił wywiadu zaraz po wydaniu najnowszej wersji chatbota - GPT-4, mniej niż cztery miesiące od wydania oryginalnej wersji, która stała się najszybciej rozwijającą się aplikacją konsumencką w historii. Teraz nie ma dnia, by możliwości popularnej konwersacyjnej sztucznej inteligencji od OpenAI nie zaskakiwały, przełamując kolejne bariery. A nowa wersja ChatGPT jest jeszcze potężniejsza. Model GPT-4 udowodnił właśnie, że jest w stanie obejść blokady dla botów i umyślnie zwieść człowieka, aby osiągnąć cel.

Czytaj więcej

ChatGPT udawał niewidomego. Sprytny, szalony, groźny

W wywiadzie Altman stwierdził, że chociaż nowa wersja „nie jest doskonała”, uzyskała 90 proc. punktów w USA na egzaminach adwokackich i prawie doskonały wynik na teście matematycznym SAT w szkole średniej. Może również pisać kod komputerowy w większości języków programowania.

Prezes OpenAI broni zaawansowanej sztucznej inteligencji, ale ostrzega: - Czeka, aż ktoś da mu odpowiedni wkład, jest pod kontrolą człowieka, ale w przyszłości mogą pojawić się ludzie, którzy nie nałożą takich limitów bezpieczeństwa jak my - dodał.

Jak pisze brytyjski „The Guardian” dyrektor generalny Tesli, Elon Musk, jeden z pierwszych inwestorów w OpenAI, gdy była jeszcze firmą non-profit, wielokrotnie ostrzegał, że sztuczna inteligencja jest bardziej niebezpieczna niż broń jądrowa. Teraz wyraził zaniepokojenie, że Microsoft, który wsparł miliardami OpenAI i wprowadza ChatGPT-4 do swoich produktów, w tym do swojej wyszukiwarki Bing, rozwiązał swój dział nadzoru etycznego. „Nie ma nadzoru regulacyjnego nad sztuczną inteligencją, co jest poważnym problemem. Od ponad dekady wzywam do wprowadzenia regulacji bezpieczeństwa AI!” - Musk tweetował w grudniu. Kilka dni temu Musk zaniepokoił się, również na Twitterze, którego jest właścicielem: „Co pozostanie nam, ludziom, do zrobienia?”

Czytaj więcej

Polak z Kluczborka stoi za ChatGPT. Ta sztuczna inteligencja podbija świat

Co ciekawe, grupa "ojców-założycieli" OpenAI, wcześniej, na przełomie lat 2000. stworzyła firmę PayPal. Wystarczy wspomnieć takie nazwiska, jak Peter Thiel (król świata technologii, jego fundusze mają udziały w wielu przedsiębiorstwach, on też był jednym z pierwszych inwestorów w Faceboku i współtwórcą firmy Palantir), Elon Musk (najbogatszy człowiek świata, twórca m.in. takich koncernów, jak SpaceX i Tesla, właściciel Twittera) czy Reid Hoffman (współzałożyciel LinkedIna i jego wieloletni prezes). Twórcę rewolucyjnej sztucznej inteligencji wspierały więc największe nazwiska Doliny Krzemowej.

Czytaj więcej

ChatGPT coraz potężniejszy. Najnowsza wersja ma już „oczy” i rozumie sarkazm

Sam Altman przyznał, że najnowsza wersja ChatGPT-4 używa rozumowania dedukcyjnego, a nie zapamiętywania, procesu, który może prowadzić do dziwacznych reakcji. - Rzeczą, którą staram się ostrzec ludzi najbardziej, jest to, co nazywamy „problemem halucynacji. Model będzie śmiało stwierdzał zmyślone rzeczy tak, jakby były faktami - powiedział Altman. - Chcemy, aby sztuczna inteligencja robiła coś bliższego zdolności rozumowania, a nie zapamiętywania.

To, co wyjmiesz, zależy od tego, co włożysz, ostrzegł niedawno Guardian w analizie o ChatGPT. „Zasługujemy na lepsze narzędzia, których używamy, media, które konsumujemy i społeczności, w których żyjemy, a dostaniemy to, na co zasługujemy, tylko wtedy, gdy będziemy w stanie w pełni w nich uczestniczyć” – ostrzega brytyjski dziennik.


37-letni Altman podkreślił, że organy regulacyjne i społeczeństwo muszą być zaangażowane w prace nad tą technologią, aby chronić się przed potencjalnie negatywnymi konsekwencjami dla ludzkości. - Musimy być tutaj ostrożni - powiedział Altman w wywiadzie dla ABC News, dodając: - Myślę, że ludzie powinni być zadowoleni, że trochę się tego boimy.

- Jestem szczególnie zaniepokojony, że te modele mogą być wykorzystywane do dezinformacji na dużą skalę i do cyberataków - powiedział Altman. Ale, mimo niebezpieczeństw, może to być również „największa technologia, jaką ludzkość kiedykolwiek opracowała”.

Pozostało 87% artykułu
2 / 3
artykułów
Czytaj dalej. Kup teraz
Technologie
Auta z dronem na dachu. Zdumiewający trend po Chinach może podbić świat
Technologie
To będzie największy samolot świata. Takiego ładunku nikt jeszcze nie zabrał
Technologie
Olbrzymie działo wystrzeli statek w kosmos. Chiny nie potrzebują rakiet
Technologie
Rosja traci pozycję w kosmosie. Putin chce atomowego statku kosmicznego
Technologie
Polak z kierownictwa OpenAI do polityków: Zbudujmy polską sztuczną inteligencję