Reklama
Rozwiń
Reklama

„Trochę się boimy”. Opracował ChatGPT, a teraz ostrzega

Sam Altman, dyrektor generalny OpenAI, firmy, która opracowała rewolucyjną sztuczną inteligencję i właśnie wprowadza udoskonaloną wersję ChatGPT-4, ostrzegł, że technologia ta wiąże się z poważnymi zagrożeniami i wymaga nadzoru.

Aktualizacja: 20.03.2023 15:25 Publikacja: 18.03.2023 09:37

Sam Altman uważa, że ChatGPT może być „największą technologią, jaką ludzkość kiedykolwiek opracowała

Sam Altman uważa, że ChatGPT może być „największą technologią, jaką ludzkość kiedykolwiek opracowała”

Foto: Bloomberg

37-letni Altman podkreślił, że organy regulacyjne i społeczeństwo muszą być zaangażowane w prace nad tą technologią, aby chronić się przed potencjalnie negatywnymi konsekwencjami dla ludzkości. - Musimy być tutaj ostrożni - powiedział Altman w wywiadzie dla ABC News, dodając: - Myślę, że ludzie powinni być zadowoleni, że trochę się tego boimy.

- Jestem szczególnie zaniepokojony, że te modele mogą być wykorzystywane do dezinformacji na dużą skalę i do cyberataków - powiedział Altman. Ale, mimo niebezpieczeństw, może to być również „największa technologia, jaką ludzkość kiedykolwiek opracowała”.

Altman udzielił wywiadu zaraz po wydaniu najnowszej wersji chatbota - GPT-4, mniej niż cztery miesiące od wydania oryginalnej wersji, która stała się najszybciej rozwijającą się aplikacją konsumencką w historii. Teraz nie ma dnia, by możliwości popularnej konwersacyjnej sztucznej inteligencji od OpenAI nie zaskakiwały, przełamując kolejne bariery. A nowa wersja ChatGPT jest jeszcze potężniejsza. Model GPT-4 udowodnił właśnie, że jest w stanie obejść blokady dla botów i umyślnie zwieść człowieka, aby osiągnąć cel.

Czytaj więcej

ChatGPT udawał niewidomego. Sprytny, szalony, groźny

W wywiadzie Altman stwierdził, że chociaż nowa wersja „nie jest doskonała”, uzyskała 90 proc. punktów w USA na egzaminach adwokackich i prawie doskonały wynik na teście matematycznym SAT w szkole średniej. Może również pisać kod komputerowy w większości języków programowania.

Reklama
Reklama

Prezes OpenAI broni zaawansowanej sztucznej inteligencji, ale ostrzega: - Czeka, aż ktoś da mu odpowiedni wkład, jest pod kontrolą człowieka, ale w przyszłości mogą pojawić się ludzie, którzy nie nałożą takich limitów bezpieczeństwa jak my - dodał.

Jak pisze brytyjski „The Guardian” dyrektor generalny Tesli, Elon Musk, jeden z pierwszych inwestorów w OpenAI, gdy była jeszcze firmą non-profit, wielokrotnie ostrzegał, że sztuczna inteligencja jest bardziej niebezpieczna niż broń jądrowa. Teraz wyraził zaniepokojenie, że Microsoft, który wsparł miliardami OpenAI i wprowadza ChatGPT-4 do swoich produktów, w tym do swojej wyszukiwarki Bing, rozwiązał swój dział nadzoru etycznego. „Nie ma nadzoru regulacyjnego nad sztuczną inteligencją, co jest poważnym problemem. Od ponad dekady wzywam do wprowadzenia regulacji bezpieczeństwa AI!” - Musk tweetował w grudniu. Kilka dni temu Musk zaniepokoił się, również na Twitterze, którego jest właścicielem: „Co pozostanie nam, ludziom, do zrobienia?”

Czytaj więcej

Polak z Kluczborka stoi za ChatGPT. Ta sztuczna inteligencja podbija świat

Co ciekawe, grupa "ojców-założycieli" OpenAI, wcześniej, na przełomie lat 2000. stworzyła firmę PayPal. Wystarczy wspomnieć takie nazwiska, jak Peter Thiel (król świata technologii, jego fundusze mają udziały w wielu przedsiębiorstwach, on też był jednym z pierwszych inwestorów w Faceboku i współtwórcą firmy Palantir), Elon Musk (najbogatszy człowiek świata, twórca m.in. takich koncernów, jak SpaceX i Tesla, właściciel Twittera) czy Reid Hoffman (współzałożyciel LinkedIna i jego wieloletni prezes). Twórcę rewolucyjnej sztucznej inteligencji wspierały więc największe nazwiska Doliny Krzemowej.

Czytaj więcej

ChatGPT coraz potężniejszy. Najnowsza wersja ma już „oczy” i rozumie sarkazm

Sam Altman przyznał, że najnowsza wersja ChatGPT-4 używa rozumowania dedukcyjnego, a nie zapamiętywania, procesu, który może prowadzić do dziwacznych reakcji. - Rzeczą, którą staram się ostrzec ludzi najbardziej, jest to, co nazywamy „problemem halucynacji. Model będzie śmiało stwierdzał zmyślone rzeczy tak, jakby były faktami - powiedział Altman. - Chcemy, aby sztuczna inteligencja robiła coś bliższego zdolności rozumowania, a nie zapamiętywania.

Reklama
Reklama

To, co wyjmiesz, zależy od tego, co włożysz, ostrzegł niedawno Guardian w analizie o ChatGPT. „Zasługujemy na lepsze narzędzia, których używamy, media, które konsumujemy i społeczności, w których żyjemy, a dostaniemy to, na co zasługujemy, tylko wtedy, gdy będziemy w stanie w pełni w nich uczestniczyć” – ostrzega brytyjski dziennik.


Technologie
Prognozy i przewidywania na 2026 r.: spokojniej i bardziej odpowiedzialnie
Technologie
Rusza nowy polski chatbot. To początek prawdziwej rewolucji
Technologie
AI niszczy samodzielne myślenie? Naukowcy biją na alarm
Technologie
Straż graniczna USA sięgnęła po nową broń. Nielegalni imigranci muszą szukać nowych dróg
Materiał Promocyjny
Polska jest dla nas strategicznym rynkiem
Technologie
Sztuczna inteligencja w medycynie wykazuje uprzedzenia. Nowe badania z Harvardu
Materiał Promocyjny
Podpis elektroniczny w aplikacji mObywatel – cyfrowe narzędzie, które ułatwia życie
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama