Reklama

Donald Trump to nic. Przed tym „egzystencjalnym zagrożeniem” ostrzegają eksperci

Należąca do Google spółka specjalizująca się w sztucznej inteligencji opublikowała 145-stronicowy dokument na temat bezpieczeństwa tej technologii. Przewiduje w nim rozwój AGI, czyli tzw. generalnej AI, do 2030 r. Wnioski są niepokojące.

Publikacja: 03.04.2025 13:00

Kiedy świat żyje kolejnymi pomysłami Donalda Trumpa, osłabło zainteresowanie sztuczną inteligencją.

Kiedy świat żyje kolejnymi pomysłami Donalda Trumpa, osłabło zainteresowanie sztuczną inteligencją. Jej rozwój może doproadzic do powstania AGI, świadomej AI o ogromnych możliwościach

Foto: Bloomberg

DeepMind – brytyjska firma AI, założona przez jedne z najgłośniejszych nazwisk w tej branży: Demisa Hassabisa i Mustafę Suleymana – opracował dokument, w którym autorzy przestrzegają przed „poważnymi szkodami" związanymi z rozwojem sztucznej inteligencji.

Kiedy pojawi się AGI? Szybki rozwój AI

W liczącym 145 stron dokumencie naukowcy wzięli pod lupę perspektywy rozwoju AI do 2030 r. Skupili się też na potencjalnym stworzeniu tzw. generalnej AI (AGI). Firma, która w 2014 r. została przejęta przez Google, wskazuje m.in. na egzystencjonalne zagrożenie dla ludzkości. Krytycznie odnosi się też do podejścia w zakresie AGI, jakie prezentują rywale: OpenAI i Anthropic. Należąca do Google spółka podkreśla potrzebę monitorowania rozwoju tej technologii oraz stworzenia odpowiednich zabezpieczeń, jak również ustanowienia swoistej „kontroli dostępu” do tego typu systemów.

Czytaj więcej

Polskiego uczonego nazywają „Oppenheimerem AI". Ostrzega: AI może zagrozić demokracji

Budowa rozwiązań, które zapewnią ludzkości bezpieczeństwo w kontekście dynamicznego rozwoju AI, to – wedle DeepMind – konieczność. Eksperci zwracają bowiem uwagę na zdolność AI do ulepszania samej siebie. To zjawisko, zdaniem badaczy, może być szczególnie niebezpieczne. Paradoksalnie jednak analiza Google DeepMind wskazuje, że szybki rozwój superinteligencji jest wątpliwy. W dokumencie podają jednak, że zbudowanie AGI, a więc systemu zdolnego do wykonywania wszystkich zadań, jakie może wykonać człowiek, jest możliwe w perspektywie najbliższych pięciu lat.

Jakie zagrożenia niesie rozwój sztucznej inteligencji?

DeepMind definiuje AGI jako system dorównujący 1 proc. najbardziej wykwalifikowanych ludzi w konkretnych zadaniach. Stworzenie tak zaawansowanej technologii wymaga opracowania „barier”. Dokument zaleca opracowanie metod zabezpieczających AGI przed dostępem niepowołanych osób, zwiększenie zrozumienia działania systemów AI oraz „wzmocnienie” środowisk, w których operuje sztuczna inteligencja.

Reklama
Reklama

Czytaj więcej

„Jak trzylatek wobec dorosłego”. Ta technologia może zniszczyć świat, ryzyko rośnie

Jednakże zagrożeń związanych z AI jest więcej. Jedno z kluczowych niebezpieczeństw wynika choćby z tzw. halucynacji. Sytuacja, gdy modele uczą się na własnych, często błędnych danych, prowadzi do szerzenia dezinformacji.

Technologie
Coraz więcej pracowników korzysta z AI. Oto zadania, do których najczęściej ją wykorzystują
Technologie
„Ostateczne ryzyko” rozwoju AI. Współzałożyciel Anthropic wskazuje ważną datę
Technologie
Duża zmiana w ChatGPT już w 2026 roku. OpenAI ma nowy pomysł „dla dorosłych"
Technologie
Roboty nakarmią pracowników. Niemcy wieszczą koniec kolejek po lunch
Technologie
Krawiec dla robotów. Szef Nvidii mówi o zawodach przyszłości i wpływie AI
Materiał Promocyjny
Lojalność, która naprawdę się opłaca. Skorzystaj z Circle K extra
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama