Donald Trump to nic. Przed tym „egzystencjalnym zagrożeniem” ostrzegają eksperci

Należąca do Google spółka specjalizująca się w sztucznej inteligencji opublikowała 145-stronicowy dokument na temat bezpieczeństwa tej technologii. Przewiduje w nim rozwój AGI, czyli tzw. generalnej AI, do 2030 r. Wnioski są niepokojące.

Publikacja: 03.04.2025 13:00

Kiedy świat żyje kolejnymi pomysłami Donalda Trumpa, osłabło zainteresowanie sztuczną inteligencją.

Kiedy świat żyje kolejnymi pomysłami Donalda Trumpa, osłabło zainteresowanie sztuczną inteligencją. Jej rozwój może doproadzic do powstania AGI, świadomej AI o ogromnych możliwościach

Foto: Bloomberg

DeepMind – brytyjska firma AI, założona przez jedne z najgłośniejszych nazwisk w tej branży: Demisa Hassabisa i Mustafę Suleymana – opracował dokument, w którym autorzy przestrzegają przed „poważnymi szkodami" związanymi z rozwojem sztucznej inteligencji.

Kiedy pojawi się AGI? Szybki rozwój AI

W liczącym 145 stron dokumencie naukowcy wzięli pod lupę perspektywy rozwoju AI do 2030 r. Skupili się też na potencjalnym stworzeniu tzw. generalnej AI (AGI). Firma, która w 2014 r. została przejęta przez Google, wskazuje m.in. na egzystencjonalne zagrożenie dla ludzkości. Krytycznie odnosi się też do podejścia w zakresie AGI, jakie prezentują rywale: OpenAI i Anthropic. Należąca do Google spółka podkreśla potrzebę monitorowania rozwoju tej technologii oraz stworzenia odpowiednich zabezpieczeń, jak również ustanowienia swoistej „kontroli dostępu” do tego typu systemów.

Czytaj więcej

Polskiego uczonego nazywają „Oppenheimerem AI". Ostrzega: AI może zagrozić demokracji

Budowa rozwiązań, które zapewnią ludzkości bezpieczeństwo w kontekście dynamicznego rozwoju AI, to – wedle DeepMind – konieczność. Eksperci zwracają bowiem uwagę na zdolność AI do ulepszania samej siebie. To zjawisko, zdaniem badaczy, może być szczególnie niebezpieczne. Paradoksalnie jednak analiza Google DeepMind wskazuje, że szybki rozwój superinteligencji jest wątpliwy. W dokumencie podają jednak, że zbudowanie AGI, a więc systemu zdolnego do wykonywania wszystkich zadań, jakie może wykonać człowiek, jest możliwe w perspektywie najbliższych pięciu lat.

Jakie zagrożenia niesie rozwój sztucznej inteligencji?

DeepMind definiuje AGI jako system dorównujący 1 proc. najbardziej wykwalifikowanych ludzi w konkretnych zadaniach. Stworzenie tak zaawansowanej technologii wymaga opracowania „barier”. Dokument zaleca opracowanie metod zabezpieczających AGI przed dostępem niepowołanych osób, zwiększenie zrozumienia działania systemów AI oraz „wzmocnienie” środowisk, w których operuje sztuczna inteligencja.

Czytaj więcej

„Jak trzylatek wobec dorosłego”. Ta technologia może zniszczyć świat, ryzyko rośnie

Jednakże zagrożeń związanych z AI jest więcej. Jedno z kluczowych niebezpieczeństw wynika choćby z tzw. halucynacji. Sytuacja, gdy modele uczą się na własnych, często błędnych danych, prowadzi do szerzenia dezinformacji.

DeepMind – brytyjska firma AI, założona przez jedne z najgłośniejszych nazwisk w tej branży: Demisa Hassabisa i Mustafę Suleymana – opracował dokument, w którym autorzy przestrzegają przed „poważnymi szkodami" związanymi z rozwojem sztucznej inteligencji.

Kiedy pojawi się AGI? Szybki rozwój AI

Pozostało jeszcze 88% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Lekarze postawili chorej złą diagnozę. ChatGPT uratował jej życie
Technologie
Rewolucja na budowach. Ludzie nie będą już potrzebni
Technologie
To ma być „mur" nie do przebicia. Kraje NATO łączą siły
Technologie
Maszyny zyskają kolejny zmysł. To rewolucja w robotyce
Materiał Promocyjny
Jak Meta dba o bezpieczeństwo wyborów w Polsce?
Technologie
Koniec z fałszywymi uśmiechami. Teraz będzie już można łatwo poznać prawdziwe uczucia