Donald Trump to nic. Przed tym „egzystencjalnym zagrożeniem” ostrzegają eksperci

Należąca do Google spółka specjalizująca się w sztucznej inteligencji opublikowała 145-stronicowy dokument na temat bezpieczeństwa tej technologii. Przewiduje w nim rozwój AGI, czyli tzw. generalnej AI, do 2030 r. Wnioski są niepokojące.

Publikacja: 03.04.2025 13:00

Kiedy świat żyje kolejnymi pomysłami Donalda Trumpa, osłabło zainteresowanie sztuczną inteligencją.

Kiedy świat żyje kolejnymi pomysłami Donalda Trumpa, osłabło zainteresowanie sztuczną inteligencją. Jej rozwój może doproadzic do powstania AGI, świadomej AI o ogromnych możliwościach

Foto: Bloomberg

DeepMind – brytyjska firma AI, założona przez jedne z najgłośniejszych nazwisk w tej branży: Demisa Hassabisa i Mustafę Suleymana – opracował dokument, w którym autorzy przestrzegają przed „poważnymi szkodami" związanymi z rozwojem sztucznej inteligencji.

Kiedy pojawi się AGI? Szybki rozwój AI

W liczącym 145 stron dokumencie naukowcy wzięli pod lupę perspektywy rozwoju AI do 2030 r. Skupili się też na potencjalnym stworzeniu tzw. generalnej AI (AGI). Firma, która w 2014 r. została przejęta przez Google, wskazuje m.in. na egzystencjonalne zagrożenie dla ludzkości. Krytycznie odnosi się też do podejścia w zakresie AGI, jakie prezentują rywale: OpenAI i Anthropic. Należąca do Google spółka podkreśla potrzebę monitorowania rozwoju tej technologii oraz stworzenia odpowiednich zabezpieczeń, jak również ustanowienia swoistej „kontroli dostępu” do tego typu systemów.

Czytaj więcej

Polskiego uczonego nazywają „Oppenheimerem AI". Ostrzega: AI może zagrozić demokracji

Budowa rozwiązań, które zapewnią ludzkości bezpieczeństwo w kontekście dynamicznego rozwoju AI, to – wedle DeepMind – konieczność. Eksperci zwracają bowiem uwagę na zdolność AI do ulepszania samej siebie. To zjawisko, zdaniem badaczy, może być szczególnie niebezpieczne. Paradoksalnie jednak analiza Google DeepMind wskazuje, że szybki rozwój superinteligencji jest wątpliwy. W dokumencie podają jednak, że zbudowanie AGI, a więc systemu zdolnego do wykonywania wszystkich zadań, jakie może wykonać człowiek, jest możliwe w perspektywie najbliższych pięciu lat.

Jakie zagrożenia niesie rozwój sztucznej inteligencji?

DeepMind definiuje AGI jako system dorównujący 1 proc. najbardziej wykwalifikowanych ludzi w konkretnych zadaniach. Stworzenie tak zaawansowanej technologii wymaga opracowania „barier”. Dokument zaleca opracowanie metod zabezpieczających AGI przed dostępem niepowołanych osób, zwiększenie zrozumienia działania systemów AI oraz „wzmocnienie” środowisk, w których operuje sztuczna inteligencja.

Czytaj więcej

„Jak trzylatek wobec dorosłego”. Ta technologia może zniszczyć świat, ryzyko rośnie

Jednakże zagrożeń związanych z AI jest więcej. Jedno z kluczowych niebezpieczeństw wynika choćby z tzw. halucynacji. Sytuacja, gdy modele uczą się na własnych, często błędnych danych, prowadzi do szerzenia dezinformacji.

Technologie
Ta technologia da chińskim dronom wielką przewagę. Wysokość nie będzie problemem
Technologie
Człowiek przestał być już potrzebny. Roboty uzyskały zaskakującą umiejętność
Technologie
Naukowcy zaskoczeni. AI może spontanicznie rozwijać komunikację podobną do ludzkiej
Technologie
Może złamać wszelkie zabezpieczenia, ale i wyleczyć raka. Ta technologia przebije AI
Technologie
Przyłapała nauczyciela na korzystaniu z ChatGPT. Studentka chce zwrotu czesnego