Reklama

Donald Trump to nic. Przed tym „egzystencjalnym zagrożeniem” ostrzegają eksperci

Należąca do Google spółka specjalizująca się w sztucznej inteligencji opublikowała 145-stronicowy dokument na temat bezpieczeństwa tej technologii. Przewiduje w nim rozwój AGI, czyli tzw. generalnej AI, do 2030 r. Wnioski są niepokojące.

Publikacja: 03.04.2025 13:00

Kiedy świat żyje kolejnymi pomysłami Donalda Trumpa, osłabło zainteresowanie sztuczną inteligencją.

Kiedy świat żyje kolejnymi pomysłami Donalda Trumpa, osłabło zainteresowanie sztuczną inteligencją. Jej rozwój może doproadzic do powstania AGI, świadomej AI o ogromnych możliwościach

Foto: Bloomberg

DeepMind – brytyjska firma AI, założona przez jedne z najgłośniejszych nazwisk w tej branży: Demisa Hassabisa i Mustafę Suleymana – opracował dokument, w którym autorzy przestrzegają przed „poważnymi szkodami" związanymi z rozwojem sztucznej inteligencji.

Kiedy pojawi się AGI? Szybki rozwój AI

W liczącym 145 stron dokumencie naukowcy wzięli pod lupę perspektywy rozwoju AI do 2030 r. Skupili się też na potencjalnym stworzeniu tzw. generalnej AI (AGI). Firma, która w 2014 r. została przejęta przez Google, wskazuje m.in. na egzystencjonalne zagrożenie dla ludzkości. Krytycznie odnosi się też do podejścia w zakresie AGI, jakie prezentują rywale: OpenAI i Anthropic. Należąca do Google spółka podkreśla potrzebę monitorowania rozwoju tej technologii oraz stworzenia odpowiednich zabezpieczeń, jak również ustanowienia swoistej „kontroli dostępu” do tego typu systemów.

Czytaj więcej

Polskiego uczonego nazywają „Oppenheimerem AI". Ostrzega: AI może zagrozić demokracji

Budowa rozwiązań, które zapewnią ludzkości bezpieczeństwo w kontekście dynamicznego rozwoju AI, to – wedle DeepMind – konieczność. Eksperci zwracają bowiem uwagę na zdolność AI do ulepszania samej siebie. To zjawisko, zdaniem badaczy, może być szczególnie niebezpieczne. Paradoksalnie jednak analiza Google DeepMind wskazuje, że szybki rozwój superinteligencji jest wątpliwy. W dokumencie podają jednak, że zbudowanie AGI, a więc systemu zdolnego do wykonywania wszystkich zadań, jakie może wykonać człowiek, jest możliwe w perspektywie najbliższych pięciu lat.

Jakie zagrożenia niesie rozwój sztucznej inteligencji?

DeepMind definiuje AGI jako system dorównujący 1 proc. najbardziej wykwalifikowanych ludzi w konkretnych zadaniach. Stworzenie tak zaawansowanej technologii wymaga opracowania „barier”. Dokument zaleca opracowanie metod zabezpieczających AGI przed dostępem niepowołanych osób, zwiększenie zrozumienia działania systemów AI oraz „wzmocnienie” środowisk, w których operuje sztuczna inteligencja.

Reklama
Reklama

Czytaj więcej

„Jak trzylatek wobec dorosłego”. Ta technologia może zniszczyć świat, ryzyko rośnie

Jednakże zagrożeń związanych z AI jest więcej. Jedno z kluczowych niebezpieczeństw wynika choćby z tzw. halucynacji. Sytuacja, gdy modele uczą się na własnych, często błędnych danych, prowadzi do szerzenia dezinformacji.

Technologie
Awaryjny powrót astronautów z USA. Kosmosu nie da się podbić bez sztucznej grawitacji
Technologie
ChatGPT przejmuje zdrowie. Czy lekarze mają się czego bać?
Technologie
Nie Tesla i nie Apple. Wielka gwiazda muzyki pokazuje pojazd przyszłości
Technologie
Chińczycy rzucają wyzwanie Tesli. Wchodzą do USA z humanoidalnymi robotami
Technologie
AI wypisze leki zamiast lekarza? Kontrowersyjny krok w USA
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama