DeepMind – brytyjska firma AI, założona przez jedne z najgłośniejszych nazwisk w tej branży: Demisa Hassabisa i Mustafę Suleymana – opracował dokument, w którym autorzy przestrzegają przed „poważnymi szkodami" związanymi z rozwojem sztucznej inteligencji.
Kiedy pojawi się AGI? Szybki rozwój AI
W liczącym 145 stron dokumencie naukowcy wzięli pod lupę perspektywy rozwoju AI do 2030 r. Skupili się też na potencjalnym stworzeniu tzw. generalnej AI (AGI). Firma, która w 2014 r. została przejęta przez Google, wskazuje m.in. na egzystencjonalne zagrożenie dla ludzkości. Krytycznie odnosi się też do podejścia w zakresie AGI, jakie prezentują rywale: OpenAI i Anthropic. Należąca do Google spółka podkreśla potrzebę monitorowania rozwoju tej technologii oraz stworzenia odpowiednich zabezpieczeń, jak również ustanowienia swoistej „kontroli dostępu” do tego typu systemów.
Czytaj więcej
Sztuczna inteligencja pozwala dostosować program polityczny, a nawet pomóc w jego wymyśleniu. Pol...
Budowa rozwiązań, które zapewnią ludzkości bezpieczeństwo w kontekście dynamicznego rozwoju AI, to – wedle DeepMind – konieczność. Eksperci zwracają bowiem uwagę na zdolność AI do ulepszania samej siebie. To zjawisko, zdaniem badaczy, może być szczególnie niebezpieczne. Paradoksalnie jednak analiza Google DeepMind wskazuje, że szybki rozwój superinteligencji jest wątpliwy. W dokumencie podają jednak, że zbudowanie AGI, a więc systemu zdolnego do wykonywania wszystkich zadań, jakie może wykonać człowiek, jest możliwe w perspektywie najbliższych pięciu lat.
Jakie zagrożenia niesie rozwój sztucznej inteligencji?
DeepMind definiuje AGI jako system dorównujący 1 proc. najbardziej wykwalifikowanych ludzi w konkretnych zadaniach. Stworzenie tak zaawansowanej technologii wymaga opracowania „barier”. Dokument zaleca opracowanie metod zabezpieczających AGI przed dostępem niepowołanych osób, zwiększenie zrozumienia działania systemów AI oraz „wzmocnienie” środowisk, w których operuje sztuczna inteligencja.