W środę w Buckinghamshire w Wielkiej Brytanii rusza szczyt AI. Udział wezmą w nim członkowie grupy G7 oraz przedstawiciele UE, choć zabraknie prezydenta Stanów Zjednoczonych Joe Bidena. Inicjatywie przewodzi brytyjski premier Rishi Sunak, który ostrzega, iż sztuczna inteligencja „niesie ze sobą nowe niebezpieczeństwa i lęki”, których „łagodzenie musi stać się globalnym priorytetem”.
Globalne działania mające ograniczyć niekontrolowany rozwój zaawansowanych algorytmów wyraźnie przyspieszają. Nieobecność Bidena wcale nie oznacza, że USA wycofują się ze wspólnego frontu. Waszyngton tworzy własne ramy dla AI, podobnie Kanada.
Szczyt AI o zagrożeniach
Jeszcze przed startem szczytu w Buckinghamshire opracowano zarys 11-punktowego kodeksu, który ma promować tworzenie bezpiecznych algorytmów i godnej zaufania AI. Zawiera on jednak dobrowolne wytyczne dla firm z tego sektora. Mimo to koncerny z branży wcale nie bronią się przed odpowiedzialnością za technologię, którą tworzą. Giganci przyznają, że ryzyko jest duże.
Czytaj więcej
Profesor Ben Zhao z Uniwersytetu w Chicago oraz jego zespół badaczy stworzyli rozwiązanie, które ma uniemożliwić botom bezprawne kopiowanie twórczości. To cios w potentatów sztucznej inteligencji.
Świadczy zresztą o tym fakt, że OpenAI, twórca ChatGPT, powołał tzw. zespół gotowości. Ma on być swoistym bezpiecznikiem – ma bowiem śledzić, oceniać, prognozować i chronić przed zagrożeniami związanymi ze sztuczną inteligencją. Jego zadaniem jest „zapobieganie katastrofalnemu ryzyku”, jakie może wywołać sztuczna inteligencja. A to, jak wskazuje OpenAI w komunikacie, może mieć nawet charakter „chemiczny, biologiczny czy nuklearny”. Co ciekawe, na czele zespołu stanął Polak – Aleksander Mądry (profesor Massachusetts Institute of Technology).