„Potrzebujemy przełomów naukowych i technicznych, aby sterować i kontrolować systemami AI, które są o wiele inteligentniejsze od nas. Aby rozwiązać ten problem tworzymy nowy zespół i przeznaczamy na ten cel 20 proc. naszych zasobów obliczeniowych” – ogłosiła firma OpenAI. To pokazuje, że dla twórców ChatGPT zapanowanie nad zaawansowanymi algorytmami to dziś potężne wyzwanie. Eksperci wielokrotnie ostrzegali, że dynamiczny rozwój sztucznej inteligencji może zagrozić nawet ludzkiej egzystencji.

Czytaj więcej

Czy sztuczna inteligencja zagrozi ludzkości? Te filmy trzeba traktować poważnie

Specjalna grupa OpenAI ma zapobiec czarnym scenariuszom. Na jej czele stają Ilya Sutskever, współzałożyciel firmy i Jan Leike, ekspert w dziedzinie „ujarzmiania” AI. Zespół mają wzmocnić też najlepsi fachowcy z branży – rekrutacja właśnie ruszyła. Poszukiwani są badacze AI i inżynierowie uczenia maszynowego. OpenAI stawia sobie cel, by w ciągu czterech lat stworzyć rozwiązania, które pozwolą kontrolować superinteligencję, a więc algorytmy przewyższające znacznie człowieka. W firmie, która stoi za ChatGPT, są zdania, że owa superinteligencja pojawi się jeszcze w tej dekadzie. W opublikowanym oświadczeniu oznajmili, że może ona pomóc rozwiązać wiele problemów, ale może być też niebezpieczna – np. może przejąć władzę nad ludzkością, „a nawet ją zniszczyć”.

„Superinteligencja będzie najbardziej przełomową technologią, jaką ludzkość kiedykolwiek wynalazła” – piszą badacze z OpenAI. I przestrzegają, że będzie wymagało to stworzenia systemu nadzoru i ustanowienia instytucji zarządzania „dostosowaniem”. Przyznają przy tym, że dziś nie mamy rozwiązań, które pozwoliłby na kierowanie tak zaawansowaną sztuczną inteligencją i zapobiegały „buntowi” AI.