Była pracownica Facebooka Francis Haugen zeznała, że jego algorytmy są tak zaprojektowane, by promować treści zawierające kontrowersje i nienawiść. Firma zrezygnowała też ze sztucznej inteligencji wykorzystywanej do rozpoznawania twarzy, bo się myliła. AI staje się zagrożeniem?
Tak. Problemy ze sztuczną inteligencją widać na przykładzie platform społecznościowych, ale i w wielu innych miejscach, jak np. auta autonomiczne. Nie tak dawno eksperymentalny samochód autonomiczny Ubera zabił w Arizonie przechodnia. Widać, że AI ma dwa podstawowe problemy, z których wynikają wszelkie zagrożenia. To brak zaufania, bo wciąż nie możemy wypuścić do środowiska pewnego w 100 proc. systemu.
Drugi warunek, który musi spełnić AI to „wytłumaczalność”. Auto Ubera zobaczyło przechodnia, ale podjęło taką a nie inną decyzję, zablokowało system hamowania przed przeszkodą. Algorytmy i technologie sztucznej inteligencji stają się już tak skomplikowane, że często nie są w stanie wytłumaczyć, dlaczego tak się stało. Dopóki nie będzie to możliwe, nie osiągniemy jednak wspomnianego „zaufania”.
Stąd coraz powszechniejsza zmiana podejścia do AI. Coraz częściej skupiamy się na pracach nad inteligencją rozszerzoną, czyli taką, która ma tylko wspomagać człowieka i rozszerzać jego możliwości, a nie zastępować, tworząc jakiś samodzielny byt.
Zaczynając naszą rozmowę od Facebook’owych algorytmów, zwrócił Pan uwagę na niesłychanie istotny, znacznie szerszy globalny aspekt. Po raz pierwszy w historii inżynieria informatyczna boryka się z problemami , które są zdecydowanie natury filozoficznej, takimi jak wolna wola, sens życia, sens ludzkości nawet. Pisanie algorytmów to dziś kształtowanie świata.