OPINIA PARTNERA
Podobne zachowania mogą wystąpić w przypadku sztucznej inteligencji (AI), zwłaszcza gdy do programowania AI wykorzystywane są techniki uczenia maszynowego. Powszechnie stosowana technika, tzw. nadzorowane uczenie maszynowe wymaga, aby systemy AI były szkolone na dużej liczbie przykładowych problemów i ich rozwiązań. Np. jeśli chcielibyśmy stworzyć system AI, który ma decydować, kiedy przyjąć lub odrzucić wniosek o kredyt, przeszkolilibyśmy go, korzystając z wielu wniosków kredytowych i dla każdego z nich podawalibyśmy mu właściwą decyzję (akceptacja lub odrzucenie).
Obecnie istnieją algorytmy, które pozwalają na wykrywanie i ograniczanie uprzedzeń w AI. Jednak przestrzeń dla stronniczości AI jest niezwykle złożona, a różne typy danych (obrazy, tekst, mowa, dane strukturalne/uporządkowane) wymagają różnych technik wykrywania uprzedzeń w zbiorze danych szkoleniowych. Odejście od bezstronności może również nastąpić na innych etapach ścieżki rozwoju AI. Wyobraźmy sobie np. system sztucznej inteligencji, który ma wskazać główny powód wniosku o kredyt – jak zakup domu, opłacenie kosztów nauki lub obsługi prawnej – aby określić priorytet dla niektórych kategorii wobec innych, zgodnie z założeniami deweloperów systemu. Lecz jeśli pominą oni jakiś powód, dla którego ludzie starają się o pożyczkę, konsekwencje w postaci odmowy poniosą osoby podające dany powód.
Co więc można zrobić, aby odpowiedzieć na to narastające wyzwanie?
Ważne, aby jasno zdefiniować politykę firmy w zakresie AI. Jako IBM od lat nawiązujemy relacje z partnerami zewnętrznymi z uwzględnieniem kompleksowego podejścia do interesariuszy w celu promowania etyki sztucznej inteligencji. IBM był m.in. jednym z pierwszych sygnatariuszy watykańskiego „Rzymskiego wezwania do etyki sztucznej inteligencji”. Inicjatywa koncentruje się na rozwijaniu sztucznej inteligencji bardziej zorientowanej na człowieka, zgodnej z podstawowymi ludzkimi wartościami, między innymi takimi jak zwracanie uwagi na potrzeby słabszych grup społecznych.