OPINIA PARTNERA

Podobne zachowania mogą wystąpić w przypadku sztucznej inteligencji (AI), zwłaszcza gdy do programowania AI wykorzystywane są techniki uczenia maszynowego. Powszechnie stosowana technika, tzw. nadzorowane uczenie maszynowe wymaga, aby systemy AI były szkolone na dużej liczbie przykładowych problemów i ich rozwiązań. Np. jeśli chcielibyśmy stworzyć system AI, który ma decydować, kiedy przyjąć lub odrzucić wniosek o kredyt, przeszkolilibyśmy go, korzystając z wielu wniosków kredytowych i dla każdego z nich podawalibyśmy mu właściwą decyzję (akceptacja lub odrzucenie).

Obecnie istnieją algorytmy, które pozwalają na wykrywanie i ograniczanie uprzedzeń w AI. Jednak przestrzeń dla stronniczości AI jest niezwykle złożona, a różne typy danych (obrazy, tekst, mowa, dane strukturalne/uporządkowane) wymagają różnych technik wykrywania uprzedzeń w zbiorze danych szkoleniowych. Odejście od bezstronności może również nastąpić na innych etapach ścieżki rozwoju AI. Wyobraźmy sobie np. system sztucznej inteligencji, który ma wskazać główny powód wniosku o kredyt – jak zakup domu, opłacenie kosztów nauki lub obsługi prawnej – aby określić priorytet dla niektórych kategorii wobec innych, zgodnie z założeniami deweloperów systemu. Lecz jeśli pominą oni jakiś powód, dla którego ludzie starają się o pożyczkę, konsekwencje w postaci odmowy poniosą osoby podające dany powód.

Co więc można zrobić, aby odpowiedzieć na to narastające wyzwanie?

Ważne, aby jasno zdefiniować politykę firmy w zakresie AI. Jako IBM od lat nawiązujemy relacje z partnerami zewnętrznymi z uwzględnieniem kompleksowego podejścia do interesariuszy w celu promowania etyki sztucznej inteligencji. IBM był m.in. jednym z pierwszych sygnatariuszy watykańskiego „Rzymskiego wezwania do etyki sztucznej inteligencji”. Inicjatywa koncentruje się na rozwijaniu sztucznej inteligencji bardziej zorientowanej na człowieka, zgodnej z podstawowymi ludzkimi wartościami, między innymi takimi jak zwracanie uwagi na potrzeby słabszych grup społecznych.

Inną inicjatywą, do której dołączył IBM, jest grupa ekspertów wysokiego szczebla Komisji Europejskiej (KE) ds. sztucznej inteligencji. Jej celem jest określenie wytycznych w kwestii etyki w Europie dla godnej zaufania sztucznej inteligencji. Obecnie są one szeroko wykorzystywane w Europie i poza nią, jako wskazówki dla przyszłych przepisów i standardów dotyczących AI.

W IBM Research udostępniliśmy także zestaw narzędzi open source AI Fairness 360 (AIF360). Daje on deweloperom dostęp do najnowszych kodów i zbiorów danych związanych z wykrywaniem i ograniczaniem stronniczości AI. Mamy również Watson OpenScale, ofertę komercyjną tworzenia rozwiązań opartych na sztucznej inteligencji dla firm i pomagającą im w wykrywaniu, zarządzaniu i ograniczaniu stronniczości AI.

Bardzo często deweloperzy nie są nawet świadomi rodzaju uprzedzeń, jakie mają ich modele, i mogą nie mieć wiedzy, aby określić, co jest sprawiedliwe i odpowiednie w danym scenariuszu. Warto zwrócić uwagę na kilka elementów, na których firmy powinny się skupić, aby uniknąć takiej sytuacji:

poświęcić właściwe zasoby na projekty edukacyjne i uświadamiające dla projektantów, deweloperów i menedżerów;

zapewnić zróżnicowany skład zespołu;

pamiętać o szerokich konsultacjach z organizacjami społecznymi oraz grupami, dla których przeznaczone jest dane rozwiązanie, w celu określenia najbardziej odpowiedniej definicji sprawiedliwości dla scenariuszy, w których zostanie wdrożony system AI, a także najlepszego sposobu rozwiązywania problemów powstałych w wyniku przenikania się grup w populacji, przy czym łagodzenie jednego problemu może nasilić inny;

zdefiniować ramy metodologiczne, wdrożeniowe i zarządzania, aby pomóc deweloperom we właściwym i zrównoważonym korygowaniu ścieżki rozwoju sztucznej inteligencji. Do zwykłych procesów rozwoju sztucznej inteligencji należy dodać nowe kroki (na przykład wykrywanie i łagodzenie stronniczości/uprzedzeń);

stworzyć narzędzia służące przejrzystości wykrywania uprzedzeń i ich wpływu na decyzje systemu AI.

Tylko wielowymiarowe podejście może skutecznie rozwiązać problem stronniczości i uprzedzeń sztucznej inteligencji poprzez zdefiniowanie podejścia opartego na uczciwości, przejrzystości i zaufaniu, które są w centrum tworzenia systemów AI. W ten sposób możemy nie tylko uniknąć tworzenia AI, która powiela lub potęguje nasze własne uprzedzenia, lecz możemy ją też wykorzystać, aby pomóc ludziom być bardziej bezstronnymi i sprawiedliwymi. Nadrzędnym celem nie jest bowiem rozwój sztucznej inteligencji jako takiej, ale rozwój ludzi i naszych wartości dzięki wykorzystaniu technologii, w tym AI.