Jolanta Jaworska, IBM: Jak pracować nad bezstronnością sztucznej inteligencji

Jolanta Jaworska, dyrektor ds. publicznych i regulacyjnych IBM Polska i Kraje Bałtyckie
mat. pras.

Nie zawsze jesteśmy bezstronni, kierujemy się różnymi własnymi uprzedzeniami. Mamy tendencję do skupiania się na informacjach, które potwierdzają naszą z góry przyjętą tezę w danej sprawie – pisze Jolanta Jaworska, dyrektor
ds. publicznych i regulacyjnych IBM Polska i Kraje Bałtyckie.

OPINIA PARTNERA

Podobne zachowania mogą wystąpić w przypadku sztucznej inteligencji (AI), zwłaszcza gdy do programowania AI wykorzystywane są techniki uczenia maszynowego. Powszechnie stosowana technika, tzw. nadzorowane uczenie maszynowe wymaga, aby systemy AI były szkolone na dużej liczbie przykładowych problemów i ich rozwiązań. Np. jeśli chcielibyśmy stworzyć system AI, który ma decydować, kiedy przyjąć lub odrzucić wniosek o kredyt, przeszkolilibyśmy go, korzystając z wielu wniosków kredytowych i dla każdego z nich podawalibyśmy mu właściwą decyzję (akceptacja lub odrzucenie).

Obecnie istnieją algorytmy, które pozwalają na wykrywanie i ograniczanie uprzedzeń w AI. Jednak przestrzeń dla stronniczości AI jest niezwykle złożona, a różne typy danych (obrazy, tekst, mowa, dane strukturalne/uporządkowane) wymagają różnych technik wykrywania uprzedzeń w zbiorze danych szkoleniowych. Odejście od bezstronności może również nastąpić na innych etapach ścieżki rozwoju AI. Wyobraźmy sobie np. system sztucznej inteligencji, który ma wskazać główny powód wniosku o kredyt – jak zakup domu, opłacenie kosztów nauki lub obsługi prawnej – aby określić priorytet dla niektórych kategorii wobec innych, zgodnie z założeniami deweloperów systemu. Lecz jeśli pominą oni jakiś powód, dla którego ludzie starają się o pożyczkę, konsekwencje w postaci odmowy poniosą osoby podające dany powód.

Co więc można zrobić, aby odpowiedzieć na to narastające wyzwanie?

Ważne, aby jasno zdefiniować politykę firmy w zakresie AI. Jako IBM od lat nawiązujemy relacje z partnerami zewnętrznymi z uwzględnieniem kompleksowego podejścia do interesariuszy w celu promowania etyki sztucznej inteligencji. IBM był m.in. jednym z pierwszych sygnatariuszy watykańskiego „Rzymskiego wezwania do etyki sztucznej inteligencji”. Inicjatywa koncentruje się na rozwijaniu sztucznej inteligencji bardziej zorientowanej na człowieka, zgodnej z podstawowymi ludzkimi wartościami, między innymi takimi jak zwracanie uwagi na potrzeby słabszych grup społecznych.

Inną inicjatywą, do której dołączył IBM, jest grupa ekspertów wysokiego szczebla Komisji Europejskiej (KE) ds. sztucznej inteligencji. Jej celem jest określenie wytycznych w kwestii etyki w Europie dla godnej zaufania sztucznej inteligencji. Obecnie są one szeroko wykorzystywane w Europie i poza nią, jako wskazówki dla przyszłych przepisów i standardów dotyczących AI.

W IBM Research udostępniliśmy także zestaw narzędzi open source AI Fairness 360 (AIF360). Daje on deweloperom dostęp do najnowszych kodów i zbiorów danych związanych z wykrywaniem i ograniczaniem stronniczości AI. Mamy również Watson OpenScale, ofertę komercyjną tworzenia rozwiązań opartych na sztucznej inteligencji dla firm i pomagającą im w wykrywaniu, zarządzaniu i ograniczaniu stronniczości AI.

Bardzo często deweloperzy nie są nawet świadomi rodzaju uprzedzeń, jakie mają ich modele, i mogą nie mieć wiedzy, aby określić, co jest sprawiedliwe i odpowiednie w danym scenariuszu. Warto zwrócić uwagę na kilka elementów, na których firmy powinny się skupić, aby uniknąć takiej sytuacji:

poświęcić właściwe zasoby na projekty edukacyjne i uświadamiające dla projektantów, deweloperów i menedżerów;

zapewnić zróżnicowany skład zespołu;

pamiętać o szerokich konsultacjach z organizacjami społecznymi oraz grupami, dla których przeznaczone jest dane rozwiązanie, w celu określenia najbardziej odpowiedniej definicji sprawiedliwości dla scenariuszy, w których zostanie wdrożony system AI, a także najlepszego sposobu rozwiązywania problemów powstałych w wyniku przenikania się grup w populacji, przy czym łagodzenie jednego problemu może nasilić inny;

zdefiniować ramy metodologiczne, wdrożeniowe i zarządzania, aby pomóc deweloperom we właściwym i zrównoważonym korygowaniu ścieżki rozwoju sztucznej inteligencji. Do zwykłych procesów rozwoju sztucznej inteligencji należy dodać nowe kroki (na przykład wykrywanie i łagodzenie stronniczości/uprzedzeń);

stworzyć narzędzia służące przejrzystości wykrywania uprzedzeń i ich wpływu na decyzje systemu AI.

Tylko wielowymiarowe podejście może skutecznie rozwiązać problem stronniczości i uprzedzeń sztucznej inteligencji poprzez zdefiniowanie podejścia opartego na uczciwości, przejrzystości i zaufaniu, które są w centrum tworzenia systemów AI. W ten sposób możemy nie tylko uniknąć tworzenia AI, która powiela lub potęguje nasze własne uprzedzenia, lecz możemy ją też wykorzystać, aby pomóc ludziom być bardziej bezstronnymi i sprawiedliwymi. Nadrzędnym celem nie jest bowiem rozwój sztucznej inteligencji jako takiej, ale rozwój ludzi i naszych wartości dzięki wykorzystaniu technologii, w tym AI.

Tagi:

Mogą Ci się również spodobać

Nowy król Instagrama, zdetronizował Kylie Jenner

Polubiło je już ponad 26 mln osób. To nowy rekord najczęściej „polubionych” fotografii na ...

Polska potrzebuje 200 tys. specjalistów od sztucznej inteligencji

W ciągu pięciu laty, do 2025 r. liczba miejsc pracy dla specjalistów od sztucznej ...

Białoruska firma rozpoczyna światową ekspansję z Polski

Innowacyjna spółka założona w Warszawie przez dwóch Białorusinów wykorzystała pandemię do ekspansji. Na liście ...

Telefon z klapką powraca 6 lutego. Razr ma składany ekran

Reaktywacja po 15 latach jednego z najpopularniejszych telefonów komórkowych wszech czasów w formie smartfona ...

Amazon popilnuje domu z drona. Ma już patent

Niedługo dron amerykańskiego giganta znanego głównie z e-commerce, sprawdzi, czy przed wyjazdem na wakacje ...

Spółki za mało inwestują w patenty, znaki i wzory

Pod względem ochrony własności intelektualnej polskie firmy wciąż mają dużo do zrobienia. Część naszych ...