Jolanta Jaworska, IBM: Jak pracować nad bezstronnością sztucznej inteligencji

Nie zawsze jesteśmy bezstronni, kierujemy się różnymi własnymi uprzedzeniami. Mamy tendencję do skupiania się na informacjach, które potwierdzają naszą z góry przyjętą tezę w danej sprawie – pisze Jolanta Jaworska, dyrektor
ds. publicznych i regulacyjnych IBM Polska i Kraje Bałtyckie.

Publikacja: 29.03.2021 14:29

Jolanta Jaworska, dyrektor
ds. publicznych i regulacyjnych IBM Polska i Kraje Bałtyckie

Jolanta Jaworska, dyrektor ds. publicznych i regulacyjnych IBM Polska i Kraje Bałtyckie

Foto: mat. pras.

OPINIA PARTNERA

Podobne zachowania mogą wystąpić w przypadku sztucznej inteligencji (AI), zwłaszcza gdy do programowania AI wykorzystywane są techniki uczenia maszynowego. Powszechnie stosowana technika, tzw. nadzorowane uczenie maszynowe wymaga, aby systemy AI były szkolone na dużej liczbie przykładowych problemów i ich rozwiązań. Np. jeśli chcielibyśmy stworzyć system AI, który ma decydować, kiedy przyjąć lub odrzucić wniosek o kredyt, przeszkolilibyśmy go, korzystając z wielu wniosków kredytowych i dla każdego z nich podawalibyśmy mu właściwą decyzję (akceptacja lub odrzucenie).

Obecnie istnieją algorytmy, które pozwalają na wykrywanie i ograniczanie uprzedzeń w AI. Jednak przestrzeń dla stronniczości AI jest niezwykle złożona, a różne typy danych (obrazy, tekst, mowa, dane strukturalne/uporządkowane) wymagają różnych technik wykrywania uprzedzeń w zbiorze danych szkoleniowych. Odejście od bezstronności może również nastąpić na innych etapach ścieżki rozwoju AI. Wyobraźmy sobie np. system sztucznej inteligencji, który ma wskazać główny powód wniosku o kredyt – jak zakup domu, opłacenie kosztów nauki lub obsługi prawnej – aby określić priorytet dla niektórych kategorii wobec innych, zgodnie z założeniami deweloperów systemu. Lecz jeśli pominą oni jakiś powód, dla którego ludzie starają się o pożyczkę, konsekwencje w postaci odmowy poniosą osoby podające dany powód.

Co więc można zrobić, aby odpowiedzieć na to narastające wyzwanie?

Ważne, aby jasno zdefiniować politykę firmy w zakresie AI. Jako IBM od lat nawiązujemy relacje z partnerami zewnętrznymi z uwzględnieniem kompleksowego podejścia do interesariuszy w celu promowania etyki sztucznej inteligencji. IBM był m.in. jednym z pierwszych sygnatariuszy watykańskiego „Rzymskiego wezwania do etyki sztucznej inteligencji”. Inicjatywa koncentruje się na rozwijaniu sztucznej inteligencji bardziej zorientowanej na człowieka, zgodnej z podstawowymi ludzkimi wartościami, między innymi takimi jak zwracanie uwagi na potrzeby słabszych grup społecznych.

Inną inicjatywą, do której dołączył IBM, jest grupa ekspertów wysokiego szczebla Komisji Europejskiej (KE) ds. sztucznej inteligencji. Jej celem jest określenie wytycznych w kwestii etyki w Europie dla godnej zaufania sztucznej inteligencji. Obecnie są one szeroko wykorzystywane w Europie i poza nią, jako wskazówki dla przyszłych przepisów i standardów dotyczących AI.

W IBM Research udostępniliśmy także zestaw narzędzi open source AI Fairness 360 (AIF360). Daje on deweloperom dostęp do najnowszych kodów i zbiorów danych związanych z wykrywaniem i ograniczaniem stronniczości AI. Mamy również Watson OpenScale, ofertę komercyjną tworzenia rozwiązań opartych na sztucznej inteligencji dla firm i pomagającą im w wykrywaniu, zarządzaniu i ograniczaniu stronniczości AI.

Bardzo często deweloperzy nie są nawet świadomi rodzaju uprzedzeń, jakie mają ich modele, i mogą nie mieć wiedzy, aby określić, co jest sprawiedliwe i odpowiednie w danym scenariuszu. Warto zwrócić uwagę na kilka elementów, na których firmy powinny się skupić, aby uniknąć takiej sytuacji:

poświęcić właściwe zasoby na projekty edukacyjne i uświadamiające dla projektantów, deweloperów i menedżerów;

zapewnić zróżnicowany skład zespołu;

pamiętać o szerokich konsultacjach z organizacjami społecznymi oraz grupami, dla których przeznaczone jest dane rozwiązanie, w celu określenia najbardziej odpowiedniej definicji sprawiedliwości dla scenariuszy, w których zostanie wdrożony system AI, a także najlepszego sposobu rozwiązywania problemów powstałych w wyniku przenikania się grup w populacji, przy czym łagodzenie jednego problemu może nasilić inny;

zdefiniować ramy metodologiczne, wdrożeniowe i zarządzania, aby pomóc deweloperom we właściwym i zrównoważonym korygowaniu ścieżki rozwoju sztucznej inteligencji. Do zwykłych procesów rozwoju sztucznej inteligencji należy dodać nowe kroki (na przykład wykrywanie i łagodzenie stronniczości/uprzedzeń);

stworzyć narzędzia służące przejrzystości wykrywania uprzedzeń i ich wpływu na decyzje systemu AI.

Tylko wielowymiarowe podejście może skutecznie rozwiązać problem stronniczości i uprzedzeń sztucznej inteligencji poprzez zdefiniowanie podejścia opartego na uczciwości, przejrzystości i zaufaniu, które są w centrum tworzenia systemów AI. W ten sposób możemy nie tylko uniknąć tworzenia AI, która powiela lub potęguje nasze własne uprzedzenia, lecz możemy ją też wykorzystać, aby pomóc ludziom być bardziej bezstronnymi i sprawiedliwymi. Nadrzędnym celem nie jest bowiem rozwój sztucznej inteligencji jako takiej, ale rozwój ludzi i naszych wartości dzięki wykorzystaniu technologii, w tym AI.

OPINIA PARTNERA

Podobne zachowania mogą wystąpić w przypadku sztucznej inteligencji (AI), zwłaszcza gdy do programowania AI wykorzystywane są techniki uczenia maszynowego. Powszechnie stosowana technika, tzw. nadzorowane uczenie maszynowe wymaga, aby systemy AI były szkolone na dużej liczbie przykładowych problemów i ich rozwiązań. Np. jeśli chcielibyśmy stworzyć system AI, który ma decydować, kiedy przyjąć lub odrzucić wniosek o kredyt, przeszkolilibyśmy go, korzystając z wielu wniosków kredytowych i dla każdego z nich podawalibyśmy mu właściwą decyzję (akceptacja lub odrzucenie).

Pozostało 88% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Opinie i komentarze
Co niosą ze sobą treści pornograficzne generowane przez sztuczną inteligencję
Materiał Promocyjny
Wykup samochodu z leasingu – co warto wiedzieć?
Opinie i komentarze
Dominik Skoczek: W Polsce cyfrowi giganci mają się dobrze
Opinie i komentarze
Tantiemy autorskie z internetu: jak korzyści nielicznych przekuć w sukces wszystkich
Opinie i komentarze
Od kredy i tablicy po sztuczną inteligencję. Szkoła chce być na czasie
Materiał Promocyjny
Jak kupić oszczędnościowe obligacje skarbowe? Sposobów jest kilka
Opinie i komentarze
Odpowiedzialne innowacje, czyli wątpliwości wokół Neuralinka i sterowania myślami