Ostatnie lata to ekspansja sztucznej inteligencji na wielu polach, od werbowania pracowników do firmy, przez rozpoznawanie twarzy wśród tłumów przechodniów, aż po werdykty w sądzie – wszędzie tam mamy do czynienia z algorytmami, które mają zachowywać się jak ludzki mózg, a nawet lepiej. Niestety tak jak my ulegamy stereotypom czy wpływom, tak samo zaczyna zachowywać się sztuczna inteligencja – wskazują badania AI Now Institute, w których zebrano liczne przykłady jej niewłaściwego działania.
CZYTAJ TAKŻE: Algorytmy stają się rasistami i seksistami
Amazon wycofał się właśnie z programu rekrutacji opartego na SI po tym, jak okazało się, że faworyzował mężczyzn. Amerykę zbulwersował też algorytm sądowy, który wydawał cięższe wyroki dla Afroamerykanów niż dla białych, czy sztuczna inteligencja, która wykorzystywana w ocenie kredytobiorców, dyskryminowała Latynosów. Przez system Ubera, który również opiera się na SI, kierowcy po zmianie płci tracili swoje konta, ponieważ technologia nie radziła sobie z innym wyglądem twarzy i uważała, że ktoś podszywa się pod kierowcę.
Z takimi sytuacjami chce walczyć IBM. Tworzy narzędzia, które skanują SI w poszukiwaniu stronniczości i naprawiają ją.
CZYTAJ TAKŻE: Algorytmy Amazona promują teorie spiskowe