SI ma ciągotki do rasizmu i homofobii

Pomimo szybkiego rozwoju sztucznej inteligencji, wykazuje ona wiele zaskakujących braków. Zachowuje się rasistowsko, seksistowsko i homofobicznie.

Publikacja: 28.04.2019 10:32

Twitter włączył się do  walki z rasizmem. Jedna ze scen drugiej części filmowego hitu „Szklana pułap

Twitter włączył się do walki z rasizmem. Jedna ze scen drugiej części filmowego hitu „Szklana pułapka”.

Foto: YouTube

Ostatnie lata to ekspansja sztucznej inteligencji na wielu polach, od werbowania pracowników do firmy, przez rozpoznawanie twarzy wśród tłumów przechodniów, aż po werdykty w sądzie – wszędzie tam mamy do czynienia z algorytmami, które mają zachowywać się jak ludzki mózg, a nawet lepiej. Niestety tak jak my ulegamy stereotypom czy wpływom, tak samo zaczyna zachowywać się sztuczna inteligencja – wskazują badania AI Now Institute, w których zebrano liczne przykłady jej niewłaściwego działania.

CZYTAJ TAKŻE: Algorytmy stają się rasistami i seksistami

Amazon wycofał się właśnie z programu rekrutacji opartego na SI po tym, jak okazało się, że faworyzował mężczyzn. Amerykę zbulwersował też algorytm sądowy, który wydawał cięższe wyroki dla Afroamerykanów niż dla białych, czy sztuczna inteligencja, która wykorzystywana w ocenie kredytobiorców, dyskryminowała Latynosów. Przez system Ubera, który również opiera się na SI, kierowcy po zmianie płci tracili swoje konta, ponieważ technologia nie radziła sobie z innym wyglądem twarzy i uważała, że ktoś podszywa się pod kierowcę.

Z takimi sytuacjami chce walczyć IBM. Tworzy narzędzia, które skanują SI w poszukiwaniu stronniczości i naprawiają ją.

CZYTAJ TAKŻE: Algorytmy Amazona promują teorie spiskowe

Jednak naukowcy z AI Now Institute w nowym raporcie twierdzą, że rozwiązania IBM nie rozwiążą problemu, a wręcz mogą zaognić sytuację. Problemem nie jest algorytm sztucznej inteligencji, a to, w jaki sposób jest wykorzystywana i przez kogo tworzona.

Współautorka badań Kate Crawford wskazuje, że zagrożeń jest więcej. – Mogą się wiązać z próbami odczytywania z twarzy skłonności przestępczych czy kompetencji pracowniczych – tłumaczy, cytowana przez serwis vox.com. – Widzimy, że te systemy powielają uprzedzenia w sposób, który może tylko  pogłębiać i usprawiedliwiać niesprawiedliwość.

Ostatnie lata to ekspansja sztucznej inteligencji na wielu polach, od werbowania pracowników do firmy, przez rozpoznawanie twarzy wśród tłumów przechodniów, aż po werdykty w sądzie – wszędzie tam mamy do czynienia z algorytmami, które mają zachowywać się jak ludzki mózg, a nawet lepiej. Niestety tak jak my ulegamy stereotypom czy wpływom, tak samo zaczyna zachowywać się sztuczna inteligencja – wskazują badania AI Now Institute, w których zebrano liczne przykłady jej niewłaściwego działania.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Te roboty mają być jak ludzie. Elon Musk podał datę ich wprowadzenia
Technologie
Boty AI już w 2025 roku będą rozumieć i pracować jak ludzie. I mogą ich zastąpić
Technologie
Fałszywe oferty pracy to już plaga. Sztuczna inteligencja wspiera oszustów
Technologie
„Babcie supermodelki”. Naukowcy wynaleźli lek przedłużający życie aż o jedną czwartą
Materiał Promocyjny
Mała Księgowość: sprawdzone rozwiązanie dla małych i średnich przedsiębiorców
Technologie
Chcieli tworzyć historię i nadać AI prawa pracownicze. „Bunt” i klęska dużej firmy