Algorytmy stają się rasistami i seksistami

Systemy oparte na sztucznej inteligencji są szybsze, dokładniejsze i bardziej wydajne, ale niestety nie są wolne od rożnego rodzaju uprzedzeń.

Publikacja: 25.02.2019 20:45

Piesi przechodzą przez ulicę nowojorskiego Harlemu. Sztuczna inteligencja widzi ich inaczej. Okazało

Piesi przechodzą przez ulicę nowojorskiego Harlemu. Sztuczna inteligencja widzi ich inaczej. Okazało się, że najgorzej traktuje kobiety, mniejszości etniczne i inwalidów.

Foto: Bloomberg

Ogłoszenie o pracę wydaje się być skrojone pod nasze osiągnięcia zawodowe, a mimo że wysłaliśmy CV, nikt się nie odzywa? Bank lub firma ubezpieczeniowa po złożonym online wniosku odsyłają bardzo niekorzystne warunki kredytu czy polisy? Niekoniecznie musi stać za tym złośliwy pracownik. Często to tylko komputerowy algorytm. Coraz częściej okazuje się, że nawet sztuczna inteligencja nie jest wolna od uprzedzeń na tle rasy, płci czy statusu społecznego. I bardzo trudno z tym walczyć.

Ułomne systemy

Systemy oparte na maszynowym uczeniu się święcą teraz triumfy i znacznie usprawniają obsługę klientów, analizę dokumentów czy wniosków finansowych. Jednak już widać, że pojawiają się negatywne symptomy i trzeba się liczyć ze wzrostem skali tego rodzaju zjawisk.

W Idaho komputery zdecydowały o obniżeniu wysokości wypłacanych zasiłków z systemu Medicaid dla 4 tys. niepełnosprawnych

Jak pisze dziennik „Financial Times”, w USA problem z rasistowskimi czy seksistowskimi uprzedzeniami algorytmów zaczyna przynosić już realne straty. W Idaho komputery właśnie z takich powodów zdecydowały o obniżeniu wysokości wypłacanych zasiłków z systemu Medicaid dla 4 tys. niepełnosprawnych.

CZYTAJ TAKŻE: Sztuczna inteligencja zrobi z tobą film porno

Stan początkowo bronił algorytmu, jako ogromnego usprawnienia w obsłudze biurokratycznej świadczeń medycznych, ale ostatecznie zdecydował o jego likwidacji. Trudno przewidzieć, jak sprawdzi się następca. Lokalne media podnosiły, że władze stanowe już po testach systemu otrzymały informację, iż algorytm jest z gruntu nieprzychylny pewnym mniejszościom i jakby celowo obniżał ich świadczenia, ale nikt wtedy nie potraktował ostrzeżeń poważnie.

„Mam przeczucie, że takie rzeczy dzieją się w Stanach Zjednoczonych i na całym świecie, kiedy ludzie przenoszą się do systemów komputerowych – napisał Richard Eppink, dyrektor prawny American Civil Liberties Union (ACLU) w Idaho, który wniósł sprawę sądową w tym konkretnym przypadku. – Nikt ich nie rozumie. Myślą, że ktoś inny to robi, ale w końcu im [algorytmom – red.] ufamy. Nawet osoby odpowiedzialne za te programy wierzą, że one działają” – dodał.

CZYTAJ TAKŻE: Maszyna wykrywająca korupcję okazała się zbyt skuteczna

– Dzisiaj systemy oparte na sztucznej inteligencji uczą się w oparciu o dane, jakie im dostarczymy, zatem mogą mieć konotacje pozytywne i negatywne. Wśród nich mogą znaleźć się takie, które są nacechowane negatywnie i mogą zawierać uprzedzenia rasowe, płciowe czy ideologiczne – mówił w wywiadzie dla „Rzeczpospolitej” Jarosław Szymczuk, dyrektor generalny IBM Polska i Kraje Bałtyckie. – Dlatego opracowujemy taką metodologię, aby pracowały bez tego rodzaju obciążenia. Na przykład aby system rekrutacyjny na wstępie nie odrzucił kandydatów z małych miast, bo architekt uznaje takie osoby za mniej wykształcone. Chcemy stworzyć takie rozwiązania, aby na wstępie wyeliminować tego rodzaju tendencyjność – dodał.

AI pod strzechy

IBM wyjaśnia, że według najnowszych prognoz światowych już niedługo w zasadzie każdy będzie się stykał z systemami opartymi na sztucznej inteligencji, dlatego należy zadbać o aspekty etyczne procesów decyzyjnych. Firma umieściła zagadnienia oczyszczenia systemów sztucznej inteligencji z różnych uprzedzeń wśród swoich priorytetów na najbliższy czas.

Algorytmy Amazona z góry uznały, że wdrożenie usługi nie ma sensu w dzielnicach zamieszkanych głównie przez mniejszości rasowe

Z tym problemem zetknął się także Amazon, gdy zapadały decyzje, w jakich regionach wdrożyć na początku nową usługę Prime. W ramach miesięcznego abonamentu konsumenci mają prawo do szybszej dostawy i specjalnych ofert promocyjnych. Algorytmy Amazona z góry uznały, że wdrożenie usługi nie ma sensu w dzielnicach zamieszkanych głównie przez mniejszości rasowe, np. w Roxbury w Bostonie czy South Side w Chicago. Uznały, że Prime powinien trafić do tzw. białych dzielnic.

CZYTAJ TAKŻE: Człowiek pokonał wreszcie sztuczną inteligencję

Gigant e-commerce również miał kłopot z algorytmami uczenia maszynowego, gdy decydował, gdzie wdroży usługę Prime Prime Day. Model wycinał przede wszystkim czarne dzielnice, odmawiając im tych samych usług, co bogatsze, białe.

Ciemna twarz nieznana

Joy Buolamwini z MIT poinformowała, że systemy na podstawie zdjęcia twarzy rozpoznają poprawnie płeć niemal bezbłędnie w przypadku białych. Jednak gdy skóra robi się coraz mniejsza, wówczas coraz częściej popełniane są błędy. W przypadku czarnych kobiet błędów było aż 34 proc., co pokazuje, w jaki sposób pisane są tego rodzaju programy.

Automat Microsoftu błyskawicznie zaczął zamieszczać wulgarne i rasistowskie komentarze na Twitterze, np. że wszystkie feministki mają spłonąć w piekle

Także głośny przykład projektu TayTweets firmy Microsoft pokazał, że kierunek rozumowania sztucznej inteligencji bywa kontrowersyjny. Ten automat miał samodzielnie prowadzić konwersacje np. na serwisie Twitter. I robił to, ale błyskawicznie zaczął zamieszczać wulgarne i rasistowskie komentarze, np. że wszystkie feministki mają spłonąć w piekle. Po 24 godzinach bot został wyłączony.

CZYTAJ TAKŻE: Cyberprzestępcy sięgają po sztuczną inteligencję

Mimo tych problemów rozwoju sztucznej inteligencji nie da się powstrzymać, algorytmy mają zbyt wiele zalet. W 2025 r. firmy i urzędy mają wydawać na takie systemy ponad 190 mld dol. rocznie. Rynek rośnie ponad 30 proc. rocznie.

Ogłoszenie o pracę wydaje się być skrojone pod nasze osiągnięcia zawodowe, a mimo że wysłaliśmy CV, nikt się nie odzywa? Bank lub firma ubezpieczeniowa po złożonym online wniosku odsyłają bardzo niekorzystne warunki kredytu czy polisy? Niekoniecznie musi stać za tym złośliwy pracownik. Często to tylko komputerowy algorytm. Coraz częściej okazuje się, że nawet sztuczna inteligencja nie jest wolna od uprzedzeń na tle rasy, płci czy statusu społecznego. I bardzo trudno z tym walczyć.

Pozostało 90% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Materiał Partnera
Design thinking usprawnia wdrożenie sztucznej inteligencji
Materiał Promocyjny
BaseLinker uratuje e-sklep przed przestojem
Technologie
Amerykański samolot może latać bez końca. Tak wygląda przyszłość lotnictwa?
Technologie
Armia testuje broń przyszłości. Robopsy umieją coraz więcej, teraz zestrzelą drony
Technologie
Kryzys w IDEAS NCBR zażegnany, będzie nowy projekt. Rząd przyznaje się do błędu?
Technologie
Test na starość? Powstała prosta metoda badania tempa starzenia i ryzyka śmierci