Systemy oparte na sztucznej inteligencji są szybsze, dokładniejsze i bardziej wydajne, ale niestety nie są wolne od rożnego rodzaju uprzedzeń.
Ogłoszenie o pracę wydaje się być skrojone pod nasze osiągnięcia zawodowe, a mimo że wysłaliśmy CV, nikt się nie odzywa? Bank lub firma ubezpieczeniowa po złożonym online wniosku odsyłają bardzo niekorzystne warunki kredytu czy polisy? Niekoniecznie musi stać za tym złośliwy pracownik. Często to tylko komputerowy algorytm. Coraz częściej okazuje się, że nawet sztuczna inteligencja nie jest wolna od uprzedzeń na tle rasy, płci czy statusu społecznego. I bardzo trudno z tym walczyć.
Ułomne systemy
Systemy oparte na maszynowym uczeniu się święcą teraz triumfy i znacznie usprawniają obsługę klientów, analizę dokumentów czy wniosków finansowych. Jednak już widać, że pojawiają się negatywne symptomy i trzeba się liczyć ze wzrostem skali tego rodzaju zjawisk.
W Idaho komputery zdecydowały o obniżeniu wysokości wypłacanych zasiłków z systemu Medicaid dla 4 tys. niepełnosprawnych
Jak pisze dziennik „Financial Times”, w USA problem z rasistowskimi czy seksistowskimi uprzedzeniami algorytmów zaczyna przynosić już realne straty. W Idaho komputery właśnie z takich powodów zdecydowały o obniżeniu wysokości wypłacanych zasiłków z systemu Medicaid dla 4 tys. niepełnosprawnych.
CZYTAJ TAKŻE: Sztuczna inteligencja zrobi z tobą film porno
Stan początkowo bronił algorytmu, jako ogromnego usprawnienia w obsłudze biurokratycznej świadczeń medycznych, ale ostatecznie zdecydował o jego likwidacji. Trudno przewidzieć, jak sprawdzi się następca. Lokalne media podnosiły, że władze stanowe już po testach systemu otrzymały informację, iż algorytm jest z gruntu nieprzychylny pewnym mniejszościom i jakby celowo obniżał ich świadczenia, ale nikt wtedy nie potraktował ostrzeżeń poważnie.
„Mam przeczucie, że takie rzeczy dzieją się w Stanach Zjednoczonych i na całym świecie, kiedy ludzie przenoszą się do systemów komputerowych – napisał Richard Eppink, dyrektor prawny American Civil Liberties Union (ACLU) w Idaho, który wniósł sprawę sądową w tym konkretnym przypadku. – Nikt ich nie rozumie. Myślą, że ktoś inny to robi, ale w końcu im [algorytmom – red.] ufamy. Nawet osoby odpowiedzialne za te programy wierzą, że one działają” – dodał.
CZYTAJ TAKŻE: Maszyna wykrywająca korupcję okazała się zbyt skuteczna
– Dzisiaj systemy oparte na sztucznej inteligencji uczą się w oparciu o dane, jakie im dostarczymy, zatem mogą mieć konotacje pozytywne i negatywne. Wśród nich mogą znaleźć się takie, które są nacechowane negatywnie i mogą zawierać uprzedzenia rasowe, płciowe czy ideologiczne – mówił w wywiadzie dla „Rzeczpospolitej” Jarosław Szymczuk, dyrektor generalny IBM Polska i Kraje Bałtyckie. – Dlatego opracowujemy taką metodologię, aby pracowały bez tego rodzaju obciążenia. Na przykład aby system rekrutacyjny na wstępie nie odrzucił kandydatów z małych miast, bo architekt uznaje takie osoby za mniej wykształcone. Chcemy stworzyć takie rozwiązania, aby na wstępie wyeliminować tego rodzaju tendencyjność – dodał.
AI pod strzechy
IBM wyjaśnia, że według najnowszych prognoz światowych już niedługo w zasadzie każdy będzie się stykał z systemami opartymi na sztucznej inteligencji, dlatego należy zadbać o aspekty etyczne procesów decyzyjnych. Firma umieściła zagadnienia oczyszczenia systemów sztucznej inteligencji z różnych uprzedzeń wśród swoich priorytetów na najbliższy czas.
Algorytmy Amazona z góry uznały, że wdrożenie usługi nie ma sensu w dzielnicach zamieszkanych głównie przez mniejszości rasowe
Z tym problemem zetknął się także Amazon, gdy zapadały decyzje, w jakich regionach wdrożyć na początku nową usługę Prime. W ramach miesięcznego abonamentu konsumenci mają prawo do szybszej dostawy i specjalnych ofert promocyjnych. Algorytmy Amazona z góry uznały, że wdrożenie usługi nie ma sensu w dzielnicach zamieszkanych głównie przez mniejszości rasowe, np. w Roxbury w Bostonie czy South Side w Chicago. Uznały, że Prime powinien trafić do tzw. białych dzielnic.
CZYTAJ TAKŻE: Człowiek pokonał wreszcie sztuczną inteligencję
Gigant e-commerce również miał kłopot z algorytmami uczenia maszynowego, gdy decydował, gdzie wdroży usługę Prime Prime Day. Model wycinał przede wszystkim czarne dzielnice, odmawiając im tych samych usług, co bogatsze, białe.
Ciemna twarz nieznana
Joy Buolamwini z MIT poinformowała, że systemy na podstawie zdjęcia twarzy rozpoznają poprawnie płeć niemal bezbłędnie w przypadku białych. Jednak gdy skóra robi się coraz mniejsza, wówczas coraz częściej popełniane są błędy. W przypadku czarnych kobiet błędów było aż 34 proc., co pokazuje, w jaki sposób pisane są tego rodzaju programy.
Automat Microsoftu błyskawicznie zaczął zamieszczać wulgarne i rasistowskie komentarze na Twitterze, np. że wszystkie feministki mają spłonąć w piekle
Także głośny przykład projektu TayTweets firmy Microsoft pokazał, że kierunek rozumowania sztucznej inteligencji bywa kontrowersyjny. Ten automat miał samodzielnie prowadzić konwersacje np. na serwisie Twitter. I robił to, ale błyskawicznie zaczął zamieszczać wulgarne i rasistowskie komentarze, np. że wszystkie feministki mają spłonąć w piekle. Po 24 godzinach bot został wyłączony.
CZYTAJ TAKŻE: Cyberprzestępcy sięgają po sztuczną inteligencję
Mimo tych problemów rozwoju sztucznej inteligencji nie da się powstrzymać, algorytmy mają zbyt wiele zalet. W 2025 r. firmy i urzędy mają wydawać na takie systemy ponad 190 mld dol. rocznie. Rynek rośnie ponad 30 proc. rocznie.
Żadna część jak i całość utworów zawartych w dzienniku nie może być powielana i rozpowszechniana lub dalej rozpowszechniana w jakiejkolwiek formie i w jakikolwiek sposób (w tym także elektroniczny lub mechaniczny lub inny albo na wszelkich polach eksploatacji) włącznie z kopiowaniem, szeroko pojętę digitalizację, fotokopiowaniem lub kopiowaniem, w tym także zamieszczaniem w Internecie - bez pisemnej zgody Gremi Media SA. Jakiekolwiek użycie lub wykorzystanie utworów w całości lub w części bez zgody Gremi Media SA lub autorów z naruszeniem prawa jest zabronione pod groźbą kary i może być ścigane prawnie.
Rozpowszechnianie niniejszego artykułu możliwe jest tylko i wyłącznie zgodnie z postanowieniami "Regulaminu korzystania z artykułów prasowych" [Poprzednia wersja obowiązująca do 30.01.2017]. Formularz zamówienia można pobrać na stronie www.rp.pl/licencja.