Sztuczna inteligencja może dyskryminować

Brak przejrzystości działania algorytmów AI może też rodzić wątpliwości czy decyzje podejmowane na ich podstawie nie są stronnicze i zmanipulowane – pisze Julia Wawrzyńczak z Lubasz i Wspólnicy – Kancelaria Radców Prawnych sp.k.

Publikacja: 16.03.2022 21:17

Sztuczna inteligencja może dyskryminować

Foto: sdecoret - shutterstock

AI stanowi ograniczone odbicie umysłu człowieka, niekiedy więc przejmuje ludzkie niedoskonałości, w tym skłonności do dyskryminowania.

Zastosowanie AI

Systemy bazujące na sztucznej inteligencji (ang. artificial intelligence, dalej także: AI) można spotkać już prawie na każdym kroku. AI zagościła m.in. w aplikacjach społecznościowych, wyszukiwarkach internetowych, samochodach, smartfonach, sprzęcie domowym, budynkach, a nawet w medycynie (np. urządzenia do zdalnej diagnostyki). Coraz odważniej AI wkracza także do sektora usług publicznych. System naśladujący ludzką inteligencję sprawdza się szczególnie przy dużych zbiorach danych, które może poddać analizie i na jej podstawie np. rozpoznać emocje użytkownika, wyświetlić spersonalizowaną reklamę czy przetłumaczyć tekst obcojęzyczny. Biorąc pod uwagę, że żyjąc w społeczeństwie informacyjnym jesteśmy skazani na sztuczną inteligencję, należy się zastanowić jakie zagrożenia niesie za sobą jej stosowanie.

Zagrożenia AI

Co do zasady model oparty o sztuczną inteligencję stanowi statystyczne odzwierciedlenie rzeczywistości. AI już teraz wyręcza nas przy dokonywaniu różnych czynności, dlatego też jednym z zagrożeń rozwoju AI może być zanik pewnych umiejętności człowieka np. krytycznego myślenia – a co za tym idzie niektóre z dzisiejszych zawodów mogą w niedługiej przyszłości przestać istnieć. Innym zagrożeniem AI jest fakt, że generuje ona odpowiedzi bazując na procesach uczenia maszynowego, które z uwagi na swoją nietransparentną specyfikę może ukryć błędy w działaniu. Brak przejrzystości działania algorytmów AI może też rodzić wątpliwości czy decyzje podejmowane na ich podstawie nie są stronnicze i zmanipulowane. To prowadzi z kolei do głównego zagrożenia niewłaściwego stosowania sztucznej inteligencji, a mianowicie – dyskryminacji i powielania ludzkich stereotypów.

Źródło dyskryminacji

Pod pojęciem dyskryminacji należy rozumieć sytuację, w której człowiek ze względu na płeć, rasę, pochodzenie, narodowość, religię, wyznanie, światopogląd, niepełnosprawność, wygląd, wiek lub orientację seksualną – jest traktowany mniej korzystnie niż byłby traktowany inny człowiek w porównywalnej sytuacji. Dyskryminacja może wynikać z osobistych uprzedzeń i preferencji osób podejmujących decyzje, które wpływają korzystnie lub niekorzystnie na dane grupy. Innym rodzajem dyskryminacji jest dyskryminacja statystyczna mająca miejsce wtedy, gdy ocena danej jednostki jest budowana w oparciu o przeciętną charakterystykę grupy, do której jest zaliczana, nie zaś na podstawie jej cech indywidualnych. Mając na uwadze, że algorytmy są projektowane przez człowieka, system AI bardzo często będzie zawierał w sobie ludzkie uprzedzenia i stereotypy. Tym samym istnieje ryzyko, że zostanie on zasilony danymi, które od samego początku są dyskryminujące lub kryteria według, których kategoryzowane będą dane mają takich charakter.

W konsekwencji przyczyną tego tzw. skrzywienia algorytmicznego są nawet nie tyle uprzedzenia osób tworzących algorytm, lecz specyfika danych, które służyły do nauki algorytmu.

Przykłady dyskryminacji przez AI

Jedynym z głośniejszych przypadków dyskryminacji przez sztuczną inteligencję był amerykański system COMPAS, który poprzez szacowanie ryzyka popełnienia przestępstwa przez określone grupy, miał na celu zmniejszenie uznaniowości sędziów przy wymierzaniu wyroków. W wyniku przeprowadzonego śledztwa okazało się jednak, że system odtwarza uprzedzenia na tle rasowym. Na podstawie wprowadzonych historycznych danych, system wskazywał bowiem, że prawdopodobieństwo popełnienia przestępstwa wzrasta w przypadku Afroamerykanów, a maleje zaś wobec białych mężczyzn. Algorytm został „nakarmiony” zbyt dużą ilością historycznych uprzedzeń.

Innym przykładem systemu dyskryminującego jest system rozpoznawania głosu, który zasilony niekompletnymi danymi prowadził do dyskryminacji pod względem płci. System wykorzystywany m. in. w samochodach nie rozpoznawał bowiem kobiecego głosu. Wynikało to najprawdopodobniej z tego, że próbki głosów do zaprojektowania algorytmu były wyłącznie męskie. Tym samym dane charakteryzowały się małą różnorodnością i niedostateczną reprezentacją kobiet względem grupy mężczyzn.

Dyskryminujący algorytm został też zdemaskowany w procesie rekrutacyjnym spółki Amazon. Narzędzie służące do oceny kandydatów do pracy w amerykańskiej spółce jako lepszych pracowników typowało mężczyzn. Winowajcą krzywdzących wniosków były kryteria rekrutacyjne, które system opracował na podstawie analizy podań i CV kandydatów na przestrzeni poprzednich 10 lat. W związku z tym, że Amazon na określone stanowiska historycznie zatrudniał głównie mężczyzn, to algorytm będzie wskazywał tę płeć jako preferowaną. Nie był to jedyny przypadek dyskryminacji algorytmicznej u Amazon. Inny bowiem razem, algorytm stosowany przez amerykańską spółkę wyłączał możliwość bezpłatnej dostawy w dzielnicach zamieszkałych przez mniejszości etniczne.

Podsumowanie

Powyższe przykłady jednoznacznie pokazują, że do bezgranicznego zaufania do sztucznej inteligencji jeszcze długa droga. Pomimo tego, że rozstrzyganie kwestii za pomocą sztucznej inteligencji powinno być bezstronne, algorytmy wciąż powielają uprzedzenia projektujących je ludzi. To czy system wykorzystujący sztuczną inteligencję będzie dyskryminujący zależy od tego jakimi danymi zostanie zasilony. Aby algorytm był prawidłowo zaprogramowany potrzeba dużej liczby różnorodnych danych wysokiej jakości, a więc kompletnych i prawdziwych o niedyskryminującym charakterze. Już na etapie projektowania systemu powinno się przeanalizować możliwe warianty działania algorytmu. Nieoceniona jest tu także przewodnia i nadzorcza rola człowieka. W przypadku bowiem napływu do systemu nowych danych, powinny być podejmowane czynności kontrolne i regularne testowanie pod kątem popełnianych przez algorytm błędów dot. nierównego traktowania.

Autorem jest aplikantka radcowska Julia Wawrzyńczak, Lubasz i Wspólnicy – Kancelaria Radców Prawnych sp.k.

AI stanowi ograniczone odbicie umysłu człowieka, niekiedy więc przejmuje ludzkie niedoskonałości, w tym skłonności do dyskryminowania.

Zastosowanie AI

Pozostało 97% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Opinie i komentarze
Odpowiedzialne innowacje: Cyfrowe duchy zmarłych
Opinie i komentarze
Odpowiedzialne innowacje: Czy sztuczna inteligencja może zastąpić psychoterapeutów?
Opinie i komentarze
Odpowiedzialne projektowanie produktów cyfrowych – granica pomiędzy zaangażowaniem a uzależnieniem
Opinie i komentarze
Mariusz Busiło: Wady projektu ustawy o KSC