AI stanowi ograniczone odbicie umysłu człowieka, niekiedy więc przejmuje ludzkie niedoskonałości, w tym skłonności do dyskryminowania.
Zastosowanie AI
Systemy bazujące na sztucznej inteligencji (ang. artificial intelligence, dalej także: AI) można spotkać już prawie na każdym kroku. AI zagościła m.in. w aplikacjach społecznościowych, wyszukiwarkach internetowych, samochodach, smartfonach, sprzęcie domowym, budynkach, a nawet w medycynie (np. urządzenia do zdalnej diagnostyki). Coraz odważniej AI wkracza także do sektora usług publicznych. System naśladujący ludzką inteligencję sprawdza się szczególnie przy dużych zbiorach danych, które może poddać analizie i na jej podstawie np. rozpoznać emocje użytkownika, wyświetlić spersonalizowaną reklamę czy przetłumaczyć tekst obcojęzyczny. Biorąc pod uwagę, że żyjąc w społeczeństwie informacyjnym jesteśmy skazani na sztuczną inteligencję, należy się zastanowić jakie zagrożenia niesie za sobą jej stosowanie.
Zagrożenia AI
Co do zasady model oparty o sztuczną inteligencję stanowi statystyczne odzwierciedlenie rzeczywistości. AI już teraz wyręcza nas przy dokonywaniu różnych czynności, dlatego też jednym z zagrożeń rozwoju AI może być zanik pewnych umiejętności człowieka np. krytycznego myślenia – a co za tym idzie niektóre z dzisiejszych zawodów mogą w niedługiej przyszłości przestać istnieć. Innym zagrożeniem AI jest fakt, że generuje ona odpowiedzi bazując na procesach uczenia maszynowego, które z uwagi na swoją nietransparentną specyfikę może ukryć błędy w działaniu. Brak przejrzystości działania algorytmów AI może też rodzić wątpliwości czy decyzje podejmowane na ich podstawie nie są stronnicze i zmanipulowane. To prowadzi z kolei do głównego zagrożenia niewłaściwego stosowania sztucznej inteligencji, a mianowicie – dyskryminacji i powielania ludzkich stereotypów.
Źródło dyskryminacji
Pod pojęciem dyskryminacji należy rozumieć sytuację, w której człowiek ze względu na płeć, rasę, pochodzenie, narodowość, religię, wyznanie, światopogląd, niepełnosprawność, wygląd, wiek lub orientację seksualną – jest traktowany mniej korzystnie niż byłby traktowany inny człowiek w porównywalnej sytuacji. Dyskryminacja może wynikać z osobistych uprzedzeń i preferencji osób podejmujących decyzje, które wpływają korzystnie lub niekorzystnie na dane grupy. Innym rodzajem dyskryminacji jest dyskryminacja statystyczna mająca miejsce wtedy, gdy ocena danej jednostki jest budowana w oparciu o przeciętną charakterystykę grupy, do której jest zaliczana, nie zaś na podstawie jej cech indywidualnych. Mając na uwadze, że algorytmy są projektowane przez człowieka, system AI bardzo często będzie zawierał w sobie ludzkie uprzedzenia i stereotypy. Tym samym istnieje ryzyko, że zostanie on zasilony danymi, które od samego początku są dyskryminujące lub kryteria według, których kategoryzowane będą dane mają takich charakter.
W konsekwencji przyczyną tego tzw. skrzywienia algorytmicznego są nawet nie tyle uprzedzenia osób tworzących algorytm, lecz specyfika danych, które służyły do nauki algorytmu.