Badacze z Akademii Leona Koźmińskiego (ALK) wzięli pod lupę dziewięć generatywnych modeli sztucznej inteligencji i sprawdzili, w jaki sposób przedstawiają one wizerunki osób w czterech najbardziej prestiżowych zawodach według Global Teacher Status Index. Na tapecie znaleźli się więc: prawnik, lekarz, inżynier i naukowiec. W sumie – na zapytania polskich naukowców – boty (takie jak Dall-E 2, Crayion, Midjourney czy HugginFace) wygenerowały 99 grafik. Wyniki były zatrważające.
Świat danych powstał z myślą o mężczyznach
Analiza wykazała istotne uprzedzenia płciowe w kreowanych przez sztuczną inteligencję zdjęciach. Mężczyźni byli reprezentowani aż na 76 proc. z nich, a kobiety jedynie na 8 proc. Obrazom przyglądało się 120 respondentów, w wieku od 18 do 24 lat, którzy mieli za zadanie ocenić postrzeganą płeć przedstawioną na każdej grafice (uczestnicy badania mieli do wyboru cztery opcje opisu obrazu: mężczyzna, kobieta, niejednoznaczne i nieludzkie). Okazało się, że najmniejszą reprezentację kobiet zaobserwowali oni wśród lekarzy. W tej grupie zawodowej odsetek pań wyniósł 7 proc., co było wyjątkowo zaskakujące, gdyż – według danych OECD – kobiety stanowią niemal połowę osób pracujących na takim stanowisku.
Czytaj więcej
Amerykański koncern postanowił rozwiązać problemy wielu generatywnych modeli sztucznej inteligencji, związane m.in. z licznymi uprzedzeniami, w tym rasowymi. Google ewidentnie jednak przeszarżował, próbując naprawić ten błąd.
Badanie ALK jest pionierskie, jak dotąd w żadnym tego typu projekcie nie analizowano generatorów obrazów pod kątem uprzedzeń ze względu na płeć w kontekście miejsca pracy. Dr Anna Górska i prof. Dariusz Jemielniak opisali zaskakujące wyniki badań na łamach „Feminist Media Studies”. W naukowym artykule podkreślają, iż ich odkrycie ujawnia znaczne uprzedzenia związane z płcią w obrazach profesjonalistów, powszechne zaś przekonanie, że algorytmy są z natury obiektywne, jest błędne.
– Wiele ze stereotypów utrwalonych przez AI bierze się z danych wejściowych: jeżeli wykorzystuje się głównie zachodnie bazy, w tym także np. magazyny, seriale i książki, w których stereotypy płciowe mają się mocno, a główne postacie to przede wszystkim biali, trudno się dziwić, że modele traktują te dane jako odzwierciedlenie rzeczywistości – komentuje prof. Jemielniak. – Problem pokazuje, że trzeba być bardzo ostrożnym w doborze danych – kontynuuje. I zauważa, że fakt, iż w generatorach AI występuje nadreprezentacja mężczyzn, może prowadzić do nierówności i segregacji płciowej w edukacji oraz zawodach, takich jak prawniczka, lekarka, inżynierka, czy naukowczyni.