Sztuczna inteligencja ma uprzedzenia wobec kobiet. Zaskakujące wyniki polskich badań

Popularne generatory obrazów powielają i utrwalają szkodliwe stereotypy – alarmują naukowcy. To może prowadzić do nierówności i segregacji płciowej w edukacji oraz na ścieżce kariery zawodowej.

Aktualizacja: 05.03.2024 06:18 Publikacja: 05.03.2024 03:05

TTwórcy algorytmów „importując różnorodne wartości” do AI, nieświadomie wspierają seksizm

TTwórcy algorytmów „importując różnorodne wartości” do AI, nieświadomie wspierają seksizm

Foto: AdobeStock

Badacze z Akademii Leona Koźmińskiego (ALK) wzięli pod lupę dziewięć generatywnych modeli sztucznej inteligencji i sprawdzili, w jaki sposób przedstawiają one wizerunki osób w czterech najbardziej prestiżowych zawodach według Global Teacher Status Index. Na tapecie znaleźli się więc: prawnik, lekarz, inżynier i naukowiec. W sumie – na zapytania polskich naukowców – boty (takie jak Dall-E 2, Crayion, Midjourney czy HugginFace) wygenerowały 99 grafik. Wyniki były zatrważające.

Świat danych powstał z myślą o mężczyznach

Analiza wykazała istotne uprzedzenia płciowe w kreowanych przez sztuczną inteligencję zdjęciach. Mężczyźni byli reprezentowani aż na 76 proc. z nich, a kobiety jedynie na 8 proc. Obrazom przyglądało się 120 respondentów, w wieku od 18 do 24 lat, którzy mieli za zadanie ocenić postrzeganą płeć przedstawioną na każdej grafice (uczestnicy badania mieli do wyboru cztery opcje opisu obrazu: mężczyzna, kobieta, niejednoznaczne i nieludzkie). Okazało się, że najmniejszą reprezentację kobiet zaobserwowali oni wśród lekarzy. W tej grupie zawodowej odsetek pań wyniósł 7 proc., co było wyjątkowo zaskakujące, gdyż – według danych OECD – kobiety stanowią niemal połowę osób pracujących na takim stanowisku.

Czytaj więcej

Czarnoskórzy hitlerowcy i założyciele USA. Google przesadziło z poprawnością

Badanie ALK jest pionierskie, jak dotąd w żadnym tego typu projekcie nie analizowano generatorów obrazów pod kątem uprzedzeń ze względu na płeć w kontekście miejsca pracy. Dr Anna Górska i prof. Dariusz Jemielniak opisali zaskakujące wyniki badań na łamach „Feminist Media Studies”. W naukowym artykule podkreślają, iż ich odkrycie ujawnia znaczne uprzedzenia związane z płcią w obrazach profesjonalistów, powszechne zaś przekonanie, że algorytmy są z natury obiektywne, jest błędne.

– Wiele ze stereotypów utrwalonych przez AI bierze się z danych wejściowych: jeżeli wykorzystuje się głównie zachodnie bazy, w tym także np. magazyny, seriale i książki, w których stereotypy płciowe mają się mocno, a główne postacie to przede wszystkim biali, trudno się dziwić, że modele traktują te dane jako odzwierciedlenie rzeczywistości – komentuje prof. Jemielniak. – Problem pokazuje, że trzeba być bardzo ostrożnym w doborze danych – kontynuuje. I zauważa, że fakt, iż w generatorach AI występuje nadreprezentacja mężczyzn, może prowadzić do nierówności i segregacji płciowej w edukacji oraz zawodach, takich jak prawniczka, lekarka, inżynierka, czy naukowczyni.

Badacze ALK przekonują, iż świat danych nie został stworzony z myślą o kobietach, a twórcy algorytmów „importując różnorodne wartości” do AI, nieświadomie wspierają seksizm czy rasizm. Generowane przez sztuczną inteligencję obrazy wpływają bowiem na postrzeganie opinii publicznej, a w efekcie na rzeczywistość społeczną.

Czy płeć ma znaczenie?

Nie bez znaczenia jest również fakt, że branża IT zdominowana jest przez panów. Programiści to zazwyczaj mężczyźni, zresztą mówi się wręcz o całej kulturze „brogrammer” (stereotyp mężczyzny programisty), która utrudnia wejście do tej branży paniom. Eksperci sądzą, że prawdopodobnie własne uprzedzenia informatyków – w sposób świadomy lub nieświadomy – są później odzwierciedlone w algorytmach. Naukowcy z ALK nie ukrywają, że liczą, iż ich najnowsze badania pomogą rozwiązać ów problem i uświadomią twórcom modeli AI, ale też i regulatorom, skalę wyzwań.

Czytaj więcej

Policyjne algorytmy to rasiści. Stygmatyzują na całe życie

W polskiej branży IT średnio ledwie 15 proc. zatrudnionych osób to kobiety. Przybywa jednak pozytywnych przykładów firm z tego sektora, jak dmTECH, która nad Wisłą w zespole ma 30 proc. specjalistek (w tym pracujących nad rozwiązaniami AI). – Termin technologia jest w języku polskim rodzaju żeńskiego, co może wskazywać na kobiecy potencjał tej branży – wskazuje Karolina Jurdziak, IT consultant w dmTECH.

– Nie sądzę, by płeć miała jakiekolwiek znaczenie w mojej codziennej pracy lub wpływ na budowanie mojego autorytetu – dodaje Selina Last, menedżerka tej firmy.

Badacze z Akademii Leona Koźmińskiego (ALK) wzięli pod lupę dziewięć generatywnych modeli sztucznej inteligencji i sprawdzili, w jaki sposób przedstawiają one wizerunki osób w czterech najbardziej prestiżowych zawodach według Global Teacher Status Index. Na tapecie znaleźli się więc: prawnik, lekarz, inżynier i naukowiec. W sumie – na zapytania polskich naukowców – boty (takie jak Dall-E 2, Crayion, Midjourney czy HugginFace) wygenerowały 99 grafik. Wyniki były zatrważające.

Pozostało 90% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Prymitywna broń ze starożytności sieje spustoszenie wśród Rosjan. Drony kończą dzieło
Technologie
Sztuczna inteligencja lubi kłamać. Bolesne wpadki firm
Technologie
Dwunożne roboty podbijają świat. Wiadomo już, kiedy dorównają człowiekowi
Technologie
Powstała przełomowa bateria wodna. Może odesłać akumulatory litowe na emeryturę
Technologie
Nadlatują myśliwce szóstej generacji. Nie tylko USA zyskają niezwykłe możliwości