Sztuczna inteligencja ma uprzedzenia wobec kobiet. Zaskakujące wyniki polskich badań

Popularne generatory obrazów powielają i utrwalają szkodliwe stereotypy – alarmują naukowcy. To może prowadzić do nierówności i segregacji płciowej w edukacji oraz na ścieżce kariery zawodowej.

Aktualizacja: 05.03.2024 06:18 Publikacja: 05.03.2024 03:05

TTwórcy algorytmów „importując różnorodne wartości” do AI, nieświadomie wspierają seksizm

TTwórcy algorytmów „importując różnorodne wartości” do AI, nieświadomie wspierają seksizm

Foto: AdobeStock

Badacze z Akademii Leona Koźmińskiego (ALK) wzięli pod lupę dziewięć generatywnych modeli sztucznej inteligencji i sprawdzili, w jaki sposób przedstawiają one wizerunki osób w czterech najbardziej prestiżowych zawodach według Global Teacher Status Index. Na tapecie znaleźli się więc: prawnik, lekarz, inżynier i naukowiec. W sumie – na zapytania polskich naukowców – boty (takie jak Dall-E 2, Crayion, Midjourney czy HugginFace) wygenerowały 99 grafik. Wyniki były zatrważające.

Świat danych powstał z myślą o mężczyznach

Analiza wykazała istotne uprzedzenia płciowe w kreowanych przez sztuczną inteligencję zdjęciach. Mężczyźni byli reprezentowani aż na 76 proc. z nich, a kobiety jedynie na 8 proc. Obrazom przyglądało się 120 respondentów, w wieku od 18 do 24 lat, którzy mieli za zadanie ocenić postrzeganą płeć przedstawioną na każdej grafice (uczestnicy badania mieli do wyboru cztery opcje opisu obrazu: mężczyzna, kobieta, niejednoznaczne i nieludzkie). Okazało się, że najmniejszą reprezentację kobiet zaobserwowali oni wśród lekarzy. W tej grupie zawodowej odsetek pań wyniósł 7 proc., co było wyjątkowo zaskakujące, gdyż – według danych OECD – kobiety stanowią niemal połowę osób pracujących na takim stanowisku.

Czytaj więcej

Czarnoskórzy hitlerowcy i założyciele USA. Google przesadziło z poprawnością

Badanie ALK jest pionierskie, jak dotąd w żadnym tego typu projekcie nie analizowano generatorów obrazów pod kątem uprzedzeń ze względu na płeć w kontekście miejsca pracy. Dr Anna Górska i prof. Dariusz Jemielniak opisali zaskakujące wyniki badań na łamach „Feminist Media Studies”. W naukowym artykule podkreślają, iż ich odkrycie ujawnia znaczne uprzedzenia związane z płcią w obrazach profesjonalistów, powszechne zaś przekonanie, że algorytmy są z natury obiektywne, jest błędne.

– Wiele ze stereotypów utrwalonych przez AI bierze się z danych wejściowych: jeżeli wykorzystuje się głównie zachodnie bazy, w tym także np. magazyny, seriale i książki, w których stereotypy płciowe mają się mocno, a główne postacie to przede wszystkim biali, trudno się dziwić, że modele traktują te dane jako odzwierciedlenie rzeczywistości – komentuje prof. Jemielniak. – Problem pokazuje, że trzeba być bardzo ostrożnym w doborze danych – kontynuuje. I zauważa, że fakt, iż w generatorach AI występuje nadreprezentacja mężczyzn, może prowadzić do nierówności i segregacji płciowej w edukacji oraz zawodach, takich jak prawniczka, lekarka, inżynierka, czy naukowczyni.

Badacze ALK przekonują, iż świat danych nie został stworzony z myślą o kobietach, a twórcy algorytmów „importując różnorodne wartości” do AI, nieświadomie wspierają seksizm czy rasizm. Generowane przez sztuczną inteligencję obrazy wpływają bowiem na postrzeganie opinii publicznej, a w efekcie na rzeczywistość społeczną.

Czy płeć ma znaczenie?

Nie bez znaczenia jest również fakt, że branża IT zdominowana jest przez panów. Programiści to zazwyczaj mężczyźni, zresztą mówi się wręcz o całej kulturze „brogrammer” (stereotyp mężczyzny programisty), która utrudnia wejście do tej branży paniom. Eksperci sądzą, że prawdopodobnie własne uprzedzenia informatyków – w sposób świadomy lub nieświadomy – są później odzwierciedlone w algorytmach. Naukowcy z ALK nie ukrywają, że liczą, iż ich najnowsze badania pomogą rozwiązać ów problem i uświadomią twórcom modeli AI, ale też i regulatorom, skalę wyzwań.

Czytaj więcej

Policyjne algorytmy to rasiści. Stygmatyzują na całe życie

W polskiej branży IT średnio ledwie 15 proc. zatrudnionych osób to kobiety. Przybywa jednak pozytywnych przykładów firm z tego sektora, jak dmTECH, która nad Wisłą w zespole ma 30 proc. specjalistek (w tym pracujących nad rozwiązaniami AI). – Termin technologia jest w języku polskim rodzaju żeńskiego, co może wskazywać na kobiecy potencjał tej branży – wskazuje Karolina Jurdziak, IT consultant w dmTECH.

– Nie sądzę, by płeć miała jakiekolwiek znaczenie w mojej codziennej pracy lub wpływ na budowanie mojego autorytetu – dodaje Selina Last, menedżerka tej firmy.

Technologie
Sztuczna inteligencja zdecyduje o zabiciu człowieka. ChatGPT idzie na wojnę
Technologie
Powstała realna alternatywa dla plastiku. Zwycięstwo w wojnie z odpadami?
Technologie
Jakim pojazdem pojadą po Księżycu astronauci? Pierwszy taki łazik skonstruował Polak
Technologie
Chcą dostarczyć niezwykłą broń Ukrainie. Moneta trafiona z odległości kilometra
Technologie
Naukowcy opracowali „inteligentny” płyn. Ma odmienić robotykę i motoryzację