Nic się nie ukryje. AI oceni poglądy i preferencje seksualne po twarzy

Z ludzkiej twarzy można wyczytać wszystko, nawet poglądy polityczne i orientację seksualną. Tak wynika z badań dr. Michała Kosińskiego, profesora Uniwersytetu Stanforda. Potrzebny jest tylko odpowiedni algorytm.

Publikacja: 19.01.2021 06:58

AI poprawnie określiła poglądy polityczne aż 72 procent osób. To znacznie więcej niż analiza dokonan

AI poprawnie określiła poglądy polityczne aż 72 procent osób. To znacznie więcej niż analiza dokonana przez ludzi.

Foto: Adobe Stock

Algorytm sztucznej inteligencji stworzony przez dr. Kosińskiego potrafi rozpoznać orientację polityczną tylko na podstawie zdjęcia z Facebooka lub portalu randkowego. Jest bardziej skuteczny niż człowiek, ponieważ aż w 70 proc. przypadków się nie myli. Raport o wynikach badania opublikował magazyn „Nature”.

Algorytm najpierw nauczył się rozpoznawać zdjęcia osób, które same określiły się jako liberałowie lub konserwatyści. Następnie sam rozpoczął analizy. Z ponad miliona zdjęć AI poprawnie określiła poglądy polityczne aż 72 procent osób. To więcej niż analiza dokonana przez ludzi (55 proc.) i więcej niż przypadkowy wybór (50 proc.). Algorytm okazał się nawet skuteczniejszy od kwestionariusza ze 100 pytaniami o poglądy polityczne – tu skuteczność wyniosła 63 procent.

CZYTAJ TAKŻE: Cios w techniki rozpoznawania twarzy. Maski i jeden… kolor

Badanie preferencji politycznych na podstawie wyglądu to nie pierwsze tego typu badanie doktora Kosińskiego. W 2017 roku wraz z kolegą z uczelni dr. Yilun Wangiem przedstawił badania udowadniające, że algorytm może skutecznie określić czyjąś orientację seksualną z dokładnością 91 proc. dla mężczyzn i 83 dla kobiet na podstawie zaledwie pięciu zdjęć. Raport dotyczący wyników badania wywołał spore kontrowersje, a wielu naukowców uznało go wręcz za „bzdury”.

Tymczasem skuteczność algorytmów do analizowania ludzkich twarzy jest coraz wyższa. Z jednej strony jest to niezwykle pomocne przy poszukiwaniu zaginionych osób, wykrywaniu sprawców przestępstw, a z drugiej strony stwarza ogromne pole do nadużyć i manipulacji dla przedstawicieli władzy politycznej.

Badanie naukowca z Uniwersytetu Stanforda nie zostało przeprowadzone na zdjęciach z monitoringu miejskiego, ale z mediów społecznościowych. Algorytm bazuje bowiem na zbiorze ponad 1 miliona fotografii obywateli Stanów Zjednoczonych, Kanady i Wielkiej Brytanii pozyskanych z Facebooka, Instagrama i innych stron. Algorytm miał za zadanie przypisać każde zdjęcie do jednej z dwóch grup politycznych: liberałów lub konserwatystów, pomijając takie cechy jak płać, kolor skóry czy wiek.

skuteczność algorytmów do analizowania ludzkich twarzy jest coraz wyższa

Nie wiadomo jednak, jak algorytm zachowałby się, gdyby poproszono go o zdefiniowanie poglądów politycznych przypadkowych osób wychwyconych z tłumu. Poza tym preferencje i poglądy polityczne większości ludzi są bardziej złożone niż prosty system: liberał – konserwatysta. Nie wiadomo, jak zachowałaby się AI, gdyby poproszono ją o bardziej szczegółowe analizy.

Prawdopodobnie z czasem algorytm może zostać udoskonalony i będzie w stanie wyczytać więcej z naszego wyglądu i z naszych twarzy. To, jak przyznaje dr Kosiński, może być niebezpieczne, jeśli zostanie niewłaściwe użyte. Już teraz systemy rozpoznawania twarzy stosowane w Chinach czy w USA są w stanie skutecznie monitorować obywateli. W Stanach Zjednoczonych działacze społeczni działają na rzecz ograniczenia ingerencji władz w prywatność obywateli i apelują o ograniczenie monitoringu do niezbędnego minimum. Jednak w Chinach władze za pomocą systemu monitoringu miejskiego są w stanie nie tylko sprawdzić, czy obywatele prawidłowo segregują śmieci, ale także dzięki systemowi rozpoznawania twarzy mogą bezgotówkowo robić zakupy, identyfikować się w banku, a ostatnio okazało się, że Pekin system ten wykorzystuje do nadzorowania mniejszości etnicznej Ujgurów. Podczas wieców i protestów rejestrowane są twarze uczestników, zapisywane dane i wykorzystywane w razie konieczności.

Nic dziwnego, że najbardziej radykalni działacze społeczni wzywają do zakazania tej technologii i likwidacji systemów monitorowania miejskiego. Jednak doktor Michał Kosiński podkreśla, że problemem nie jest algorytm czy system, ale ludzie i to, jak te systemy wykorzystują. Dr Kosiński, koordynator projektu myPersonality, jest jednym z twórców algorytmu, który precyzyjnie opisuje model osobowości każdego użytkownika mediów społecznościowych na podstawie jego aktywności w sieci. Algorytm ten wykorzystała Cambridge Analytica, która bez zgody użytkowników pozyskała dane blisko 90 milionów osób i wykorzystała je do tworzenia narzędzia pozwalającego wpływać na preferencje wyborców, a przez to na wynik wyborów. Prawdopodobnie dzięki tej firmie w 2016 roku wybory wygrał Donald Trump.

CZYTAJ TAKŻE: Twoja twarz brzmi znajomo, czyli blisko totalnej inwigilacji

Kosiński tłumaczy, że to nie on jest winien skandalu z Cambridge Analytica. – To nie moja wina. To nie ja zbudowałem bombę. Ja tylko pokazałem, że ona istnieje – powiedział w wywiadzie dla szwajcarskiego „Das Magazyn”. W wywiadzie dla dziennika „Neue Zurcher Zeitung” przekonuje, że Facebook jest „fantastyczny dla demokracji”, ale musimy pogodzić się z tym, że czas pożegnać się ze swoją prywatnością i anonimowością, która tak naprawdę jest ewenementem w historii ludzkości. Przez tysiąclecia ludzie żyli w małych grupach, wszyscy wiedzieli wszystko o sobie i dopiero powstanie miast, dużych aglomeracji sprawiło, że ludzie stali się anonimowi i zyskali to, co dziś określamy jako prywatność.

Według Kosińskiego ludzie nie uciekną przed technologią, muszą nauczyć się z nią żyć tak, by jak najmniej im szkodziła. – Nie ma drogi powrotnej, nie staniemy się z powrotem nomadami i zbieraczami – przekonuje naukowiec. Wraz z utratą anonimowości zyskaliśmy dostęp do nowych usług i produktów opartych na technologiach cyfrowych. I to jest właśnie przyszłość ludzkości.

Algorytm sztucznej inteligencji stworzony przez dr. Kosińskiego potrafi rozpoznać orientację polityczną tylko na podstawie zdjęcia z Facebooka lub portalu randkowego. Jest bardziej skuteczny niż człowiek, ponieważ aż w 70 proc. przypadków się nie myli. Raport o wynikach badania opublikował magazyn „Nature”.

Algorytm najpierw nauczył się rozpoznawać zdjęcia osób, które same określiły się jako liberałowie lub konserwatyści. Następnie sam rozpoczął analizy. Z ponad miliona zdjęć AI poprawnie określiła poglądy polityczne aż 72 procent osób. To więcej niż analiza dokonana przez ludzi (55 proc.) i więcej niż przypadkowy wybór (50 proc.). Algorytm okazał się nawet skuteczniejszy od kwestionariusza ze 100 pytaniami o poglądy polityczne – tu skuteczność wyniosła 63 procent.

Pozostało 86% artykułu
2 / 3
artykułów
Czytaj dalej. Kup teraz
Technologie
Niezwykły samolot JetZero bliski startu. To ma być przełom w lotnictwie
Technologie
Strach zajrzeć do lodówki. Gdzie wkrótce trafi sztuczna inteligencja i boty
Technologie
Twórca ChatGPT: Tylko fuzja jądrowa może zaspokoić sztuczną inteligencję
Technologie
Katastrofa w Baltimore jedną z wielu. Jak polski kapitan zniszczył olbrzymi most
Technologie
Sztuczna inteligencja okazała się lepsza od lekarzy. Pomoże im w pracy czy zastąpi?