Sztuczna inteligencja w hitowej apce budzi grozę. Niebezpieczne przeróbki

Tworzenie zdjęć soft porno czy przerabianie fotografii czarnoskórych na białych – to tylko część rodzących wątpliwości działań algorytmu aplikacji Lensa AI.

Publikacja: 13.12.2022 01:27

Sztuczna inteligencja uczy się na naszych zdjęciach. Zachowania AI wciąż budzą kontrowersje

Sztuczna inteligencja uczy się na naszych zdjęciach. Zachowania AI wciąż budzą kontrowersje

Foto: shutterstock

Rasistowskie ciągoty algorytmów czy wykorzystywanie możliwości sztucznej inteligencji do tworzenia kontentu dla dorosłych to coraz poważniejszy problem w kontekście AI. Teraz mierzą się z nim twórcy aplikacji do modyfikacji zdjęć, która stała się przebojem internetu. Ale zespół Lensa AI, bo o nim mowa, mogą mieć problem także z tym, że „uczą” swoją sztuczną inteligencję na zdjęciach i obrazach należących do innych osób, w tym twórców i artystów, nie płacąc im za ich prace. Dodatkowo niesmak może budzić też fakt, że firma, która stworzyła apkę, wykorzystuje do tworzenia płatnych „przeróbek” zdjęć ogólnodostępne, darmowe oprogramowanie.

Erotyczne wizje AI

Prisma to aplikacja, która kilka lat temu stała się wielkim przebojem wśród posiadaczy smartfonów. Służące do modyfikowania zdjęć oprogramowanie pozwalało każdemu nakładać na posiadane w telefonie fotografie różnego rodzaju filtry. Teraz zespół odpowiedzialny za tamten sukces stworzył dalej idące rozwiązanie – tym razem to nie użytkownik sam bawi się w przeróbkę zdjęć, ale oddaje się w ręce sztucznej inteligencji. Wystarczy „nakarmić” AI fotografiami, by ta nauczyła się naszej postaci i na tej bazie wygenerowała własną wizję naszej osoby. Efekty są oszałamiające. Lensa AI od paru tygodni jest na ustach całego świata. Nowatorskie narzędzie, które pozwala przerabiać selfie na niesamowite grafiki, choć jest płatne (nielimitowany dostęp do przerabiania fotografii kosztuje 130 zł), przyciąga tysiące fanów. Internauci oszaleli na punkcie tworzonych przez zaszytą w aplikacji sztuczną inteligencję wariacji na temat przesłanego portretu. Umieszczają zmodyfikowane, a właściwie stworzone na nowo przez AI grafiki swojej twarzy czy całej postaci jako zdjęcia profilowe na Twitterze czy w innych mediach społecznościowych.

Czytaj więcej

AI rozpozna ocalałych z holokaustu. Jak Blanche odnalazła Bronkę

Panuje przekonanie, że apka jest bezpieczna, bo nie przechowuje wysłanych do przeróbki zdjęć. Nie wszyscy jednak wiedzą, że wyrażając zgodę na dostęp do naszej galerii, dajemy oprogramowaniu możliwość „trenowania” AI na bazie naszych zdjęć. A to tylko wierzchołek góry wątpliwości, jakie budzi Lensa. Jak pisze serwis Techcrunch, apkę można wykorzystać do generowania tzw. miękkiego porno i to bez zgody pokazywanych na takich fotografiach osób. Techcrunch zrobił test, w którym do Lensa AI wysłał 15 zdjęć celebrytki i drugi zestaw zawierający te same obrazy, ale dodatkowo pięć przerobionych w Photoshopie, gdzie twarz „ofiary” wklejono modelce topless. W pierwszym przypadku AI wykonała należytą pracę, oferując propozycje awatarów. W drugim ominęła wszelkie filtry i granice – fotorealistyczne grafiki były „erotycznym szaleństwem AI” na bazie wysłanych zdjęć. Wykorzystanie platformy do generowania miękkiego porno bez zgody wzbudziło oburzenie. Zespół Prismy przyznał, że może tak się stać, gdy „sprowokujesz AI do generowania takich grafik”. Jednocześnie firma w oświadczeniu wysłanym serwisowi zapewniła, że wdraża specjalne filtry, by zapobiec przypadkowemu wystąpieniu tego zjawiska.

Wybielanie skóry

Ale problemów z Lensa AI jest więcej. Jej algorytmy mogą mieć bowiem odruchy rasistowskie. Takie przynajmniej można mieć wrażenie po tym, co spotkało czarnoskórą pisarkę i byłą modelkę Mayę Kotomori. Ta niedawno przesłała własne selfie do Lensy, a otrzymała awatary przedstawiające białą osobę. Dopiero po wysłaniu kolejnej partii własnych zdjęć, AI rozpoznała, że Kotomori jest mulatką.

Media za oceanem rozpisują się również nad kwestią tego, w jaki sposób jest szkolona AI w aplikacji – ta trenowana jest nie tylko na zdjęciach, które jej wysyłamy, ale także tysiącach czy milionach obrazów w sieci. A tam znajdują się również dzieła osób, które nie chcą ich udostępniać bezpłatnie.

Rasistowskie ciągoty algorytmów czy wykorzystywanie możliwości sztucznej inteligencji do tworzenia kontentu dla dorosłych to coraz poważniejszy problem w kontekście AI. Teraz mierzą się z nim twórcy aplikacji do modyfikacji zdjęć, która stała się przebojem internetu. Ale zespół Lensa AI, bo o nim mowa, mogą mieć problem także z tym, że „uczą” swoją sztuczną inteligencję na zdjęciach i obrazach należących do innych osób, w tym twórców i artystów, nie płacąc im za ich prace. Dodatkowo niesmak może budzić też fakt, że firma, która stworzyła apkę, wykorzystuje do tworzenia płatnych „przeróbek” zdjęć ogólnodostępne, darmowe oprogramowanie.

Pozostało 83% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Biznes Ludzie Startupy
Historia zdrowia każdego w jednym pliku. Firma z Warszawy chce zlikwidować kolejki
Materiał Promocyjny
Wykup samochodu z leasingu – co warto wiedzieć?
Biznes Ludzie Startupy
Sztuczna inteligencja z Polski chce odmienić działanie firm w USA
Biznes Ludzie Startupy
Polska elektrownia wodna nie musi mieć tamy
Biznes Ludzie Startupy
Klikasz i kupujesz to, co widzisz w TV. Pomoże polska sztuczna inteligencja
Biznes Ludzie Startupy
Polacy radykalnie wydłużyli świeżość żywności. Technologia z Torunia trafi do USA