Co niosą ze sobą treści pornograficzne generowane przez sztuczną inteligencję

Wraz z coraz częstszym wykorzystywaniem AI do tworzenia pornografii, rośnie też liczba odbiorców oczekujących tego rodzaju sztucznych treści. Jakie konsekwencje społeczne oraz dylematy natury etycznej, moralnej i prawnej niesie to za sobą? - pisze ekspertka Instytutu Innowacji i Technologii Łukasiewicz.

Publikacja: 08.04.2024 13:57

Co niosą ze sobą treści pornograficzne generowane przez sztuczną inteligencję

Foto: Adobe Stock

Liczba nieautoryzowanych, deepfake’owych treści pornograficznych online rośnie wykładniczo od 2017 roku. W ostatnich dniach ofiarą tego typu przemocy internetowej padła premier Włoch - Giorgia Meloni, która domaga się 100 tysięcy euro odszkodowania za zamieszczenie w internecie filmów pornograficznych z jej wizerunkiem . W styczniu sieć obiegły wygenerowane przez sztuczną inteligencję fałszywe zdjęcia pornograficzne amerykańskiej piosenkarki - Taylor Swift. Eksperci AI są zaniepokojeni nowymi metodami tworzenia fałszywych treści, takimi jak InstantID, które umożliwiają zamianę twarzy na wielu obrazach przy użyciu tylko jednego przykładu uczącego . Społeczności związane z tworzeniem treści przy użyciu AI starają się przeciwdziałać rozprzestrzenianiu się pornografii i nieaprobowanych obrazów, zgłaszając naruszanie zasad na platformach, takich jak Reddit . Niestety, mimo oddolnych inicjatyw internetowej społeczności, szybkość i skala rozprzestrzeniania się fałszywych materiałów sprawia, że oddolna kontrola staje się praktycznie niemożliwa. Tymczasem według analiz agencji badawczej - Absolute Markets Insights, wartość globalnego rynku pornografii online w 2021 roku wyniosła ponad 35 mld USD, a do 2030 roku przewidywany jest średni roczny wzrost na poziomie 15,12%.

Narzędzia generatywnej sztucznej inteligencji a kwestie etyczne

Pornograficzna karuzela nabiera rozpędu, napędzana nowymi technologiami takimi jak VR, AR, chatboty, roboty seksualne czy gry pornograficzne. Ashley Neale, była pracownica branży seksualnej, przeniosła się do świata IT, tworząc aplikację MyPeach.ai. Narzędzie wykorzystuje generowane przez AI teksty i obrazy do tworzenia filmów i imitacji rozmów o treści seksualnej z użytkownikami online . Chatboty, które symulują rozmowy o charakterze erotycznym, stanowią nowy subgatunek tzw. AI-pornI . MyPeach.ai nie jest pierwszym narzędziem tego typu, jednak jego unikatowość polega na świadomym wprowadzaniu restrykcji, wyznaczających granice akceptowalnych interakcji. Neale wprowadza do aplikacji zabezpieczenia wykorzystując nadzór ludzkich moderatorów treści oraz narzędzi opartych na sztucznej inteligencji. Przykłady MyPeach.ai czy podobnej SophieAI, wskazują na powoli rosnącą świadomość etycznych kwestii związanych z AI w branży pornograficznej.

Wydaje się jednak, że wprowadzanie restrykcji związanych z tworzeniem przemocowych treści lub pornografii dziecięcej, jest zaledwie wierzchołkiem etyczno-moralnej góry lodowej. „Ciesz się ekskluzywnymi selfie dostosowanymi do Twoich upodobań. Twoja więź z Peach jest tak wyjątkowa, jak ona sama. Zdjęcia, które otrzymujesz, od słodkich po skandaliczne, są tworzone wyłącznie dla Ciebie” – w taki sposób reklamowane są tzw. Peaches, czyli awatary, które użytkownik może zaprojektować na udostępnionej przez Neale platformie. Po dostosowaniu algorytmicznej rzeczywistości do obrazu z najśmielszych fantazji, użytkownik rozpoczyna dialog z awatarem. Awatarem z perfekcyjnym ciałem, który zawsze jest dostępny, nigdy nie cierpi z powodu bólu głowy i bezgranicznie podziwia swojego internetowego twórcę, spełniając przy tym jego cyfrowe zachcianki.

Rodzi to pytania o kwestie emocjonalnego zaangażowania użytkowników w relacje z technologią, która daje iluzje rzeczywistych kontaktów międzyludzkich. Kontaktów, które nie wymagają zaangażowania, a mimo to wiążą się z gratyfikacją. Jak pokazują badania z obszaru HCR (ang. human-chatbot relationship), relacja między człowiekiem a botem charakteryzuje się podobną dynamiką jak relacje międzyludzkie - tworząc się stopniowo i w zgodzie z założeniami teorii penetracji społecznej . Wraz z czasem trwania znajomości z botem pojawiają się większe oczekiwania, co do jego zachowań. Kiedy chatbot przechodzi aktualizację lub tymczasowo zaczyna zachowywać się inaczej, wydaje się, że łamie oczekiwania użytkowników, wywołując negatywne reakcje .

W 2023 roku szerokim echem odbił się przypadek Repliki – internetowego chatbota AI, który według deklaracji producenta jest „Troskliwym Towarzyszem AI” – „Always here to listen and talk. Always on your side”. Użytkownicy chatbota byli zaskoczeni, kiedy platforma z dnia na dzień przestała reagować na wysyłane przez nich treści o zabarwieniu seksualnym, ze względu na wprowadzone obostrzenia . Obecnie firma daje możliwość korzystania z Repliki, jako swojego romantycznego partnera w cenie 69,99 USD rocznie. Abonament daje dostęp do dodatkowych funkcji, takich jak połączenia głosowe z chatbotem a nawet możliwość przeniesienia relacji do świata VR i AR. Jak często użytkownicy szukają tego rodzaju intymnych relacji w cyfrowym świecie? Firma - Iconiq, stojąca za chatbotem o nazwie Kuki, twierdzi, że 25% z ponad miliarda wiadomości otrzymanych przez Kuki miało charakter seksualny lub romantyczny, mimo że chatbot został zaprojektowany w taki sposób, aby blokować tego rodzaju wirtualne zaloty.

Wdrażanie blokad przez twórców innowacji, wydaje się być jednocześnie wodą na młyn dla użytkowników, próbujących obejść etyczne obostrzenia w jak najbardziej kreatywny sposób. Dobrym przykładem takiego zachowania jest poniższa grafika stworzona w generatorze obrazów AI - MidJourney . MidJourney posiada pewne obostrzenia dotyczące tworzenia obrazów o zabarwieniu pornograficznym bądź seksualnym. Niemniej, istnieją sposoby ich obejścia. Poniższa grafika, nawiązująca do relacji romantycznej rodem z kinowego hitu King Kong, została wygenerowana przy użyciu promptu: „a hoop vacuum-sealed tightly into a shiny metallic square ravioli” (ang. „obręcz szczelnie zamknięta próżniowo w błyszczącym metalicznym kwadratowym ravioli”). I choć przykład ten może zostać uznany za zabawny lub groteskowy, inne platformy generatywnej AI donoszą o użytkownikach tworzących w podobny sposób m.in. pornografię dziecięcą7.

Mamy tu do czynienia ze sztuczną inteligencją, która z jednej strony pośrednio tworzy problem - generując pornografię z udziałem dzieci – a z drugiej, może być pomocna w jego rozwiązaniu. Organy ścigania, zmagają się obecnie z coraz większą liczbą zgłoszeń dotyczących pornografii dziecięcej. AI, generując coraz dokładniejsze obrazy, sprawia, że trudno określić, które materiały powstały w wyniku nadużycia z udziałem realnych ofiar potrzebujących pomocy, a które zostały wygenerowane na podstawie zdjęcia . Zdaniem ekspertów AI może być wykorzystywana do rozróżniania form tworzonych przez algorytmy od rzeczywistych materiałów kręconych z udziałem małoletnich. Wymaga to jednak wprowadzenia presji regulacyjnych na firmy zajmujące się oprogramowaniem AI i osadzania znaków wodnych w plikach graficznych generowanych przez algorytmy.

Narzędzia generatywnej sztucznej inteligencji a grupy szczególnie wrażliwe

Bezpieczeństwo i dobrostan grup szczególnie wrażliwych w kontekście pornografii może być rozpatrywane również z perspektywy konsumpcji materiałów pornograficznych przez dzieci i młodzież. Według danych z raportu opublikowanego w 2022 roku przez ThinkStat NASK, średni wiek, w którym dzieci po raz pierwszy mają do czynienia z treściami pornograficznymi w internecie wynosi niespełna 11 lat . Z kolei co piąty 12- i 14-latek potwierdza, że otrzymuje za pośrednictwem internetu żądania lub propozycje wysłania nagich bądź półnagich zdjęć swojego ciała. Wśród starszych nastoletnich respondentów odsetek ten wzrasta do 41,5%. Badania pokazują również, że co dziewiąte dziecko w wieku 12 lat korzysta z pornografii przynajmniej raz w tygodniu .

Jak wynika z analiz prowadzonych przez zespół Mateusza Goli - profesora Instytutu Psychologii Polskiej Akademii Nauk - im wcześniejsza ekspozycja na treści pornograficzne, tym większe ryzyko związane z uzależnieniem . Korzystanie z pornografii początkowo wiąże się przede wszystkim z pozytywnymi odczuciami - przyjemnością i pożądaniem, stanowiącymi główną motywację do częstszego sięgania po nią. Natomiast w późniejszych fazach korzystania pomaga ona w doraźnym radzeniu sobie z nieprzyjemnym afektem, powiązanym np. z samotnością, nudą czy tendencjami depresyjnymi (co z czasem zaczyna być dominującą motywacją przy długotrwałym korzystaniu z materiałów pornograficznych). Zjawisko to można porównać do uzależnień od substancji psychoaktywnych, w przypadku których pierwsze użycie wzmocnione jest pozytywnie (wspiera dążenia do nowych, silnych i przyjemnych doznań), a z czasem negatywnie (wspiera tendencje unikowe, nakierowane na tłumienie i redukcję nieprzyjemnych uczuć i myśli) . Pornografia zaczyna więc pełnić funkcję regulatora emocji. Dzieje się tak m.in. dzięki silnemu zaangażowaniu układu dopaminergicznego (tzw. układ nagrody).

Układ nagrody aktywizuje się w sytuacji, kiedy użytkownik znajduje treści spójne z posiadanymi preferencjami . Im bardziej odnalezione zdjęcie czy film korespondują z oczekiwaniami użytkownika, tym silniejsze pobudzenie układu dopaminergicznego. W ostatnich latach wykazano także, że łatwość dostępu do treści pożądanych w fantazjach erotycznych, wywołujących najsilniejsze podniecenie, jest istotnym czynnikiem uzależniania się od pornografii . Możliwość zaprzęgnięcia AI do wygenerowania obrazu będącego wiernym odzwierciedleniem fantazji użytkownika, stanowi więc ogromny potencjał do praktycznie nieustającej stymulacji układu nagrody, znacznie zwiększając ryzyko uzależnienia.

Problem ten potęguje fakt, że - jak wynika z treści przytoczonego wcześniej raportu ThinkStat NASK - 33,4% 12- i 14-latków nie potrafi określić, czy sceny przedstawiane w filmach pornograficznych są bliższe fikcji czy rzeczywistości. Z kolei moment inicjacji seksualnej dla ponad 80% adolescentów przypada na okres pomiędzy 15 a 18 rokiem życia. Istnieje zatem spore ryzyko, że wzorce zachowań obserwowane przez lata w pornografii online, generowanej „na życzenie”, przełożą się na nierzeczywiste oczekiwania dorastających osób względem seksu w przyszłości, a co za tym idzie również mniejszą satysfakcję z życia seksualnego.

Narzędzia generatywnej sztucznej inteligencji a kwestie regulacyjne

Pewne pole do walki z nadużyciami stwarza ustawa DMCA (Digital Millennium Copyright Act). Jest to amerykańskie prawo, zapewniające dostawcom usług internetowych (takim jak Google), zabezpieczenie przed odpowiedzialnością finansową za roszczenia związane z naruszeniem praw autorskich. Zgodnie z treścią ustawy, po otrzymaniu wniosku spełniającego określone wymagania, usługodawca musi usunąć lub zablokować materiały, które naruszają obowiązujące regulacje w zakresie praw autorskich . Dane opublikowane przez Google i bazę danych Lumen Uniwersytetu Harvarda pokazują, że dwa z najbardziej znanych serwisów z deepfake'ami były przedmiotem odpowiednio ponad 6000 i 4000 skarg. Tempo oraz łatwość w zakresie generowania niezgodnych z prawem treści pornograficznych nasuwa jednak obawy, że tego rodzaju regulacja, wymagająca kontroli po stronie użytkowników, może być niewystarczającym narzędziem.

Jako odgórny mechanizm regulacyjny – nakładający presje na osoby tworzące deepfake’i, zamiast na ich potencjalne ofiary – może zadziałać przyjęta przez Radę Unii Europejskiej w lutym tego roku, rozporządzenie AI Act. AI Act, podobnie jak RODO, ma stać się globalnym standardem. Celem rozporządzenia jest ocena, w jaki sposób sztuczna inteligencja może wpływać na życie jednostek. Rozporządzenie wprowadza podział zastosowań AI na 3 kategorie ryzyk:

- aplikacje i systemy niedopuszczalnego ryzyka, (np. rządowe systemy oceny społecznej typu social scoring stosowany w Chinach), są zakazane;

- aplikacje i systemy wysokiego ryzyka, (np. narzędzia do algorytmicznej weryfikacji CV, klasyfikujące kandydatów do pracy), podlegają określonym wymogom prawnym;

- aplikacje i systemy o ograniczonym ryzyku, które nie zostały wyraźnie zakazane lub wymienione jako obarczone wysokim ryzykiem, a przez to pozostają w dużej mierze nieuregulowane.

Niestety, aktualnie treść rozporządzenia klasyfikuje deepfakes jako systemy sztucznej inteligencji o "ograniczonym ryzyku". Oznacza to, że podlegają one mniejszej liczbie przepisów w porównaniu z systemami "wysokiego ryzyka”, mimo że mogą mieć znaczący szkodliwy wpływ na społeczeństwo i jednostki. Skalę problemu obrazuje przypadek amerykańskiej piosenkarki Taylor Swift. W styczniu 2024 roku sieć obiegły, wygenerowane przez AI, fałszywe obrazy i filmy przedstawiające artystkę w intymnych sytuacjach. Niepokoi również fakt, że platforma X (dawniej Twitter), na której opublikowano materiały, długo zwlekała z ich usunięciem. Jeden z zamieszczonych filmów zgromadził aż 47 milionów wyświetleń, zanim został usunięty z platformy niespełna 17 godzin później.

Rozporządzenie AI Act nie ustanawia obecnie jasnych ram odpowiedzialności prawnej dla twórców technologii deepfake. Ustawa kładzie nacisk raczej na środki zapobiegawcze niż karne. Artykuł 52 rozporządzenia wymaga od twórców przede wszystkim transparentności. Oznacza to, że każdy, kto tworzy lub rozpowszechnia deepfake, musi ujawnić jego pochodzenie i dostarczyć informacji o zastosowanych metodach manipulacji materiałem. Ma to na celu zapewnienie konsumentom wiedzy na temat napotykanych treści i uczynienie ich mniej podatnymi na manipulacje. I chociaż unijna ustawa o sztucznej inteligencji stanowi znaczący krok w kierunku uregulowania systemów AI, może być niewystarczająca do sprostania konkretnym wyzwaniom związanym m.in. z nieetycznym wykorzystywaniem deepfake'ów.

Inne europejska regulacja – Akt o Usługach Cyfrowych (ang. Digital Services Act - DSA), przyjęty przez Parlament Europejski w lipcu 2022 roku – nakłada obowiązki na dostawców usług cyfrowych, takich jak media społecznościowe lub platformy handlowe. Obowiązki te dotyczą przeciwdziałania rozprzestrzenianiu się nielegalnych treści, dezinformacji w Internecie i innych zagrożeń społecznych . Nakładane wymogi mają być proporcjonalne do skali zagrożeń, jakie platformy stwarzają dla społeczeństwa. Bazując na kryteriach określonych w DSA, w kwietniu 2023 roku Komisja Europejska nadała status VLOP (ang. Very Large Online Platform) 17 platformom (w tym Facebookowi, YouTube’owi i TikTokowi) oraz status VLOSE (ang. Very Large Online Search Engine) dwóm bardzo dużym wyszukiwarkom: Google i Bing. W grudniu 2023 lista VLOP została uzupełniona o serwisy z treściami pornograficznymi.

Status VLOP nakłada na platformy, obowiązek wkładania szczególnego wysiłku w moderowanie treści dostępnych w serwisie. Muszą m.in. wprowadzić łatwy mechanizm zgłaszania nielegalnych materiałów i szybko reagować na tego rodzaju zgłoszenia. Wymogi dotyczą również konieczności przeprowadzenia oceny ryzyka systemowego i przeprojektowania usług (m.in. interfejsów i systemów rekomendacji), w celu ograniczenia zidentyfikowanych zagrożeń. Komisja uznaje za VLOP serwisy mające w UE ponad 45 mln użytkowników miesięcznie. Ten próg przekroczyły platformy: Pornhub (należąca do spółki Aylo) i Stripchat (spółka Technius), a także platforma Xvideos czeskiej spółki WebGroup (KE podaje, że ma ona 160 mln użytkowników). W ostatnich dniach wszystkie trzy nowe VLOP-y odwołały się od decyzji Komisji, składając skargi do Sądu Unii Europejskiej w Luksemburgu . Spółka Aylo argumentuje, że Komisja błędnie obliczyła liczbę jego użytkowników. Tego typu starania należy odczytywać jako próbę ucieczki od regulacji, co jest oczywiście w interesie również serwisów pornograficznych.

Wielkie platformy zdają się unikać odpowiedzialności, próbując odwrócić uwagę od problemu, który dotyczy miliardów użytkowników. Głosem dającym nadzieję wydają się być grupy takie jak #NotYourPorn, wskazujące na potrzebę dialogu między startupami AI, developerami open source, rządem, organizacjami kobiecymi, naukowcami i społeczeństwem obywatelskim. Aktywiści domagają się rozwiązań chroniących nieświadome osoby przed wykorzystywaniem ich wizerunku w treściach pornograficznych .

Narzędzia generatywnej sztucznej inteligencji a odpowiedzialny rozwój technologii

Technologia wrasta coraz głębiej w tkankę społeczną, sprawiając że nie podchodzimy do niej już wyłącznie w sposób użytkowy. Coraz częściej zaczynamy mieć wobec niej głęboki stosunek emocjonalny, zmieniamy na jej podstawie swoje poglądy, zachowania, decyzje. Uczestniczymy w rewolucji, w której technologia AI staje się krzywym zwierciadłem naszych umysłów. Bo to przecież między innymi treści zamieszczane przez użytkowników w internecie są paliwem zasilającym narzędzia generatywnej AI.

W kontekście zarysowanych wcześniej problemów, istotne jest więc podkreślenie potencjału odpowiedzialnych badań i innowacji (RRI). RRI zakłada podejście interdyscyplinarne, uwzględniające m.in. aspekty społeczne, etyczne i prawne podczas rozwoju technologii. RRI wymaga jednak zaangażowania i odpowiedzialności ze strony wszystkich interesariuszy biorących udział w procesie. W tym przypadku jako zaangażowane strony wyróżnić możemy:

• Wielkie platformy online (VLOP) i pomniejszych dostawców treści pornograficznych, odpowiedzialnych za dostarczanie treści w zgodzie z regulacjami, doniesieniami naukowymi i uwzględniając dobro społeczne;

• Naukowców, odpowiedzialnych za proces badawczy umożliwiający podejmowanie decyzji na podstawie rzetelnie przeprowadzanych badań i zweryfikowanych doniesień naukowych;

• Sektor rządowy, odpowiedzialny za tworzenie regulacji dostosowanych do rodzaju i skali zjawiska;

• Społeczeństwo obywatelskie, pełniące w tym przypadku rolę - z jednej strony - świadomego konsumenta treści, wyposażonego w wiedzę; z drugiej zaś strony „oddolnego regulatora”, zgłaszającego dostrzegane nieprawidłowości.

Współpraca między tymi sektorami może pomóc w opracowaniu kompleksowego i skutecznego podejścia do problemu wykorzystania sztucznej inteligencji w produkcji pornografii. Poprzez uwzględnienie różnorodnych perspektyw i zaangażowanie różnych interesariuszy, można opracować strategie i rozwiązania, które zapewnią minimalizację negatywnych skutków tego zjawiska oraz promowanie odpowiedzialnego i etycznego wykorzystania sztucznej inteligencji we wszystkich dziedzinach życia społecznego.

Opinie i komentarze
Odpowiedzialne innowacje. Jak mądra będzie „smart” wieś?
Opinie i komentarze
Odpowiedzialne innowacje: Moralność maszyn, czyli liczne pytania natury etycznej
Opinie i komentarze
Jan Widacki: Modernizacja stacji bazowej telefonii komórkowej nie musi być rozbudową
Opinie i komentarze
Prof. Jan Widacki: Miliardy za częstotliwości kosztem inwestycji?
Opinie i komentarze
Michał Targiel, partner PwC Polska: Inwestycje w AI warunkiem przetrwania
Materiał Promocyjny
Nest Lease wkracza na rynek leasingowy i celuje w TOP10