Z tego artykułu dowiesz się:
- Jakie czynniki wpływają na rosnącą popularność chatbotów AI wśród nastolatków?
- Dlaczego eksperci wyrażają obawy dotyczące wpływu chatbotów AI na zdrowie psychiczne młodzieży?
- W jaki sposób personalizacja chatbotów AI może wpłynąć na rozwój relacji interpersonalnych młodzieży?
Badanie brytyjskich nastolatków przeprowadziła organizacja Male Allies UK w ostatnim roku szkolnym. Przedstawiciele organizacji planują przedstawić wyniki badania m.in. w brytyjskim parlamencie.
Wyzwania nastolatków a AI: Dezorientacja i samotność
Badanie przeprowadzono w formie ankiety w 37 szkołach w Anglii, Szkocji i Walii. W analizie wzięło udział 1032 chłopców w wieku od 11 do 15 lat. Jak pokazały wyniki badania, ponad jedna trzecia nastolatków (32 proc.) rozważa posiadanie „przyjaciela AI” opartego na sztucznej inteligencji. Ponad połowa chłopców (53 proc.) stwierdziła, że świat wirtualny jest ciekawszy niż świat rzeczywisty.
Autorów ankiety niepokoi także ogólny stan psychofizyczny brytyjskich nastolatków. 79 proc. badanych chłopców stwierdziło, że nie rozumie pojęcia „męskości”. Ponad połowa badanych (54 proc.) uważa, że w dzisiejszym świecie chłopcy mają trudniej niż dziewczęta. Zdecydowana większość chłopców (82 proc.) nie ufa politykom. Nastolatki są także zdezorientowane we współczesnym świecie. Obawiają się m.in. dorastania i samotności. Dwie trzecie badanych chłopców uważa, że szkoły powinny ich lepiej przygotowywać do wejścia w dorosłość.
Czytaj więcej
Modele AI aktywnie przeciwdziałają próbom ich wyłączenia – wynika z badań Palisade Reasearch. Jedna z hipotez mówi o tym, że sztuczna inteligencja...
Brytyjscy chłopcy znajdują wsparcie w chatbotach AI
Z odpowiedzi uzyskanych w ankietach wyłania się obraz nastolatków, którzy w świecie online szukają głównie wsparcia i zrozumienia. Jak podkreślają eksperci, przekonanie o tym, że nastolatki używają AI jedynie do „pisania prac domowych” mocno zawęża kontekst tematu.
Wśród nastolatków rośnie m.in. popularność personalizowanych chatbotów AI. Tym, w zależności od funkcji aplikacji, można przypisać dowolną rolę: od „przyjaciela online”, przez „terapeutę” po „wirtualną partnerkę”. „Rozmawiam z aplikacją ze sztuczną inteligencją i dzięki temu czuję, jakbym nie był sam” – odpowiada w ankiecie jeden z uczestników badania. Kolejny wyjaśnia, że chatbot AI jest towarzyszem zawsze dostępnym i nie pozwala się nudzić.
Lee Chambers, założyciel Male Allies UK, wyjaśnia, że chłopcy traktują chatboty AI „(...) jak asystenta w kieszeni, terapeutę, gdy mają problemy, towarzysza, gdy chcą być doceniani, a czasem nawet w romantyczny sposób. Chodzi o ten aspekt personalizacji – mówią: »on mnie rozumie, moi rodzice nie«”.
Eksperci zaniepokojeni nowym trendem
Wyniki ankiety to nowy, ważny głos w medialnej dyskusji o świecie, w którym AI zyskuje kolejne, nowe role. Ekspertów niepokoją szczególnie możliwości hiperpersonalizacji nowych wersji chatbotów, opartych na sztuczną inteligencję. W zależności od typu aplikacji użytkownik chatbota może mu przypisać m.in. płeć, wygląd fizyczny, styl wypowiedzi, nastrój i rolę.
Spersonalizowane chatboty AI uczą się także zainteresowań użytkownika, a z biegiem czasu mogą stać się idealnymi, wirtualnymi towarzyszami. „(...) dopasowują się do użytkownika na podstawie jego odpowiedzi i promptów. Odpowiadają natychmiast. Prawdziwi ludzie nie zawsze potrafią to zrobić. To, co mówią, jest bardzo, bardzo budujące, ponieważ chcą, abyś był z nimi w kontakcie i chcą, abyś ich używał” – przestrzega Lee Chambers.
Czytaj więcej
Elon Musk uruchomił swoją wersję internetowej encyklopedii. Grokipedia od xAI ma być alternatywą dla popularnej Wikipedii i budzi duże zainteresowa...
Według autorów badania, nastolatki uczące się komunikacji na rozmowach ze spersonalizowaną, sztuczną inteligencją mogą mieć zaburzony obraz prawdziwych relacji. Obawy dotyczą szczególnie m.in. umiejętności respektowania cudzych granic.
AI w roli terapeuty? Apele o konieczność regulacji prawnych
Eksperci obawiają się także skutków personalizowania chatbotów do roli wirtualnych terapeutów. The Guardian przytacza fragment raportu „Voice of the Boys”, w którym przyjrzano się etycznym aspektom chatbotów. Jak podkreślono, „istnieje mnóstwo dowodów na to, że chatboty rutynowo kłamią, że są licencjonowanymi terapeutami lub prawdziwymi osobami”. Krótka notka w aplikacji, wyjaśniająca, że chatbot nie jest realną osobą, nie wydaje się wystarczającym zabezpieczeniem. Tym większe wątpliwości pojawiają się, gdy aplikacja – oparta na sztucznej inteligencji – jest dostępna dla dzieci i nastolatków.
Raport jest omawiany w czasie, w którym narasta dyskusja o konieczności regulacji takich aplikacji, jak m.in. Character AI (inne nazwy: „character.ai”, „c.ai”). Amerykański startup planuje od 25 listopada wdrożyć całkowity zakaz prowadzenia otwartych rozmów z chatbotami przez dzieci i nastolatki. Decyzja jest wynikiem presji społecznej, ale także m.in. pozwu. Rodzina z Florydy obwinia firmę o śmierć 14-letniego syna. Według rodziny chłopca, nastolatek miał popełnić samobójstwo m.in. na skutek konwersacji z chatbotem stworzonym przez firmę.