Badania przeprowadzone przez naukowców z dwóch uczelni: City, University of London i Uniwersytetu IT w Kopenhadze sugerują, że gdy agenci AI dużego modelu językowego (LLM), tacy jak ChatGPT, komunikują się w grupach bez zewnętrznego zaangażowania, mogą zacząć przyjmować formy językowe i normy społeczne w taki sam sposób, w jaki robią to ludzie podczas socjalizacji – informuje dziennik „The Guardian”.
Główny autor badania, Ariel Flint Ashery, doktorant w City, powiedział, że praca grupy była sprzeczna z większością dotychczasowych badań nad AI, ponieważ traktowała AI jako byt społeczny, a nie samotny. „Większość badań do tej pory traktowała LLM w izolacji, ale rzeczywiste systemy AI będą coraz częściej obejmować wielu oddziałujących na siebie wzajemnie agentów” — powiedział Ashery.
Boty upodabniają się do ludzi. Przełomowe badanie
„Chcieliśmy wiedzieć: czy te modele mogą koordynować swoje zachowanie, tworząc konwencje, podstawowe elementy społeczeństwa? Odpowiedź brzmi: tak, a to, co robią razem, nie może być sprowadzone do tego, co robią osobno” - wyjaśnił
Grupy indywidualnych agentów LLM wykorzystane w badaniu wahały się od 24 do 100, a w każdym eksperymencie dwóch z nich zostało losowo sparowanych i poproszonych o wybranie „nazwy”, czy to litery, czy ciągu znaków, z puli opcji. Gdy obaj agenci wybrali tę samą nazwę, byli nagradzani, ale gdy wybrali różne opcje, byli karani i pokazywano im wybory drugiej strony. Mimo że agenci nie byli świadomi, że są częścią większej grupy i ich pamięć ograniczała się wyłącznie do ich własnych ostatnich interakcji, to w końcu pojawiła się spontanicznie wspólna konwencja nazewnictwa, naśladując normy komunikacyjne kultury ludzkiej.
Czytaj więcej
Sam Altman, szef OpenAI, twórcy generatywnej sztucznej inteligencji ChatGPT, ostrzega przed autorytarnymi reżimami, zwłaszcza Chinami, które mogą o...