Badania przeprowadzone przez naukowców z dwóch uczelni: City, University of London i Uniwersytetu IT w Kopenhadze sugerują, że gdy agenci AI dużego modelu językowego (LLM), tacy jak ChatGPT, komunikują się w grupach bez zewnętrznego zaangażowania, mogą zacząć przyjmować formy językowe i normy społeczne w taki sam sposób, w jaki robią to ludzie podczas socjalizacji – informuje dziennik „The Guardian”.
Główny autor badania, Ariel Flint Ashery, doktorant w City, powiedział, że praca grupy była sprzeczna z większością dotychczasowych badań nad AI, ponieważ traktowała AI jako byt społeczny, a nie samotny. „Większość badań do tej pory traktowała LLM w izolacji, ale rzeczywiste systemy AI będą coraz częściej obejmować wielu oddziałujących na siebie wzajemnie agentów” — powiedział Ashery.
Boty upodabniają się do ludzi. Przełomowe badanie
„Chcieliśmy wiedzieć: czy te modele mogą koordynować swoje zachowanie, tworząc konwencje, podstawowe elementy społeczeństwa? Odpowiedź brzmi: tak, a to, co robią razem, nie może być sprowadzone do tego, co robią osobno” - wyjaśnił
Grupy indywidualnych agentów LLM wykorzystane w badaniu wahały się od 24 do 100, a w każdym eksperymencie dwóch z nich zostało losowo sparowanych i poproszonych o wybranie „nazwy”, czy to litery, czy ciągu znaków, z puli opcji. Gdy obaj agenci wybrali tę samą nazwę, byli nagradzani, ale gdy wybrali różne opcje, byli karani i pokazywano im wybory drugiej strony. Mimo że agenci nie byli świadomi, że są częścią większej grupy i ich pamięć ograniczała się wyłącznie do ich własnych ostatnich interakcji, to w końcu pojawiła się spontanicznie wspólna konwencja nazewnictwa, naśladując normy komunikacyjne kultury ludzkiej.
Czytaj więcej
Sam Altman, szef OpenAI, twórcy generatywnej sztucznej inteligencji ChatGPT, ostrzega przed autor...