Naukowcy zaskoczeni. AI może spontanicznie rozwijać komunikację podobną do ludzkiej

Sztuczna inteligencja może spontanicznie rozwijać normy i relacje społeczne podobne do ludzkich, jak wykazało badanie. Naukowcy twierdzą, że to przełomowe badanie nad bezpieczeństwem AI.

Publikacja: 17.05.2025 14:12

Dla naszego współistnienia z AI ważne jest zrozumienie, jak działają takie modele.

Dla naszego współistnienia z AI ważne jest zrozumienie, jak działają takie modele.

Foto: AdobeStock

Badania przeprowadzone przez naukowców z dwóch uczelni: City, University of London i Uniwersytetu IT w Kopenhadze sugerują, że gdy agenci AI dużego modelu językowego (LLM), tacy jak ChatGPT, komunikują się w grupach bez zewnętrznego zaangażowania, mogą zacząć przyjmować formy językowe i normy społeczne w taki sam sposób, w jaki robią to ludzie podczas socjalizacji – informuje dziennik „The Guardian”.

Główny autor badania, Ariel Flint Ashery, doktorant w City, powiedział, że praca grupy była sprzeczna z większością dotychczasowych badań nad AI, ponieważ traktowała AI jako byt społeczny, a nie samotny. „Większość badań do tej pory traktowała LLM w izolacji, ale rzeczywiste systemy AI będą coraz częściej obejmować wielu oddziałujących na siebie wzajemnie agentów” — powiedział Ashery.

Boty upodabniają się do ludzi. Przełomowe badanie

„Chcieliśmy wiedzieć: czy te modele mogą koordynować swoje zachowanie, tworząc konwencje, podstawowe elementy społeczeństwa? Odpowiedź brzmi: tak, a to, co robią razem, nie może być sprowadzone do tego, co robią osobno” - wyjaśnił

Grupy indywidualnych agentów LLM wykorzystane w badaniu wahały się od 24 do 100, a w każdym eksperymencie dwóch z nich zostało losowo sparowanych i poproszonych o wybranie „nazwy”, czy to litery, czy ciągu znaków, z puli opcji. Gdy obaj agenci wybrali tę samą nazwę, byli nagradzani, ale gdy wybrali różne opcje, byli karani i pokazywano im wybory drugiej strony. Mimo że agenci nie byli świadomi, że są częścią większej grupy i ich pamięć ograniczała się wyłącznie do ich własnych ostatnich interakcji, to w końcu pojawiła się spontanicznie wspólna konwencja nazewnictwa, naśladując normy komunikacyjne kultury ludzkiej.

Czytaj więcej

Guru AI wzywa do obrony zachodniej sztucznej inteligencji. Kto będzie „władcą świata”?

Andrea Baronchelli, profesor nauk o złożoności w City i starszy autor badania, porównał rozprzestrzenianie się tych zachowań z tworzeniem nowych słów i terminów w naszym społeczeństwie.

„Agenci nie naśladują lidera” — powiedział. „Wszyscy aktywnie próbują się koordynować, zawsze w parach. Każda interakcja to próba uzgodnienia etykiety jeden na jeden, bez żadnego globalnego spojrzenia” – wyjaśnił w rozmowie z „The Guardian”.

„To jak termin ‘spam”. Nikt go formalnie nie zdefiniował, ale dzięki wielokrotnym wysiłkom koordynacyjnym stał się uniwersalną etykietą niechcianej poczty e-mail” – powiedział Baronchelli. Ponadto zespół zaobserwował, że w spontaniczny sposób powstają zbiorowe uprzedzenia, których nie można powiązać z poszczególnymi agentami.

Czy AI może być bezpieczna?

W ostatnim eksperymencie małe grupy agentów AI były w stanie skierować większą grupę w stronę nowej konwencji nazewnictwa. Wskazano to jako dowód dynamiki masy krytycznej, w której nieliczna, ale zdeterminowana mniejszość może wywołać szybką zmianę w zachowaniu grupy po osiągnięciu określonej wielkości, jak to ma miejsce w społeczeństwie ludzkim.

Czytaj więcej

AI Google'a życzyła ludziom śmierci. Internauci w szoku

Profesor Baronchelli powiedział, że to badanie „otwiera nowe horyzonty dla badań nad bezpieczeństwem AI. Pokazuje głębię implikacji tego nowego gatunku agentów, którzy zaczęli z nami wchodzić w interakcje i będą współkształtować naszą przyszłość”. Według niego dla naszego współistnienia z AI ważne jest zrozumienie, jak działają takie modele. „Wkraczamy w świat, w którym AI nie tylko mówi – negocjuje, dostosowuje się, a czasami nie zgadza się w kwestii wspólnych zachowań, tak jak robimy to my” - dodał.

Badania przeprowadzone przez naukowców z dwóch uczelni: City, University of London i Uniwersytetu IT w Kopenhadze sugerują, że gdy agenci AI dużego modelu językowego (LLM), tacy jak ChatGPT, komunikują się w grupach bez zewnętrznego zaangażowania, mogą zacząć przyjmować formy językowe i normy społeczne w taki sam sposób, w jaki robią to ludzie podczas socjalizacji – informuje dziennik „The Guardian”.

Główny autor badania, Ariel Flint Ashery, doktorant w City, powiedział, że praca grupy była sprzeczna z większością dotychczasowych badań nad AI, ponieważ traktowała AI jako byt społeczny, a nie samotny. „Większość badań do tej pory traktowała LLM w izolacji, ale rzeczywiste systemy AI będą coraz częściej obejmować wielu oddziałujących na siebie wzajemnie agentów” — powiedział Ashery.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Może złamać wszelkie zabezpieczenia, ale i wyleczyć raka. Ta technologia przebije AI
Technologie
Przyłapała nauczyciela na korzystaniu z ChatGPT. Studentka chce zwrotu czesnego
Materiał Promocyjny
Co AI może zrobić dla małych i średnich przedsiębiorstw
Technologie
Amerykanie stworzyli drewno twardsze niż stal. To rewolucja w budownictwie
Technologie
Rewolucja w lotach pasażerskich. Maszyny o dziwnym kształcie zdominują niebo