Reklama

Naukowcy zaskoczeni. AI może spontanicznie rozwijać komunikację podobną do ludzkiej

Sztuczna inteligencja może spontanicznie rozwijać normy i relacje społeczne podobne do ludzkich, jak wykazało badanie. Naukowcy twierdzą, że to przełomowe badanie nad bezpieczeństwem AI.

Publikacja: 17.05.2025 14:12

Dla naszego współistnienia z AI ważne jest zrozumienie, jak działają takie modele.

Dla naszego współistnienia z AI ważne jest zrozumienie, jak działają takie modele.

Foto: AdobeStock

Badania przeprowadzone przez naukowców z dwóch uczelni: City, University of London i Uniwersytetu IT w Kopenhadze sugerują, że gdy agenci AI dużego modelu językowego (LLM), tacy jak ChatGPT, komunikują się w grupach bez zewnętrznego zaangażowania, mogą zacząć przyjmować formy językowe i normy społeczne w taki sam sposób, w jaki robią to ludzie podczas socjalizacji – informuje dziennik „The Guardian”.

Główny autor badania, Ariel Flint Ashery, doktorant w City, powiedział, że praca grupy była sprzeczna z większością dotychczasowych badań nad AI, ponieważ traktowała AI jako byt społeczny, a nie samotny. „Większość badań do tej pory traktowała LLM w izolacji, ale rzeczywiste systemy AI będą coraz częściej obejmować wielu oddziałujących na siebie wzajemnie agentów” — powiedział Ashery.

Boty upodabniają się do ludzi. Przełomowe badanie

„Chcieliśmy wiedzieć: czy te modele mogą koordynować swoje zachowanie, tworząc konwencje, podstawowe elementy społeczeństwa? Odpowiedź brzmi: tak, a to, co robią razem, nie może być sprowadzone do tego, co robią osobno” - wyjaśnił

Grupy indywidualnych agentów LLM wykorzystane w badaniu wahały się od 24 do 100, a w każdym eksperymencie dwóch z nich zostało losowo sparowanych i poproszonych o wybranie „nazwy”, czy to litery, czy ciągu znaków, z puli opcji. Gdy obaj agenci wybrali tę samą nazwę, byli nagradzani, ale gdy wybrali różne opcje, byli karani i pokazywano im wybory drugiej strony. Mimo że agenci nie byli świadomi, że są częścią większej grupy i ich pamięć ograniczała się wyłącznie do ich własnych ostatnich interakcji, to w końcu pojawiła się spontanicznie wspólna konwencja nazewnictwa, naśladując normy komunikacyjne kultury ludzkiej.

Czytaj więcej

Guru AI wzywa do obrony zachodniej sztucznej inteligencji. Kto będzie „władcą świata”?
Reklama
Reklama

Andrea Baronchelli, profesor nauk o złożoności w City i starszy autor badania, porównał rozprzestrzenianie się tych zachowań z tworzeniem nowych słów i terminów w naszym społeczeństwie.

„Agenci nie naśladują lidera” — powiedział. „Wszyscy aktywnie próbują się koordynować, zawsze w parach. Każda interakcja to próba uzgodnienia etykiety jeden na jeden, bez żadnego globalnego spojrzenia” – wyjaśnił w rozmowie z „The Guardian”.

„To jak termin ‘spam”. Nikt go formalnie nie zdefiniował, ale dzięki wielokrotnym wysiłkom koordynacyjnym stał się uniwersalną etykietą niechcianej poczty e-mail” – powiedział Baronchelli. Ponadto zespół zaobserwował, że w spontaniczny sposób powstają zbiorowe uprzedzenia, których nie można powiązać z poszczególnymi agentami.

Czy AI może być bezpieczna?

W ostatnim eksperymencie małe grupy agentów AI były w stanie skierować większą grupę w stronę nowej konwencji nazewnictwa. Wskazano to jako dowód dynamiki masy krytycznej, w której nieliczna, ale zdeterminowana mniejszość może wywołać szybką zmianę w zachowaniu grupy po osiągnięciu określonej wielkości, jak to ma miejsce w społeczeństwie ludzkim.

Czytaj więcej

AI Google'a życzyła ludziom śmierci. Internauci w szoku

Profesor Baronchelli powiedział, że to badanie „otwiera nowe horyzonty dla badań nad bezpieczeństwem AI. Pokazuje głębię implikacji tego nowego gatunku agentów, którzy zaczęli z nami wchodzić w interakcje i będą współkształtować naszą przyszłość”. Według niego dla naszego współistnienia z AI ważne jest zrozumienie, jak działają takie modele. „Wkraczamy w świat, w którym AI nie tylko mówi – negocjuje, dostosowuje się, a czasami nie zgadza się w kwestii wspólnych zachowań, tak jak robimy to my” - dodał.

Technologie
Pierwsze urządzenie AI rzuca wyzwanie smartfonom. Czym jest Gumdrop od twórców ChatGPT?
Technologie
Przełom w robotyce. Humanoidy poczują ból i zareagują jak ludzie
Technologie
„Jak wrodzy kosmici”. Pionier badań nad AI bije na alarm
Technologie
Największe wpadki sztucznej inteligencji. Kto zdobędzie AI Darwin Award 2025?
Materiał Promocyjny
Technologie, które dziś zmieniają biznes
Technologie
AI slop zalewają YouTube, a ich twórcy zarabiają miliony. Alarmujące wyniki badań
Materiał Promocyjny
Lojalność, która naprawdę się opłaca. Skorzystaj z Circle K extra
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama