Reklama

Naukowcy zaskoczeni. AI może spontanicznie rozwijać komunikację podobną do ludzkiej

Sztuczna inteligencja może spontanicznie rozwijać normy i relacje społeczne podobne do ludzkich, jak wykazało badanie. Naukowcy twierdzą, że to przełomowe badanie nad bezpieczeństwem AI.

Publikacja: 17.05.2025 14:12

Dla naszego współistnienia z AI ważne jest zrozumienie, jak działają takie modele.

Dla naszego współistnienia z AI ważne jest zrozumienie, jak działają takie modele.

Foto: AdobeStock

Badania przeprowadzone przez naukowców z dwóch uczelni: City, University of London i Uniwersytetu IT w Kopenhadze sugerują, że gdy agenci AI dużego modelu językowego (LLM), tacy jak ChatGPT, komunikują się w grupach bez zewnętrznego zaangażowania, mogą zacząć przyjmować formy językowe i normy społeczne w taki sam sposób, w jaki robią to ludzie podczas socjalizacji – informuje dziennik „The Guardian”.

Główny autor badania, Ariel Flint Ashery, doktorant w City, powiedział, że praca grupy była sprzeczna z większością dotychczasowych badań nad AI, ponieważ traktowała AI jako byt społeczny, a nie samotny. „Większość badań do tej pory traktowała LLM w izolacji, ale rzeczywiste systemy AI będą coraz częściej obejmować wielu oddziałujących na siebie wzajemnie agentów” — powiedział Ashery.

Boty upodabniają się do ludzi. Przełomowe badanie

„Chcieliśmy wiedzieć: czy te modele mogą koordynować swoje zachowanie, tworząc konwencje, podstawowe elementy społeczeństwa? Odpowiedź brzmi: tak, a to, co robią razem, nie może być sprowadzone do tego, co robią osobno” - wyjaśnił

Grupy indywidualnych agentów LLM wykorzystane w badaniu wahały się od 24 do 100, a w każdym eksperymencie dwóch z nich zostało losowo sparowanych i poproszonych o wybranie „nazwy”, czy to litery, czy ciągu znaków, z puli opcji. Gdy obaj agenci wybrali tę samą nazwę, byli nagradzani, ale gdy wybrali różne opcje, byli karani i pokazywano im wybory drugiej strony. Mimo że agenci nie byli świadomi, że są częścią większej grupy i ich pamięć ograniczała się wyłącznie do ich własnych ostatnich interakcji, to w końcu pojawiła się spontanicznie wspólna konwencja nazewnictwa, naśladując normy komunikacyjne kultury ludzkiej.

Czytaj więcej

Guru AI wzywa do obrony zachodniej sztucznej inteligencji. Kto będzie „władcą świata”?
Reklama
Reklama

Andrea Baronchelli, profesor nauk o złożoności w City i starszy autor badania, porównał rozprzestrzenianie się tych zachowań z tworzeniem nowych słów i terminów w naszym społeczeństwie.

„Agenci nie naśladują lidera” — powiedział. „Wszyscy aktywnie próbują się koordynować, zawsze w parach. Każda interakcja to próba uzgodnienia etykiety jeden na jeden, bez żadnego globalnego spojrzenia” – wyjaśnił w rozmowie z „The Guardian”.

„To jak termin ‘spam”. Nikt go formalnie nie zdefiniował, ale dzięki wielokrotnym wysiłkom koordynacyjnym stał się uniwersalną etykietą niechcianej poczty e-mail” – powiedział Baronchelli. Ponadto zespół zaobserwował, że w spontaniczny sposób powstają zbiorowe uprzedzenia, których nie można powiązać z poszczególnymi agentami.

Czy AI może być bezpieczna?

W ostatnim eksperymencie małe grupy agentów AI były w stanie skierować większą grupę w stronę nowej konwencji nazewnictwa. Wskazano to jako dowód dynamiki masy krytycznej, w której nieliczna, ale zdeterminowana mniejszość może wywołać szybką zmianę w zachowaniu grupy po osiągnięciu określonej wielkości, jak to ma miejsce w społeczeństwie ludzkim.

Czytaj więcej

AI Google'a życzyła ludziom śmierci. Internauci w szoku

Profesor Baronchelli powiedział, że to badanie „otwiera nowe horyzonty dla badań nad bezpieczeństwem AI. Pokazuje głębię implikacji tego nowego gatunku agentów, którzy zaczęli z nami wchodzić w interakcje i będą współkształtować naszą przyszłość”. Według niego dla naszego współistnienia z AI ważne jest zrozumienie, jak działają takie modele. „Wkraczamy w świat, w którym AI nie tylko mówi – negocjuje, dostosowuje się, a czasami nie zgadza się w kwestii wspólnych zachowań, tak jak robimy to my” - dodał.

Technologie
Rafał Brzoska zainwestował w satelity. Polski start-up warty 10 mld zł
Technologie
W ten prosty sposób można oszukać AI. Zaskakujące wyniki badań włoskich naukowców
Technologie
Luksus i AI nie idą w parze? Fala krytyki pod adresem Valentino
Technologie
Chiński robot straszy w Himalajach. Niepokojące nagranie na granicy z Indiami
Materiał Promocyjny
Startupy poszukiwane — dołącz do Platform startowych w Polsce Wschodniej i zyskaj nowe możliwości!
Technologie
„Niebezpieczne porady”. Brytyjscy naukowcy zbadali ChatGPT i alarmują
Materiał Promocyjny
Jak rozwiązać problem rosnącej góry ubrań
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama