IBM zaszokował świat w 1997 r., gdy jego model Deep Blue pokonał arcymistrza szachowego Garriego Kasparowa. Niemal dwie dekady później model AlphaGo od Google rozgromił mistrza gry w Go – osiągnięcie, które wielu uważało wówczas za niemożliwe. Od tego czasu coraz bardziej zaawansowane modele AI, dysponujące ogromnymi zbiorami danych, przeszły od gier planszowych do gier wideo.
AI w grach: od szachów i Go do wirtualnych światów
Różne modele wykorzystywały metodę uczenia zwaną uczeniem przez wzmacnianie – technikę, która odgrywa również kluczową rolę w trenowaniu chatbotów AI, takich jak ChatGPT – aby nauczyć maszyny przewyższania ludzi w wielu grach Atari – pisze portal „Popular Science”. W ostatnich latach uczenie przez wzmacnianie pozwoliło maszynom opanować niezwykle złożone gry strategiczne, takie jak Dota 2 czy StarCraft II.
Czytaj więcej
Rynek autonomicznych agentów AI rośnie w siłę. Swoje projekty ogłosili właśnie Perplexity oraz Elon Musk. Ten ostatni dzięki fuzji swojej spółki mo...
Jest jednak jeden obszar gier, w którym – przynajmniej na razie – komputery wciąż nie dorównują ludziom. Nadal nie radzą sobie dobrze z szybkim uczeniem się nowych, bardziej otwartych typów gier. Gdy chodzi o sięgnięcie po losową grę ze sklepu, której wcześniej nie „widziały”, i zrozumienie jej zasad, ludzie uczą się znacznie szybciej niż nawet najbardziej zaawansowane modele AI.
To główny wniosek pracy naukowej autorstwa profesora informatyki z Uniwersytetu Nowojorskiego, Juliana Togeliusa, i jego współpracowników. Naukowcy podkreślają, że różnica ta to nie tylko powód do dumy dla Homo sapiens, ale także wskazówka dotycząca kluczowych elementów ludzkiej inteligencji. Może ona tłumaczyć, dlaczego AI ma jeszcze długą drogę do przebycia, zanim osiągnie poziom inteligencji człowieka – nie mówiąc już o jego przewyższeniu.
Dlaczego gry są poligonem doświadczalnym dla AI
Gry od dziesięcioleci stanowią użyteczne środowisko testowe dla modeli AI, ponieważ zazwyczaj mają przewidywalne zasady, jasno określone cele i różnorodne mechaniki. Te cechy szczególnie dobrze pasują do uczenia przez wzmacnianie, w którym model rozgrywa grę w symulacji wielokrotnie – czasem miliony razy – ucząc się metodą prób i błędów, aż osiągnie biegłość. W ten sposób DeepMind opanował gry Atari w 2015 r. Ta sama logika wpływa dziś na popularne modele językowe, choć ich „danymi treningowymi” jest w praktyce cały internet – pisze „Popular Science”.
Czytaj więcej
Zamiast rewolucji w grach wideo dzięki niezwykłej grafice komputerowej, DLSS 5 wywołał falę krytyki. Gracze i deweloperzy zarzucają Nvidii, że gene...
Modele AI dominują w grach planszowych i niektórych grach wideo, ponieważ ograniczenia są jasne, a cele stosunkowo proste. Jednak nawet niewielkie zmiany w projekcie gry mogą sprawić, że cały system przestaje działać poprawnie. Model może być „nadludzki” w jednej grze, a jednocześnie zupełnie nieporadny, gdy musi improwizować.
Doświadczenie człowieka kluczem do wygranej z AI
Różnica ta staje się jeszcze bardziej widoczna w nowoczesnych grach, które coraz częściej są bardziej otwarte i abstrakcyjne.
AI wciąż znacznie lepiej radzi sobie w szachach niż w takich grach jak „Red Dead Redemption”, która zawiera wiele misji o jasno określonych celach – zastrzel przeciwnika, ukradnij konia. Jednak ogólny sens gry jest znacznie mniej jednoznaczny. Co oznacza zwycięstwo, gdy celem jest wcielenie się w moralnie złożoną postać? Ludzie potrafią to intuicyjnie zrozumieć – maszyny już niekoniecznie.
Czytaj więcej
Najwięcej warta firma technologiczna na świecie inwestuje w ElevenLabs, start-up rozwijający technologię głosu opartą na sztucznej inteligencji.
Nawet w prostszych grach, takich jak „Minecraft”, model AI może wiedzieć, że należy przeskoczyć z jednego bloku na drugi, ale nie rozumieć, czym właściwie jest „skakanie”.
Doświadczenie życiowe wydaje się największą przewagą ludzi w starciu z maszynami. Przeciętny gracz pobierający nową grę nie był trenowany przez zespół dobrze opłacanych inżynierów, ale ma za sobą lata interakcji ze światem oraz rozumienia obiektów i pojęć abstrakcyjnych, które napotka w grze. Wszystko to sprawia, że ludzie szybciej uczą się nowych gier. Badania pokazują, że model AI wykorzystujący uczenie przez wzmacnianie może potrzebować nawet 4 mln interakcji (np. naciśnięć klawiszy), aby ukończyć grę – co przekłada się na około 37 godzin ciągłej rozgrywki. Przeciętny gracz zrozumie nawet zupełnie nowe mechaniki zwykle w mniej niż 10 godzin.
Czytaj więcej
Rozwój sztucznej inteligencji pochłania gigantyczne ilości energii, zmuszając sektor technologiczny do poszukiwania radykalnych alternatyw dla trad...
To nie znaczy, że AI nie robi postępów. W ubiegłym roku Google DeepMind zaprezentował model SIMA 2, który – według firmy – stanowi duży krok naprzód w uczeniu AI grania w trójwymiarowe gry w sposób bardziej zbliżony do ludzkiego, także w tytułach, na których nie był trenowany. Kluczowym elementem było połączenie modelu z możliwościami rozumowania dużego modelu językowego Gemini.
Mimo to, zdaniem Juliana Togeliusa i jego współpracowników, modele te wciąż mają wiele do nadrobienia. Proponują oni test polegający na tym, by model potrafił zagrać i wygrać w 100 najpopularniejszych grach na Steamie lub w App Store – bez wcześniejszego treningu – i zrobić to w czasie zbliżonym do ludzkiego. To ogromne wyzwanie. Pokonanie go ma znaczenie nie tylko dla branży gier. Zdaniem Togeliusa maszyna zdolna do takiego uogólniania musiałaby wykazywać się prawdziwą kreatywnością, zdolnością planowania i abstrakcyjnego myślenia – cechami znacznie bliższymi ludzkiej inteligencji niż to, co prezentują obecne modele AI.