Reklama

Rewolucja w AI? Mały bot inspirowany mózgiem zdeklasował gigantów

W wyścigu AI nie liczy się tylko rozmiar. Nowa sztuczna inteligencja inspirowana mózgiem człowieka pobiła na głowę potentatów pokroju GPT-5 i Claude w zadaniach wymagających rozumowania.

Publikacja: 28.08.2025 23:14

Naukowcy z Singapuru chcą zrewolucjonizować sztuczną inteligencję. Na zdjęciu symbol tego małago, ac

Naukowcy z Singapuru chcą zrewolucjonizować sztuczną inteligencję. Na zdjęciu symbol tego małago, acz prężnego gospodarczo państwa Azji

Foto: Bloomberg

Naukowcy z singapurskiej firmy Sapient chcieli dowieść, że sztuczna inteligencja nie musi być olbrzymim modelem, by efektywnie rozumować. Wygląda na to, że im się udało – stworzony przez nich Hierarchical Reasoning Model (HRM) osiągnął zaskakująco dobre wyniki w testach logicznego myślenia. AI składająca się zaledwie z 27 mln parametrów, stanowi ostry kontrast dla wielkich modeli językowych, których architektura opiera się na miliardach, a nawet bilionach parametrów, jak w przypadku GPT-5. Mimo tak ogromnej różnicy w skali, to właśnie mniejszy HRM okazał się skuteczniejszy w wymagającym teście ARC-AGI-1. Zdobył 40,3 proc. poprawnych odpowiedzi, gdy narzędzia OpenAI – 34,5 proc., a Claude 3.7 od Anthropic – 21,2 proc. W tym samym zestawieniu chiński DeepSeek R1 uzyskał zaledwie 15,8 proc.

Bot na wzór ludzkiego mózgu

Okazuje się, że sekret wydajności HRM tkwi w jego architekturze, która naśladuje hierarchiczne przetwarzanie informacji w ludzkim mózgu. System składa się z dwóch modułów – pierwszy, wysokiego poziomu, odpowiada za powolne, abstrakcyjne planowanie, zaś drugi, niskiego poziomu, zajmuje się szybkimi i szczegółowymi obliczeniami. Taka dwupoziomowa struktura pozwala modelowi na rozwiązywanie problemów w jednym „przebiegu”, bez konieczności nadzorowania pośrednich etapów rozumowania. Jak tłumaczy Mayukh Deb z Georgia Tech, pracujący nad podobnymi badaniami, „modele AI są niestrukturalne, podczas gdy mózgi są niezwykle zorganizowane”.

Czytaj więcej

AI dostała zadyszki? Eksperci mówią o spowolnieniu i bańce większej niż internetowa

HRM działa, jak to nazwano, w krótkich „wybuchach myślenia”, iteracyjnie analizując problem i decydując, czy kontynuować obliczenia, czy przedstawić ostateczną odpowiedź. To podejście pozwoliło mu osiągnąć niemal perfekcyjne wyniki w rozwiązywaniu sudoku i znajdowaniu dróg w labiryntach. A należy zaznaczyć, iż w takich zadaniach konwencjonalne LLM-y kompletnie sobie nie radzą.

Trening AI ważniejszy od architektury modelu

Wprowadzony w marcu jeszcze trudniejszy benchmark ARC-AGI-2 dodatkowo uwypuklił przewagę nowego podejścia. HRM uzyskał w nim 5 proc., gdy konkurenci jak o3-mini-high i Claude 3.7 odpowiednio 3 i 0,9 proc. Choć wyniki te wciąż znacząco odbiegają od ludzkich możliwości (ok. 60 proc.), pokazują potencjał drzemiący w bardziej efektywnych architekturach.

Reklama
Reklama

Czytaj więcej

Koniec dominacji ChatGPT? Eksperci wytypowali nowego króla AI

Ostatnia analiza przeprowadzona przez ARC Prize Foundation rzuca na sprawę nowe światło. Wyszło na jaw, że podczas odtwarzania wyników HRM jego hierarchiczna budowa miała minimalny wpływ na wydajność, a kluczowy dla sukcesu okazał się za to słabo udokumentowany proces „udoskonalania modelu podczas treningu”. To odkrycie sugeruje, że w zadaniach wymagających rozumowania innowacyjna metodologia trenowania może być znacznie ważniejsza niż sama architektura.

Eksperci sądzą, że HRM podważa sens inwestowania miliardów dolarów w coraz większe modele językowe, skoro mniejsze i efektywniej trenowane alternatywy mogą osiągać konkurencyjne, a często nawet lepsze rezultaty.

Naukowcy z singapurskiej firmy Sapient chcieli dowieść, że sztuczna inteligencja nie musi być olbrzymim modelem, by efektywnie rozumować. Wygląda na to, że im się udało – stworzony przez nich Hierarchical Reasoning Model (HRM) osiągnął zaskakująco dobre wyniki w testach logicznego myślenia. AI składająca się zaledwie z 27 mln parametrów, stanowi ostry kontrast dla wielkich modeli językowych, których architektura opiera się na miliardach, a nawet bilionach parametrów, jak w przypadku GPT-5. Mimo tak ogromnej różnicy w skali, to właśnie mniejszy HRM okazał się skuteczniejszy w wymagającym teście ARC-AGI-1. Zdobył 40,3 proc. poprawnych odpowiedzi, gdy narzędzia OpenAI – 34,5 proc., a Claude 3.7 od Anthropic – 21,2 proc. W tym samym zestawieniu chiński DeepSeek R1 uzyskał zaledwie 15,8 proc.

/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Technologie
YouTube pozwolił AI edytować wybrane filmy użytkowników. Zgodę twórców pominięto
Technologie
Przełom w medycynie. Kwanty i superkomputery przyspieszą odkrycia o dekady
Technologie
AI doomerzy ostrzegają: Sztuczna inteligencja nas zniszczy. I podają datę
Technologie
Poważny incydent z chatbotem AI od Elona Muska. „Katastrofa prywatności"
Materiał Promocyjny
Bieszczady to region, który wciąż zachowuje aurę dzikości i tajemniczości
Technologie
„Sowa” dostarczy paczkę. Tak wyglądają drony przyszłości z AI
Materiał Promocyjny
Jak sfinansować rozwój w branży rolno-spożywczej?
Reklama
Reklama