Dotychczas czworonożne roboty swobodnie biegały po płaskim terenie, jednak nie do końca dawały sobie radę, kiedy napotykały przeszkody w postaci nierówności. Dzięki nowemu systemowi są w stanie biegać także po nierównościach, bez obawy, że się wywrócą.

Zwierzęta i ludzie używają oczu, by unikać przeszkód. Trudno nie wpaść w dziurę, jeśli się jej nie widzi. Robotyczne gepardy nie były w stanie ich zobaczyć, dlatego bieganie po nierównym terenie było dla nich bardzo trudne.

Gabriel Margolis, doktorant w laboratorium Pulkita Agrawala, profesor informatyki z Laboratorium Sztucznej Inteligencji (CSAIL) w renomowanej Massachusetts Institute of Technology (MIT), wraz z współpracownikami opracował system, który poprawia szybkość i zwinność robotów poruszających się na nogach, pozwalając im na swobodne przeskakiwanie nad szczelinami i dziurami w podłożu.

Nowatorski system sterowania jest podzielony na dwie części – jedną, która przetwarza dane wejściowe w czasie rzeczywistym z kamery wideo zamontowanej z przodu robota, i drugą, która przekłada te informacje na instrukcje dotyczące tego, jak robot powinien poruszać swoim ciałem. Naukowcy przetestowali swój system na minigepardzie, potężnym zwinnym robocie zbudowanym w laboratorium Sangbae Kim, profesora inżynierii mechanicznej w MIT.

Czytaj więcej

Robo łodzie już wkrótce będą pływać po kanałach w Amsterdamie. Na pokład zabiorą pięciu pasażerów
Robo-łodzie, które zmienią transport i turystykę. Mogą pływać pod wodą

W przeciwieństwie do innych metod sterowania robotem czworonożnym ten dwuczęściowy system nie wymaga wcześniejszego mapowania terenu, dzięki czemu robot może się przemieszczać w dowolne miejsce. W przyszłości może to umożliwić robotom ruszanie do lasu na misję ratunkową lub wspinanie się po schodach, aby np. dostarczyć leki starszym osobom w ich własnych domach.

Naukowcy połączyli najlepsze aspekty solidnych, ślepych kontrolerów z oddzielnym modułem obsługującym widzenie w czasie rzeczywistym, aby stworzyć swój system. Kamera robota rejestruje obrazy głębi zbliżającego się terenu, które są przekazywane do kontrolera wysokiego poziomu wraz z informacjami o stanie ciała robota (kąty stawów, orientacja ciała). Kontroler wysokiego poziomu to sieć neuronowa, która „uczy się” z doświadczenia. Trenowanie sieci neuronowej odbywało się za pomocą metody prób i błędów znanej jako uczenie ze wzmocnieniem. Przeprowadzono symulacje robota biegnącego przez setki różnych nieregularnych terenów i nagradzając go za udane próby. Dzięki temu algorytm mógł się dowiedzieć, jakie działania należy wykonać, aby uzyskać największą nagrodę.

Następnie zbudowano fizyczny dziurawy teren z zestawu drewnianych desek i przetestowano schemat kontroli za pomocą minigeparda. Robotowi udało się, mimo problemów, pokonać prawidłowo aż 90 proc. terenu.

Autopromocja
FORUM ESG

Co warto wiedzieć o ESG? Jej znaczenie dla firm i gospodarki.

CZYTAJ WIĘCEJ