Z tego artykułu się dowiesz:
- Jak robot nauczył się mówić, obserwując ludzkie zachowania?
- Dlaczego ruchy warg u robotów stanowią wyzwanie techniczne?
- Co oznacza dla robotyki kombinacja ruchu warg z konwersacyjną sztuczną inteligencją?
- Jakie są potencjalne etyczne problemy wynikające z rozwoju emocjonalnie interaktywnych robotów?
Naukowcy z Uniwersytetu Columbia w Nowym Jorku stworzyli robota, który uczy się ruchów warg, obserwując ludzi, zamiast kierować się z góry zaprogramowanymi regułami. W raporcie opublikowanym w „Science Robotics” zespół zaprezentował robota formującego słowa w wielu językach, a nawet śpiewającego utwór z wygenerowanego przez AI debiutanckiego albumu zatytułowanego „hello world_”.
Robot nauczył się mówić dzięki obserwacji ludzi
Robot, który nazywa się EMO, zdobył tę umiejętność dzięki obserwacji, a nie instrukcjom. Najpierw nauczył się kontrolować własną twarz, obserwując swoje odbicie w lustrze i stopniowo rozumiejąc, jak jego 26 silników twarzy kształtuje różne wyrazy twarzy. Następnie analizował godziny filmów z YouTube’a, by obserwować, jak ludzkie usta poruszają się podczas mowy i śpiewu – informuje portal SciTechDaily.
– Im więcej będzie wchodził w interakcje z ludźmi, tym lepszy się stanie – powiedział Hod Lipson, profesor na Wydziale Inżynierii Mechanicznej oraz dyrektor Creative Machines Lab na Uniwersytecie Columbia.