Tecnologia
Un’IA addestrata su registrazioni di motion capture può aiutare i robot a imitare fluidamente le azioni umane, come ballare, camminare e combattere.
Un robot umanoide danza con l’aiuto di un’IA addestrata su registrazioni di motion capture umano.
Un’IA che aiuta i robot umanoidi a rispecchiare i movimenti di una persona potrebbe permettere ai robot di camminare, ballare e combattere in modi più convincentemente umani. I movimenti robotici più agili e fluidi, come le impressionanti dimostrazioni di acrobazie robotiche di Boston Dynamics, sono tipicamente sequenze strette e pre-programmate. Insegnare ai robot a eseguire un repertorio più ampio di movimenti umani convincenti è ancora difficile.
Per superare questo ostacolo, Xuanbin Peng dell’Università della California, San Diego, e i suoi colleghi hanno sviluppato un sistema di intelligenza artificiale chiamato ExBody2, che permette ai robot di copiare e eseguire fluidamente molti movimenti umani diversi in modi più realistici.
Peng e il suo team hanno prima creato un database di azioni che un robot umanoide potrebbe essere in grado di eseguire, dai movimenti semplici come stare in piedi o camminare a manovre più complesse, come mosse di danza difficili. Il database includeva registrazioni di motion capture di centinaia di volontari umani raccolte in precedenti progetti di ricerca.
“Poiché i robot umanoidi condividono una struttura fisica simile alla nostra, ha senso sfruttare le enormi quantità di dati sui movimenti umani già disponibili,” dice Peng. “Imparando a imitare questo tipo di movimento, il robot può rapidamente acquisire una vasta gamma di comportamenti simili a quelli umani. Questo significa che qualsiasi cosa gli esseri umani possano fare, il robot può potenzialmente imparare.”
Per insegnare a un robot umanoide simulato come muoversi, Peng e il suo team hanno utilizzato l’apprendimento per rinforzo, dove un’IA riceve un esempio di cosa consiste un movimento di successo e poi deve capire come farlo da sola attraverso tentativi ed errori. Hanno prima fatto apprendere a ExBody2 con accesso completo a tutti i dati su questo robot virtuale, come le coordinate di ogni giunto, in modo che potesse imitare i movimenti umani il più fedelmente possibile. Poi, hanno fatto apprendere questi movimenti utilizzando solo i dati a cui avrebbe accesso nel mondo reale, come le misurazioni di inerzia o velocità dai sensori sul corpo di un robot reale.
Dopo essersi addestrato sul database, ExBody2 è stato messo al controllo di due diversi robot umanoidi commerciali. È stato in grado di concatenare fluidamente movimenti semplici, come camminare in linea retta e accovacciarsi, oltre a eseguire mosse più difficili, come seguire una routine di danza di 40 secondi, tirare pugni e ballare il valzer con un umano.
“I robot umanoidi funzionano meglio quando coordinano tutti i loro arti e giunti insieme,” dice Peng. “Molti compiti e movimenti richiedono che braccia, gambe e torso lavorino insieme, e la coordinazione completa del corpo espande notevolmente la gamma di capacità del robot.”