DeepMind de Google trabajó con 33 laboratorios académicos diferentes para crear un conjunto de datos de entrenamiento de IA basado en 22 tipos de robots diferentes.
Los robots son muy buenos haciendo una cosa concreta. Si se quiere que haga algo ligeramente distinto, hay que entrenarlo desde cero. El objetivo final de la robótica es tener un robot que sea bueno en una gama general de acciones con la capacidad de aprender nuevas habilidades por sí mismo.
Para entrenar un modelo de IA se necesita un gran conjunto de datos relacionados con el propósito del modelo. Los modelos lingüísticos como GPT-4 se entrenan con grandes cantidades de datos escritos. Generadores de imágenes como DALL-E 3 se entrenan con grandes cantidades de imágenes.
Con X-Embodiment, DeepMind ha creado un conjunto de datos de acciones robóticas basado en 22 tipos diferentes de robots. A continuación, utilizó ese conjunto de datos para entrenar nuevos modelos basados en sus modelos robóticos RT-1 y RT-2.
Los datos de X-Embodiment proceden de "22 robots que han demostrado más de 500 habilidades y 150.000 tareas en más de un millón de episodios", según Mensaje de DeepMind.
Presentamos 𝗥𝗧-𝗫: un modelo de IA generalista para ayudar a avanzar en cómo los robots pueden aprender nuevas habilidades. 🤖
Para entrenarlo, nos hemos asociado con 33 laboratorios académicos de todo el mundo para crear un nuevo conjunto de datos con experiencias obtenidas de 22 tipos de robots diferentes.
Más información: https://t.co/k6tE62gQGP pic.twitter.com/IXTy2g4Lty
- Google DeepMind (@GoogleDeepMind) 3 de octubre de 2023
Los resultados de las pruebas anteriores del RT-1 y Modelos RT-2 ya eran impresionantes, pero DeepMind descubrió que las versiones RT-X tenían un rendimiento significativamente mejor debido a la naturaleza general del nuevo conjunto de datos.
Las pruebas consistieron en comparar un robot controlado por un modelo entrenado para una tarea específica con ese mismo robot controlado por el modelo RT-1-X. RT-1-X rindió una media de 50% mejor que los modelos diseñados específicamente para tareas como abrir una puerta o tender un cable.
RT-2, el modelo robótico de visión-lenguaje-acción (VLA) de Google, permite a los robots aprender a partir de datos web, verbales y visuales y, a continuación, actuar sin necesidad de entrenamiento. Cuando los ingenieros entrenaron a RT-2-X con el conjunto de datos X-Embodiment, descubrieron que RT-2-X tenía tres veces más éxito que RT-2 en habilidades emergentes.
En otras palabras, el robot estaba aprendiendo nuevas habilidades que antes no tenía, basadas en capacidades que otros robots habían aportado al conjunto de datos. La transferencia de habilidades entre distintos tipos de robots podría cambiar las reglas del juego en el desarrollo rápido de la robótica.
Estos resultados invitan al optimismo y a pensar que pronto veremos robots con habilidades más generales y capaces de aprender otras nuevas sin necesidad de un entrenamiento específico.
DeepMind dice que esta investigación podría aplicarse a la propiedad de auto-mejora de RoboCatsu agente de inteligencia artificial para la robótica.
La perspectiva de contar con un robot que siga mejorando y aprendiendo nuevas habilidades supondría una enorme ventaja en campos como la fabricación, la agricultura o la sanidad. Esas nuevas habilidades podrían aplicarse igualmente en el industria de defensa lo que quizá sea una perspectiva menos atractiva, aunque inevitable.