El MIT revela manos robóticas que pueden «manipular miles de objetos con facilidad»
El MIT revela manos robóticas que pueden «manipular miles de objetos con facilidad»
El Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT ha revelado una mano robótica diestra que, según los científicos, puede «manipular miles de objetos con facilidad».
Con solo un año de edad, un bebé es más diestro que un robot. Claro, las máquinas pueden hacer más que simplemente recoger y dejar objetos, pero no estamos allí en lo que respecta a replicar una atracción natural hacia la manipulación exploratoria o sofisticada.
OpenAI lo tentó con «Dactyl» (que significa «dedo» de la palabra griega daktylos), usando su mano de robot humanoide para resolver un cubo de Rubik con un software que es un paso hacia una IA más general, y un paso lejos de la mentalidad común de una sola tarea. DeepMind creó «RGB-Stacking», un sistema basado en la visión que desafía a un robot a aprender a agarrar artículos y apilarlos.
Científicos del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT, en la búsqueda siempre presente de lograr que las máquinas repliquen las habilidades humanas, crearon un marco que está más a escala: un sistema que puede reorientar más de dos mil objetos diferentes, con la mano robótica mirando hacia arriba y hacia abajo.
Esta capacidad de manipular cualquier cosa, desde una taza hasta una lata de atún, y una caja Cheez-It, podría ayudar a la mano a recoger y colocar rápidamente objetos en formas y lugares específicos, e incluso generalizar a objetos invisibles.
Este hábil «trabajo manual», que generalmente está limitado por tareas individuales y posiciones verticales, podría ser un activo para acelerar la logística y la fabricación, ayudando con demandas comunes como empacar objetos en ranuras para kitting o manipular hábilmente una gama más amplia de herramientas.
El equipo utilizó una mano antropomórfica simulada con 24 grados de libertad, y mostró evidencia de que el sistema podría transferirse a un sistema robótico real en el futuro.
El estudiante de doctorado del MIT CSAIL Tao Chen, miembro del Improbable AI Lab e investigador principal del proyecto, dice: «En la industria, una pinza de mandíbula paralela es la más utilizada, en parte debido a su simplicidad en el control, pero es físicamente incapaz de manejar muchas herramientas que vemos en la vida diaria.
«Incluso usar un alicate es difícil porque no puede mover hábilmente un mango hacia adelante y hacia atrás. Nuestro sistema permitirá que una mano de varios dedos manipule hábilmente tales herramientas, lo que abre una nueva área para las aplicaciones de robótica».
Dame una mano
Este tipo de reorientación de objetos «en mano» ha sido un problema desafiante en robótica, debido a la gran cantidad de motores a controlar y al cambio frecuente en el estado de contacto entre los dedos y los objetos. Y con más de dos mil objetos, el modelo tenía mucho que aprender.
El problema se vuelve aún más complicado cuando la mano está mirando hacia abajo. El robot no solo necesita manipular el objeto, sino también eludir la gravedad para que no se caiga.
El equipo descubrió que un enfoque simple podría resolver problemas complejos. Utilizaron un algoritmo de aprendizaje por refuerzo sin modelos (lo que significa que el sistema tiene que descubrir las funciones de valor a partir de las interacciones con el entorno) con aprendizaje profundo, y algo llamado método de entrenamiento «maestro-estudiante».
Para que esto funcione, la red de «maestros» está capacitada en información sobre el objeto y el robot que está fácilmente disponible en simulación, pero no en el mundo real, como la ubicación de las yemas de los dedos o la velocidad del objeto.
Para garantizar que los robots puedan trabajar fuera de la simulación, el conocimiento del «maestro» se destila en observaciones que se pueden adquirir en el mundo real, como imágenes de profundidad capturadas por cámaras, pose de objetos y posiciones conjuntas del robot.
También utilizaron un «plan de estudios de gravedad», donde el robot primero aprende la habilidad en un entorno de gravedad cero y luego adapta lentamente el controlador a la condición de gravedad normal, lo que, al tomar las cosas a este ritmo, realmente mejoró el rendimiento general.
Aunque aparentemente contradictorio, un solo controlador (conocido como cerebro del robot) podría reorientar una gran cantidad de objetos que nunca antes había visto, y sin conocimiento de la forma.
El profesor del MIT Pulkit Agrawal, autor del artículo sobre la investigación, dice: «Inicialmente pensamos que los algoritmos de percepción visual para inferir la forma mientras el robot manipula el objeto iban a ser el principal desafío.
«Por el contrario, nuestros resultados muestran que uno puede aprender estrategias de control robustas que son agnósticas a la forma. Esto sugiere que la percepción visual puede ser mucho menos importante para la manipulación de lo que estamos acostumbrados a pensar, y las estrategias de procesamiento perceptivo más simples podrían ser suficientes».
Muchos objetos pequeños de forma circular (manzanas, pelotas de tenis, canicas), tenían tasas de éxito cercanas al cien por ciento cuando se reorientaron con la mano hacia arriba y hacia abajo, con las tasas de éxito más bajas, como era de esperar, para objetos más complejos, como una cuchara, un destornillador o tijeras, estando más cerca de treinta.
Más allá de llevar el sistema a la naturaleza, ya que las tasas de éxito variaron con la forma del objeto, en el futuro, el equipo señala que el entrenamiento del modelo basado en formas de objetos podría mejorar el rendimiento.
Chen escribió un artículo sobre la investigación junto con el estudiante de doctorado del MIT CSAIL Jie Xu y el profesor del MIT Pulkit Agrawal. La investigación está financiada por Toyota Research Institute, Amazon Research Award y DARPA Machine Common Sense Program. Se presentará en la Conferencia sobre Aprendizaje de Robots (CoRL) de 2021.