El robot de Facebook mapea la casa y encuentra objetos gracias a la IA
El próximo asistente virtual de Facebook será más avanzado que el resto
El equipo de investigación de Facebook especializado en Inteligencia Artificial ha desarrollado un asistente robótico para el hogar que se puede mover en un entorno no cartografiado y puede responder a tareas que requieren detección visual y auditiva, como por ejemplo «coger la llamada de mi teléfono». La noticia ha sido comunicada a través de una entrada específica en el blog de la red social.
Los asistentes virtuales tal y como los conocemos -subraya el artículo- no son capaces de identificar un sonido específico, usarlo como objetivo y navegar por el espacio si no se les dice exactamente a dónde ir. «Para realizar una actividad como comprobar si has cerrado con llave la puerta principal o si estás respondiendo a un teléfono móvil que suena en un dormitorio de arriba, los asistentes de IA del futuro deben aprender a planificar su ruta, navegar de forma efectiva, mirar alrededor en su entorno físico, escuchar lo que sucede a su alrededor y construir recuerdos del espacio 3D», escriben los autores del post, y los investigadores de Facebook Kristen Grauman y Dhruv Batra.
Para llenar este vacío, el equipo ha desarrollado «SoundSpaces», la primera plataforma audiovisual de código abierto capaz de analizar los sonidos del entorno, diseñada para la creación de modelos de Inteligencia Artificial «incorporada» de mayor rendimiento y capaz de ayudar a los robots a orientarse de forma más eficiente. El audio es importante para la navegación porque añade contexto a los datos visuales que un robot recoge con sus cámaras.
«SoundSpaces» proporciona una colección de archivos de audio que los desarrolladores pueden utilizar para entrenar modelos de Inteligencia Artificial sensibles al sonido en una simulación. Utiliza un algoritmo de última generación para modelar la acústica de las salas y un «algoritmo de seguimiento de trayectoria bidireccional» para modelar las reflexiones de sonido en la geometría de las salas.
«Por lo que sabemos, este es el primer intento de entrenar a los agentes de aprendizaje para el refuerzo profundo que ven y oyen para mapear nuevos entornos y localizar objetivos emisores de sonido», dijo Grauman y Batra.
Estos asistentes más «inteligentes» requerirán nuevos avances en la IA embebida para realizar sus tareas, y el objetivo es enseñar a las máquinas a entender e interactuar con las complejidades del mundo físico como lo hace la gente. En lugar de utilizar conjuntos de datos estáticos, como es el caso de la mayoría de los métodos tradicionales de IA, la IA incrustada fomenta un enfoque que utiliza el aprendizaje como refuerzo, donde los robots aprenden a través de sus interacciones con la realidad.
Debe estar conectado para enviar un comentario.