Sistema de interacción humano-robot basado en la mirada para la manipulación de objetos

Use este enlace para citar
http://hdl.handle.net/2183/33657
A non ser que se indique outra cousa, a licenza do ítem descríbese como Attribution-NonCommercial-ShareAlike 4.0 lnternational (CC BY-NC-SA 4.0) https://creativecommons.org/licenses/by-ncsa/4.0/
Coleccións
Metadatos
Mostrar o rexistro completo do ítemTítulo
Sistema de interacción humano-robot basado en la mirada para la manipulación de objetosTítulo(s) alternativo(s)
Gaze-based Human-Robot Interaction System for Object ManipulationAutor(es)
Data
2023Cita bibliográfica
Menéndez, E., Hernandez-Vicen, J., Martínez de la Casa, S., Monje, C.A., Balaguer, C. Gazebased. Sistema de interacción humano-robot basado en la mirada para la manipulación de objetos. XLIV Jornadas de Automática, 661-666. https://doi.org/10.17979/spudc.9788497498609.661
Resumo
[Resumen] En este artículo, se presenta una solución completa de interacción humano-robot basada en la mirada para ayudar al usuario en tareas de manipulación de objetos. El usuario utiliza unas gafas de seguimiento ocular y se detecta la intención en su mirada de coger un objeto entre varios situados sobre una mesa. El robot, una vez identificado el objeto seleccionado, procede a recogerlo y se lo acerca al usuario. Nuestra solución se compone de diferentes componentes, como la estimación de forma y posición de los objetos utilizando supercuádricas en el sistema de referencia del robot, la identificación y selección del objeto coincidente en la imagen del robot mediante redes siamesas, y un proceso adicional que permite al robot recoger el objeto seleccionado por el usuario de manera efectiva. Esta solución proporciona una forma innovadora y efectiva de interacción para realizar tareas asistenciales de manipulación, sin necesidad de marcadores ni posiciones predefinidas de los objetos, mejorando la fluidez en la comunicación y facilitando la interacción natural entre el usuario y el robot. [Abstract] In this article, we present a complete solution for gaze-based human-robot interaction to assist the user in object manipulation tasks. The user wears eye-tracking glasses, and their intention to pick up an object among several placed on a table is detected through their gaze. Once the selected object is identified, the robot proceeds to grasp it and bring it closer to the user. Our solution consists of various components, including the estimation of object shape and position using superquadrics in the robot’s reference frame, the identification and selection of the matching object in the robot’s image using Siamese networks, and an additional process that enables the robot to pick-up the object selected by the user. This solution offers an innovative and effective way of interaction to perform assistive manipulation tasks, without the need for markers or predefined object positions, enhancing communication fluency and facilitating natural interaction between the user and the robot.
Palabras chave
Aprendizaje automático
Interfaces inteligentes
Robótica Inteligente
Percepción y detección
Robots manipuladores
Machine learning
Intelligent interfaces
Intelligent robotics
Perception and sensing
Robots manipulators
Interfaces inteligentes
Robótica Inteligente
Percepción y detección
Robots manipuladores
Machine learning
Intelligent interfaces
Intelligent robotics
Perception and sensing
Robots manipulators
Versión do editor
Dereitos
Attribution-NonCommercial-ShareAlike 4.0 lnternational (CC BY-NC-SA 4.0) https://creativecommons.org/licenses/by-ncsa/4.0/
ISBN
978-84-9749-860-9