Sistema de interacción humano-robot basado en la mirada para la manipulación de objetos

Use this link to cite
http://hdl.handle.net/2183/33657
Except where otherwise noted, this item's license is described as Attribution-NonCommercial-ShareAlike 4.0 lnternational (CC BY-NC-SA 4.0) https://creativecommons.org/licenses/by-ncsa/4.0/
Collections
Metadata
Show full item recordTitle
Sistema de interacción humano-robot basado en la mirada para la manipulación de objetosAlternative Title(s)
Gaze-based Human-Robot Interaction System for Object ManipulationAuthor(s)
Date
2023Citation
Menéndez, E., Hernandez-Vicen, J., Martínez de la Casa, S., Monje, C.A., Balaguer, C. Gazebased. Sistema de interacción humano-robot basado en la mirada para la manipulación de objetos. XLIV Jornadas de Automática, 661-666. https://doi.org/10.17979/spudc.9788497498609.661
Abstract
[Resumen] En este artículo, se presenta una solución completa de interacción humano-robot basada en la mirada para ayudar al usuario en tareas de manipulación de objetos. El usuario utiliza unas gafas de seguimiento ocular y se detecta la intención en su mirada de coger un objeto entre varios situados sobre una mesa. El robot, una vez identificado el objeto seleccionado, procede a recogerlo y se lo acerca al usuario. Nuestra solución se compone de diferentes componentes, como la estimación de forma y posición de los objetos utilizando supercuádricas en el sistema de referencia del robot, la identificación y selección del objeto coincidente en la imagen del robot mediante redes siamesas, y un proceso adicional que permite al robot recoger el objeto seleccionado por el usuario de manera efectiva. Esta solución proporciona una forma innovadora y efectiva de interacción para realizar tareas asistenciales de manipulación, sin necesidad de marcadores ni posiciones predefinidas de los objetos, mejorando la fluidez en la comunicación y facilitando la interacción natural entre el usuario y el robot. [Abstract] In this article, we present a complete solution for gaze-based human-robot interaction to assist the user in object manipulation tasks. The user wears eye-tracking glasses, and their intention to pick up an object among several placed on a table is detected through their gaze. Once the selected object is identified, the robot proceeds to grasp it and bring it closer to the user. Our solution consists of various components, including the estimation of object shape and position using superquadrics in the robot’s reference frame, the identification and selection of the matching object in the robot’s image using Siamese networks, and an additional process that enables the robot to pick-up the object selected by the user. This solution offers an innovative and effective way of interaction to perform assistive manipulation tasks, without the need for markers or predefined object positions, enhancing communication fluency and facilitating natural interaction between the user and the robot.
Keywords
Aprendizaje automático
Interfaces inteligentes
Robótica Inteligente
Percepción y detección
Robots manipuladores
Machine learning
Intelligent interfaces
Intelligent robotics
Perception and sensing
Robots manipulators
Interfaces inteligentes
Robótica Inteligente
Percepción y detección
Robots manipuladores
Machine learning
Intelligent interfaces
Intelligent robotics
Perception and sensing
Robots manipulators
Editor version
Rights
Attribution-NonCommercial-ShareAlike 4.0 lnternational (CC BY-NC-SA 4.0) https://creativecommons.org/licenses/by-ncsa/4.0/
ISBN
978-84-9749-860-9