Sistema de interacción humano-robot basado en la mirada para la manipulación de objetos

Use este enlace para citar
http://hdl.handle.net/2183/33657
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-ShareAlike 4.0 lnternational (CC BY-NC-SA 4.0) https://creativecommons.org/licenses/by-ncsa/4.0/
Colecciones
Metadatos
Mostrar el registro completo del ítemTítulo
Sistema de interacción humano-robot basado en la mirada para la manipulación de objetosTítulo(s) alternativo(s)
Gaze-based Human-Robot Interaction System for Object ManipulationAutor(es)
Fecha
2023Cita bibliográfica
Menéndez, E., Hernandez-Vicen, J., Martínez de la Casa, S., Monje, C.A., Balaguer, C. Gazebased. Sistema de interacción humano-robot basado en la mirada para la manipulación de objetos. XLIV Jornadas de Automática, 661-666. https://doi.org/10.17979/spudc.9788497498609.661
Resumen
[Resumen] En este artículo, se presenta una solución completa de interacción humano-robot basada en la mirada para ayudar al usuario en tareas de manipulación de objetos. El usuario utiliza unas gafas de seguimiento ocular y se detecta la intención en su mirada de coger un objeto entre varios situados sobre una mesa. El robot, una vez identificado el objeto seleccionado, procede a recogerlo y se lo acerca al usuario. Nuestra solución se compone de diferentes componentes, como la estimación de forma y posición de los objetos utilizando supercuádricas en el sistema de referencia del robot, la identificación y selección del objeto coincidente en la imagen del robot mediante redes siamesas, y un proceso adicional que permite al robot recoger el objeto seleccionado por el usuario de manera efectiva. Esta solución proporciona una forma innovadora y efectiva de interacción para realizar tareas asistenciales de manipulación, sin necesidad de marcadores ni posiciones predefinidas de los objetos, mejorando la fluidez en la comunicación y facilitando la interacción natural entre el usuario y el robot. [Abstract] In this article, we present a complete solution for gaze-based human-robot interaction to assist the user in object manipulation tasks. The user wears eye-tracking glasses, and their intention to pick up an object among several placed on a table is detected through their gaze. Once the selected object is identified, the robot proceeds to grasp it and bring it closer to the user. Our solution consists of various components, including the estimation of object shape and position using superquadrics in the robot’s reference frame, the identification and selection of the matching object in the robot’s image using Siamese networks, and an additional process that enables the robot to pick-up the object selected by the user. This solution offers an innovative and effective way of interaction to perform assistive manipulation tasks, without the need for markers or predefined object positions, enhancing communication fluency and facilitating natural interaction between the user and the robot.
Palabras clave
Aprendizaje automático
Interfaces inteligentes
Robótica Inteligente
Percepción y detección
Robots manipuladores
Machine learning
Intelligent interfaces
Intelligent robotics
Perception and sensing
Robots manipulators
Interfaces inteligentes
Robótica Inteligente
Percepción y detección
Robots manipuladores
Machine learning
Intelligent interfaces
Intelligent robotics
Perception and sensing
Robots manipulators
Versión del editor
Derechos
Attribution-NonCommercial-ShareAlike 4.0 lnternational (CC BY-NC-SA 4.0) https://creativecommons.org/licenses/by-ncsa/4.0/
ISBN
978-84-9749-860-9