Arquitectura de control multimodal para robótica asistencial

Use este enlace para citar
http://hdl.handle.net/2183/29239
A non ser que se indique outra cousa, a licenza do ítem descríbese como Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0)
Coleccións
Metadatos
Mostrar o rexistro completo do ítemTítulo
Arquitectura de control multimodal para robótica asistencialAutor(es)
Data
2016Cita bibliográfica
Catalán, J.M., Díez, J.A., Bertomeu-Motos, A., Badesa, F.J., Puerto, R., Sabater, J.M., Garcia-Aracil, N. Arquitectura de control multimodal para robótica asistencial. En Actas de las XXXVII Jornadas de Automática. 7, 8 y 9 de septiembre de 2016, Madrid (pp. 1089-1094). DOI capítulo: https://doi.org/10.17979/spudc.9788497498081.1089 DOI libro: https://doi.org/10.17979/spudc.9788497498081
Resumo
[Resumen] Este documento presenta una arquitectura de control multimodal para robótica de asistencia, la cual trata de tener en cuenta las decisiones del usuario para mejorar en el desempeño de las tareas al mismo tiempo que se implementa un método para minimizar posibles errores en el manejo del robot mediante un control visual. A través de la información proporcionada por el sistema de eyetracking, el usuario será capaz de interactuar con el sistema para seleccionar el objeto deseado, indicar la intención de cogerlo o incluso abortar la ejecución. El sistema incorpora un sistema de tracking 3D para conocer la ubicación de los objetos con respecto al manipulador robótico. Este sistema nos sirve tanto para definir la posición que debe alcanzar el robot, como para corregir las posibles desviaciones durante la ejecución de la trayectoria.
Palabras chave
Interface multimodal
Robótica asistencial
ROS
Robótica asistencial
ROS
Versión do editor
Dereitos
Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0)
ISBN
978-84-617-4298-1 (UCM) 978-84-9749-808-1 (UDC electrónico)