Arquitectura de control multimodal para robótica asistencial

Use este enlace para citar
http://hdl.handle.net/2183/29239
Excepto si se señala otra cosa, la licencia del ítem se describe como Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0)
Colecciones
Metadatos
Mostrar el registro completo del ítemTítulo
Arquitectura de control multimodal para robótica asistencialAutor(es)
Fecha
2016Cita bibliográfica
Catalán, J.M., Díez, J.A., Bertomeu-Motos, A., Badesa, F.J., Puerto, R., Sabater, J.M., Garcia-Aracil, N. Arquitectura de control multimodal para robótica asistencial. En Actas de las XXXVII Jornadas de Automática. 7, 8 y 9 de septiembre de 2016, Madrid (pp. 1089-1094). DOI capítulo: https://doi.org/10.17979/spudc.9788497498081.1089 DOI libro: https://doi.org/10.17979/spudc.9788497498081
Resumen
[Resumen] Este documento presenta una arquitectura de control multimodal para robótica de asistencia, la cual trata de tener en cuenta las decisiones del usuario para mejorar en el desempeño de las tareas al mismo tiempo que se implementa un método para minimizar posibles errores en el manejo del robot mediante un control visual. A través de la información proporcionada por el sistema de eyetracking, el usuario será capaz de interactuar con el sistema para seleccionar el objeto deseado, indicar la intención de cogerlo o incluso abortar la ejecución. El sistema incorpora un sistema de tracking 3D para conocer la ubicación de los objetos con respecto al manipulador robótico. Este sistema nos sirve tanto para definir la posición que debe alcanzar el robot, como para corregir las posibles desviaciones durante la ejecución de la trayectoria.
Palabras clave
Interface multimodal
Robótica asistencial
ROS
Robótica asistencial
ROS
Versión del editor
Derechos
Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0)
ISBN
978-84-617-4298-1 (UCM) 978-84-9749-808-1 (UDC electrónico)