Mostrar o rexistro simple do ítem

dc.contributor.authorDomínguez López, Mario
dc.contributor.authorMarcos Pablos, Samuel
dc.contributor.authorZalama Casanova, Eduardo
dc.contributor.authorGómez García-Bermejo, Jaime
dc.date.accessioned2020-07-03T11:18:24Z
dc.date.available2020-07-03T11:18:24Z
dc.date.issued2017
dc.identifier.citationDomínguez López, M., Marcos Pablos, S., Zalama Casanova, E., Gómez García-Bermejo, J. Sistema de interacción visual para un robot social. En Actas de las XXXVIII Jornadas de Automática, Gijón, 6-8 de Septiembre de 2017 (pp.709-716). DOI capítulo: https://doi.org/10.17979/spudc.9788497497749.0709 DOI libro: https://doi.org/10.17979/spudc.9788497497749es_ES
dc.identifier.isbn978-84-16664-74-0 (UOV)
dc.identifier.isbn978-84-9749-774-9 (UDC electrónico)
dc.identifier.urihttp://hdl.handle.net/2183/25912
dc.description.abstract[Resumen] Una de las características de los robots sociales es que tengan expresividad y fluidez lo más cercana a la naturaleza humana. En este caso una de las mayores fuentes de expresividad son los rasgos faciales. Por otra parte, estamos acostumbrados a comunicarnos mirando a otras personas a la cara por lo que desarrollar robots con expresividad, capacidad gestual y de seguimiento facial es una de las características buscadas en el desarrollo de robots sociales. El presente artículo describe el desarrollo de un sistema de interacción hombre-máquina para un robot móvil social constituido por dos subsistemas o módulos. El primer subsistema se encarga de la detección del interlocutor y su seguimiento facial. Para ello realiza una detección inicial a partir de la información suministrada por el láser de navegación del robot, para posteriormente fijar la atención a partir de la información obtenida con una cámara de rango tipo Kinect. El segundo subsistema de encarga de la generación de gestos del robot. Para ello se ha adoptado el estándar FACS (Facial Action Coding System) lo cual permite su utilización en diferentes tipos de robots. La generación de expresiones se realiza mediante la combinación del movimiento controlado de cuello, párpados y ojos, con gestos mostrados en un display luminoso en la boca del robot.es_ES
dc.description.sponsorshipMinisterio de Ciencia e Innovación; DPI2014-56500es_ES
dc.language.isospaes_ES
dc.publisherServicio de Publicaciones de la Universidad de Oviedoes_ES
dc.relation.hasversionhttp://hdl.handle.net/10651/46856
dc.relation.urihttps://doi.org/10.17979/spudc.9788497497749.0709es_ES
dc.rightsAtribución-NoComercial-CompartirIgual 4.0 España
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/4.0/es/*
dc.subjectFACSes_ES
dc.subjectROSes_ES
dc.subjectInteracción hombre-máquinaes_ES
dc.subjectRobot sociales_ES
dc.titleSistema de interacción visual para un robot sociales_ES
dc.typeinfo:eu-repo/semantics/conferenceObjectes_ES
dc.rights.accessinfo:eu-repo/semantics/openAccesses_ES
UDC.startPage709es_ES
UDC.endPage716es_ES
dc.identifier.doihttps://doi.org/10.17979/spudc.9788497497749.0709
UDC.conferenceTitleXXXVIII Jornadas de Automáticaes_ES


Ficheiros no ítem

Thumbnail
Thumbnail

Este ítem aparece na(s) seguinte(s) colección(s)

Mostrar o rexistro simple do ítem