Simulador inmersivo de visión protésica modelando estímulos espacio-temporales
Use este enlace para citar
http://hdl.handle.net/2183/33697
A non ser que se indique outra cousa, a licenza do ítem descríbese como Attribution-NonCommercial-ShareAlike 4.0 lnternational (CC BY-NC-SA 4.0) https://creativecommons.org/licenses/by-ncsa/4.0/
Coleccións
Metadatos
Mostrar o rexistro completo do ítemTítulo
Simulador inmersivo de visión protésica modelando estímulos espacio-temporalesTítulo(s) alternativo(s)
Immersive prosthetic vision simulator modelling spatiotemporal stimuliAutor(es)
Data
2023Cita bibliográfica
Santos-Villafranca, M. Tomas, J., Perez-Yus, A., Bermudez-Cameo, J., Guerrero, J.J. 2023. Simulador inmersivo de visión protésica modelando estímulos espacio-temporales. XLIV Jornadas de Automática, 879-884. https://doi.org/10.17979/spudc.9788497498609.879
Resumo
[Resumen] Recientes avances han demostrado que, en ciertos casos de deficiencia visual, la visión puede ser parcialmente restituida mediante prótesis visuales. Debido a sus limitaciones, surge el interés por desarrollar métodos de visión por computador para extraer información relevante del entorno y adaptarla a las prótesis. Para poder evaluar la eficacia de estos métodos, debido a la escasez de personas operadas, se utilizan simuladores de prótesis visuales, que permiten experimentar con personas de visión sana. En este trabajo, presentamos un nuevo simulador realista, integrado en un framework de robótica, que permite probar distintos modos de representación mediante gafas de realidad virtual. Una de las principales novedades es la inclusión de un modelo temporal, inspirado en experimentos con pacientes reales, para transmitir la dimensión del tiempo en la generación de estímulos visuales. Además, permite la inmersión total del usuario en un entorno virtual en el que se ha integrado una red neuronal de segmentación semántica para ayudar a detectar objetos y personas. [Abstract] Recent advances have shown that, in certain cases of visual impairment, vision can be partially restored by means of visual prostheses. Due to its limitations, there is interest in developing computer vision methods to extract relevant information from the environment and adapt it to the prosthesis. In order to evaluate the effectiveness of these methods, due to the scarcity of operated people, visual prosthesis simulators are used, which allow experimenting with healthy sighted people. In this work, we present a new realistic simulator, integrated in a robotics framework, which allows testing different modes of representation through virtual reality goggles. One of the main novelties is the inclusion of a temporal model, inspired by experiments with real patients, to convey the dimension of time in the generation of visual stimuli. In addition, it allows total immersion of the user in a virtual environment in which a semantic segmentation neural network has been integrated to help detect objects and people.
Palabras chave
Navegación, programación y visión de robots
Redes neuronales
Algoritmos en tiempo real
Trabajar en entornos reales y virtuales
Interfaces inteligentes
Tecnología asistiva e ingeniera de rehabilitación
Robot Navigation, Programming and Vision
Neural networks
Real-time algorithms
Work in real and virtual environments
Intelligent interfaces
Assistive technology and rehabilitation engineering
Redes neuronales
Algoritmos en tiempo real
Trabajar en entornos reales y virtuales
Interfaces inteligentes
Tecnología asistiva e ingeniera de rehabilitación
Robot Navigation, Programming and Vision
Neural networks
Real-time algorithms
Work in real and virtual environments
Intelligent interfaces
Assistive technology and rehabilitation engineering
Versión do editor
Dereitos
Attribution-NonCommercial-ShareAlike 4.0 lnternational (CC BY-NC-SA 4.0) https://creativecommons.org/licenses/by-ncsa/4.0/
ISBN
978-84-9749-860-9