Evaluación de descriptores locales en localización visual con imágenes ojo de pez

Ver/ abrir
Use este enlace para citar
http://hdl.handle.net/2183/28382
A non ser que se indique outra cousa, a licenza do ítem descríbese como Atribución-NoComercial-CompartirIgual 4.0 Internacional
https://creativecommons.org/licenses/by-nc-sa/4.0/deed.es
Coleccións
Metadatos
Mostrar o rexistro completo do ítemTítulo
Evaluación de descriptores locales en localización visual con imágenes ojo de pezTítulo(s) alternativo(s)
Evaluation of local descriptors in visual location with fisheye imagesData
2021Cita bibliográfica
Flores, M., Valiente, D., Gil, A., Peidró, A., Reinoso, O., Payá, L. Evaluación de descriptores locales en localización visual con imágenes ojo de pez. En XLII Jornadas de Automática: libro de actas. Castelló, 1-3 de septiembre de 2021 (pp.507-514). DOI capítulo: https://doi.org/10.17979/spudc.9788497498043.507 DOI libro: https://doi.org/10.17979/spudc.9788497498043
Resumo
[Resumen] Un robot móvil debe ser capaz de localizarse en el entorno en el que se encuentra para navegar de forma autónoma. Para tal fin, en este trabajo se utiliza un método denominado Adaptive Probability-Oriented Feature Matching (APOFM). Este algoritmo consiste en obtener la pose relativa a partir de información visual de un par de imágenes, como un algoritmo de odometría visual. La principal característica de este método es que realiza un filtrado de los puntos característicos detectados utilizando información proporcionada por un modelo 3D del entorno. En dicho modelo, cada punto tiene asignada una probabilidad de existencia de correspondencia. Con esto se consigue un menor número de falsos positivos. Los objetivos principales de este trabajo son evaluar este método con distintos tipos de características locales y comparar su efectividad con un método de odometría visual estándar, además de analizar los resultados empleando imágenes tomadas con una cámara con lente de ojo de pez. Tras los distintos experimentos,la solución más precisa al estimar la pose relativa se ha obtenido con el método APOFM extrayendo la información visual con ORB. [Abstract] To navigate autonomously, a mobile robot must be able to localize itself in the environment.To that end, in this work, a method called Adaptive Probability-Oriented Feature Matching (APOFM) is used. This algorithm obtains the relative pose from visual information (a pair of images), as a visual odometry algorithm. The main feature of this method is that it performs a filtering of the feature points using the information provided by a 3D model of the environment, in which each point is assigned a probability of existence of correspondence. This results in fewer false positives. The main objectives of this work are to evaluate this method with different types of local features and compare its effectiveness with the standard visual odometry method, and also to analyze the results using images taken by a fisheye lens camera. After the different experiments, the most precise solution estimating the relative pose was obtained with the APOFM method, extracting the visual information with ORB.
Palabras chave
Adaptive probability-oriented feature matching
Odometría visual
Localización
Características locales
Visual odometry
Localization
Local features
Odometría visual
Localización
Características locales
Visual odometry
Localization
Local features
Versión do editor
Dereitos
Atribución-NoComercial-CompartirIgual 4.0 Internacional
https://creativecommons.org/licenses/by-nc-sa/4.0/deed.es
ISBN
978-84-9749-804-3