Return to search

Localización visual en robots de recursos computacionales limitados

Magíster en Ciencias de la Ingeniería, Mención Eléctrica.
Ingeniero Civil Eléctrico / Este trabajo presenta un sistema de Localización y Mapeo Simultáneo (SLAM) de robots humanoides basado en la fusión del sistema ORB-SLAM con información propioceptiva. El objetivo es desarrollar una metodología que permita fusionar ambas informaciones de manera consistente y obtener una auto-localización métrica validada con datos de un robot real.
De modo de lograr este objetivo, se propuso una solución que contempla tres objetivos específicos: (1) desarrollar una plataforma de hardware y software que extienda las capacidades computacionales limitadas del robot NAO; (2) proponer una metodología teórica y práctica que permita fusionar la información de odometría propioceptiva del robot dentro de los procesos ejecutados por el sistema ORB-SLAM y (3) desarrollar un sistema de estimación de odometría netamente propioceptivo para el robot NAO.
Para la primer aparte se desarrolló una plataforma novedosa, llamada NAO Backpack, que se sujeta al NAO como una mochila y permite cargar un computador de tamaño reducido con mayor poder de cómputo que el NAO. El desarrollo además involucró el software que realiza la comunicación entre ambos con el popular framework de robótica ROS (Robot Operating System).
Para la segunda aparte se desarrolló una completa metodología que interviene varias etapas del sistema ORB-SLAM, incluyendo un thread adicional que fusiona la información propioceptiva del robot y genera mediciones de odometría que son propagadas al resto del sistema. Adicionalmente se presentó una solución para obtener la escala típicamente desconocida en sistemas de SLAM visual, se modificaron diversas etapas de las optimizaciones realizadas por el sistema original y se presentaron estrategias para mantener una hipótesis de auto-localización continua incluso en casos de fallas de la localización visual.
La última parte contempló el desarrollo de un sistema de odometría basado en un two-state implicit filtering (TSIF), que fusionaba sensores internos como unidades inerciales y encoders, además de considerar otros supuestos sobre la cinemática del robot.
El sistema fue validado con datos reales registrados utilizando un preciso sistema de captura de movimiento OptiTrack en ambientes cerrados, así como también en pruebas cualitativas desarrolladas en laboratorios del Departamento de Ingeniería Eléctrica. Los resultados demuestran la efectividad del enfoque presentado para localizar el robot de manera consistente y robusta en lugares desconocidos mediante la fusión de información visual y odométrica.

Identiferoai:union.ndltd.org:UCHILE/oai:repositorio.uchile.cl:2250/168075
Date January 2018
CreatorsMattamala Aravena, Matías Eduardo
ContributorsRuiz del Solar, Javier, Tobar Henríquez, Felipe, Martínez Carranza, José
PublisherUniversidad de Chile
Source SetsUniversidad de Chile
LanguageSpanish
Detected LanguageSpanish
TypeTesis
RightsAttribution-NonCommercial-NoDerivs 3.0 Chile, http://creativecommons.org/licenses/by-nc-nd/3.0/cl/

Page generated in 0.0015 seconds