Return to search

Sistema de localização, mapeamento e registro 3D para robótica móvel baseado em técnicas de visão computacional

Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2017. / Made available in DSpace on 2017-06-27T04:19:23Z (GMT). No. of bitstreams: 1
346667.pdf: 9358541 bytes, checksum: 033a82eaa1a2438bea3ff3c054363e4a (MD5)
Previous issue date: 2017 / A introdução de sistemas de visão computacional em robôs móveis se traduz em um significativo aumento de suas habilidades sensoriais, o que implica em uma maior versatilidade e segurança nas operações do robô. Armazenar e manipular todas as imagens percebidas por um robô durante sua tarefa de localização e mapeamento visual é tipicamente intratável para cenários reais. A alternativa adotada por este trabalho é representar o ambiente de forma topológica, onde alguns quadros são selecionados, chamados keyframes, e representam locais visualmente distintos do ambiente. Assim, cada nó do mapa proposto corresponde a um quadro-chave, descrito por um conjuntos de características locais obtidas pelos descritores SIFT, SURF, ORB, BRIEF e BRISK. A seleção destes descritores baseou-se nas avaliações anteriores encontradas na literatura e em uma série de testes que verificaram habilidades importantes no contexto proposto. Ao navegar em determinado ambiente, adquirir modelos 3D, que proporcionam uma compreensão muito mais abrangente do que mapas 2D, são de particular interesse para usuários remotos interessados no interior do ambiente que o robô percorre. O sistema proposto é baseado em registro de nuvens de pontos. Um Kinect acoplado ao robô captura imagens RGB e de profundidade, usadas para gerar nuvens de pontos que posteriormente são alinhadas na forma de registro, utilizando o alinhamento inicial SAC-IA com os descritores PFH e FPFH, e alinhadas através do algoritmo ICP. As métricas de avaliação demonstraram que os sistemas propostos são capazes de localizar o robô com precisão, encontrando a localização global ao longo de toda a trajetória, sendo capaz de resolver os problemas do robô sequestrado e do robô despertado. O algoritmo de alinhamento mostrou bons resultados quanto a capacidade de criar modelos compreensíveis, porém demanda um alto custo computacional. Desta forma, o presente trabalho propõe uma solução para que um robô acoplado com um Kinect percorra sua trajetória de forma autônoma, localizando-se e coletando nuvens de pontos que são usadas para criar um modelo 3D de seu ambiente de trabalho.<br> / Abstract : The introduction of computer vision systems in mobile robots translates into a significant increase in their sensory habilities, which implies greater versatility and security in robot operations. Storing and manipulating all the images perceived by a robot during its visual localization and mapping task is typically intractable for real scenarios. The alternative adopted by this work is to represent the environment in a topological form, where some frames are selected, called keyframes, and represent visually distinct locations from the environment. Thus, each proposed map node corresponds to a keyframe, described by a set of local characteristics obtained by SIFT, SURF, ORB, BRIEF and BRISK descriptors. The selection of these descriptors was based on previous evaluations found in the literature and on a series of tests that verified important skills in the proposed context. When navigating through a particular environment, acquiring 3D models, which provide a much more comprehensive understanding than 2D maps, are of particular interest to remote users interested in the interior of the environment that the robot traverses. The proposed system is based on 3D point cloud registration. A Kinect is coupled to the robot and captures RGB and depth images, which are used to generate point clouds, aligned in the registration form, using the SAC-IA initial alignment with the descriptors PFH and FPFH, and fully aligned through the ICP algorithm. The evaluation metrics demonstrated that the proposed systems are able to locate the robot with precision, being able to cope with the global localization problem throughout the whole trajectory, including the classic kidnapped robot and wake-up problems. The alignment algorithm showed good results in respect of creating comprehensive models, although it demands a high computational cost. Therefore, the present work proposes a solution for a robot coupled with a Kinect to traverse its path autonomously, locating itself and collecting point clouds that are used to create a 3D model of its work environment.

Identiferoai:union.ndltd.org:IBICT/oai:repositorio.ufsc.br:123456789/176762
Date January 2017
CreatorsBarbosa, Flávio Gabriel Oliveira
ContributorsUniversidade Federal de Santa Catarina, Stemmer, Marcelo Ricardo
Source SetsIBICT Brazilian ETDs
LanguagePortuguese
Detected LanguageEnglish
Typeinfo:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis
Format138 p.| il.
Sourcereponame:Repositório Institucional da UFSC, instname:Universidade Federal de Santa Catarina, instacron:UFSC
Rightsinfo:eu-repo/semantics/openAccess

Page generated in 0.0019 seconds