Return to search

Estimação de posição e quantificação de erro utilizando geometria epipolar entre imagens. / Position estimation and error quantification using epipolar geometry between images.

A estimação de posição é o resultado direto da reconstrução de cenas, um dos ramos da visão computacional. É também uma informação importante para o controle de sistemas mecatrônicos, e em especial para os sistemas robóticos autônomos. Como uma aplicação de engenharia, o desempenho de tal sistema deve ser avaliado em termos de eficiência e eficácia, medidas traduzidas respectivamente pelo custo de processamento e pela quantificação do erro. A geometria epipolar é um campo da visão computacional que fornece formalismo matemático e técnicas de reconstrução de cenas a partir de uma par de imagens, através de pontos correspondentes entre elas. Através deste formalismo é possível determinar a incerteza dos métodos de estimação de posição, que são relativamente simples e podem atingir boa precisão. Dentre os sistemas robóticos autônomos destacam-se os ROVs - do inglês \"Remotely Operated Vehicles\" - ou veículos operados remotamente, muito utilizados em tarefas submarinas, e cuja necessidade crescente de autonomia motiva o desenvolvimento de um sensor de visão com características de baixo consumo de energia, flexibilidade e inteligência. Este sensor pode consistir de uma câmera CCD e algoritmos de reconstrução de cena baseados em geometria epipolar entre imagens. Este estudo visa fornecer um comparativo de resultados práticos da estimação de posição através da geometria epipolar entre imagens, como parte da implementação de um sensor de visão para robôs autônomos. Os conceitos teóricos abordados são: geometria projetiva, modelo de câmera, geometria epipolar, matriz fundamental, reconstrução projetiva, re-construção métrica, algoritmos de determinação da matriz fundamental, algoritmos de reconstrução métrica, incerteza da matriz fundamental e complexidade computacional. Os resultados práticos baseiam-se em simulações através de imagens geradas por computador e em montagens experimentais feitas em laboratório que simulam situações práticas. O processo de estimação de posição foi realizado através da implementação em MATLAB® 6.5 dos algoritmos apresentados na parte teórica, e os resultados comparados e analisados quanto ao erro e complexidade de execução. Dentre as principais conclusões é apresentado a melhor escolha para a implementação de sensor de visão de propósito geral - o Algoritmo de 8 Pontos Correspondentes Normalizado. São apresentadas também as condições de utilização de cada método e os cuidados necessários na interpretação dos resultados. / Position estimation is the direct result of scene reconstruction, one of computer vision\'s fields. It is also an important information for the control of mechanical systems - specially the autonomous robotic systems. As an engineering application, those systems\' performance must be evaluated in terms of efficiency and effectiveness, measured by processing costs and error quantification. The epipolar geometry is a field of computer vision that supply mathematical formalism and scene reconstruction techniques that are based on the correspondences between two images. Through this formalism it is possible to stipulate the uncertainty of the position estimation methods that are relatively simple and can give good accuracy. Among the autonomous robotic systems, the ROVs - Remotely Operated Vehicles - are of special interest, mostly employed in submarine activities, and whose crescent autonomy demand motivates the development of a vision sensor of low power consumption, flexibility and intelligence. This sensor may be constructed with a CCD camera and the scene reconstruction algorithms based on epipolar geometry. This work aims to build a comparison of practical results of position estimation through epipolar geometry, as part of a vision sensor implementation for autonomous robots. The theory presented in this work comprises of: projective geometry, camera model, epipolar geometry, fundamental matrix, projective reconstruction, metric reconstruction, fundamental matrix algorithms, metric reconstruction algorithms, fundamental matrix uncertainty, and computational complexity. The practical results are based on computer generated simulations and experimental assemblies that emulate practical issues. The position estimation was carried out by MATLAB® 6.5 implementations of the algorithms analyzed in the theoretical part, and the results are compared and analyzed in respect of the error and the execution complexity. The main conclusions are that the best algorithm choice for the implementation of a general purpose vision sensor is the Normalized 8 Point Algorithm, and the usage conditions of each method, besides the special considerations that must be observed at the interpretation of the results.

Identiferoai:union.ndltd.org:IBICT/oai:teses.usp.br:tde-07012008-162341
Date23 May 2007
CreatorsAdriana Karlstroem
ContributorsFábio Kawaoka Takase, Newton Maruyama, Luís Gonzaga Trabasso
PublisherUniversidade de São Paulo, Engenharia Mecânica, USP, BR
Source SetsIBICT Brazilian ETDs
LanguagePortuguese
Detected LanguagePortuguese
Typeinfo:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis
Sourcereponame:Biblioteca Digital de Teses e Dissertações da USP, instname:Universidade de São Paulo, instacron:USP
Rightsinfo:eu-repo/semantics/openAccess

Page generated in 0.0018 seconds