Return to search

Estimação da profundidade por meio da fusão de dados de energia visual de múltiplas câmeras

Submitted by Geyciane Santos (geyciane_thamires@hotmail.com) on 2015-06-18T14:37:14Z
No. of bitstreams: 1
Dissertação - Felipe Gomes de Oliveira.pdf: 8063130 bytes, checksum: c3a3271d66779ae934aca4f3e28b999b (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-06-19T21:07:20Z (GMT) No. of bitstreams: 1
Dissertação - Felipe Gomes de Oliveira.pdf: 8063130 bytes, checksum: c3a3271d66779ae934aca4f3e28b999b (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-06-19T21:10:24Z (GMT) No. of bitstreams: 1
Dissertação - Felipe Gomes de Oliveira.pdf: 8063130 bytes, checksum: c3a3271d66779ae934aca4f3e28b999b (MD5) / Made available in DSpace on 2015-06-19T21:10:24Z (GMT). No. of bitstreams: 1
Dissertação - Felipe Gomes de Oliveira.pdf: 8063130 bytes, checksum: c3a3271d66779ae934aca4f3e28b999b (MD5)
Previous issue date: 2011-07-25 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This research presents a visual data fusion approach to recover dense depth map
from sequences of images. The conventional methods to estimate depth map have
many drawbacks with respect to environment illumination changes and camera positioning. We propose a Global optimization data fusion strategy to improve the
measurements from stereo and focus depth maps. Di erent from typical stereo and
focus fusion techniques, we use a single pair of stereo cameras to acquire series of
images scenes without occlusion and illumination constraints. Then, we use Energy
Functional fusion to associate the geometric coherence with multiple frames.
In order to evaluate the results we de ned a metric using similarity measurements
between traditional stereo and the proposed approach. The experiments are performed
in real scene images, and the estimated mapping was superior than those
found using traditional stereo methods, which demonstrates the good performance
and robustness of our approach. / Este trabalho propõe uma abordagem de Fusão de Dados Visuais para estimar a estrutura tridimensional de uma cena a partir de sequências de imagens obtidas por meio de duas ou mais câmeras. Os métodos convencionais para estimar mapas de profundidade apresentam desvantagens relacionadas a mudanças na iluminação do ambiente e posicionamento de câmeras. Por essa razão, foi proposta uma estrategia
de Fusão de Dados baseada em minimiza c~ao de energia para aprimorar as medições proporcionadas pela disparidade entre pixels de uma imagem e pela variação de foco. A abordagem proposta faz uso de uma rede distribuída de sensores visuais utilizando um par de câmeras estéreo sem restrições de oclusão ou iluminação no processo de captura de imagens. A função de energia foi usada para integrar múltiplos frames e inferir a coerência geométrica contida na cena. Para avaliar os resultados obtidos foram utilizadas métricas da literatura através de medições de similaridade entre técnicas de estéreo tradicionais e a estrategia desenvolvida. Os experimentos foram conduzidos a partir de imagens de cenas reais, e as informações de profundidade estimadas foram qualitativamente superior que os resultados obtidos pelos métodos tradicionais. Tais informações demonstram a qualidade dos resultados alcançados pela técnica proposta.

Identiferoai:union.ndltd.org:IBICT/oai:http://localhost:tede/4147
Date25 July 2011
CreatorsOliveira, Felipe Gomes de
ContributorsPio, José Luiz de Souza
PublisherUniversidade Federal do Amazonas, Programa de Pós-graduação em Informática, UFAM, Brasil, Instituto de Computação
Source SetsIBICT Brazilian ETDs
LanguagePortuguese
Detected LanguagePortuguese
Typeinfo:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis
Formatapplication/pdf
Sourcereponame:Biblioteca Digital de Teses e Dissertações da UFAM, instname:Universidade Federal do Amazonas, instacron:UFAM
Rightsinfo:eu-repo/semantics/openAccess
Relation-312656415484870643, 600

Page generated in 0.0029 seconds