Return to search

Modelagem Paralela em C+CUDA de Sistema Neural de Visão Estereoscópica

Made available in DSpace on 2016-12-23T14:33:40Z (GMT). No. of bitstreams: 1
camilodissertacao 1.pdf: 1333302 bytes, checksum: 388e76b982d3fcda211a4b13f3a4c813 (MD5)
Previous issue date: 2009-08-31 / The images formed on our retinae are bidimensional; however, from them our brain is capable of synthesizing a 3D representation with color, shape and depth
information about the objects in the surrounding environment. For that, after choosing a point in 3D space, our eyes verge to this point and, at the same time, the visual system is fed back with the eyes position information, interpreting it as the distance of this point to the observer. Depth perception around the vergence point is obtained using visual disparity, i.e., the difference between the positions in the retinae of the
two projections of a given point in 3D space caused by the horizontal separation of the eyes. Most of the depth perception processing is done in the visual cortex, mainly
in the primary (V1) and medial temporal (MT) areas. In this work, we developed a parallel implementation in C+CUDA of model, built at UFES, of the neural architecture of the V1 and MT cortices that uses as building blocks previous models
of cortical cells and log-polar mapping. A sequential implementation of this model can create tridimensional representations of the external world using stereoscopic image
pairs obtained from a pair of fronto-parallel cameras. Our C+CUDA parallel implementation is almost 60 times faster and allows real-time 3D reconstruction. / As imagens projetadas em nossas retinas são bidimensionais; entretanto, a partir delas, o nosso cérebro é capaz de sintetizar uma representação 3D com a cor, forma e informações de profundidade sobre os objetos ao redor no ambiente. Para isso, após a escolha de um ponto no espaço 3D, os nossos olhos vergem em direção a este ponto e, ao mesmo tempo, o sistema visual é realimentado com
informações sobre o posicionamento dos olhos, interpretando-as como a distância deste ponto ao observador. A percepção de profundidade ao redor do ponto de vergência é obtida utilizando-se a disparidade entre as imagens direita e esquerda, ou seja, a diferença entre as posições, nas retinas, das duas projeções de um determinado ponto no espaço 3D causada pela separação horizontal dos olhos. A maior parte do processamento da percepção da profundidade é feita no córtex visual, principalmente na área primária (V1) e temporal medial (MT). Neste trabalho, foi desenvolvida uma implementação em C+CUDA de um modelo, criado na UFES,
da arquitetura neural dos córtices V1 e MT que usa como base modelos anteriores de células corticais e mapeamento log-polar. A implementação seqüencial deste modelo é capaz de construir uma representação tridimensional do mundo externo por meio de pares de imagens estereoscópicas obtidas a partir de um par de câmeras fronto-paralelas. Nossa implementação paralela em C+CUDA é quase 60 vezes mais rápida que a seqüencial e permite a reconstrução 3D em tempo real.

Identiferoai:union.ndltd.org:IBICT/oai:dspace2.ufes.br:10/6381
Date31 August 2009
CreatorsCarvalho, Camilo Alves
ContributorsSouza, Alberto Ferreira de, Oliveira, Elias Silva de, Amorim, Cláudio Luiz
PublisherUniversidade Federal do Espírito Santo, Programa de Pós-Graduação em Informática, UFES, BR, Ciência da Computação
Source SetsIBICT Brazilian ETDs
LanguagePortuguese
Detected LanguagePortuguese
Typeinfo:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis
Formattext
Sourcereponame:Repositório Institucional da UFES, instname:Universidade Federal do Espírito Santo, instacron:UFES
Rightsinfo:eu-repo/semantics/openAccess

Page generated in 0.0242 seconds