Return to search

Um Pipeline Para Renderização Fotorrealística de Tempo Real com Ray Tracing para Realidade Aumentada

Submitted by Pedro Henrique Rodrigues (pedro.henriquer@ufpe.br) on 2015-03-04T18:12:29Z
No. of bitstreams: 2
Dissertacao_completa_Diego_Lemos.pdf: 4382725 bytes, checksum: 304625beefcdb33f03bb97376f48c770 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-04T18:12:29Z (GMT). No. of bitstreams: 2
Dissertacao_completa_Diego_Lemos.pdf: 4382725 bytes, checksum: 304625beefcdb33f03bb97376f48c770 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2012-03-09 / A Realidade Aumentada é um campo de pesquisa que trata do estudo de técnicas para
integrar informações virtuais com o mundo real. Algumas aplicações de Realidade Aumentada
requerem fotorrealismo, onde os elementos virtuais são tão coerentemente inseridos na cena real
que o usuário não consegue distinguir o virtual do real.
Para a síntese de cenas 3D existem diversas técnicas, entre elas o ray tracing. Ele é um
algoritmo baseado em conceitos básicos da Física Ótica, cuja principal característica é a alta
qualidade visual a um custo computacional elevado, o que condicionava a sua utilização a aplicações
offline. Contudo, com o avanço do poder computacional das GPUs este algoritmo passou a ser viável
para ser utilizado em aplicações de tempo real, devido principalmente ao fato de ser um algoritmo
com a característica de poder ser massivamente paralelizado.
Levando isto em consideração, esta dissertação propõe um pipeline para renderização
fotorrealística em tempo real utilizando a técnica ray tracing em aplicações de Realidade
Aumentada. O ray tracer utilizado foi o Real Time Ray Tracer, ou RT2, de Santos et al., que serviu de
base para a construção de um pipeline com suporte a sombreamento, síntese de diversos tipos de
materiais, oclusão, reflexão, refração e alguns efeitos de câmera. Para que fosse possível obter um
sistema que funciona a taxas interativas, todo o pipeline de renderização foi implementado em GPU,
utilizando a linguagem CUDA, da NVIDIA. Outra contribuição importante deste trabalho é a
integração deste pipeline com o dispositivo Kinect, da Microsoft, possibilitando a obtenção de
informações reais da cena, em tempo real, eliminando assim a necessidade de se conhecer
previamente os objetos pertencentes à cena real.

Identiferoai:union.ndltd.org:IBICT/oai:repositorio.ufpe.br:123456789/10464
Date09 March 2012
CreatorsMelo, Diego Lemos de Almeida
ContributorsTeichrieb, Veronica
PublisherUniversidade Federal de Pernambuco
Source SetsIBICT Brazilian ETDs
LanguageBreton
Detected LanguagePortuguese
Typeinfo:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis
Sourcereponame:Repositório Institucional da UFPE, instname:Universidade Federal de Pernambuco, instacron:UFPE
RightsAttribution-NonCommercial-NoDerivs 3.0 Brazil, http://creativecommons.org/licenses/by-nc-nd/3.0/br/, info:eu-repo/semantics/openAccess

Page generated in 0.0029 seconds