Submitted by Pedro Henrique Rodrigues (pedro.henriquer@ufpe.br) on 2015-03-04T18:12:29Z
No. of bitstreams: 2
Dissertacao_completa_Diego_Lemos.pdf: 4382725 bytes, checksum: 304625beefcdb33f03bb97376f48c770 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-04T18:12:29Z (GMT). No. of bitstreams: 2
Dissertacao_completa_Diego_Lemos.pdf: 4382725 bytes, checksum: 304625beefcdb33f03bb97376f48c770 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2012-03-09 / A Realidade Aumentada é um campo de pesquisa que trata do estudo de técnicas para
integrar informações virtuais com o mundo real. Algumas aplicações de Realidade Aumentada
requerem fotorrealismo, onde os elementos virtuais são tão coerentemente inseridos na cena real
que o usuário não consegue distinguir o virtual do real.
Para a síntese de cenas 3D existem diversas técnicas, entre elas o ray tracing. Ele é um
algoritmo baseado em conceitos básicos da Física Ótica, cuja principal característica é a alta
qualidade visual a um custo computacional elevado, o que condicionava a sua utilização a aplicações
offline. Contudo, com o avanço do poder computacional das GPUs este algoritmo passou a ser viável
para ser utilizado em aplicações de tempo real, devido principalmente ao fato de ser um algoritmo
com a característica de poder ser massivamente paralelizado.
Levando isto em consideração, esta dissertação propõe um pipeline para renderização
fotorrealística em tempo real utilizando a técnica ray tracing em aplicações de Realidade
Aumentada. O ray tracer utilizado foi o Real Time Ray Tracer, ou RT2, de Santos et al., que serviu de
base para a construção de um pipeline com suporte a sombreamento, síntese de diversos tipos de
materiais, oclusão, reflexão, refração e alguns efeitos de câmera. Para que fosse possível obter um
sistema que funciona a taxas interativas, todo o pipeline de renderização foi implementado em GPU,
utilizando a linguagem CUDA, da NVIDIA. Outra contribuição importante deste trabalho é a
integração deste pipeline com o dispositivo Kinect, da Microsoft, possibilitando a obtenção de
informações reais da cena, em tempo real, eliminando assim a necessidade de se conhecer
previamente os objetos pertencentes à cena real.
Identifer | oai:union.ndltd.org:IBICT/oai:repositorio.ufpe.br:123456789/10464 |
Date | 09 March 2012 |
Creators | Melo, Diego Lemos de Almeida |
Contributors | Teichrieb, Veronica |
Publisher | Universidade Federal de Pernambuco |
Source Sets | IBICT Brazilian ETDs |
Language | Breton |
Detected Language | Portuguese |
Type | info:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis |
Source | reponame:Repositório Institucional da UFPE, instname:Universidade Federal de Pernambuco, instacron:UFPE |
Rights | Attribution-NonCommercial-NoDerivs 3.0 Brazil, http://creativecommons.org/licenses/by-nc-nd/3.0/br/, info:eu-repo/semantics/openAccess |
Page generated in 0.013 seconds