Made available in DSpace on 2014-09-27T02:01:28Z (GMT). No. of bitstreams: 1
000461608-Texto+Completo-0.pdf: 5223181 bytes, checksum: 86fc9cfeddfa54c5f8407987d8286ee5 (MD5)
Previous issue date: 2014 / This work presents a methodology, named Persona, for learning and transfer of facial motion style of an actor in order to provide parameters for avatar facial animation. Through this methodology, we can drive the facial animation of avatars using the motion style of a particular actor, through the performance of any user. Thus, the avatar can express the facial movements that the user is performing, but replicating the particularities of the actor’s facial movements, based on his or her Persona. In order to build the facial motion style model of an actor, we used points tracked on image sequences of the actor performance as input data. We also used a database of threedimensional facial expressions, annotated according to the Facial Action Coding System (FACS). Principal components analysis was performed using these data. Afterwards, artificial neural networks were trained to recognize action units both in the actor and user’s performances. Given these classifiers, we can automatically recognize action units in the user’s expression and find the equivalent parameters in the actor’s motion style model. The result of the process is the provision of such parameters to facial animation systems. The prototype developed as proof of concept has been used in case studies, whose results are discussed. Future work are also addressed. / Esse trabalho apresenta uma metodologia, denominada Persona, para aprendizado e transferência do estilo de movimento facial de atores para a animação de avatares. Por meio dessa metodologia, pode-se guiar a animação das faces de avatares com o estilo de movimento de um ator específico, através da atuação de usuários quaisquer. Dessa forma, o avatar poderá expressar os movimentos faciais que o usuário executa, porém replicando as particularidades dos movimentos faciais do ator, por meio da utilização da Persona. Para construção do estilo de movimento facial dos atores, utilizouse como dados de entrada pontos da face obtidos por rastreamento em sequências de imagens e informações presentes em bancos de dados de expressões faciais tridimensionais, anotadas de acordo com o Sistema de Codificação Ações Facial (FACS). Esses dados foram submetidos à análise de componentes principais e, então, utilizados para treinamento de redes neurais artificiais. Com esses classificadores podem-se reconhecer automaticamente as unidades de ação na expressão do usuário e encontrar os parâmetros equivalentes no estilo de movimento do ator. O resultado do processo é o fornecimento desses parâmetros para sistemas de animação. O protótipo desenvolvido como prova de conceito foi utilizado em casos de estudo, cujos resultados são apresentados. Indicações de trabalhos futuros também serão discutidas.
Identifer | oai:union.ndltd.org:IBICT/urn:repox.ist.utl.pt:RI_PUC_RS:oai:meriva.pucrs.br:10923/6833 |
Date | January 2014 |
Creators | Braun, Adriana |
Contributors | Musse, Soraia Raupp |
Publisher | Pontifícia Universidade Católica do Rio Grande do Sul, Porto Alegre |
Source Sets | IBICT Brazilian ETDs |
Language | Portuguese |
Detected Language | Portuguese |
Type | info:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/doctoralThesis |
Source | reponame:Repositório Institucional da PUC_RS, instname:Pontifícia Universidade Católica do Rio Grande do Sul, instacron:PUC_RS |
Rights | info:eu-repo/semantics/openAccess |
Page generated in 0.0017 seconds