Return to search

Aprendizado e utiliza??o do estilo de movimento facial na anima??o de avatares

Made available in DSpace on 2015-04-14T14:50:16Z (GMT). No. of bitstreams: 1
461608.pdf: 5223181 bytes, checksum: 86fc9cfeddfa54c5f8407987d8286ee5 (MD5)
Previous issue date: 2014-08-08 / This work presents a methodology, named Persona, for learning and transfer of facial motion style
of an actor in order to provide parameters for avatar facial animation. Through this methodology,
we can drive the facial animation of avatars using the motion style of a particular actor, through
the performance of any user. Thus, the avatar can express the facial movements that the user
is performing, but replicating the particularities of the actor s facial movements, based on his or
her Persona. In order to build the facial motion style model of an actor, we used points tracked
on image sequences of the actor performance as input data. We also used a database of threedimensional
facial expressions, annotated according to the Facial Action Coding System (FACS).
Principal components analysis was performed using these data. Afterwards, artificial neural networks
were trained to recognize action units both in the actor and user s performances. Given these
classifiers, we can automatically recognize action units in the user s expression and find the equivalent
parameters in the actor s motion style model. The result of the process is the provision of such
parameters to facial animation systems. The prototype developed as proof of concept has been used
in case studies, whose results are discussed. Future work are also addressed. / Esse trabalho apresenta uma metodologia, denominada Persona, para aprendizado e transfer?ncia
do estilo de movimento facial de atores para a anima??o de avatares. Por meio dessa metodologia,
pode-se guiar a anima??o das faces de avatares com o estilo de movimento de um ator espec?fico,
atrav?s da atua??o de usu?rios quaisquer. Dessa forma, o avatar poder? expressar os movimentos
faciais que o usu?rio executa, por?m replicando as particularidades dos movimentos faciais do ator,
por meio da utiliza??o da Persona. Para constru??o do estilo de movimento facial dos atores, utilizouse
como dados de entrada pontos da face obtidos por rastreamento em sequ?ncias de imagens e
informa??es presentes em bancos de dados de express?es faciais tridimensionais, anotadas de acordo
com o Sistema de Codifica??o A??es Facial (FACS). Esses dados foram submetidos ? an?lise de
componentes principais e, ent?o, utilizados para treinamento de redes neurais artificiais. Com esses
classificadores podem-se reconhecer automaticamente as unidades de a??o na express?o do usu?rio
e encontrar os par?metros equivalentes no estilo de movimento do ator. O resultado do processo
? o fornecimento desses par?metros para sistemas de anima??o. O prot?tipo desenvolvido como
prova de conceito foi utilizado em casos de estudo, cujos resultados s?o apresentados. Indica??es
de trabalhos futuros tamb?m ser?o discutidas.

Identiferoai:union.ndltd.org:IBICT/oai:tede2.pucrs.br:tede/5267
Date08 August 2014
CreatorsBraun, Adriana
ContributorsMusse, Soraia Raupp
PublisherPontif?cia Universidade Cat?lica do Rio Grande do Sul, Programa de P?s-Gradua??o em Ci?ncia da Computa??o, PUCRS, BR, Faculdade de Inform?ca
Source SetsIBICT Brazilian ETDs
LanguagePortuguese
Detected LanguageEnglish
Typeinfo:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/doctoralThesis
Formatapplication/pdf
Sourcereponame:Biblioteca Digital de Teses e Dissertações da PUC_RS, instname:Pontifícia Universidade Católica do Rio Grande do Sul, instacron:PUC_RS
Rightsinfo:eu-repo/semantics/openAccess
Relation1974996533081274470, 500, 600, 1946639708616176246

Page generated in 0.0545 seconds