• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • Tagged with
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Detec??o de componentes faciais baseado em modelos de cor e antropometria

Moreira, Juliano Lucas 17 March 2010 (has links)
Made available in DSpace on 2015-04-14T14:49:23Z (GMT). No. of bitstreams: 1 424522.pdf: 9826800 bytes, checksum: 42f795577052c12e0f48e70cdec692d8 (MD5) Previous issue date: 2010-03-17 / Existem diferentes situa??es em que a detec??o de componentes faciais desempenha um papel importante, como por exemplo: no reconhecimento facial, intera??o humano computador, teleconfer?ncias, an?lise de express?es faciais e anima??o. Esta disserta??o apresenta, primeiramente, uma revis?o bibliogr?fica dos trabalhos referentes ? detec??o dos componentes faciais. Ap?s, ? exposto o modelo desenvolvido para a detec??o de componentes faciais, sendo este baseado em modelos de cor e antropometria. Ao final, s?o mostrados resultados referentes a detec??o dos componentes em bases de dados p?blicas e experimentos realizados na anima??o de avatares 3D.
2

Gera??o de anima??es faciais personalizadas em avatares

Queiroz, Rossana Baptista 19 March 2010 (has links)
Made available in DSpace on 2015-04-14T14:49:37Z (GMT). No. of bitstreams: 1 433864.pdf: 18434268 bytes, checksum: 61c6a4bdb552888fb0eab7f573b93c20 (MD5) Previous issue date: 2010-03-19 / Neste trabalho, ? apresentado um modelo para a gera??o de anima??es faciais personalizadas em avatares. O modelo inclui duas abordagens de controle param?trico da face do avatar: baseado em scripts de a??es faciais em alto-n?vel ou usando a t?cnica de Anima??o Dirigida por Performance(PDA). A abordagem de controle por script permite a gera??o de anima??es com express?es faciais, fala sincronizada e comportamento dos olhos interativamente pela descri??o em alto-n?vel dessas a??es faciais. A abordagem de controle por Anima??o Dirigida por Performance permite refletir as express?es faciais do usu?rio em seu avatar, considerando como entrada um pequeno conjunto de pontos caracter?sticos providos por algoritmos de Vis?o Computacional. O modelo ? baseado no padr?o MPEG-4 de Anima??o Facial, estruturado usando uma hierarquia dos par?metros de anima??o, proposta para a abordagem de PDA. Essa estrat?gia permite a gera??o de anima??es nas regi?es da face onde n?o houver dados supridos por Vis?o Computacional. Para deformar a face, usa-se Fun??es de Base Radial e Fun??es de Cosseno. Essa abordagem ? computacionalmente barata e permite a anima??o dos avatares em tempo-real. Foi desenvolvido um framework de anima??o facial extens?vel capaz de animar facilmente faces parametrizadas de acordo com o padr?o MPEG-4 em aplica??es interativas. Tamb?m foram desenvolvidas algumas aplica??es interativas como estudo de caso das potencialidades do modelo e realizada uma avalia??o preliminar com usu?rios, de maneira a avaliar qualitativamente as abordagens de controle. Os resultados mostram que o modelo proposto pode gerar anima??es variadas e com resultados visuais satisfat?rios.
3

Aprendizado e utiliza??o do estilo de movimento facial na anima??o de avatares

Braun, Adriana 08 August 2014 (has links)
Made available in DSpace on 2015-04-14T14:50:16Z (GMT). No. of bitstreams: 1 461608.pdf: 5223181 bytes, checksum: 86fc9cfeddfa54c5f8407987d8286ee5 (MD5) Previous issue date: 2014-08-08 / This work presents a methodology, named Persona, for learning and transfer of facial motion style of an actor in order to provide parameters for avatar facial animation. Through this methodology, we can drive the facial animation of avatars using the motion style of a particular actor, through the performance of any user. Thus, the avatar can express the facial movements that the user is performing, but replicating the particularities of the actor s facial movements, based on his or her Persona. In order to build the facial motion style model of an actor, we used points tracked on image sequences of the actor performance as input data. We also used a database of threedimensional facial expressions, annotated according to the Facial Action Coding System (FACS). Principal components analysis was performed using these data. Afterwards, artificial neural networks were trained to recognize action units both in the actor and user s performances. Given these classifiers, we can automatically recognize action units in the user s expression and find the equivalent parameters in the actor s motion style model. The result of the process is the provision of such parameters to facial animation systems. The prototype developed as proof of concept has been used in case studies, whose results are discussed. Future work are also addressed. / Esse trabalho apresenta uma metodologia, denominada Persona, para aprendizado e transfer?ncia do estilo de movimento facial de atores para a anima??o de avatares. Por meio dessa metodologia, pode-se guiar a anima??o das faces de avatares com o estilo de movimento de um ator espec?fico, atrav?s da atua??o de usu?rios quaisquer. Dessa forma, o avatar poder? expressar os movimentos faciais que o usu?rio executa, por?m replicando as particularidades dos movimentos faciais do ator, por meio da utiliza??o da Persona. Para constru??o do estilo de movimento facial dos atores, utilizouse como dados de entrada pontos da face obtidos por rastreamento em sequ?ncias de imagens e informa??es presentes em bancos de dados de express?es faciais tridimensionais, anotadas de acordo com o Sistema de Codifica??o A??es Facial (FACS). Esses dados foram submetidos ? an?lise de componentes principais e, ent?o, utilizados para treinamento de redes neurais artificiais. Com esses classificadores podem-se reconhecer automaticamente as unidades de a??o na express?o do usu?rio e encontrar os par?metros equivalentes no estilo de movimento do ator. O resultado do processo ? o fornecimento desses par?metros para sistemas de anima??o. O prot?tipo desenvolvido como prova de conceito foi utilizado em casos de estudo, cujos resultados s?o apresentados. Indica??es de trabalhos futuros tamb?m ser?o discutidas.

Page generated in 0.0207 seconds