Orientador: Prof. Dr. Guiou Kobayashi / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Engenharia da Informação, 2014. / A computação atual vem demandando, cada vez mais, formas avançadas de interação com
os computadores. A interface do humano com seus dispositivos móveis carece de métodos
mais avançados, e um recurso automático de reconhecimento de expressões faciais seria
uma maneira de alcançar patamares maiores nessa escala de evolução. A forma como se
dá o reconhecimento de emoções humanas e o que as expressões faciais representam em
uma comunicação face-a-face vem sendo referência no desenvolvimento desses sistemas
computacionais e com isso, pode-se elencar três grandes desafios para implementar o
algoritmo de analise de expressões: Localizar o rosto na imagem, extrair os elementos
faciais relevantes e classificar os estados de emoções. O melhor método de resolução de
cada um desses sub-desafios, que se relacionam fortemente, determinará a viabilidade, a
eficiência e a relevância de um novo sistema de análise de expressões embarcada nos
dispositivos portáteis. Este estudo tem como objetivo avaliar a viabilidade da implantação de
um sistema automático de reconhecimento de expressões faciais por imagens, em
dispositivo móvel, utilizando a plataforma iOS da Apple, integrada com a biblioteca de código
aberto e muito utilizada na comunidade da computação visual, o OpenCV. O algoritmo Local
Binary Pattern, implementado pelo OpenCV, foi escolhido como lógica de rastreamento da
face. Os algorítmos Adaboost e Eigenface foram ,respectivamente, adotados para extração
e classificação da emoção e ambos são também suportados pela mencionada biblioteca. O
Módulo de Classificação Eigenface demandou um treinamento adicional em um ambiente de
maior capacidade de processamento e externo a plataforma móvel; posteriormente, apenas
o arquivo de treino foi exportado e consumido pelo aplicativo modelo. O estudo permitiu
concluir que o Local Binary Pattern é muito robusto a variações de iluminação e muito
eficiente no rastreamento da face; o Adaboost e Eigenface produziram eficiência de
aproximadamente 65% na classificação da emoção, quando utilizado apenas as imagens de
pico no treino do módulo, condição essa, necessária para manutenção do arquivo de treino
em um tamanho compatível com o armazenamento disponível nos dispositivos dessa
categoria. / The actual computing is demanding, more and more, advanced forms of interaction with
computers. The interfacing from man with their mobile devices lacks more advanced
methods, and automatic facial expression recognition would be a way to achieve greater
levels in this scale of evolution. The way how is the human emotion recognition and what
facial expressions represents in a face to face communication is being reference for
development of these computer systems and thus, it can list three major implementation
challenges for algorithm analysis of expressions: location of the face in the image, extracting
the relevant facial features and emotions¿ states classification. The best method to solve
each of these strongly related sub- challenges, determines the feasibility, the efficiency and
the relevance of a new expressions analysis system, embedded in portable devices. To
evaluate the feasibility of developing an automatic recognition of facial expressions in
images, we implemented a mobile system model in the iOS platform with integration to an
open source library that is widely used in visual computing community: the OpenCV. The
Local Binary Pattern algorithm implemented by OpenCV, was chosen as the face tracking
logic; the Eigenface and AdaBoost, respectively, were adopted for extraction and
classification of emotion and both are also supported by the library. The Eigenface
Classification Module was trained in a more robust and external environment to the mobile
platform and subsequently only the training file was exported and consumed by the model
application. With this experiment it was concluded that the Local Binary Pattern is very robust
to lighting variations and very efficient to tracking the face; the Adaboot and Eigenface
resulted in approximately 65% of efficiency when used only maximum emotion images to
training the module, a condition necessary for maintenance of the cascade file in a
compatible size to available storage on the mobile platform.
Identifer | oai:union.ndltd.org:IBICT/oai:BDTD:76607 |
Date | January 2014 |
Creators | Domingues, Daniel Chinen |
Contributors | Kobayashi, Guiou, Steinberger-Elias, Margarethe Born, Amate, Flavio Cezar |
Source Sets | IBICT Brazilian ETDs |
Language | Portuguese |
Detected Language | Portuguese |
Type | info:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis |
Format | application/pdf, 81 f. : il. |
Source | reponame:Repositório Institucional da UFABC, instname:Universidade Federal do ABC, instacron:UFABC |
Rights | info:eu-repo/semantics/openAccess |
Relation | http://biblioteca.ufabc.edu.br/index.php?codigo_sophia=76607&midiaext=69776, http://biblioteca.ufabc.edu.br/index.php?codigo_sophia=76607&midiaext=69775, Cover: http://biblioteca.ufabc.edu.brphp/capa.php?obra=76607 |
Page generated in 0.0036 seconds