Esta tesis presenta las bases teóricas para el desarrollo de un aplicación web que permita
reproducir las expresiones reconocidas como universales o prototípicas propuestas por
Ekman (alegría, tristeza, miedo, disgusto, ira, sorpresa) en un avatar 3D. La aplicación está
desarrollada en estándares del sistema de codificación de acción facial (FACS por sus
siglas en inglés "facial action coding system") y unidades de acción (AU por sus siglas en
inglés "action units") desarrolladas por Ekman y Friesen 1970. Este trabajo incluye
información relevante sobre el modelado de un objeto facial 3D del estándar de
codificación de objetos audiovisuales MEPG-4 e información general de las técnicas
básicas de modelado y animación facial de un avatar 3D. Además presenta el
funcionamiento del modelo de emociones de Plutchik y el modelo circumplejo de Russell
y Mehrabian. Como marco de referencia se presenta el modelo de las emociones propuestas
por Ekman y su sistema de FACS y AUs. Se presenta un conjunto delimitado de formas de
expresar las emociones prototípicas de las cuales se toma un subconjunto de diferentes
expresiones para modelarlas en esta aplicación. Estas expresiones, están identificadas
como: ira 1, ira 2, disgusto 1, disgusto 2, miedo 1, miedo 2, alegría, tristeza, sorpresa y
desprecio.
La aplicación fue desarrollada utilizando el framework y el web player plugin de
Unity3D. Los avatares (dos hombres y dos mujeres) fueron realizados en 3D Studio Max,
se utilizaron mallas poligonales y animación por huesos. La aplicación fue cargada en un
servidor compartido y está disponible en el dominio chopis.com.
Los avatares modelados fueron sometidos a un proceso de evaluación para cuantificar el
reconociendo de cada emoción. La muestra utilizada está compuesta por noventa y seis
personas, de un rango de edad de catorce a cincuenta y seis años y de diferentes niveles de
estudios. De esta evaluación se obtuvieron los siguientes resultados porcentuales de
reconocimiento: ira 1= 37.5%, ira 2 = 17.7%, disgusto 1 = 31.3%, disgusto 2 = 18.8%,
miedo 1 = 21.9%, miedo 2 = 41.7%, alegría = 90.6%, tristeza = 77.1%, sorpresa = 76%. De
lo cual se puede concluir que las emociones de alegría, tristeza y sorpresa fueron las únicas
reconocidas por obtener una puntuación mayor al 75%, mientras que el resto de las
expresiones al obtener un porcentaje de reconocimiento menor al 50% denota la falla del
avatar en su modelado. Cada uno de los avatares fue evaluado según el número de personas
que lo ponderaron con el fin de observar las diferencias de reconocimiento por cada
emoción. Se realizó el cálculo de reconocimiento de emociones por nivel de estudios para
identificar si existía una correlación entre éste y la capacidad para reconocer las
emociones, sin embargo, los resultados no mostraron una correlación significativa.
Además se realizó el cálculo de reconocimiento de expresiones distintas, es decir, sin
repetición. Se obtuvieron los siguientes resultados: 11% logró reconocer las seis
expresiones, 29% reconoció cinco de las seis expresiones, 35% reconoció cuatro de las seis
expresiones, 17% reconoció tres de las seis expresiones, 6% reconoció dos expresiones y
1% únicamente reconoció una de las seis expresión.
Identifer | oai:union.ndltd.org:UDLA-Thesis/oai:ciria.udlap.mx:u-dl-a/tesis/4031020440681 |
Date | 17 May 2013 |
Creators | Medina Bello, Paula Noemi |
Contributors | Dr. J. Alfredo Sánchez Huitrón, Dr. Oleg Starostenko, Dr. Vicente Alarcón Aquino |
Publisher | Universidad de las Américas Puebla |
Source Sets | UDLA-Thesis |
Language | Spanish |
Detected Language | Spanish |
Type | Electronic Thesis or Dissertation, Tesis |
Format | application/pdf, text/html |
Coverage | Licenciatura |
Page generated in 0.0019 seconds