• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • Tagged with
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] SOCIO-CONTEXTUAL COGNITION IN VICARIOUS EMOTIONAL REACTIONS / [pt] COGNIÇÃO SÓCIO-CONTEXTUAL EM REAÇÕES EMOCIONAIS VICÁRIAS

BRUNO MACIEL DE CARVALHO PINTO SALLES 11 December 2018 (has links)
[pt] Achados recentes sugerem que pistas sociais e contextuais podem moderar respostas a emoções alheias. O presente trabalho investigou cognição sócio-contextual em reações emocionais vicárias. Foi examinado se respostas convergentes e divergentes dependem da afiliação grupal, direção do olhar e a emoção mostrada pelo emissor; e se o grau proximidade modera respostas aversivas e compassivas ao sofrimento alheio. Essas variáveis emocionais foram analisadas por autorrelato, expressões faciais, rastreio ocular e dilatação de pupila. Os achados respaldam teorias de cognição social e seus efeitos sobre emoção e empatia. / [en] Recent findings suggest that social and contextual cues may moderate responses toward other s emotions. Therefore, the current work investigated socio-contextual cognition in vicarious emotional reactions. It was examined if convergent and divergent responses depend on group membership, gaze direction, and the emotion showed by the displayer; and if degrees of closeness moderate aversive and compassionate responses to other s suffering. These emotional variables were assessed by self-report, facial expressions, gaze behavior and pupil dilatation. Findings supports theories of social cognition and its effects on emotion and empathy.
2

Interferência emocional de faces de bebês e de adultos no processamento atencional automático em homens e mulheres com e sem filhos

Oliveira, Vanessa Farias January 2015 (has links)
Faces de bebês são um estímulo emocional extremamente saliente para humanos. O objetivo deste estudo foi comparar a interferência emocional de faces de bebês e estímulos de ameaça (faces adultas com medo) na atenção automática de homens e mulheres com e sem filhos. Após estudo piloto, recrutou-se 61 homens e mulheres de 20 a 35 anos. Os participantes responderam a uma tarefa Go/No-Go na qual imagens de bebês com expressões de sofrimento, alegria ou neutra e imagens de adultos com expressões de medo, alegria e neutra, eram apresentadas. Foram calculados os vieses de atenção para faces de bebês em sofrimento, faces de adultos com medo e faces de bebês vs. adultos. Participantes com filhos, de ambos os sexos, apresentaram mais viés de cuidado (bebês vs adultos) do que os sem filhos. Os resultados indicaram que apenas status parental influenciou o viés para faces de bebês. / Babies are extremely salient emotional stimuli to human beings. The current study aimed to compare the emotional interference of baby faces and threat stimuli (adult fearful faces) on the automatic attention of men and women, parents and non-parents. A pilot study was conducted to adapt instruments and procedures. For the main study 61 men and women aged 20 to 35 years with minimum complete elementary school were recruited. Images of distressed, happy and neutral baby faces and fearful, happy and neutral adult faces were used in a Go/No-Go paradigm. Attentional bias indexes were calculated for biases towards baby distress, adult fear and baby vs. adult faces. Parents, regardless of sex, showed a higher nurturing attentional bias (baby vs. adult faces) in comparison to non-parents. This finding demonstrates that parental status influences the attentional bias to babies.
3

Interferência emocional de faces de bebês e de adultos no processamento atencional automático em homens e mulheres com e sem filhos

Oliveira, Vanessa Farias January 2015 (has links)
Faces de bebês são um estímulo emocional extremamente saliente para humanos. O objetivo deste estudo foi comparar a interferência emocional de faces de bebês e estímulos de ameaça (faces adultas com medo) na atenção automática de homens e mulheres com e sem filhos. Após estudo piloto, recrutou-se 61 homens e mulheres de 20 a 35 anos. Os participantes responderam a uma tarefa Go/No-Go na qual imagens de bebês com expressões de sofrimento, alegria ou neutra e imagens de adultos com expressões de medo, alegria e neutra, eram apresentadas. Foram calculados os vieses de atenção para faces de bebês em sofrimento, faces de adultos com medo e faces de bebês vs. adultos. Participantes com filhos, de ambos os sexos, apresentaram mais viés de cuidado (bebês vs adultos) do que os sem filhos. Os resultados indicaram que apenas status parental influenciou o viés para faces de bebês. / Babies are extremely salient emotional stimuli to human beings. The current study aimed to compare the emotional interference of baby faces and threat stimuli (adult fearful faces) on the automatic attention of men and women, parents and non-parents. A pilot study was conducted to adapt instruments and procedures. For the main study 61 men and women aged 20 to 35 years with minimum complete elementary school were recruited. Images of distressed, happy and neutral baby faces and fearful, happy and neutral adult faces were used in a Go/No-Go paradigm. Attentional bias indexes were calculated for biases towards baby distress, adult fear and baby vs. adult faces. Parents, regardless of sex, showed a higher nurturing attentional bias (baby vs. adult faces) in comparison to non-parents. This finding demonstrates that parental status influences the attentional bias to babies.
4

Interferência emocional de faces de bebês e de adultos no processamento atencional automático em homens e mulheres com e sem filhos

Oliveira, Vanessa Farias January 2015 (has links)
Faces de bebês são um estímulo emocional extremamente saliente para humanos. O objetivo deste estudo foi comparar a interferência emocional de faces de bebês e estímulos de ameaça (faces adultas com medo) na atenção automática de homens e mulheres com e sem filhos. Após estudo piloto, recrutou-se 61 homens e mulheres de 20 a 35 anos. Os participantes responderam a uma tarefa Go/No-Go na qual imagens de bebês com expressões de sofrimento, alegria ou neutra e imagens de adultos com expressões de medo, alegria e neutra, eram apresentadas. Foram calculados os vieses de atenção para faces de bebês em sofrimento, faces de adultos com medo e faces de bebês vs. adultos. Participantes com filhos, de ambos os sexos, apresentaram mais viés de cuidado (bebês vs adultos) do que os sem filhos. Os resultados indicaram que apenas status parental influenciou o viés para faces de bebês. / Babies are extremely salient emotional stimuli to human beings. The current study aimed to compare the emotional interference of baby faces and threat stimuli (adult fearful faces) on the automatic attention of men and women, parents and non-parents. A pilot study was conducted to adapt instruments and procedures. For the main study 61 men and women aged 20 to 35 years with minimum complete elementary school were recruited. Images of distressed, happy and neutral baby faces and fearful, happy and neutral adult faces were used in a Go/No-Go paradigm. Attentional bias indexes were calculated for biases towards baby distress, adult fear and baby vs. adult faces. Parents, regardless of sex, showed a higher nurturing attentional bias (baby vs. adult faces) in comparison to non-parents. This finding demonstrates that parental status influences the attentional bias to babies.
5

[en] A SYSTEM FOR GENERATING DYNAMIC FACIAL EXPRESSIONS IN 3D FACIAL ANIMATION WITH SPEECH PROCESSING / [pt] UM SISTEMA DE GERAÇÃO DE EXPRESSÕES FACIAIS DINÂMICAS EM ANIMAÇÕES FACIAIS 3D COM PROCESSAMENTO DE FALA

PAULA SALGADO LUCENA RODRIGUES 24 April 2008 (has links)
[pt] Esta tese apresenta um sistema para geração de expressões faciais dinâmicas sincronizadas com a fala em uma face realista tridimensional. Entende-se por expressões faciais dinâmicas aquelas que variam ao longo do tempo e que semanticamente estão relacionadas às emoções, à fala e a fenômenos afetivos que podem modificar o comportamento de uma face em uma animação. A tese define um modelo de emoção para personagens virtuais falantes, de- nominado VeeM (Virtual emotion-to-expression Model ), proposto a partir de uma releitura e uma reestruturação do modelo do círculo emocional de Plutchik. O VeeM introduz o conceito de um hipercubo emocional no espaço canônico do R4 para combinar emoções básicas, dando origem a emoções derivadas. Para validação do VeeM é desenvolvida uma ferramenta de autoria e apresentação de animações faciais denominada DynaFeX (Dynamic Facial eXpression), onde um processamento de fala é realizado para permitir o sincronismo entre fonemas e visemas. A ferramenta permite a definição e o refinamento de emoções para cada quadro ou grupo de quadros de uma animação facial. O subsistema de autoria permite também, alternativamente, uma manipulação em alto-nível, através de scripts de animação. O subsistema de apresentação controla de modo sincronizado a fala da personagem e os aspectos emocionais editados. A DynaFeX faz uso de uma malha poligonal tridimensional baseada no padrão MPEG-4 de animação facial, favorecendo a interoperabilidade da ferramenta com outros sistemas de animação facial. / [en] This thesis presents a system for generating dynamic facial expressions synchronized with speech, rendered using a tridimensional realistic face. Dynamic facial expressions are those temporal-based facial expressions semanti- cally related with emotions, speech and affective inputs that can modify a facial animation behavior. The thesis defines an emotion model for speech virtual actors, named VeeM (Virtual emotion-to-expression Model ), which is based on a revision of the emotional wheel of Plutchik model. The VeeM introduces the emotional hypercube concept in the R4 canonical space to combine pure emotions and create new derived emotions. In order to validate VeeM, it has been developed an authoring and player facial animation tool, named DynaFeX (Dynamic Facial eXpression), where a speech processing is realized to allow the phoneme and viseme synchronization. The tool allows either the definition and refinement of emotions for each frame, or group of frames, as the facial animation edition using a high-level approach based on animation scripts. The tool player controls the animation presentation synchronizing the speech and emotional features with the virtual character performance. DynaFeX is built over a tridimensional polygonal mesh, compliant with MPEG-4 facial animation standard, what favors tool interoperability with other facial animation systems.

Page generated in 0.106 seconds