Spelling suggestions: "subject:"expressoes espaciais"" "subject:"expressores espaciais""
1 |
[en] SOCIO-CONTEXTUAL COGNITION IN VICARIOUS EMOTIONAL REACTIONS / [pt] COGNIÇÃO SÓCIO-CONTEXTUAL EM REAÇÕES EMOCIONAIS VICÁRIASBRUNO MACIEL DE CARVALHO PINTO SALLES 11 December 2018 (has links)
[pt] Achados recentes sugerem que pistas sociais e contextuais podem moderar respostas a emoções alheias. O presente trabalho investigou cognição sócio-contextual em reações emocionais vicárias. Foi examinado se respostas convergentes e divergentes dependem da afiliação grupal, direção do olhar e a emoção mostrada pelo emissor; e se o grau proximidade modera respostas aversivas e compassivas ao sofrimento alheio. Essas variáveis emocionais foram analisadas por autorrelato, expressões faciais, rastreio ocular e dilatação de pupila. Os achados respaldam teorias de cognição social e seus efeitos sobre emoção e empatia. / [en] Recent findings suggest that social and contextual cues may moderate responses toward other s emotions. Therefore, the current work investigated socio-contextual cognition in vicarious emotional reactions. It was examined if convergent and divergent responses depend on group membership, gaze direction, and the emotion showed by the displayer; and if degrees of closeness moderate aversive and compassionate responses to other s suffering. These emotional variables were assessed by self-report, facial expressions, gaze behavior and pupil dilatation. Findings supports theories of social cognition and its effects on emotion and empathy.
|
2 |
Interferência emocional de faces de bebês e de adultos no processamento atencional automático em homens e mulheres com e sem filhosOliveira, Vanessa Farias January 2015 (has links)
Faces de bebês são um estímulo emocional extremamente saliente para humanos. O objetivo deste estudo foi comparar a interferência emocional de faces de bebês e estímulos de ameaça (faces adultas com medo) na atenção automática de homens e mulheres com e sem filhos. Após estudo piloto, recrutou-se 61 homens e mulheres de 20 a 35 anos. Os participantes responderam a uma tarefa Go/No-Go na qual imagens de bebês com expressões de sofrimento, alegria ou neutra e imagens de adultos com expressões de medo, alegria e neutra, eram apresentadas. Foram calculados os vieses de atenção para faces de bebês em sofrimento, faces de adultos com medo e faces de bebês vs. adultos. Participantes com filhos, de ambos os sexos, apresentaram mais viés de cuidado (bebês vs adultos) do que os sem filhos. Os resultados indicaram que apenas status parental influenciou o viés para faces de bebês. / Babies are extremely salient emotional stimuli to human beings. The current study aimed to compare the emotional interference of baby faces and threat stimuli (adult fearful faces) on the automatic attention of men and women, parents and non-parents. A pilot study was conducted to adapt instruments and procedures. For the main study 61 men and women aged 20 to 35 years with minimum complete elementary school were recruited. Images of distressed, happy and neutral baby faces and fearful, happy and neutral adult faces were used in a Go/No-Go paradigm. Attentional bias indexes were calculated for biases towards baby distress, adult fear and baby vs. adult faces. Parents, regardless of sex, showed a higher nurturing attentional bias (baby vs. adult faces) in comparison to non-parents. This finding demonstrates that parental status influences the attentional bias to babies.
|
3 |
Interferência emocional de faces de bebês e de adultos no processamento atencional automático em homens e mulheres com e sem filhosOliveira, Vanessa Farias January 2015 (has links)
Faces de bebês são um estímulo emocional extremamente saliente para humanos. O objetivo deste estudo foi comparar a interferência emocional de faces de bebês e estímulos de ameaça (faces adultas com medo) na atenção automática de homens e mulheres com e sem filhos. Após estudo piloto, recrutou-se 61 homens e mulheres de 20 a 35 anos. Os participantes responderam a uma tarefa Go/No-Go na qual imagens de bebês com expressões de sofrimento, alegria ou neutra e imagens de adultos com expressões de medo, alegria e neutra, eram apresentadas. Foram calculados os vieses de atenção para faces de bebês em sofrimento, faces de adultos com medo e faces de bebês vs. adultos. Participantes com filhos, de ambos os sexos, apresentaram mais viés de cuidado (bebês vs adultos) do que os sem filhos. Os resultados indicaram que apenas status parental influenciou o viés para faces de bebês. / Babies are extremely salient emotional stimuli to human beings. The current study aimed to compare the emotional interference of baby faces and threat stimuli (adult fearful faces) on the automatic attention of men and women, parents and non-parents. A pilot study was conducted to adapt instruments and procedures. For the main study 61 men and women aged 20 to 35 years with minimum complete elementary school were recruited. Images of distressed, happy and neutral baby faces and fearful, happy and neutral adult faces were used in a Go/No-Go paradigm. Attentional bias indexes were calculated for biases towards baby distress, adult fear and baby vs. adult faces. Parents, regardless of sex, showed a higher nurturing attentional bias (baby vs. adult faces) in comparison to non-parents. This finding demonstrates that parental status influences the attentional bias to babies.
|
4 |
Interferência emocional de faces de bebês e de adultos no processamento atencional automático em homens e mulheres com e sem filhosOliveira, Vanessa Farias January 2015 (has links)
Faces de bebês são um estímulo emocional extremamente saliente para humanos. O objetivo deste estudo foi comparar a interferência emocional de faces de bebês e estímulos de ameaça (faces adultas com medo) na atenção automática de homens e mulheres com e sem filhos. Após estudo piloto, recrutou-se 61 homens e mulheres de 20 a 35 anos. Os participantes responderam a uma tarefa Go/No-Go na qual imagens de bebês com expressões de sofrimento, alegria ou neutra e imagens de adultos com expressões de medo, alegria e neutra, eram apresentadas. Foram calculados os vieses de atenção para faces de bebês em sofrimento, faces de adultos com medo e faces de bebês vs. adultos. Participantes com filhos, de ambos os sexos, apresentaram mais viés de cuidado (bebês vs adultos) do que os sem filhos. Os resultados indicaram que apenas status parental influenciou o viés para faces de bebês. / Babies are extremely salient emotional stimuli to human beings. The current study aimed to compare the emotional interference of baby faces and threat stimuli (adult fearful faces) on the automatic attention of men and women, parents and non-parents. A pilot study was conducted to adapt instruments and procedures. For the main study 61 men and women aged 20 to 35 years with minimum complete elementary school were recruited. Images of distressed, happy and neutral baby faces and fearful, happy and neutral adult faces were used in a Go/No-Go paradigm. Attentional bias indexes were calculated for biases towards baby distress, adult fear and baby vs. adult faces. Parents, regardless of sex, showed a higher nurturing attentional bias (baby vs. adult faces) in comparison to non-parents. This finding demonstrates that parental status influences the attentional bias to babies.
|
5 |
[en] A SYSTEM FOR GENERATING DYNAMIC FACIAL EXPRESSIONS IN 3D FACIAL ANIMATION WITH SPEECH PROCESSING / [pt] UM SISTEMA DE GERAÇÃO DE EXPRESSÕES FACIAIS DINÂMICAS EM ANIMAÇÕES FACIAIS 3D COM PROCESSAMENTO DE FALAPAULA SALGADO LUCENA RODRIGUES 24 April 2008 (has links)
[pt] Esta tese apresenta um sistema para geração de expressões
faciais dinâmicas sincronizadas com a fala em uma face
realista tridimensional. Entende-se
por expressões faciais dinâmicas aquelas que variam ao
longo do tempo e que semanticamente estão relacionadas às
emoções, à fala e a fenômenos afetivos que podem modificar
o comportamento de uma face em uma animação. A tese define
um modelo de emoção para personagens virtuais falantes, de-
nominado VeeM (Virtual emotion-to-expression Model ),
proposto a partir de uma releitura e uma reestruturação do
modelo do círculo emocional de Plutchik. O VeeM introduz o
conceito de um hipercubo emocional no espaço canônico do R4
para combinar emoções básicas, dando origem a emoções
derivadas. Para validação do VeeM é desenvolvida uma
ferramenta de autoria e apresentação de animações faciais
denominada DynaFeX (Dynamic Facial eXpression), onde um
processamento de fala é realizado para permitir o
sincronismo entre fonemas e visemas. A ferramenta permite a
definição e o refinamento de emoções para cada quadro ou
grupo de quadros de uma animação facial. O subsistema de
autoria permite também, alternativamente, uma manipulação
em alto-nível, através de scripts de animação.
O subsistema de apresentação controla de modo sincronizado
a fala da personagem e os aspectos emocionais editados. A
DynaFeX faz uso de uma malha poligonal tridimensional
baseada no padrão MPEG-4 de animação facial, favorecendo a
interoperabilidade da ferramenta com outros sistemas
de animação facial. / [en] This thesis presents a system for generating dynamic facial
expressions synchronized with speech, rendered using a
tridimensional realistic face. Dynamic facial expressions
are those temporal-based facial expressions semanti-
cally related with emotions, speech and affective inputs
that can modify a facial animation behavior. The thesis
defines an emotion model for speech virtual actors, named
VeeM (Virtual emotion-to-expression Model ), which
is based on a revision of the emotional wheel of Plutchik
model. The VeeM introduces the emotional hypercube concept
in the R4 canonical space to combine pure emotions and
create new derived emotions. In order to validate VeeM, it
has been developed an authoring and player facial animation
tool, named DynaFeX (Dynamic Facial eXpression), where a
speech processing is realized to allow the phoneme and
viseme synchronization. The tool allows either the
definition and refinement of emotions for each frame, or
group of frames, as the facial animation edition using a
high-level approach based on animation scripts. The tool
player controls the animation presentation synchronizing
the speech and emotional features with the virtual
character performance. DynaFeX is built over a
tridimensional polygonal mesh, compliant with MPEG-4 facial
animation standard, what favors tool
interoperability with other facial animation systems.
|
Page generated in 0.0995 seconds