Spelling suggestions: "subject:"coacial expressions"" "subject:"cracial expressions""
161 |
Le décodage des expressions faciales émotionnelles à travers différentes bandes de fréquences spatiales et ses interactions avec l’anxiétéHarel, Yann 08 1900 (has links)
Le décodage des expressions faciales émotionnelles (EFE) est une fonction clé du système visuel humain puisqu’il est à la base de la communication non-verbale sur laquelle reposent les interactions sociales. De nombreuses études suggèrent un traitement différentiel des attributs diagnostiques du visage au sein des basses et des hautes fréquences spatiales (FS), respectivement sous-tendu par les voies magno- et parvocellulaires. En outre, des conditions telles que l’anxiété sociale sont susceptibles d’affecter ce traitement et d’entrainer une modulation des potentiels reliés aux évènements (PRE). Cette étude explore la possibilité de prédire le niveau d’anxiété social des individus à partir des corrélats électrophysiologiques du décodage d’EFE dans différentes bandes de FS. À cette fin, les PRE de 26 participants (âge moyen = 23.7 ± 4.7) ont été enregistrés lors de la présentation visuelle d’expressions neutres, de joie ou de colère filtrées pour ne retenir que les basses, moyennes ou hautes FS. L’anxiété sociale a été évaluée par l’administration préalable du questionnaire LSAS. Les latences et pics d’amplitude de la P100, N170, du complexe N2b/P3a et de la P3b ont été analysés statistiquement et utilisés pour entrainer différents algorithmes de classification. L’amplitude de la P100 était reliée au contenu en FS. La N170 a montré un effet des EFE. Le complexe N2b/P3a était plus ample pour les EFE et plus précoce pour les hautes FS. La P3b était moins ample pour les visages neutres, qui étaient aussi plus souvent omis. L’analyse discriminante linéaire a montré une précision de décodage d’en moyenne 56.11% au sein des attributs significatifs. La nature de ces attributs et leur sensibilité à l’anxiété sociale sera discutée. / The decoding of emotional facial expressions (EFE) is a key function of the human visual system since it lays at the basis of non-verbal communication that allows social interactions. Numerous studies suggests that the processing of faces diagnostic features may take place differently for low and high spatial frequencies (SF), respectively in the magno- and parvocellular pathways. Moreover, conditions such as social anxiety are supposed to influence this processing and the associated event-related potentials (ERP). This study explores the feasibility of predicting social anxiety levels using electrophysiological correlates of EFE processing across various SF bands. To this end, ERP from 26 participants (mean age = 23.7 ± 4.7) years old were recorded during visual presentation of neutral, angry and happy facial expressions, filtered to retain only low, medium or high SF. Social anxiety was previously assessed using the LSAS questionnary. Peak latencies and amplitudes of the P100, N170, N2b/P3a complex and P3b components were statistically analyzed and used to feed supervised machine learning algorithms. P100 amplitude was linked to SF content. N170 was effected by EFE. N2b/P3a complex was larger for EFE and earlier for high SF. P3b was lower for neutral faces, which were also more often omitted. The linear discriminant analysis showed a decoding accuracy across significant features with a mean of 56.11%. The nature of these features and their sensitivity to social anxiety will be discussed.
|
162 |
L’utilisation de l’information visuelle en reconnaissance d’expressions faciales d’émotionBlais, Caroline 09 1900 (has links)
L’aptitude à reconnaitre les expressions faciales des autres est cruciale au succès des interactions sociales. L’information visuelle nécessaire à la catégorisation des expressions faciales d’émotions de base présentées de manière statique est relativement bien connue. Toutefois, l’information utilisée pour discriminer toutes les expressions faciales de base entre elle demeure encore peu connue, et ce autant pour les expressions statiques que dynamiques. Plusieurs chercheurs assument que la région des yeux est particulièrement importante pour arriver à « lire » les émotions des autres. Le premier article de cette thèse vise à caractériser l’information utilisée par le système visuel pour discriminer toutes les expressions faciales de base entre elles, et à vérifier l’hypothèse selon laquelle la région des yeux est cruciale pour cette tâche. La méthode des Bulles (Gosselin & Schyns, 2001) est utilisée avec des expressions faciales statiques (Exp. 1) et dynamiques (Exp. 2) afin de trouver quelles régions faciales sont utilisées (Exps. 1 et 2), ainsi que l’ordre temporel dans lequel elles sont utilisées (Exp. 2). Les résultats indiquent que, contrairement à la croyance susmentionnée, la région de la bouche est significativement plus utile que la région des yeux pour discriminer les expressions faciales de base. Malgré ce rôle prépondérant de la bouche, c’est toute de même la région des yeux qui est sous-utilisée chez plusieurs populations cliniques souffrant de difficultés à reconnaitre les expressions faciales. Cette observation pourrait suggérer que l’utilisation de la région des yeux varie en fonction de l’habileté pour cette tâche. Le deuxième article de cette thèse vise donc à vérifier comment les différences individuelles en reconnaissance d’expressions faciales sont reliées aux stratégies d’extraction de l’information visuelle pour cette tâche. Les résultats révèlent une corrélation positive entre l’utilisation de la région de la bouche et l’habileté, suggérant la présence de différences qualitatives entre la stratégie des patients et celle des normaux. De plus, une corrélation positive est retrouvée entre l’utilisation de l’œil gauche et l’habileté des participants, mais aucune corrélation n’est retrouvée entre l’utilisation de l’œil droit et l’habileté. Ces résultats indiquent que la stratégie des meilleurs participants ne se distingue pas de celle des moins bons participants simplement par une meilleure utilisation de l’information disponible dans le stimulus : des différences qualitatives semblent exister même au sein des stratégies des participants normaux. / The ability to recognize facial expressions is crucial for the success of social communication. The information used by the visual system to categorize static basic facial expressions is now relatively well known. However, the visual information used to discriminate the basic facial expressions from one another is still unknown, and this is true for both static and dynamic facial expressions. Many believe that the eye region of a facial expression is particularly important when it comes to reading others' emotions. The aim of the first article of this thesis is to determine which information is used by the visual system in order to discriminate between the basic facial expressions and to verify the validity of the hypothesis that the eye region is crucial for this task. The Bubbles method (Gosselin & Schyns, 2001) is used with static (Exp. 1) and dynamic (Exp. 2) facial expressions in order to determine which facial areas are used for the task (Exp. 1) and in which temporal order these facial areas are used (Exp. 2). The results show that, in contrast with the aforementioned belief, the mouth region is significantly more useful than the eye region when discriminating between the basic facial expressions. Despite this preponderant role of the mouth, it is the eye area⎯not the mouth area⎯that is underutilized by many clinical populations suffering from difficulties in recognizing facial expressions. This observation could suggest that the utilization of the eye area varies as a function of the ability to recognize facial expressions. The aim of the second article in this thesis is thus to verify how individual differences in the ability to recognize facial expressions relate to the visual information extraction strategies used for this task. The results show a positive correlation between the ability of the participants and the utilization of the mouth region, suggesting the existence of qualitative differences between the strategy of clinical patients and of normal participants. A positive correlation is also found between the ability of the participants and the utilization of the left eye area, but no correlation is found between the ability and the utilization of the right eye area. These results suggest that the difference between the strategies of the best and the worst participants is not only that the best ones use the information available in the stimulus more efficiently: rather, qualitative differences in the visual information extraction strategies may exist even within the normal population.
|
163 |
Reconnaissance émotionnelle faciale et psychopathie : un protocole exploratoire à l’aide de personnages virtuels animésCigna, Marie-Hélène 12 1900 (has links)
La présente recherche est constituée de deux études. Dans l’étude 1, il s’agit d’améliorer la validité écologique des travaux sur la reconnaissance émotionnelle faciale (REF) en procédant à la validation de stimuli qui permettront d’étudier cette question en réalité virtuelle. L’étude 2 vise à documenter la relation entre le niveau de psychopathie et la performance à une tâche de REF au sein d’un échantillon de la population générale. Pour ce faire, nous avons créé des personnages virtuels animés de différentes origines ethniques exprimant les six émotions fondamentales à différents niveaux d’intensité. Les stimuli, sous forme statique et dynamique, ont été évalués par des étudiants universitaires. Les résultats de l’étude 1 indiquent que les stimuli virtuels, en plus de comporter plusieurs traits distinctifs, constituent un ensemble valide pour étudier la REF. L’étude 2 a permis de constater qu’un score plus élevé à l’échelle de psychopathie, spécifiquement à la facette de l’affect plat, est associé à une plus grande sensibilité aux expressions émotionnelles, particulièrement pour la tristesse. Inversement, un niveau élevé de tendances criminelles est, pour sa part, associé à une certaine insensibilité générale et à un déficit spécifique pour le dégoût. Ces résultats sont spécifiques aux participants masculins. Les données s’inscrivent dans une perspective évolutive de la psychopathie. L’étude met en évidence l’importance d’étudier l’influence respective des facettes de la personnalité psychopathique, ce même dans des populations non-cliniques. De plus, elle souligne la manifestation différentielle des tendances psychopathiques chez les hommes et chez les femmes. / The current research consists of two studies. In study 1, the goal is to increase ecological validity of studies on facial recognition, by validating and comparing a set of synthetic characters we created with the empirically validated Pictures of Facial Affect. Further, these stimuli would provide a method to assess facial expression recognition in immersive virtual environments. Study 2 aims to further understand the relationship between psychopathy and emotional information processing using dynamic emotions in a community sample. To accomplish this, we created dynamic characters displaying the six basic emotions at different intensity levels. The stimuli were evaluated by undergraduate students. Findings provide empirical support for the validity of the facial expressions we created, which possess distinguishing attributes and are of particular utility in regard to emotion research. In study 2, results suggest that a higher score on Factor 1, specifically the callous affect subscale, is associated with a greater sensitivity to emotional expressions, in particular sadness expressions. In addition, high levels of criminal tendencies are associated with poorer performance on the task and a specific impairment in the recognition of disgust. These results are specific to male participants. Data supports the conceptualisation of psychopathy as a life-history strategy. The study also highlights the influence of the distinct facets of psychopathy in facial affect recognition and the differential manifestation of psychopathic personality between men and women.
|
164 |
Didaktické využití hudebních aktivit ve výuce francouzské výslovnosti / Developing pronunciation through musical activities in French lessonsPrucek, Jan January 2013 (has links)
Title of the thesis: Developing pronunciation through musical activities in French lessons Keywords: communicative approach, phonetics, phonology, pronunciation, prosody, activity, music, rhythm, rhythmisation, melody, tempo, intonation, accent, song, rap, facial expressions Abstract: This thesis deals with the teaching of French phonetics, considers the status of phonetics in communicatively oriented teaching, and comes to the fact that the teaching of phonetics and phonology is not a priority in the communicative approach. The work demonstrates the importance of such teaching, and therefore explores how the teaching of pronunciation or some of its components could be made more attractive. Based on the proven relationship of music and language, both as auditory phenomena, this thesis approaches the interwoven elements of these two areas. The aim is to explore how the musical elements, such as: rhythm, melody, tempo, phrasing, etc., could be used in the teaching of French pronunciation - especially at the suprasegmental level. The work offers a basic inventory of exercises which benefit from this characteristic and which has been verified in practice, and in the final analysis summarises their effectiveness in foreign language teaching.
|
165 |
[en] A SYSTEM FOR GENERATING DYNAMIC FACIAL EXPRESSIONS IN 3D FACIAL ANIMATION WITH SPEECH PROCESSING / [pt] UM SISTEMA DE GERAÇÃO DE EXPRESSÕES FACIAIS DINÂMICAS EM ANIMAÇÕES FACIAIS 3D COM PROCESSAMENTO DE FALAPAULA SALGADO LUCENA RODRIGUES 24 April 2008 (has links)
[pt] Esta tese apresenta um sistema para geração de expressões
faciais dinâmicas sincronizadas com a fala em uma face
realista tridimensional. Entende-se
por expressões faciais dinâmicas aquelas que variam ao
longo do tempo e que semanticamente estão relacionadas às
emoções, à fala e a fenômenos afetivos que podem modificar
o comportamento de uma face em uma animação. A tese define
um modelo de emoção para personagens virtuais falantes, de-
nominado VeeM (Virtual emotion-to-expression Model ),
proposto a partir de uma releitura e uma reestruturação do
modelo do círculo emocional de Plutchik. O VeeM introduz o
conceito de um hipercubo emocional no espaço canônico do R4
para combinar emoções básicas, dando origem a emoções
derivadas. Para validação do VeeM é desenvolvida uma
ferramenta de autoria e apresentação de animações faciais
denominada DynaFeX (Dynamic Facial eXpression), onde um
processamento de fala é realizado para permitir o
sincronismo entre fonemas e visemas. A ferramenta permite a
definição e o refinamento de emoções para cada quadro ou
grupo de quadros de uma animação facial. O subsistema de
autoria permite também, alternativamente, uma manipulação
em alto-nível, através de scripts de animação.
O subsistema de apresentação controla de modo sincronizado
a fala da personagem e os aspectos emocionais editados. A
DynaFeX faz uso de uma malha poligonal tridimensional
baseada no padrão MPEG-4 de animação facial, favorecendo a
interoperabilidade da ferramenta com outros sistemas
de animação facial. / [en] This thesis presents a system for generating dynamic facial
expressions synchronized with speech, rendered using a
tridimensional realistic face. Dynamic facial expressions
are those temporal-based facial expressions semanti-
cally related with emotions, speech and affective inputs
that can modify a facial animation behavior. The thesis
defines an emotion model for speech virtual actors, named
VeeM (Virtual emotion-to-expression Model ), which
is based on a revision of the emotional wheel of Plutchik
model. The VeeM introduces the emotional hypercube concept
in the R4 canonical space to combine pure emotions and
create new derived emotions. In order to validate VeeM, it
has been developed an authoring and player facial animation
tool, named DynaFeX (Dynamic Facial eXpression), where a
speech processing is realized to allow the phoneme and
viseme synchronization. The tool allows either the
definition and refinement of emotions for each frame, or
group of frames, as the facial animation edition using a
high-level approach based on animation scripts. The tool
player controls the animation presentation synchronizing
the speech and emotional features with the virtual
character performance. DynaFeX is built over a
tridimensional polygonal mesh, compliant with MPEG-4 facial
animation standard, what favors tool
interoperability with other facial animation systems.
|
166 |
La communication des émotions chez l’enfant (colère, joie, tristesse) ; études de cas et confrontation de théories linguistiques / The communication of emotions in children and adultsKhaled, Fazia 03 December 2016 (has links)
Cette thèse propose une analyse multimodale de l’expression des émotions chez deux enfants américaines et leurs parents monolingues. Les enfants ont été filmées entre 11 mois et 3 and et 10 mois pour l’une et entre 1 an et 1 mois et 4 ans pour l’autre au cours d’interactions spontanées en milieu familial. Nous adoptons une définition du langage large car toutes les ressources sémiotiques sont à prendre en compte : ressources verbales (lexique, marqueurs grammaticaux), vocales (vocalisations), gestuelles et corporelles (gestes, expressions faciales, actions).Nous nous concentrons sur l’acquisition et le développement des marqueurs verbaux et non verbaux exprimant les émotions chez l’enfant et sur l’usage de ces marqueurs chez l’adulte. Nous montrons que des profils expressifs bien précis et distincts semblent déjà émerger chez les enfants, grandement influencés par l’input auquel ils sont exposés chaque jour.Au plan théorique, notre recherche s’inscrit dans une approche constructiviste et fonctionnaliste de la langue (Tomasello, 2003) et nous analysons les données à l’aune de la socialisation langagière, et des études sur la gestualité et les expressions faciales comme vecteurs d’informations communicationnelles. Au plan méthodologique, nous réalisons des analyses quantitatives et qualitatives afin d’éclairer les comportements propres à chaque locuteur.Après avoir exposé notre socle théorique et notre méthodologie (partie I), nous révélons nos résultats sur l’expression de trois émotions (colère, joie, et tristesse) chez les locuteurs adultes et enfants (partie II). Nos résultats suggèrent que le développement linguistique des enfants n’a pas d’incidence sur l’expression de leurs émotions, mais que l’input et les attitudes parentales jouent un rôle majeur dans l’acquisition et le développement de chaque modalité et dans la transmission de modèles expressifs. / This research provides a multimodal analysis of the expression of emotion in two monolingual American children and their parents. The children were filmed in natural interactions in a family setting from the ages of 11 months to 3 years 10 months, and from 1 year 1 month to 4 years.We adopted a broad definition of language in this research which encompasses various semiotic resources – from verbal resources (lexicon and grammatical features), to nonverbal (vocalizations, facial expressions, and gestures). We focus on the children’s acquisition and development of these verbal and nonverbal markers and on how they are used by their parents. Our research shows that children develop specific and distinct communicational patterns, which are greatly influenced by the input to which they are exposed.From a theoretical perspective, our research draws from a constructivist and functionalist approach (Tomasello, 2003), and our data is analyzed in light of language socialization and of studies which have shown that facial expressions and gestures are used as communicational signals in face-to-face dialogue. Our methodology combines quantitative and qualitative methods to investigate each speaker’s verbal and nonverbal behavior when expressing emotions.Having outlined our theoretical and methodological foundation (Part I), we present our results on the expression of three emotions (happiness, sadness, and anger) in children and adults (Part II). Our research suggests that while children’s linguistic development has little impact on the richness of their emotional expression parental input and attitudes both play a crucial role in the acquisition of each modality and in the transmission of communicational patterns.
|
167 |
Real-time facial expression analysis : a thesis presented in partial fulfillment of the requirements for the degree of Doctor of Philosophy (Ph.D.) in Computer Science at Massey University, Auckland, New ZealandFan, Chao January 2008 (has links)
As computers have become more and more advanced, with even the most basic computer capable of tasks almost unimaginable only a decade ago, researchers and developers are focusing on improving the way that computers interact with people in their everyday lives. A core goal, therefore, is to develop a computer system which can understand and react appropriately to natural human behavior. A key requirement for such a system is the ability to automatically, and in real time, recognises human facial expressions. In addition, this must be successfully achieved regardless of the inherent differences in human faces or variations in lighting and other external conditions. The focus of this research was to develop such a system by evaluating and then utilizing the most appropriate of the many image processing techniques currently available, and, where appropriate, developing new methodologies and algorithms. The first key step in the system is to recognise a human face with acceptable levels of misses and false positives. This research analysed and evaluated a number of different face detection techniques, before developing a novel algorithm which combined phase congruency and template matching techniques. This novel algorithm provides key advantages over existing techniques because it can detect faces rotated to any angle, and it works in real time. Existing techniques could only recognise faces which were rotated less than 10 degrees (in either direction) and most could not work in real time due to excessive computational power requirements. The next step for the system is to enhance and extract the facial features. To successfully achieve the stated goal, the enhancement and extraction of the facial features must reduce the number of facial dimensions to ensure the system can operate in real time, as well as providing sufficient clear and detailed features to allow the facial expressions to be accurately recognised. This part of the system was successfully completed by developing a novel algorithm based on the existing Contrast Limited Adaptive Histogram Equalization technique which quickly and accurately represents facial features, and developing another novel algorithm which reduces the number of feature dimensions by combining radon transformation and fast Fourier transformation techniques, ensuring real time operation is possible. The final step for the system is to use the information provided by the first two steps to accurately recognise facial expressions. This is achieved using an SVM trained using a database including both real and computer generated facial images with various facial expressions. The system developed during this research can be utilised in a number of ways, and, most significantly, has the potential to revolutionise future interactions between humans and computers by assisting these reactions to become natural and intuitive. In addition, individual components of the system also have significant potential, with, for example, the algorithms which allow the recognition of an object regardless of its rotation under consideration as part of a project aiming to achieve non-invasive detection of early stage cancer cells.
|
168 |
Évaluation des jeux Kinect à l’aide du suivi physiologique, du suivi oculaire et des réactions faciales du joueur.Hua, Tran Nguyen Khoi 08 1900 (has links)
Les jeux vidéo à interface gestuelle permettent des interactions intéressantes entre le joueur et le jeu. Pour évaluer ce nouveau type de jeux vidéo, la méthode d'évaluation subjective courante serait insuffisante (Mandryk, R. L., Inkpen, K. M., et Calvert, T. W., 2006). Notre recherche essaie d'associer l'évaluation objective à l'évaluation subjective pour mesurer la qualité d'immersion des jeux vidéo conçus pour la Kinect — un accessoire de la console Xbox de Microsoft, permettant de jouer sans la manette. Notre corpus comporte 18 sujets (joueurs intensifs et occasionnels) et 3 jeux Kinect (Body and Brain Connection, Child of Eden et Joy Ride).
Notre objectif est de développer une méthode d’évaluation la qualité d'immersion du jeu vidéo à l’interface gestuelle. Nous nous sommes basé d’une part sur un questionnaire conçu à partir des critères d’évaluation du Flux dans le jeu vidéo de Sweetser et Wyeth (2005) et des principes d’utilisabilité (Nielsen, 1994a, b; Bastien et Scapin, 1993; Johnson et Wiles, 2003), avec un questionnaire adapté par les chercheurs du DESS Design de jeu de l’Université de Montréal. Et d'autre part, nous nous avons intégré la mesure des réactions physiologiques des joueurs (la réponse galvanique de la peau, le pouls du volume sanguin, la respiration), les réactions oculaires (le diamètre des pupilles, le temps de fixation) et les expressions faciales (la joie, la tristesse, la colère, la peur, la surprise et le dégoût) du joueur.
Nous nous sommes appuyé sur des postulats théoriques provenant du domaine de l'interaction humain-ordinateur et du design des jeux vidéo. Nous avons étudié en particulier les réactions physiologiques, oculaires, les expressions faciales et nous avons cherché à faire le lien avec les notions de présence et d'immersion dans le domaine des jeux vidéo.
L’analyse des résultats a montré des corrélations entre les réactions physiologiques, oculaires et les réponses subjectives des participants aux questionnaires. Par exemple on observe une corrélation négative entre la pression sanguine (BVP) et la concentration du joueur, une corrélation positive entre la respiration et le diamètre des pupilles et le sentiment d'immersion du joueur, etc. Ces résultats permettraient de confirmer la faisabilité de notre méthode d’évaluation.
i
Ensuite, nous avons comparé les trois jeux en fonction des composantes de l’immersion afin de trouver le jeu le plus immersif. Le résultat a montré que le jeu Body and Brain Connection était le plus prisé par les participants et que le niveau de défi bien calibré et la facilité de contrôle étaient les deux facteurs principaux de la réussite du jeu Body and Brain.
Nous avons également comparé les joueurs intensifs et les joueurs occasionnels en fonction des composantes de l’immersion pour voir la différence de point de vue des joueurs sur la Kinect. Le résultat a montré qu’il n’y avait pas de différence entre les deux types de joueurs. / The gesture-based video games offers interesting new ways of interacting between the player and the game. In order to evaluate this new type of games, current subjective methods of evaluating games isn't sufficiently robust. Our research tries to combine the objective and subjective methods for measuring the qualities of immersion of video games played with Kinect - an accessory for Xbox console from Microsoft, to play without the controller. Our corpus consists of 18 subjects (intensive and casual players) and 3 Kinect games.
Our goal is to develop a method for assessing the quality of gesture-based video games. We relied in part on a questionnaire developed from the criteria for player enjoyment in games (Sweetser and Wyeth, 2005) and the usability questionnaire (Nielsen, 1994a, b; Bastien et Scapin, 1993; Johnson et Wiles, 2003), designed by the researchers of DESS Design de jeux, University of Montreal. And secondly, we integrated the measures of physiological responses (the galvanic skin response, the blood volume pulse, the respiration), the ocular reactions (the pupil’s diameter, fixation time) and facial expressions (joy, sadness, anger, fear, surprise and disgust) of the player.
We relied on theoretical assumptions from the field of human-computer interaction and games design. We studied in particular physiological responses, eye movements, facial expressions and the notions of presence and immersion in video games.
The analysis shows correlations between the physiological reactions, the eye movements and the player's subjective responses. For example, we observed negative correlation between blood volume pulse (BVP) and the concentration of the player, positive correlations between respiration and pupil diameter and the sense of immersion the player, etc. These results would confirm the feasibility of our evaluation method. Then, we compared these three games in terms of five components of immersion to find the most immersive game. The result showed that the game Body and Brain Connection was most appreciated by the participants and that the level of challenge properly calibrated and the ease of control were the two main factors of success of the game Body and Brain.
iii
We also compared intensive gamers and casual players according to the components of immersion to see the difference between their attitudes toward the Kinect. The result showed that there was no difference between the two types of players. / Les données sont analysées par le logiciel conçu par François Courtemanche et Féthi Guerdelli. L'expérimentation des jeux a eu lieu au Laboratoire de recherche en communication multimédia de l'Université de Montréal.
|
169 |
Reconnaissance émotionnelle faciale et psychopathie : un protocole exploratoire à l’aide de personnages virtuels animésCigna, Marie-Hélène 12 1900 (has links)
La présente recherche est constituée de deux études. Dans l’étude 1, il s’agit d’améliorer la validité écologique des travaux sur la reconnaissance émotionnelle faciale (REF) en procédant à la validation de stimuli qui permettront d’étudier cette question en réalité virtuelle. L’étude 2 vise à documenter la relation entre le niveau de psychopathie et la performance à une tâche de REF au sein d’un échantillon de la population générale. Pour ce faire, nous avons créé des personnages virtuels animés de différentes origines ethniques exprimant les six émotions fondamentales à différents niveaux d’intensité. Les stimuli, sous forme statique et dynamique, ont été évalués par des étudiants universitaires. Les résultats de l’étude 1 indiquent que les stimuli virtuels, en plus de comporter plusieurs traits distinctifs, constituent un ensemble valide pour étudier la REF. L’étude 2 a permis de constater qu’un score plus élevé à l’échelle de psychopathie, spécifiquement à la facette de l’affect plat, est associé à une plus grande sensibilité aux expressions émotionnelles, particulièrement pour la tristesse. Inversement, un niveau élevé de tendances criminelles est, pour sa part, associé à une certaine insensibilité générale et à un déficit spécifique pour le dégoût. Ces résultats sont spécifiques aux participants masculins. Les données s’inscrivent dans une perspective évolutive de la psychopathie. L’étude met en évidence l’importance d’étudier l’influence respective des facettes de la personnalité psychopathique, ce même dans des populations non-cliniques. De plus, elle souligne la manifestation différentielle des tendances psychopathiques chez les hommes et chez les femmes. / The current research consists of two studies. In study 1, the goal is to increase ecological validity of studies on facial recognition, by validating and comparing a set of synthetic characters we created with the empirically validated Pictures of Facial Affect. Further, these stimuli would provide a method to assess facial expression recognition in immersive virtual environments. Study 2 aims to further understand the relationship between psychopathy and emotional information processing using dynamic emotions in a community sample. To accomplish this, we created dynamic characters displaying the six basic emotions at different intensity levels. The stimuli were evaluated by undergraduate students. Findings provide empirical support for the validity of the facial expressions we created, which possess distinguishing attributes and are of particular utility in regard to emotion research. In study 2, results suggest that a higher score on Factor 1, specifically the callous affect subscale, is associated with a greater sensitivity to emotional expressions, in particular sadness expressions. In addition, high levels of criminal tendencies are associated with poorer performance on the task and a specific impairment in the recognition of disgust. These results are specific to male participants. Data supports the conceptualisation of psychopathy as a life-history strategy. The study also highlights the influence of the distinct facets of psychopathy in facial affect recognition and the differential manifestation of psychopathic personality between men and women.
|
170 |
Évaluation des jeux Kinect à l’aide du suivi physiologique, du suivi oculaire et des réactions faciales du joueurHua, Tran Nguyen Khoi 08 1900 (has links)
No description available.
|
Page generated in 0.382 seconds