• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 6
  • 1
  • Tagged with
  • 21
  • 21
  • 16
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Reconnaissance automatique des émotions par données multimodales : expressions faciales et des signaux physiologiques / Automatic emotion recognition from multimodal data : facial expressions and physiological signals

Abdat, Faiza 15 June 2010 (has links)
Cette thèse présente une méthode générique de reconnaissance automatique des émotions à partir d’un système bimodal basé sur les expressions faciales et les signaux physiologiques. Cette approche de traitement des données conduit à une extraction d’information de meilleure qualité et plus fiable que celle obtenue à partir d’une seule modalité. L’algorithme de reconnaissance des expressions faciales qui est proposé, s’appuie sur la variation de distances des muscles faciaux par rapport à l’état neutre et sur une classification par les séparateurs à vastes marges (SVM). La reconnaissance des émotions à partir des signaux physiologiques est, quant à elle, basée sur la classification des paramètres statistiques par le même classifieur. Afin d’avoir un système de reconnaissance plus fiable, nous avons combiné les expressions faciales et les signaux physiologiques. La combinaison directe de telles informations n’est pas triviale étant donné les différences de caractéristiques (fréquence, amplitude de variation, dimensionnalité). Pour y remédier, nous avons fusionné les informations selon différents niveaux d’application. Au niveau de la fusion des caractéristiques, nous avons testé l’approche par l’information mutuelle pour la sélection des plus pertinentes et l’analyse en composantes principales pour la réduction de leur dimensionnalité. Au niveau de la fusion de décisions, nous avons implémenté une méthode basée sur le processus de vote et une autre basée sur les réseaux Bayésien dynamiques. Les meilleurs résultats ont été obtenus avec la fusion des caractéristiques en se basant sur l’Analyse en Composantes Principales. Ces méthodes ont été testées sur une base de données conçue dans notre laboratoire à partir de sujets sains et de l’inducteur par images IAPS. Une étape d’auto évaluation a été demandée à tous les sujets dans le but d’améliorer l’annotation des images d’induction utilisées. Les résultats ainsi obtenus mettent en lumière leurs bonnes performances et notamment la variabilité entre les individus et la variabilité de l’état émotionnel durant plusieurs jours / This thesis presents a generic method for automatic recognition of emotions from a bimodal system based on facial expressions and physiological signals. This data processing approach leads to better extraction of information and is more reliable than single modality. The proposed algorithm for facial expression recognition is based on the distance variation of facial muscles from the neutral state and on the classification by means of Support Vector Machines (SVM). And the emotion recognition from physiological signals is based on the classification of statistical parameters by the same classifier. In order to have a more reliable recognition system, we have combined the facial expressions and physiological signals. The direct combination of such information is not trivial giving the differences of characteristics (such as frequency, amplitude, variation, and dimensionality). To remedy this, we have merged the information at different levels of implementation. At feature-level fusion, we have tested the mutual information approach for selecting the most relevant and principal component analysis to reduce their dimensionality. For decision-level fusion we have implemented two methods; the first based on voting process and another based on dynamic Bayesian networks. The optimal results were obtained with the fusion of features based on Principal Component Analysis. These methods have been tested on a database developed in our laboratory from healthy subjects and inducing with IAPS pictures. A self-assessment step has been applied to all subjects in order to improve the annotation of images used for induction. The obtained results have shown good performance even in presence of variability among individuals and the emotional state variability for several days
2

Le développement de la perception des expressions faciales / The development of facial expressions perception

Bayet, Laurie 26 November 2015 (has links)
Cette thèse se propose d'examiner le développement de la perception des expressions faciales émotionnelles en le replaçant dans le cadre théorique de la perception des visages: séparation entre aspects variants (expression, regard) et invariants (genre, type), rôle de l'expérience, attention sociale. Plus spécifiquement, nous avons cherché à mettre en évidence l'existence, tant chez l'enfant que chez le nourrisson, d'interactions réciproques entre la perception d'expressions faciales de colère, de sourire ou de peur et la perception du genre (Études 1-2), la perception du regard (Étude 3), et la détection des visages (Étude 4).Dans un premier temps, nous avons montré que les adultes et les enfants de 5 à 12 ans tendent à catégoriser les visages en colère comme masculins (Étude 1). Comparer les performances humaines avec celles de classifieurs automatique suggère que ce biais reflète l'utilisation de certains traits et relations de second-ordre des visages pour en déterminer le genre. Le biais est identique à tous les âges étudiés ainsi que pour les visages de types non-familiers. Dans un second temps, nous avons testé si, chez le nourrisson, la perception du sourire dépend de dimensions invariantes du visage sensibles à l'expérience - le genre et le type (Étude 2). Les nourrissons ont généralement plus d'expérience avec les visages féminins d'un seul type. Les nourrissons de 3.5 mois montrent une préférence visuelle pour les visages souriants (dents visibles, versus neutre, de type familier) lorsque ceux-ci sont féminins; l'inverse est observé lorsqu'ils sont masculins. L'effet n'est pas répliqué lorsque les dents des visages souriants (d'un type familier ou non) ne sont pas visibles. Nous avons cherché à généraliser ces résultats à une tâche de référencement d'objet chez des nourrissons de 3.5, 9 et 12 mois (Étude 3). Les objets préalablement référencés par des visages souriants étaient autant regardés que les objets préalablement référencés par des visages neutres, quel que soit le groupe d'âge ou le genre du visage, et ce malgré des différences en terme de suivi du regard. Enfin, en employant une mesure univariée (préférence visuelle pour le visage) et une mesure multivariée (évidence globale distinguant le visage du bruit) de la détection du visage à chaque essai, associées à une modélisation des courbes psychométriques par modèles non-linéaire mixtes, nous mettons en évidence une meilleure détection des visages de peur (comparés aux visages souriants) dans le bruit phasique chez les nourrissons à 3.5, 6 et 12 mois (Étude 4).Ces résultats éclairent le développement précoce et le mécanisme des relations entre genre et émotion dans la perception des visages ainsi que de la sensibilité à la peur. / This thesis addressed the question of how the perception of emotional facial expressions develops, reframing it in the theoretical framework of face perception: the separation of variant (expression, gaze) and invariant (gender, race) streams, the role of experience, and social attention. More specifically, we investigated how in infants and children the perception of angry, smiling, or fearful facial expressions interacts with gender perception (Studies 1-2), gaze perception (Study 3), and face detection (Study 4).In a first study, we found that adults and 5-12 year-old children tend to categorize angry faces as male (Study 1). Comparing human performance with that of several automatic classifiers suggested that this reflects a strategy of using specific features and second-order relationships in the face to categorize gender. The bias was constant over all ages studied and extended to other-race faces, further suggesting that it doesn't require extensive experience. A second set of studies examined whether, in infants, the perception of smiling depends on experience-sensitive, invariant dimensions of the face such as gender and race (Study 2). Indeed, infants are typically most familiar with own-race female faces. The visual preference of 3.5 month-old infants for open-mouth, own-race smiling (versus neutral) faces was restricted to female faces and reversed in male faces. The effect did not replicate with own- or other-race closed-mouth smiles. We attempted to extend these results to an object-referencing task in 3.5-, 9- and 12-month-olds (Study 3). Objects previously referenced by smiling faces attracted similar attention as objects previously cued by neutral faces, regardless of age group and face gender, and despite differences in gaze following. Finally, we used univariate (face side preference) and multivariate (face versus noise side decoding evidence) trial-level measures of face detection, coupled with non-linear mixed modeling of psychometric curves, to reveal the detection advantage of fearful faces (compared to smiling faces) embedded in phase-scrambled noise in 3.5-, 6-, and 12-month-old infants (Study 4). The advantage was as or more evident in the youngest group than in the two older age groups.Taken together, these results provide insights into the early ontogeny and underlying cause of gender-emotion relationships in face perception and the sensitivity to fear.
3

De la reconnaissance des expressions faciales à une perception visuelle partagée : une architecture sensori-motrice pour amorcer un référencement social d'objets, de lieux ou de comportements

Boucenna, Sofiane 05 May 2011 (has links) (PDF)
Cette thèse se concentre sur les interactions émotionnelles en robotique autonome. Le robot doit pouvoir agir et réagir dans un environnement naturel et faire face à des perturbations imprédictibles. Il est donc nécessaire que le robot puisse acquérir une autonomie comportementale à savoir la capacité d'apprentissage et d'adaptation en ligne. En particulier, nous nous proposons d'étudier quels mécanismes introduire pour que le robot ait la capacité de se constituer une perception des objets de son environnement qui puisse être partagée par celle d'un partenaire humain. Le problème sera de faire apprendre à notre robot à préférer certains objets et à éviter d'autres objets. La solution peut être trouvée en psychologie dans ce que l'on appelle "référencement social" ("social referencing") qui consiste à attribuer une valeur à un objet grâce à l'interaction avec un partenaire humain. Dans ce contexte, notre problème est de trouver comment un robot peut apprendre de manière autonome à reconnaître les expressions faciales d'un partenaire humain pour ensuite les utiliser pour donner une valence aux objets et permettre leur discrimination. Nous nous intéresserons à comprendre comment des interactions émotionnelles avec un partenaire peuvent amorcer des comportements de complexité croissante tel que le référencement social. Notre idée est que le référencement social aussi bien que la reconnaissance d'expressions faciales peut émerger d'une architecture sensori-motrice. Sans connaissance de ce que l'autre est, le robot devrait réussir à apprendre des tâches "sociales" de plus en plus complexes. Nous soutenons l'idée que le référencement social peut être amorcé par une simple cascade d'architectures sensori-motrices qui à la base ne sont pas dédiées aux interactions sociales. Cette thèse traite de plusieurs sujets qui ont comme dénominateur commun l'interaction sociale. Nous proposons tout d'abord une architecture capable d'apprendre à reconnaître de manière autonome des expressions faciales primaires grâce à un jeu d'imitation entre une tête expressive et un expérimentateur. Les interactions avec le dispositif robotique commençeraient par l'apprentissage de 5 expressions faciales prototypiques. Nous proposons ensuite une architecture capable de reproduire des mimiques faciales ainsi que leurs différents niveaux d'intensité. La tête expressive pourra reproduire des expressions secondaires par exemple une joie mêlée de colère. Nous verrons également que la discrimination de visages peut émerger de cette interaction émotionnelle à l'aide d'une rythmicité implicite qui se crée entre l'homme et le robot. Enfin, nous proposerons un modèle sensori-moteur ayant la capacité de réaliser un référencement social. Trois situations ont pu être testées: 1) un bras robotique capable d'attraper et de fuir des objets selon les interactions émotionnelles venant du partenaire humain. 2) un robot mobile capable de rejoindre ou d'éviter certaines zones de son environnement. 3) une tête expressive capable d'orienter son regard dans la même direction que l'humain tout ! en attribuant des valeurs émotionnelles aux objets via l'interaction expressive de l'expérimentateur. Nous montrons ainsi qu'une séquence développementale peut émerger d'une interaction émotionnelle de très bas niveau et que le référencement social peut s'expliquer d'abord à un niveau sensori-moteur sans nécessiter de faire appel à un modèle de théorie de l'esprit.
4

Traitement cérébral de l'expression faciale de peur : vision périphérique et effet de l'attention

Bayle, Dimitri 02 December 2009 (has links) (PDF)
L'expression faciale de peur constitue un important vecteur d'information sociale mais aussi environnementale. En condition naturelle, les visages apeurés apparaissent principalement dans notre champ visuel périphérique. Cependant, les mécanismes cérébraux qui sous-tendent la perception de l'expression faciale de peur en périphérie restent largement méconnus. Nous avons démontré, grâce à des études comportementales, des enregistrements magnétoencéphalographiques et intracrâniens, que la perception de l'expression faciale de peur est efficace en grande périphérie. La perception de la peur en périphérie génère une réponse rapide de l'amygdale et du cortex frontal, mais également une réponse plus tardive dans les aires visuelles occipitales et temporales ventrales. Le contrôle attentionnel est capable d'inhiber la réponse précoce à l'expression de peur, mais également d'augmenter les activités postérieures plus tardives liées à la perception des visages. Nos résultats montrent non seulement que les réseaux impliqués dans la perception de la peur sont adaptés à la vision périphérique, mais ils mettent également en avant une nouvelle forme d'investigation des mécanismes de traitement de l'expression faciale, pouvant conduire à une meilleure compréhension des mécanismes de traitement des messages sociaux dans des situations plus écologiques.
5

Examining the impact of trait anxiety on the recognition of facial emotional expressions

Roy, Sylvain 09 1900 (has links)
Question : Cette thèse comporte deux articles portant sur l’étude d’expressions faciales émotionnelles. Le processus de développement d’une nouvelle banque de stimuli émotionnels fait l’objet du premier article, alors que le deuxième article utilise cette banque pour étudier l’effet de l’anxiété de trait sur la reconnaissance des expressions statiques. Méthodes : Un total de 1088 clips émotionnels (34 acteurs X 8 émotions X 4 exemplaire) ont été alignés spatialement et temporellement de sorte que les yeux et le nez de chaque acteur occupent le même endroit dans toutes les vidéos. Les vidéos sont toutes d’une durée de 500ms et contiennent l’Apex de l’expression. La banque d’expressions statiques fut créée à partir de la dernière image des clips. Les stimuli ont été soumis à un processus de validation rigoureux. Dans la deuxième étude, les expressions statiques sont utilisées conjointement avec la méthode Bubbles dans le but d’étudier la reconnaissance des émotions chez des participants anxieux. Résultats : Dans la première étude, les meilleurs stimuli ont été sélectionnés [2 (statique & dynamique) X 8 (expressions) X 10 (acteurs)] et forment la banque d’expressions STOIC. Dans la deuxième étude, il est démontré que les individus présentant de l'anxiété de trait utilisent préférentiellement les basses fréquences spatiales de la région buccale du visage et ont une meilleure reconnaissance des expressions de peur. Discussion : La banque d’expressions faciales STOIC comporte des caractéristiques uniques qui font qu’elle se démarque des autres. Elle peut être téléchargée gratuitement, elle contient des vidéos naturelles et tous les stimuli ont été alignés, ce qui fait d’elle un outil de choix pour la communauté scientifique et les cliniciens. Les stimuli statiques de STOIC furent utilisés pour franchir une première étape dans la recherche sur la perception des émotions chez des individus présentant de l’anxiété de trait. Nous croyons que l’utilisation des basses fréquences est à la base des meilleures performances de ces individus, et que l’utilisation de ce type d’information visuelle désambigüise les expressions de peur et de surprise. Nous pensons également que c’est la névrose (chevauchement entre l'anxiété et la dépression), et non l’anxiété même qui est associée à de meilleures performances en reconnaissance d’expressions faciales de la peur. L’utilisation d’instruments mesurant ce concept devrait être envisagée dans de futures études. / Question: This thesis describes a new database of facial emotional expressions; created specifically for eye-tracking and classification image experiments. This database serves as a basis for the second study, which explores the effect of trait anxiety on the perception of static facial emotional expressions. Methods: Actors were recruited to express facial emotional expressions. Thousands of 1-second movie clips that contained the least head movement and appeared genuine were extracted from the raw videos and selected for the validation. A total of 1088 clips (34 actors X 8 expressions X 4 exemplar) were spatially aligned so that facial features across the stimuli occupied the same space. They were also temporally aligned so that all clips began on the last neutral frame and truncated on the 15th frame (500ms). The last frame (apex) of the clips was extracted to form the static database. Two groups of participants validated the dynamic (N35) and static (N35) stimuli. The static images were used in the 2nd study where participants (N27) varying in trait anxiety were asked to recognize emotional faces, partially revealed through Gaussian apertures (Bubbles). Results: Study 1 describes the process by which the STOIC database was created. It showcases the 80 dynamic (and 80 static) emotional expressions (8 emotions X 10 actors) with the lowest entropy scores. Study 2 shows that trait anxiety is associated with performance and differential use of information. Anxious individuals use low spatial frequency (LSF) information from the mouth region and are better at recognizing negative emotions, especially fear and not anger. Discussion: This thesis presents a new and freely downloadable emotion recognition database containing static and dynamic stimuli. The database possesses unique characteristics that will make it useful to the scientific community and clinicians. We used the static images in the second study to establish a baseline and gain a better understanding about the use of information contained in faces to recognized emotional expressions. The next phase of the project will be to explore the effects of anxiety and depression on the perception of dynamic expressions. We speculate that the use of LSF information in our anxious group disambiguated fear from surprise and led to better performance for that emotion. In addition, we think the overlap between anxiety and depression, which was associated with better performances, may be attributed to concept of neuroticism.
6

De la reconnaissance des expressions faciales à une perception visuelle partagée : une architecture sensori-motrice pour amorcer un référencement social d'objets, de lieux ou de comportements / From facial expressions recognition to joint visual perception : a sensori-motor architecture for the social referencing of objects, places, behaviors.

Boucenna, Sofiane 05 May 2011 (has links)
Cette thèse se concentre sur les interactions émotionnelles en robotique autonome. Le robot doit pouvoir agir et réagir dans un environnement naturel et faire face à des perturbations imprédictibles. Il est donc nécessaire que le robot puisse acquérir une autonomie comportementale à savoir la capacité d'apprentissage et d'adaptation en ligne. En particulier, nous nous proposons d'étudier quels mécanismes introduire pour que le robot ait la capacité de se constituer une perception des objets de son environnement qui puisse être partagée par celle d'un partenaire humain. Le problème sera de faire apprendre à notre robot à préférer certains objets et à éviter d'autres objets. La solution peut être trouvée en psychologie dans ce que l'on appelle "référencement social" ("social referencing") qui consiste à attribuer une valeur à un objet grâce à l'interaction avec un partenaire humain. Dans ce contexte, notre problème est de trouver comment un robot peut apprendre de manière autonome à reconnaître les expressions faciales d'un partenaire humain pour ensuite les utiliser pour donner une valence aux objets et permettre leur discrimination.Nous nous intéresserons à comprendre comment des interactions émotionnelles avec un partenaire peuvent amorcer des comportements de complexité croissante tel que le référencement social. Notre idée est que le référencement social aussi bien que la reconnaissance d'expressions faciales peut émerger d'une architecture sensori-motrice. Sans connaissance de ce que l'autre est, le robot devrait réussir à apprendre des tâches "sociales" de plus en plus complexes. Nous soutenons l'idée que le référencement social peut être amorcé par une simple cascade d'architectures sensori-motrices qui à la base ne sont pas dédiées aux interactions sociales.Cette thèse traite de plusieurs sujets qui ont comme dénominateur commun l'interaction sociale. Nous proposons tout d'abord une architecture capable d'apprendre à reconnaître de manière autonome des expressions faciales primaires grâce à un jeu d'imitation entre une tête expressive et un expérimentateur.Les interactions avec le dispositif robotique commençeraient par l'apprentissage de 5 expressions faciales prototypiques. Nous proposons ensuite une architecture capable de reproduire des mimiques faciales ainsi que leurs différents niveaux d'intensité. La tête expressive pourra reproduire des expressions secondaires par exemple une joie mêlée de colère. Nous verrons également que la discrimination de visages peut émerger de cette interaction émotionnelle à l'aide d'une rythmicité implicite qui se crée entre l'homme et le robot. Enfin, nous proposerons un modèle sensori-moteur ayant la capacité de réaliser un référencement social. Trois situations ont pu être testées: 1) un bras robotique capable d'attraper et de fuir des objets selon les interactions émotionnelles venant du partenaire humain. 2) un robot mobile capable de rejoindre ou d'éviter certaines zones de son environnement. 3) une tête expressive capable d'orienter son regard dans la même direction que l'humain tout en attribuant des valeurs émotionnelles aux objets via l'interaction expressive de l'expérimentateur.Nous montrons ainsi qu'une séquence développementale peut émerger d'une interaction émotionnelle de très bas niveau et que le référencement social peut s'expliquer d'abord à un niveau sensori-moteur sans nécessiter de faire appel à un modèle de théorie de l'esprit. / My thesis focuses on the emotional interaction in autonomous robotics. The robot must be able to act and react in a natural environment and cope with unpredictable pertubations. It is necessary that the robot can acquire a behavioral autonomy, that is to say the ability to learn and adapt on line. In particular, we propose to study what are the mechanisms to introduce so that the robot has the ability to perceive objects in the environment and in addition they can be shared by an experimenter. The problem is to teach the robot to prefer certain objects and avoid other objects. The solution can be found in psychology in the social referencing. This ability allows to associate a value to an object through emotional interaction with a human partner. In this context, our problem is how a robot can autonomously learn to recognize facial expressions of a human partner and then use them to give a emotional valence to objects and allow their discrimination. We focus on understanding how emotional interaction with a partner can bootstrap behavior of increasing complexity such as social referencing. Our idea is that social referencing as well as the recognition of facial expressions can emerge from a sensorimotor architecture. We support the idea that social referencing may be initiated by a simple cascade of sensorimotor architectures which are not dedicated to social interactions. My thesis underlines several topics that have a common denominator: social interaction. We first propose an architecture which is able to learn to recognize facial expressions through an imitation game between an expressive head and an experimenter. The robotic head would begin by learning five prototypical facial expressions. Then, we propose an architecture which can reproduce facial expressions and their different levels of intensity. The robotic head can reproduce expressive more advanced for instance joy mixed with anger. We also show that the face detection can emerge from this emotional interaction thanks to an implicit rhythm that is created between human partner and robot. Finally, we propose a model sensorimotor having the ability to achieve social referencing. Three situations have been tested: 1) a robotic arm is able to catch and avoid objects as emotional interaction from the human partner. 2) a mobile robot is able to reach or avoid certain areas of its environment. 3) an expressive head can orient its gaze in the same direction as humans and addition to associate emotional values to objects according tothe facial expressions of experimenter. We show that a developmental sequence can merge from emotional interaction and that social referencing can be explained a sensorimotor level without needing to use a model theory mind.
7

Le visage de la douleur : informations efficientes pour la reconnaissance et impacts sur l’observateur.

Roy, Cynthia 04 1900 (has links)
L’expression faciale de la douleur occupe un rôle central dans la communication de la douleur et dans l’estimation de l’intensité de la douleur vécue par autrui. Les propriétés du visage d’une personne en souffrance ont été investiguées principalement à l’aide de méthodes descriptives (e.g. FACS). L’introduction fait le point sur les connaissances de l’expression faciale de douleur et de la communication de cette expérience sur les plans comportemental et cérébral et souligne que les mécanismes et stratégies visuels utilisés par l’observateur pour parvenir à détecter la douleur dans le visage d’autrui demeurent très peu connus. L’étude des processus impliqués dans la reconnaissance de l’expression de la douleur est essentielle pour comprendre la communication de la douleur et éventuellement expliquer des phénomènes ayant des impacts cliniques considérables, tel que l’effet classique de sous-estimation de la douleur d’autrui. L’article 1 vise à établir à l’aide d’une méthode directe (Bubbles) les informations visuelles utilisées efficacement par l’observateur lorsqu’il doit catégoriser la douleur parmi les émotions de base. Les résultats montrent que parmi l’ensemble des caractéristiques du visage typique de la douleur, peu d’informations sont vraiment efficaces pour parvenir à cette discrimination et que celles qui le sont encodent la partie affective- motivationnelle de l’expérience d’autrui. L’article 2 investigue le pouvoir de ces régions privilégiées du visage de la douleur dans la modulation d’une expérience nociceptive chez l’observateur afin de mieux comprendre les mécanismes impliqués dans une telle modulation. En effet, s’il est connu que des stimuli ayant une valence émotionnelle négative, y compris des expressions faciales de douleur, peuvent augmenter les réponses spinales (réflexes) et supra-spinales (ex.: perceptives) de la douleur, l’information visuelle suffisante pour permettre l’activation des voies modulatrices demeure inconnue. Les résultats montrent qu’en voyant les régions diagnostiques pour la reconnaissance de l’expression faciale de douleur, la douleur perçue par l’observateur suite à une stimulation nociceptive est plus grande que lorsqu’il voit les régions les moins corrélées avec une bonne reconnaissance de la douleur. L’exploration post-expérimentale des caractéristiques de nos stimuli suggère que cette modulation n’est pas explicable par l’induction d’un état émotionnel négatif, appuyant ainsi un rôle prépondérant de la communication de la douleur dans la modulation vicariante de l’expérience douloureuse de l’observateur. Les mesures spinales ne sont toutefois pas modulées par ces manipulations et suggèrent ainsi que ce ne sont pas des voies cérébro-spinale qui sont impliquées dans ce phénomène. / Facial expression plays a central role in pain communication including when judging on others’ pain intensity. Facial expression characteristics have been investigated mainly with descriptive methods (e.g. FACS). The thesis introduction summarizes current knowledge on behavioral and cerebral processes involved in pain facial expression and pain communication. Moreover, a better understanding of the processes subtending the recognition of pain in others appears essential to address clinical issues such as the classical under-estimation effect. The article 1 uses a direct method (Bubbles) to identify the visual information efficiently used by the observer to correctly discriminate pain among basic emotions facial expressions. Results show that, among all the facial movement typically found in pain facial expressions, the observers use few information. Moreover, the visual regions highly correlated with correct identification of pain have previously been described as encoding the affective-motivational of the pain experience of the sufferer. It is known that the pain experience can be increased by visual stimuli with a negative affective valence, including pain facial expressions, through spinal and supra-spinal (perceptual) processes. The article 2 aims to study if the facial regions important for pain identification are sufficient to modulate the observer’s pain experience. Results showed that looking at the diagnostic visual information for pain identification enhanced the perception of pain) of the observer when compared to viewing regions not correlated with correct identification. A post-experimental exploration of the characteristics of our stimuli suggests that this effect is not attributable to an induction of negative emotions, thereby supporting a predominant role for pain communication in the vicarious facilitation of pain in the observer. However, spinal measures were not modulated by our visual stimuli, suggesting that the neural system underlying the modulation does not involve cerebro-spinal processes.
8

Examining the impact of trait anxiety on the recognition of facial emotional expressions

Roy, Sylvain 09 1900 (has links)
Question : Cette thèse comporte deux articles portant sur l’étude d’expressions faciales émotionnelles. Le processus de développement d’une nouvelle banque de stimuli émotionnels fait l’objet du premier article, alors que le deuxième article utilise cette banque pour étudier l’effet de l’anxiété de trait sur la reconnaissance des expressions statiques. Méthodes : Un total de 1088 clips émotionnels (34 acteurs X 8 émotions X 4 exemplaire) ont été alignés spatialement et temporellement de sorte que les yeux et le nez de chaque acteur occupent le même endroit dans toutes les vidéos. Les vidéos sont toutes d’une durée de 500ms et contiennent l’Apex de l’expression. La banque d’expressions statiques fut créée à partir de la dernière image des clips. Les stimuli ont été soumis à un processus de validation rigoureux. Dans la deuxième étude, les expressions statiques sont utilisées conjointement avec la méthode Bubbles dans le but d’étudier la reconnaissance des émotions chez des participants anxieux. Résultats : Dans la première étude, les meilleurs stimuli ont été sélectionnés [2 (statique & dynamique) X 8 (expressions) X 10 (acteurs)] et forment la banque d’expressions STOIC. Dans la deuxième étude, il est démontré que les individus présentant de l'anxiété de trait utilisent préférentiellement les basses fréquences spatiales de la région buccale du visage et ont une meilleure reconnaissance des expressions de peur. Discussion : La banque d’expressions faciales STOIC comporte des caractéristiques uniques qui font qu’elle se démarque des autres. Elle peut être téléchargée gratuitement, elle contient des vidéos naturelles et tous les stimuli ont été alignés, ce qui fait d’elle un outil de choix pour la communauté scientifique et les cliniciens. Les stimuli statiques de STOIC furent utilisés pour franchir une première étape dans la recherche sur la perception des émotions chez des individus présentant de l’anxiété de trait. Nous croyons que l’utilisation des basses fréquences est à la base des meilleures performances de ces individus, et que l’utilisation de ce type d’information visuelle désambigüise les expressions de peur et de surprise. Nous pensons également que c’est la névrose (chevauchement entre l'anxiété et la dépression), et non l’anxiété même qui est associée à de meilleures performances en reconnaissance d’expressions faciales de la peur. L’utilisation d’instruments mesurant ce concept devrait être envisagée dans de futures études. / Question: This thesis describes a new database of facial emotional expressions; created specifically for eye-tracking and classification image experiments. This database serves as a basis for the second study, which explores the effect of trait anxiety on the perception of static facial emotional expressions. Methods: Actors were recruited to express facial emotional expressions. Thousands of 1-second movie clips that contained the least head movement and appeared genuine were extracted from the raw videos and selected for the validation. A total of 1088 clips (34 actors X 8 expressions X 4 exemplar) were spatially aligned so that facial features across the stimuli occupied the same space. They were also temporally aligned so that all clips began on the last neutral frame and truncated on the 15th frame (500ms). The last frame (apex) of the clips was extracted to form the static database. Two groups of participants validated the dynamic (N35) and static (N35) stimuli. The static images were used in the 2nd study where participants (N27) varying in trait anxiety were asked to recognize emotional faces, partially revealed through Gaussian apertures (Bubbles). Results: Study 1 describes the process by which the STOIC database was created. It showcases the 80 dynamic (and 80 static) emotional expressions (8 emotions X 10 actors) with the lowest entropy scores. Study 2 shows that trait anxiety is associated with performance and differential use of information. Anxious individuals use low spatial frequency (LSF) information from the mouth region and are better at recognizing negative emotions, especially fear and not anger. Discussion: This thesis presents a new and freely downloadable emotion recognition database containing static and dynamic stimuli. The database possesses unique characteristics that will make it useful to the scientific community and clinicians. We used the static images in the second study to establish a baseline and gain a better understanding about the use of information contained in faces to recognized emotional expressions. The next phase of the project will be to explore the effects of anxiety and depression on the perception of dynamic expressions. We speculate that the use of LSF information in our anxious group disambiguated fear from surprise and led to better performance for that emotion. In addition, we think the overlap between anxiety and depression, which was associated with better performances, may be attributed to concept of neuroticism.
9

Le visage de la douleur : informations efficientes pour la reconnaissance et impacts sur l’observateur

Roy, Cynthia 04 1900 (has links)
No description available.
10

Traitement cérébral de l’expression faciale de peur : vision périphérique et effet de l’attention / Central processing of fearful faces : peripheral vision and attention effect

Bayle, Dimitri 02 December 2009 (has links)
L’expression faciale de peur constitue un important vecteur d’information sociale mais aussi environnementale. En condition naturelle, les visages apeurés apparaissent principalement dans notre champ visuel périphérique. Cependant, les mécanismes cérébraux qui sous-tendent la perception de l’expression faciale de peur en périphérie restent largement méconnus. Nous avons démontré, grâce à des études comportementales, des enregistrements magnétoencéphalographiques et intracrâniens, que la perception de l’expression faciale de peur est efficace en grande périphérie. La perception de la peur en périphérie génère une réponse rapide de l’amygdale et du cortex frontal, mais également une réponse plus tardive dans les aires visuelles occipitales et temporales ventrales. Le contrôle attentionnel est capable d’inhiber la réponse précoce à l’expression de peur, mais également d’augmenter les activités postérieures plus tardives liées à la perception des visages. Nos résultats montrent non seulement que les réseaux impliqués dans la perception de la peur sont adaptés à la vision périphérique, mais ils mettent également en avant une nouvelle forme d’investigation des mécanismes de traitement de l’expression faciale, pouvant conduire à une meilleure compréhension des mécanismes de traitement des messages sociaux dans des situations plus écologiques. / Facial expression of fear is an important vector of social and environmental information. In natural conditions, the frightened faces appear mainly in our peripheral visual field. However, the brain mechanisms underlying perception of fear in the periphery remain largely unknown. We have demonstrated, through behavioral, magnetoencephalographic and intracranial studies that the perception of fear facial expression is efficient in large peripheral visual field. Fear perception in the periphery produces an early response in the amygdala and the frontal cortex, and a later response in the occipital and infero-temporal visual areas. Attentional control is able to inhibit the early response to fear expression and to increase the later temporo-occipital activities linked to face perception. Our results show that networks involved in fear perception are adapted to the peripheral vision. Moreover, they validate a new form of investigation of facial expression processing, which may lead to a better understanding of how we process social messages in more ecological situations.

Page generated in 0.4845 seconds