• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 9
  • 4
  • Tagged with
  • 43
  • 43
  • 30
  • 13
  • 11
  • 11
  • 10
  • 9
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Influence du Mouvement Elémentaire sur la perception des émotions / Impact of Elementary Motion on the perception of emotions

Chafi, Alhadi 10 December 2012 (has links)
L’objectif de notre thèse a été d’étudier de manière précise les interactions entre les émotions et trois mouvements élémentaires (i.e., de vagues, parabolique et translationnel). Une première étude a permis de vérifier que le mouvement de vagues améliore la perception d’expressions faciales émotionnelles positives alors que le mouvement parabolique améliore la perception d’expressions faciales émotionnelles négatives (Chafi, Schiaratura, & Rusinek, 2012), phénomène de « congruence Emotion-Mouvement ». De plus amples recherches constituant notre seconde étude ont mis en évidence qu’augmenter l’intensité émotionnelle et la validité écologique des stimuli (i.e., des extraits de films) a mené à des effets d’inconsistance, qui se caractérisent par le fait que le mouvement parabolique augmente l’intensité émotionnelle du film très positif alors que le mouvement de vagues augmente l’intensité émotionnelle du film très négatif. Nous postulons que ces effets sont dus au mécanisme de contre-Régulation décrit par Rothermund (2003). Une réflexion conséquente sur la cognition incarnée nous a menés à une troisième étude s’intéressant à la verticalité, montrant que le mouvement parabolique améliore les compétences mnésiques et psychomotrices seulement lorsqu’il effectue une trajectoire descendante. L’exposition au mouvement élémentaire semble donc avoir un impact sur les sphères émotionnelle (auto-Évaluations), cognitive (tâche de mémoire) et comportementale (tâche de décomptage). Les données susmentionnées peuvent être représentées dans un modèle en réseaux associatifs du type Power et Dalgleish (2008), reprenant fortement celui de Bower (1981). / The aim of our thesis was to accurately study the interactions between emotions and three elementary motion (i.e., wave-Like, parabolic and translational). A first step helped us verifying that the wave-Like motion improves the perception of positive facial expressions whereas the parabolic motion improves the perception of negative facial expressions (Chafi, Schiaratura, & Rusinek, 2012), a phenomenon called “Emotion-Motion congruence”. Further investigations representing our second step have brought into light that increasing the emotional intensity and the ecological validity of our material (i.e., film excerpts) led to inconsistency effects, showing that the parabolic motion increases the emotional intensity of a very positive film while the wave-Like motion increases the emotional intensity of a very negative film. We hypothesize that these effects are products of the counter-Regulation mechanism defined by Rothermund (2003). An important reflection on embodiment led us to the third step on verticality, showing that the parabolic motion enhances mnemonic and psychomotor skills only when its trajectory was downward. The exposure to elementary motion seemingly has an impact on the emotional (self-Reports), cognitive (mnemonic task) and behavioral (serial subtraction) fields. The above-Mentioned data could be represented in an associative networks model such as the one of Power and Dalgleish (2008), itself based on Bower (1981).
12

Expressions faciales et mensonges factuels : Evaluation des croyances et identification des expressions produites lors d’un mensonge à forte charge cognitive. / Facial expressions and factual lies : beliefs and expressions produced during a lie with a cognitive overload

Delmas, Hugues 07 June 2018 (has links)
Deux facteurs permettent d’augmenter la performance de détection du mensonge : (a)identifier les croyances erronées et lutter contre elles et (b) accroître les différences decomportements entre les menteurs et les personnes qui disent la vérité. Ce travail de thèse aétudié ces facteurs en lien avec les expressions faciales du mensonge. Pour ce faire, nous avonsinvestigué les croyances via l’utilisation d’un questionnaire photographique et utilisé un récitantéchronologique (narration à rebours) pour amplifier les différences de comportements(approche de la charge cognitive).Notre démarche expérimentale a questionné : (a) Les croyances les plus prégnantesrelatives aux expressions faciales du mensonge. (b) L’influence de l’expérience professionnelle,de l’enjeu du mensonge (grave ou anodin) et du comportement mensonger évalué (le sien oucelui d’autrui). (c) La pertinence de l’intensité des expressions faciales pour déceler lesmensonges lors d’un récit antéchronologique.L’ensemble de nos résultats ont mis au jour de nombreuses nouvelles croyances. Septd’entre elles étaient très partagées par les individus et cohérentes avec la vision stéréotypée dumenteur. L’expérience professionnelle, l’enjeu du mensonge et le comportement mensongerévalué ont peu modifié les croyances. Le récit antéchronologique a amplifié les différences entrementeurs et sincères ; et l’intensité des mouvements faciaux a été une mesure pertinente pourdéceler le mensonge. L’application de nos travaux est discutée. / Two factors increase the lie detection performance: (a) identify and decrease false beliefsand (b) increase behavioral differences between liars and truth-tellers. These factors were studiedin relation to facial expressions of deception in this doctoral dissertation.The present work questioned (a) The most important beliefs about facial expressions ofdeception throught the use of a photographic questionnaire (b) The influence of professionalexperience, stakes of lie (serious or trivial) and the lying behavior evaluated (his own or that ofothers) (c) The relevance of facial expressions’ intensity to detect lies in an reverse orderinstruction which was used to magnify behavioral differences (cognitive load approach).Our results highlighted many new beliefs. Seven of them were very shared by people andconsistent with the stereotypical view of the liar. Beliefs were little infuenced by professionalexperience, the stakes of lie and the evaluated behavior. The reverse order instruction amplifieddifferences between liars and truth-tellers; and the intensity of facial movements was a relevantmeasure for detecting deception. Application of our research is discussed.
13

Reconnaissance d'états émotionnels par analyse visuelle du visage et apprentissage machine / Recognition of emotional states by visual facial analysis and machine learning

Lekdioui, Khadija 29 December 2018 (has links)
Dans un contexte présentiel, un acte de communication comprend des expressions orales et émotionnelles. A partir de l’observation, du diagnostic et de l’identification de l’état émotionnel d’un individu, son interlocuteur pourra entreprendre des actions qui influenceraient la qualité de la communication. A cet égard, nous pensons améliorer la manière dont les individus perçoivent leurs échanges en proposant d’enrichir la CEMO (communication écrite médiatisée par ordinateur) par des émotions ressenties par les collaborateurs. Pour ce faire, nous proposons d’intégrer un système de reconnaissance, en temps réel, des émotions (joie, peur, surprise, colère, dégoût, tristesse, neutralité) à la plate-forme pédagogique “Moodle”, à partir de l’analyse des expressions faciales de l’apprenant à distance lors des activités collaboratives. La reconnaissance des expressions faciales se fait en trois étapes. Tout d’abord, le visage et ses composants (sourcils, nez, bouche, yeux) sont détectés à partir de la configuration de points caractéristiques. Deuxièmement, une combinaison de descripteurs hétérogènes est utilisée pour extraire les traits caractéristiques du visage. Finalement, un classifieur est appliqué pour classer ces caractéristiques en six émotions prédéfinies ainsi que l’état neutre. Les performances du système proposé seront évaluées sur des bases publiques d’expressions faciales posées et spontanées telles que Cohn-Kanade (CK), Karolinska Directed Emotional Faces (KDEF) et Facial Expressions and Emotion Database (FEED). / In face-to-face settings, an act of communication includes verbal and emotional expressions. From observation, diagnosis and identification of the individual's emotional state, the interlocutor will undertake actions that would influence the quality of the communication. In this regard, we suggest to improve the way that the individuals perceive their exchanges by proposing to enrich the textual computer-mediated communication by emotions felt by the collaborators. To do this, we propose to integrate a real time emotions recognition system in a platform “Moodle”, to extract them from the analysis of facial expressions of the distant learner in collaborative activities. There are three steps to recognize facial expressions. First, the face and its components (eyebrows, nose, mouth, eyes) are detected from the configuration of facial landmarks. Second, a combination of heterogeneous descriptors is used to extract the facial features. Finally, a classifier is applied to classify these features into six predefined emotions as well as the neutral state. The performance of the proposed system will be assessed on a public basis of posed and spontaneous facial expressions such as Cohn-Kanade (CK), Karolinska Directed Emotional Faces (KDEF) and Facial Expressions and Emotion Database (FEED).
14

Déformation de courbes et de surfaces, gradients généralisés et application à l'analyse d'expressions faciales chez des patients épileptiques.

Maurel, Pierre 03 December 2008 (has links) (PDF)
Dans ce travail, nous commençons par étudier le recalage et la mise en correspondance de formes 2D ou 3D (courbes ou surfaces). Nous définissons et minimisons des distances entre ces formes. Afin d'avoir un certain contrôle sur le chemin suivi lors de la minimisation, nous introduisons une généralisation du gradient de forme permettant d'ajouter une contrainte sur la forme du gradient de différentes manières.<br />Dans une seconde partie plus applicative, nous présentons nos travaux sur l'analyse automatique d'expressions faciales appliquée à des patients épileptiques et explorons la possibilité d'utiliser cet outil pour l'aide au diagnostic.
15

Segmentation des Traits du Visage, Analyse et Reconnaissance des Expressions Faciales par les Modèles de Croyance Transférable.

Hammal, Zakia 29 June 2006 (has links) (PDF)
L'objectif de ce travail est l'analyse et la classification d'expressions faciales.<br />Des expériences en psychologie ont permis de mettre en évidence le fait que l'être humain est capable de reconnaître les émotions sur un visage à partir de la visualisation de l'évolution temporelle de certains points caractéristiques de celui-ci.<br />Nous avons donc tout d'abord proposé un système d'extraction automatique des contours des traits permanents du visage (yeux, sourcils et lèvres).<br /><br /> Dans ce travail nous nous intéressons au problème de la segmentation des yeux et des sourcils.<br />La segmentation des contours des lèvres est basée sur un travail précédent développé au sein du laboratoire.<br />L'algorithme proposé pour l'extraction des contours des yeux et des sourcils est constitué de trois étapes : d'abord la définition de modèles paramétriques pour modéliser au mieux le contour de chaque trait ; ensuite, les modèles choisis sont initialisés sur les images à segmenter grâce à l'extraction d'un ensemble de points caractéristiques ; enfin, les modèles initiaux sont ajustés finement en tenant compte d'information de gradient de luminance.<br />La segmentation des contours des yeux, des sourcils et des lèvres conduit a ce que nous appelons des squelettes d'expressions.<br /><br /> Pour mesurer la déformation des traits caractéristiques, cinq distances caractéristiques sont définies sur ces squelettes.<br />Basé sur l'état de ces distances un ensemble de règles logiques est défini pour chacune des expressions considérées : Sourire, Surprise, Dégout, Colère, Peur, Tristesse, Neutre.<br />Ces règles sont compatibles avec la norme MPEG-4 qui fournit une description des transformations subies par chacun des traits du visage lors de la production des six expressions faciales universelles.<br />Cependant le comportement humain n'étant pas binaire, une expression pure est rarement produite.<br />Pour pouvoir modéliser le doute entre plusieurs expressions et le cas des expressions inconnues, les Modèles de Croyance Transférables sont utilisés comme pro cessus de fusion pour la classification des expressions faciales.<br />Le système de reconnaissance développé tient compte de l'évolution au cours du temps des déformations des traits du visage.<br /><br /> Dans la perspective d'un système audio-visuel de reconnaissance d'expressions émotionelles, une étude préliminaire sur des expressionse vocales a aussi été menée.
16

Atteintes amygdaliennes et troubles émotionnels dans la maladie d'Alzheimer : apport de nouvelles pistes pour le diagnostic / Amygdalar lesions & Emotional processing impairments in Alzheimer's Disease : Providing new tracks for diagnosis

Klein Koerkamp, Yanica 01 October 2013 (has links)
Le diagnostic de la maladie d'« Alzheimer » (MA) repose essentiellement sur des tests neuropsychologiques, démontrant d'importants déficits mnésiques en lien avec l'atrophie de l'hippocampe. Parallèlement à cela, l'existence d'une atteinte précoce de l'amygdale a très récemment été proposée dans une série d'études, suggérant que cette structure pourrait être un marqueur neuro-anatomique de l'entrée dans la maladie. Les études ayant évalué les répercussions émotionnelles de ces atteintes amygdaliennes n'ont néanmoins pas permis d'aboutir à l'identification d'un profil convergent de déficits. L'objectif de cette thèse a donc été de démontrer l'existence d'une atteinte de l'amygdale à un stade précoce de la MA entrainant des modifications des traitements émotionnels. Dans une première étude en neuroimagerie structurelle, nous avons montré des arguments robustes quant à l'existence d'atteintes anatomiques de l'amygdale chez des patients légèrement atteints par la maladie. L'amplitude de cette atrophie s'est avérée être un indicateur particulièrement sensible du niveau général d'atteintes cognitives mesurées chez nos patients. Dans les études suivantes, nous nous sommes intéressés aux répercussions de cette atteinte sur des activités cognitives sous-tendues plus directement par le fonctionnement de cette structure : les traitements émotionnels. Par l'élaboration d'une méta-analyse, nous avons pu identifier un déficit précoce de la reconnaissance des émotions. Nous avons de plus démontré que les troubles cognitifs des patients expliquaient en partie le déficit émotionnel, sans toutefois l'expliquer dans sa totalité. Enfin, une série d'études comportementales et en neuroimagerie fonctionnelle, a permis de confirmer que les atteintes anatomiques s'accompagnaient bien d'un dysfonctionnement de l'amygdale entrainant des déficits émotionnels, en particulier dans les mécanismes à l'origine de l'extraction spontanée de la saillance émotionnelle. L'ensemble de nos données convergent vers l'idée que l'atteinte amygdalienne et les altérations des mécanismes émotionnels seraient une piste prometteuse afin de préciser le diagnostic actuel de la MA. / The diagnosis of “Alzheimer's” disease (AD) relies on neuropsychological tests demonstrating massive memory decline, which is mainly associated with hippocampus lesions. In parallel, several neuroimaging studies have suggested that amygdala volume loss could be a neuroanatomical marker of AD. However, previous works dealing with behavioural indices of amygdala activity in AD have been unable to provide a converging profile of emotional impairments. The goal of this work was to corroborate data provided from various methods to demonstrate that amygdala lesions in relation to emotional disorders could be an interesting track to refine the current diagnosis of AD. In a first structural neuroimaging study, we have demonstrated that the amygdala undergoes massive atrophy in the early stage of the disease, and that volume loss predicts memory decline. In the following studies, we have shown that these lesions lead to impairments in a various set of emotional tests. Based on a meta-analytic approach, we demonstrated that emotional decoding abilities are impaired in AD, beginning in the early stage, and partly explained by the cognitive deficits characterizing the AD population. In a last set of studies we demonstrated that these emotional decoding difficulties rely on specific amygdala dysfunctions, by showing that the mechanisms behind the spontaneous extraction of emotional salience are impaired in AD. All our data converge on the idea that the amygdala damage and alteration of emotional mechanisms from the early phase of AD are a promising approach to clarify the current diagnosis of AD.
17

Reading Faces. Using Hard Multi-Task Metric Learning for Kernel Regression / Analyse de visages à l'aide d'une régularisation multi-tâches contrainte pour un apprentissage de métrique adaptée à un régresseur par noyaux

Nicolle, Jérémie 08 March 2016 (has links)
Recueillir et labelliser un ensemble important et pertinent de données pour apprendre des systèmes de prédiction d'informations à partir de visages est à la fois difficile et long. Par conséquent, les données disponibles sont souvent de taille limitée comparée à la difficultés des tâches. Cela rend le problème du sur-apprentissage particulièrement important dans de nombreuses applications d'apprentissage statistique liées au visage. Dans cette thèse, nous proposons une nouvelle méthode de régression de labels multi-dimensionnels, nommée Hard Multi-Task Metric Learning for Kernel Regression (H-MT-MLKR). Notre méthode a été développée en focalisant sur la réduction du phénomène de sur-apprentissage. La méthode Metric Learning for Kernel Regression qui a été proposée par Kilian Q. Weinberger en 2007 vise à apprendre un sous-espace pour minimiser l'erreur quadratique d'un estimateur de Nadaraya-Watson sur la base d'apprentissage. Dans notre méthode, on étend la méthode MLKR pour une régression de labels multi-dimensionnels en ajoutant une nouvelle régularisation multi-tâches qui réduit les degrés de liberté du modèle appris ainsi que le sur-apprentissage. Nous évaluons notre méthode pour deux applications différentes, à savoir la localisation de points caractéristiques et la prédiction de l'intensité des Action Units. Nous présentons aussi un travail sur la prédiction des émotions en espace continu basé aussi sur l'estimateur de Nadaraya-Watson. Deux des systèmes proposés nous ont permis de remporter deux premières places à des concours internationaux, à savoir le Audio-Visual Emotion Challenge (AVEC'12) et le Facial Expression Recognition and Analysis challenge (FERA'15). / Collecting and labeling various and relevant data for training automatic facial information prediction systems is both hard and time-consuming. As a consequence, available data is often of limited size compared to the difficulty of the prediction tasks. This makes overfitting a particularly important issue in several face-related machine learning applications. In this PhD, we introduce a novel method for multi-dimensional label regression, namely Hard Multi-Task Metric Learning for Kernel Regression (H-MT-MLKR). Our proposed method has been designed taking a particular focus on overfitting reduction. The Metric Learning for Kernel Regression method (MLKR) that has been proposed by Kilian Q. Weinberger in 2007 aims at learning a subspace for minimizing the quadratic training error of a Nadaraya-Watson estimator. In our method, we extend MLKR for multi-dimensional label regression by adding a novel multi-task regularization that reduces the degrees of freedom of the learned model along with potential overfitting. We evaluate our regression method on two different applications, namely landmark localization and Action Unit intensity prediction. We also present our work on automatic emotion prediction in a continuous space which is based on the Nadaraya-Watson estimator as well. Two of our frameworks let us win international data science challenges, namely the Audio-Visual Emotion Challenge (AVEC’12) and the fully continuous Facial Expression Recognition and Analysis challenge (FERA’15).
18

Percevoir la douleur sur le visage d'autrui : du traitement subliminal à la mise en jeu des réseaux neuronaux sous-jacents / Perceiving the pain in others' faces : from subliminal processing to activation of involved neuronal networks

Czekala, Claire 09 December 2015 (has links)
L'objectif de cette thèse est d'étudier le traitement des expressions faciales de douleur d'un point de vue psychophysique et neurophysiologique. Contrairement aux autres émotions dites de base, la douleur est à la fois une expérience sensorielle et émotionnelle, composantes qui se retrouvent sur l'expression faciale de douleur qui accompagne cette expérience. En ce sens, l'expression faciale de douleur semble être plus riche et complexe que l'expression faciale d'autres émotions, la rendant particulière. Dans une première partie de notre travail, nous avons montré, chez des sujets sains, que l'expression faciale de douleur engendrait un plus haut niveau d'empathie que l'expression faciale d'autres émotions. De plus, une présentation de ces visages masqués à 100 ms était suffisante pour permettre de détecter la douleur sur un visage de façon subliminale alors même que la reconnaissance du genre était impossible dans ces conditions. Dans une seconde partie, nous avons étudié le traitement implicite des expressions faciales de douleur chez des patients souffrant d'épilepsie réfractaire et explorés en stéréotaxie par des électrodes intracérébrales. Pour cela, nous avons détourné leur attention du caractère émotionnel des visages et enregistré des réponses évoquées aux visages expressifs. Les résultats montrent une activation précoce de l'insula antérieure (début de réponse à 131 ms ; pic à 180 ms post-stimulus) suivie d'une activation de l'amygdale (début à 273 ms ; pic à 363 ms). Cependant, ces activations antéro-insulaire et amygdalienne ne sont pas spécifiques de la douleur. L'insula postérieure semble également répondre à la présentation de visages exprimant la douleur mais l'amplitude de cette réponse ne diffère pas de celle de la réponse aux visages neutres. Ainsi, malgré les nombreuses informations que véhicule un visage de douleur, l'être humain est capable de le détecter très rapidement et d'être suffisamment empathique pour prodiguer l'aide appropriée à son prochain. Cette capacité serait permise grâce à l'insula antérieure, relai entre nociception et douleur / The aim of this work is to study painful facial expression processing through psychophysical and neurophysiological approaches. Contrary to the basic emotions, pain is both a sensory and an emotional experience and these two aspects are encoded in the facial expression of pain. In that sense, painful facial expressions are richer and more complex than the facial expression of others emotions. In a first phase, we showed that painful facial expressions trigger more empathy than other emotional facial expressions in healthy subjects. Moreover, a 100ms-masked presentation of faces is enough to subliminally detect pain but not gender. In a second phase, we studied pre-conscious processing of painful facial expressions in patients suffering from refractory epilepsy having intracranial electrodes implanted in the insular cortex and amygdala for stereotaxic exploration of epilepsy. To this purpose, we diverted the patients' attention from the emotional aspects of the faces by asking them to focus on the gender and we recorded evoked potentials to pain and other emotional faces. Results showed an early activation in the anterior part of the insula (onset latency around 131ms, peak latency 180ms post stimulus) followed by an amygdala response (onset latency around 273ms, peak latency 363ms post stimulus). Response to pain faces is larger than that to other emotional faces in anterior insula but anterior-insula and amygdala activations are not pain specific. Posterior part of the insula also responds to painful faces but the amplitude of the evoked potentials do not differ from that of potentials evoked by neutral faces. In this way, even if the pain face contains a great amount of information, the human- being is able to rapidly detect it and to be empathic enough to provide the help needed for others in pain. This ability would be possible through anterior insula activation, thought to be a relay between nociception and emotional reaction to pain
19

Conception d'un système de vision par phosphènes / Conception of a phosphene based visual system

Tatur, Guillaume 18 March 2011 (has links)
Ces travaux s'inscrivent dans le cadre plus général de la réalisation d'une prothèse visuelle, destinée aux personnes atteintes de cécité tardive due à une maladie dégénérative des cellules photo réceptrices de la rétine. Par la stimulation adéquate de certaines parties des voies optiques encore fonctionnelles, il est possible de transmettre à nouveau des perceptions visuelles, appelées phosphènes, dans le champ visuel du patient. Les études actuelles portant sur le contenu informationnel de cette vision prothétique proposent simplement de réduire la résolution de l'image d'une caméra embarquée. Notre étude propose une nouvelle approche basée sur le principe de la vision fonctionnelle, développée en collaboration avec les spécialistes de la rééducation fonctionnelle de l'institut ARAMAV. Par le biais de cette approche innovante, nous avons défini des méthodes d'extraction et de représentation des informations de la scène. L'objectif est d'améliorer l'autonomie en mobilité et de rendre possible la perception des expressions faciales. Pour évaluer la pertinence de ces propositions, nous avons développé un simulateur de vision prothétique, dont les paramètres sont basés sur les résultats d'essais cliniques. Pour la mobilité, nous mettons notamment en évidence l'intérêt de fournir un accès aux informations 3D, en substitution ou en complément de l'information de luminosité, ainsi que l'intérêt d'utiliser un oculomètre pour améliorer et faciliter la prise d'informations. Des expériences spécifiques à la mobilité, ainsi que certains résultats initiaux sont présentés. Pour la reconnaissance des expressions faciales, notre étude apporte la preuve que ces expressions sont correctement perçues si nous combinons des techniques de sélection de l'information et l'utilisation de certains prétraitements. / This work falls within the broader framework of visual prostheses conception, designed for people suffering from late blindness due to degenerative diseases of retina photoreceptor cells. By stimulating certain part of the optical pathway that is still functional, it is possible to elicit visual perceptions, called phosphenes, in the subject's visual field. Recent studies on the problematic of informational content of prosthetic vision propose, in majority, a simple reduction in the resolution of grayscale images acquired from a single head worn camera. Our study proposes a new approach based on the principle of functional vision, developed in collaboration with specialists in functional rehabilitation of the ARAMAV institute. Through this innovative approach, we have defined methods for extraction and representation of scene informational content, which aim to improve autonomy in mobility and to make possible the perception of facial expressio ns. In order to evaluate these propositions, we have developed a prosthetic vision simulator, whose parameters are based on clinical trials results. For mobility, we present the usefulness of providing access to 3D information, in substitution or in addition with brightness information and the usefulness of an eye tracking device to improve and facilitate spatial knowledge acquisition. Experiments dedicated to mobility as well as some preliminary results are presented. For the recognition of facial expressions, our study provides evidence that these expressions are correctly perceived if we combined information selection and specific image processing techniques.
20

Effets de la dynamique temporelle sur le jugement de l'authenticité du sourire

Asselin, David 13 April 2021 (has links)
La capacité à exprimer autre chose sur le visage que l’expression faciale associée à l’émotion qui est ressentie n’est apparue que relativement tard dans la grande histoire de l’être humain. Alors que cette concordance était directe à l’aube de l’évolution humaine, elle aurait par la suite évolué en raison des bénéfices sociaux qu’elle procure à celui qui émet l’expression faciale. Encore aujourd’hui, la littérature nous donne un portrait nuancé sur le lien qui existe entre l’émotion ressentie et son expression faciale. D’un côté, plusieurs études nous indiquent qu’il existe une concordance entre ces deux processus (Gosselin, Kirouac, & Dore, 1995; Rosenberg & Ekman, 1994; Ruch, 1995) alors que de l’autre nous savons aussi que l’expression faciale peut très bien être contrôlée et trompeuse (O’Sullivan et al., 1988, Ekman, 1993; 2003). Il existe différents indices qui nous permettent de distinguer entre une expression faciale authentique et une expression faciale fausse. Parmi ceux-ci figurent les unités d’action faciale qui sont activées sur le visage lors de l’expression faciale, leur symétrie et leur dynamique temporelle, toutes mesurées à l'aide du Facial Action Coding System (Ekman & Friesen, 1978; Ekman, Friesen & Hager, 2002). L’objectif principal de cette thèse sera d’évaluer la sensibilité de l’être humain à la dynamique temporelle du sourire, ainsi que son effet sur le jugement d’authenticité. Les résultats des études 1 à 3 indiquent que les participants sont bien sensibles à la dynamique temporelle, et qu’ils l’utilisent pour juger correctement l’authenticité du sourire, du moins lorsque la durée des phases de relâchement, ou les phases d’amorce et de relâchement simultanément varie. Nos participants ne semblent pas utiliser la dynamique temporelle pour juger de l’authenticité du sourire même s’ils sont en mesure de bien juger les différences temporelles dans la phase d’amorce. L’étude 4 a été réalisée afin de valider la méthode de fabrication des stimuli utilisée dans les études précédente, et confirme que celle-ci n’a pas eu d’effet sur les résultats. Enfin, l’étude 5 a été réalisée dans le but d’examiner davantage le lien unissant la dynamique temporelle au jugement d’authenticité grâce à deux tâches de jugement; La première voulant examiner le jugement de la durée de sourires, alors que la seconde examine le jugement de l’authenticité. Plutôt que d’utiliser une échelle de type Likert telle que dans les études 1 et 4, nous avons opté pour une méthode d’estimation de la magnitude, dans le but d’examiner les habiletés de manière intra individuelles de nos participants. Celle-ci montre qu’au niveau individuel, les participants qui arrivent à mieux juger les changements dans la durée des phases du sourire n’arrivent pas nécessairement à mieux juger l’authenticité du sourire. Dans leur ensemble, nos résultats contribuent à la compréhension que nous avons du lien unissant la dynamique temporelle et le jugement de l’authenticité du sourire, et permettent de solidifier la fondation empirique sur lequel pourront construire les études futures du domaine.

Page generated in 0.0984 seconds