• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 1
  • 1
  • Tagged with
  • 16
  • 16
  • 9
  • 8
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Perception de la joie et de la colère : distorsions temporelles selon l'origine culturelle

Mendoza Duran, Harold Esteban 03 January 2022 (has links)
Le but de la présente étude était d'identifier l'influence des émotions faciales et l'origine culturelle dans la perception de la durée des stimuli marquant des intervalles de 0,4 à 1,6 s. L'hypothèse posée était que la durée de présentation des visages exprimant de la colère ou de la joie serait plus souvent jugée comme longue que la durée de présentation d'une expression neutre. Une autre hypothèse stipulait que les participants venant des pays d'Europe de l'Ouest et d'Amérique du Nord, qui se caractérisent par un rythme de vie plus rapide et une plus grande importance accordée à la ponctualité, allaient surestimer le temps plus souvent que les participants d'Afrique centrale, du Nord et de l'Ouest et du Sud et l'Amérique centrale. Les stimuli présentés pour délimiter le temps étaient des visages féminins et masculins de trois groupes différents (Noirs, Blancs et Latino/A) exprimant de la joie, de la colère ou aucune émotion. Il y avait vingt participants dans chacun des quatre groupes venant de 1) l'Amérique du Nord, 2) l'Amérique latine, 3) l'Afrique centrale, du nord et de l'ouest, et 4) l'Europe occidentale. Les résultats révèlent que, dans l'ensemble, les participants d'Amérique latine estiment que la durée de présentation des visages est plus souvent longue que les participants de tous les autres groupes culturels de l'étude. De plus, les Latino-Américains ont répondu plus souvent « long » lorsqu'un visage masculin était présenté par rapport à un visage féminin. Finalement, les résultats indiquent également que les participants répondent « long » plus souvent lorsque la joie est exprimée par un visage masculin que par un visage féminin quel que soit le groupe culturel. / The aim of the present study was to investigate the impact of facial emotions and cultural differences on the perception of the duration of stimuli marking 0.4- to 1.6-s intervals. We posited the hypothesis that faces expressing anger and joy will be more often judged long than a neutral expression. Another hypothesis stipulated that the participants coming from the countries of West Europe and North America, who are characterized by a faster pace of life and a higher importance given to punctuality, would overestimate time more often than participants from Central, North and West Africa and South and Central America. The stimuli were female and male faces from three different groups (Black, White, and Latino/a people) expressing joy, anger, or no emotion. There were twenty participants in each of the four groups coming from 1) North America, 2) Latin America, 3) Central, North, and West Africa, and 4) Western Europe. The results reveal that, overall, participants from Latin America estimate that the presentation of faces is long more often than participants from all other cultural groups in the study. Moreover, Latin Americans responded more often long when a male face was presented compared to a female face. Finally, the results also indicate that participants respond "long" more often when joy is expressed by a male face than by a female face no matter the cultural group.
2

Modélisation, détection et annotation des états émotionnels à l'aide d'un espace vectoriel multidimensionnel

Tayari Meftah, Imen 12 April 2013 (has links) (PDF)
Notre travail s'inscrit dans le domaine de l'affective computing et plus précisément la modélisation, détection et annotation des émotions. L'objectif est d'étudier, d'identifier et de modéliser les émotions afin d'assurer l'échange entre applications multimodales. Notre contribution s'axe donc sur trois points. En premier lieu, nous présentons une nouvelle vision de la modélisation des états émotionnels basée sur un modèle générique pour la représentation et l'échange des émotions entre applications multimodales. Il s'agit d'un modèle de représentation hiérarchique composé de trois couches distinctes : la couche psychologique, la couche de calcul formel et la couche langage. Ce modèle permet la représentation d'une infinité d'émotions et la modélisation aussi bien des émotions de base comme la colère, la tristesse et la peur que les émotions complexes comme les émotions simulées et masquées. Le second point de notre contribution est axé sur une approche monomodale de reconnaissance des émotions fondée sur l'analyse des signaux physiologiques. L'algorithme de reconnaissance des émotions s'appuie à la fois sur l'application des techniques de traitement du signal, sur une classification par plus proche voisins et également sur notre modèle multidimensionnel de représentation des émotions. Notre troisième contribution porte sur une approche multimodale de reconnaissance des émotions. Cette approche de traitement des données conduit à une génération d'information de meilleure qualité et plus fiable que celle obtenue à partir d'une seule modalité. Les résultats expérimentaux montrent une amélioration significative des taux de reconnaissance des huit émotions par rapport aux résultats obtenus avec l'approche monomodale. Enfin nous avons intégré notre travail dans une application de détection de la dépression des personnes âgées dans un habitat intelligent. Nous avons utilisé les signaux physiologiques recueillis à partir de différents capteurs installés dans l'habitat pour estimer l'état affectif de la personne concernée.
3

Informatique affective : l'utilisation des systèmes de reconnaissance des émotions est-elle en cohérence avec la justice sociale ?

Prégent, Alexandra 24 September 2021 (has links)
Identifier correctement, indistinctement de la culture, de l'ethnicité, du contexte, du genre et de la classe sociale, les émotions d'autrui à partir d'une analyse de leurs expressions faciales, c'est ce qu'offrent, en principe, les systèmes de reconnaissance des émotions (SRÉ). En prétendant à un universalisme dans l'expression ainsi que dans la reconnaissance des émotions, nous tenterons de démontrer que les SRÉ présentent des risques non-négligeables de causer des torts importants à certains individus, en plus de viser, dans certains contextes, des groupes sociaux spécifiques. S'appuyant sur un vaste champ de connaissances multidisciplinaires - qui inclut la philosophie, la psychologie, l'informatique et l'anthropologie - ce projet de recherche vise à identifier les limites actuelles des SRÉ ainsi que les principaux risques que leur utilisation engendre, dans l'objectif de produire une analyse claire et rigoureuse de l'utilisation des SRÉ ainsi que de leur participation à une plus grande justice sociale. Mettant de l'avant les limites techniques, nous réfutons, d'une part, l'idée selon laquelle les SRÉ sont en mesure de prouver le lien de causalité entre des émotions spécifiques et des expressions faciales spécifiques. Nous appuyons notre argument par des preuves prouvant l'incapacité des SRÉ à distinguer les expressions faciales d'émotions des expressions faciales en tant que signaux de communication. D'autre part, en raison des limites contextuelles et culturelles des SRÉ actuels, nous réfutons l'idée selon laquelle les SRÉ sont en mesure de reconnaître, à performance égale, les émotions des individus, indistinctement de leur culture, ethnicité, genre et classe sociale. Notre analyse éthique démontre que les risques sont considérablement plus nombreux et plus importants que les bénéfices que l'on pourrait tirer d'une utilisation des SRÉ. Toutefois, nous avons séparé un type précis de SRÉ, dont l'utilisation se limite au domaine du care, et qui démontre un potentiel remarquable pour participer activement à la justice sociale, non seulement en se conformant aux exigences minimales, mais en répondant aussi au critère de bienfaisance. Si, actuellement, les SRÉ posent des risques importants, il est toutefois possible de considérer la possibilité que certains types spécifiques participent à la justice sociale et apportent une aide ainsi qu'un support émotionnel et psychologique à certains membres de la société. / Emotion recognition systems (ERS) offer the ability to identify the emotions of others, based on an analysis of their facial expressions and regardless of culture, ethnicity, context, gender or social class. By claiming universalism in the expression as well as in the recognition of emotions, we believe that ERS present significant risks of causing great harm to some individuals, in addition to targeting, in some contexts, specific social groups. Drawing on a wide range of multidisciplinary knowledge - including philosophy, psychology, computer science and anthropology - this research project aims to identify the current limitations of ERS and the main risks that their use brings, with the goal of providing a clear and robust analysis of the use of ERS and their contribution to greater social justice. Pointing to technical limitations, we refute, on the one hand, the idea that ERS are able to prove the causal link between specific emotions and specific facial expressions. We support our argument with evidence of the inability of ERS to distinguish facial expressions of emotions from facial expressions as communication signals. On the other hand, due to the contextual and cultural limitations of current ERS, we refute the idea that ERS are able to recognise, with equal performance, the emotions of individuals, regardless of their culture, ethnicity, gender and social class. Our ethical analysis shows that the risks are considerably more numerous and important than the benefits that could be derived from using ERS. However, we have separated out a specific type of ERS, whose use is limited to the field of care, and which shows a remarkable potential to actively participate in social justice, not only by complying with the minimum requirements, but also by meeting the criterion of beneficence. While ERS currently pose significant risks, it is possible to consider the potential for specific types to participate in social justice and provide emotional and psychological support and assistance to certain members of society.
4

Informatique affective : l'utilisation des systèmes de reconnaissance des émotions est-elle en cohérence avec la justice sociale ?

Prégent, Alexandra 24 September 2021 (has links)
Identifier correctement, indistinctement de la culture, de l'ethnicité, du contexte, du genre et de la classe sociale, les émotions d'autrui à partir d'une analyse de leurs expressions faciales, c'est ce qu'offrent, en principe, les systèmes de reconnaissance des émotions (SRÉ). En prétendant à un universalisme dans l'expression ainsi que dans la reconnaissance des émotions, nous tenterons de démontrer que les SRÉ présentent des risques non-négligeables de causer des torts importants à certains individus, en plus de viser, dans certains contextes, des groupes sociaux spécifiques. S'appuyant sur un vaste champ de connaissances multidisciplinaires - qui inclut la philosophie, la psychologie, l'informatique et l'anthropologie - ce projet de recherche vise à identifier les limites actuelles des SRÉ ainsi que les principaux risques que leur utilisation engendre, dans l'objectif de produire une analyse claire et rigoureuse de l'utilisation des SRÉ ainsi que de leur participation à une plus grande justice sociale. Mettant de l'avant les limites techniques, nous réfutons, d'une part, l'idée selon laquelle les SRÉ sont en mesure de prouver le lien de causalité entre des émotions spécifiques et des expressions faciales spécifiques. Nous appuyons notre argument par des preuves prouvant l'incapacité des SRÉ à distinguer les expressions faciales d'émotions des expressions faciales en tant que signaux de communication. D'autre part, en raison des limites contextuelles et culturelles des SRÉ actuels, nous réfutons l'idée selon laquelle les SRÉ sont en mesure de reconnaître, à performance égale, les émotions des individus, indistinctement de leur culture, ethnicité, genre et classe sociale. Notre analyse éthique démontre que les risques sont considérablement plus nombreux et plus importants que les bénéfices que l'on pourrait tirer d'une utilisation des SRÉ. Toutefois, nous avons séparé un type précis de SRÉ, dont l'utilisation se limite au domaine du care, et qui démontre un potentiel remarquable pour participer activement à la justice sociale, non seulement en se conformant aux exigences minimales, mais en répondant aussi au critère de bienfaisance. Si, actuellement, les SRÉ posent des risques importants, il est toutefois possible de considérer la possibilité que certains types spécifiques participent à la justice sociale et apportent une aide ainsi qu'un support émotionnel et psychologique à certains membres de la société. / Emotion recognition systems (ERS) offer the ability to identify the emotions of others, based on an analysis of their facial expressions and regardless of culture, ethnicity, context, gender or social class. By claiming universalism in the expression as well as in the recognition of emotions, we believe that ERS present significant risks of causing great harm to some individuals, in addition to targeting, in some contexts, specific social groups. Drawing on a wide range of multidisciplinary knowledge - including philosophy, psychology, computer science and anthropology - this research project aims to identify the current limitations of ERS and the main risks that their use brings, with the goal of providing a clear and robust analysis of the use of ERS and their contribution to greater social justice. Pointing to technical limitations, we refute, on the one hand, the idea that ERS are able to prove the causal link between specific emotions and specific facial expressions. We support our argument with evidence of the inability of ERS to distinguish facial expressions of emotions from facial expressions as communication signals. On the other hand, due to the contextual and cultural limitations of current ERS, we refute the idea that ERS are able to recognise, with equal performance, the emotions of individuals, regardless of their culture, ethnicity, gender and social class. Our ethical analysis shows that the risks are considerably more numerous and important than the benefits that could be derived from using ERS. However, we have separated out a specific type of ERS, whose use is limited to the field of care, and which shows a remarkable potential to actively participate in social justice, not only by complying with the minimum requirements, but also by meeting the criterion of beneficence. While ERS currently pose significant risks, it is possible to consider the potential for specific types to participate in social justice and provide emotional and psychological support and assistance to certain members of society.
5

Perception des émotions non verbales dans la musique, les voix et les visages chez les adultes implantés cochléaires présentant une surdité évolutive / Perception of non verbal emotions before and after cochlear implantation in adults with progressive deafness

Ambert-Dahan, Emmanuèle 11 July 2014 (has links)
Le bénéfice de l’implant cochléaire pour la compréhension de la parole en milieu calme, et même dans certains cas pour des situations auditives complexes telles que les environnements bruyants ou l’écoute de la musique est aujourd’hui connu. Si la compréhension de la parole est nécessaire à la communication, la perception des informations non verbales transmises par la voix de même que des expressions faciales est fondamentale pour interpréter le message d’un interlocuteur. Les capacités de perception des émotions non verbales en cas de surdité neurosensorielle évolutive ont été très peu explorées. Les travaux menés dans cette thèse ont pour objectifs d’évaluer la reconnaissance des émotions non verbales dans les modalités auditive et visuelle afin de mettre en évidence d’éventuelles spécificités chez les adultes présentant une surdité évolutive. Pour cela, nous avons réalisé quatre études comportementales dans lesquelles nous avons comparé leurs performances à celles de sujets contrôles normo-entendants. Nous avons évalué le jugement des émotions portées par la musique, la voix et les visages à partir d’un paradigme expérimental impliquant la reconnaissance de catégories émotionnelles (i.e. joie, peur, tristesse...) et la perception des dimensions de valence et d’éveil de l’émotion exprimée. Les études 1 et 2 ont porté sur la reconnaissance des émotions auditives après implantation cochléaire en examinant tour à tour la reconnaissance des émotions portées par la musique et la reconnaissance de celles portées par la voix. Les études 3 et 4 ont porté sur la reconnaissance des émotions visuelles et, en particulier, des expressions faciales avant et après implantation cochléaire. Les résultats de ces études révèlent l’existence d’un déficit de reconnaissance des émotions plus marqué dans le domaine musical et vocal que facial. Il apparaît aussi une perturbation des jugements d'éveil, les stimuli étant perçus moins excitants par les patients que par les normo-entendants. Toutefois, la reconnaissance des voix et des musiques, bien que limitée, était supérieure au niveau du hasard démontrant les bénéfices de l'implant cochléaire pour le traitement des émotions auditives. En revanche, quelle que soit la modalité étudiée, les jugements de valence n'étaient pas altérés. De manière surprenante, les données de ces recherches suggèrent de plus que, chez une partie des patients testés, la reconnaissance des émotions faciales peut être affectée par la survenue d'une surdité évolutive suggérant les conséquences de la perte auditive sur le traitement des émotions présentées dans une autre modalité. En conclusion, il semblerait que la surdité, de même que l'insuffisance d’informations spectrales transmises par l’implant cochléaire, favorisent l'utilisation de la communication verbale au détriment de la communication non verbale. / While cochlear implantation is quite successful in restoring speech comprehension in quiet environments other auditory tasks, such as communication in noisy environments or music perception remain very challenging for cochlear implant (CI) users. Communication involves multimodal perception since information is transmitted by vocal and facial expressions which are crucial to interpret speaker’s emotional state. Indeed, very few studies have examined perception of non verbal emotions in case of progressive neurosensorial hearing loss in adults. The aim of this thesis was to test the influence of rehabilitation by CI after acquired deafness on emotional judgment of musical excerpts and in non verbal voices. We also examined the influence of acquired post-lingual progressive deafness on emotional judgment of faces. For this purpose, we conducted four experimental studies in which performances of deaf and cochlear implanted subjects were compared to those of normal hearing controls. To assess emotional judgment in music, voices and faces, we used a task that consisted of emotional categories identification (happiness, fear, anger or peacefulness for music and neutral) and dimensional judgment of valence and arousal. The first two studies evaluated emotional perception in auditory modality by successively examining recognition of emotions in music and voices. The two following studies focused on emotion recognition in visual modality, particularly on emotional facial expressions before and after cochlear implantation. Results of these studies revealed greater deficits in emotion recognition in the musical and vocal than visual domains as well as a disturbance of arousal judgments, stimuli being perceived less exciting by CI patients as compared to NH subjects. Yet, recognition of emotions in music and voices, although limited, was performed above chance level demonstrating CI benefits for auditory emotions processing. Conversely, valence judgments were not impaired in music, vocal and facial emotional tests. Surprisingly, results of these studies suggest that, at least for a sub-group of patients, recognition of facial emotions is affected by acquired deafness indicating the consequences of progressive hearing loss in processing emotion presented in another modality. Thus, it seems that progressive deafness as well as the lack of spectral cues transmitted by the cochlear implant might foster verbal communication to the detriment of the non verbal emotional communication.
6

Personalized physiological-based emotion recognition and implementation on hardware / Reconnaissance des émotions personnalisée à partir des signaux physiologiques et implémentation sur matériel

Yang, Wenlu 27 February 2018 (has links)
Cette thèse étudie la reconnaissance des émotions à partir de signaux physiologiques dans le contexte des jeux vidéo et la faisabilité de sa mise en œuvre sur un système embarqué. Les défis suivants sont abordés : la relation entre les états émotionnels et les réponses physiologiques dans le contexte du jeu, les variabilités individuelles des réponses psycho-physiologiques et les problèmes de mise en œuvre sur un système embarqué. Les contributions majeures de cette thèse sont les suivantes. Premièrement, nous construisons une base de données multimodale dans le cadre de l'Affective Gaming (DAG). Cette base de données contient plusieurs mesures concernant les modalités objectives telles que les signaux physiologiques de joueurs et des évaluations subjectives sur des phases de jeu. A l'aide de cette base, nous présentons une série d'analyses effectuées pour la détection des moments marquant émotionnellement et la classification des émotions à l'aide de diverses méthodes d'apprentissage automatique. Deuxièmement, nous étudions la variabilité individuelle de la réponse émotionnelle et proposons un modèle basé sur un groupe de joueurs déterminé par un clustering selon un ensemble de traits physiologiques pertinents. Nos travaux mettent en avant le fait que le modèle proposé, basé sur un tel groupe personnalisé, est plus performant qu'un modèle général ou qu'un modèle spécifique à un utilisateur. Troisièmement, nous appliquons la méthode proposée sur un système ARM A9 et montrons que la méthode proposée peut répondre à l'exigence de temps de calcul. / This thesis investigates physiological-based emotion recognition in a digital game context and the feasibility of implementing the model on an embedded system. The following chanllenges are addressed: the relationship between emotional states and physiological responses in the game context, individual variabilities of the pschophysiological responses and issues of implementation on an embedded system. The major contributions of this thesis are : Firstly, we construct a multi-modal Database for Affective Gaming (DAG). This database contains multiple measurements concerning objective modalities: physiological signals (ECG, EDA, EMG, Respiration), screen recording, and player's face recording, as well as subjective assessments on both game event and match level. We presented statistics of the database and run a series of analysis on issues such as emotional moment detection and emotion classification, influencing factors of the overall game experience using various machine learning methods. Secondly, we investigate the individual variability in the collected data by creating an user-specific model and analyzing the optimal feature set for each individual. We proposed a personalized group-based model created the similar user groups by using the clustering techniques based on physiological traits deduced from optimal feature set. We showed that the proposed personalized group-based model performs better than the general model and user-specific model. Thirdly, we implemente the proposed method on an ARM A9 system and showed that the proposed method can meet the requirement of computation time.
7

Les émotions suscitées par les préférences politiques peuvent-elles être révélées par une tâche de bissection temporelle?

Ouellet, Claudie 23 October 2019 (has links)
Cette étude traite des variations de la perception de la durée de présentation de visages (photos) de politiciens situés à la gauche ou à la droite de l’axe politique. Ces variations sont analysées en fonction des émotions exprimées par ces visages (joie, colère ou neutre) et ce, en fonction des allégeances politiques des participants. Dans l’ensemble, par rapport aux conditions avec visages neutres ou exprimant de la joie, les participants surestiment la durée des visages exprimant la colère. Cet effet dépend cependant de l’allégeance politique des participants. Les participants à la gauche politique sous-estiment la durée de présentation des visages politiques exprimant une émotion neutre, comparativement aux conditions où les visages expriment la joie ou la colère. Par ailleurs, les résultats montrent que les participants de droite surestiment la durée de présentation des visages de politiciens ayant une orientation à gauche par rapport à la durée de présentation des visages de politiciens ayant une orientation à droite ; une telle influence de l’orientation des politiciens présentés n’est pas observée avec les participants de gauche. Les résultats de la présente étude montrent que l’allégeance politique des participants module l’effet sur la perception temporelle causé par le type d’expressions émotionnelles de visages délimitant le temps.
8

Modélisation, détection et annotation des états émotionnels à l'aide d'un espace vectoriel multidimensionnel / Modeling, detection and annotation of emotional states using an algebraic multidimensional vector space

Tayari Meftah, Imen 12 April 2013 (has links)
Notre travail s'inscrit dans le domaine de l'affective computing et plus précisément la modélisation, détection et annotation des émotions. L'objectif est d'étudier, d'identifier et de modéliser les émotions afin d'assurer l’échange entre applications multimodales. Notre contribution s'axe donc sur trois points. En premier lieu, nous présentons une nouvelle vision de la modélisation des états émotionnels basée sur un modèle générique pour la représentation et l'échange des émotions entre applications multimodales. Il s'agit d'un modèle de représentation hiérarchique composé de trois couches distinctes : la couche psychologique, la couche de calcul formel et la couche langage. Ce modèle permet la représentation d'une infinité d'émotions et la modélisation aussi bien des émotions de base comme la colère, la tristesse et la peur que les émotions complexes comme les émotions simulées et masquées. Le second point de notre contribution est axé sur une approche monomodale de reconnaissance des émotions fondée sur l'analyse des signaux physiologiques. L'algorithme de reconnaissance des émotions s'appuie à la fois sur l'application des techniques de traitement du signal, sur une classification par plus proche voisins et également sur notre modèle multidimensionnel de représentation des émotions. Notre troisième contribution porte sur une approche multimodale de reconnaissance des émotions. Cette approche de traitement des données conduit à une génération d'information de meilleure qualité et plus fiable que celle obtenue à partir d'une seule modalité. Les résultats expérimentaux montrent une amélioration significative des taux de reconnaissance des huit émotions par rapport aux résultats obtenus avec l'approche monomodale. Enfin nous avons intégré notre travail dans une application de détection de la dépression des personnes âgées dans un habitat intelligent. Nous avons utilisé les signaux physiologiques recueillis à partir de différents capteurs installés dans l'habitat pour estimer l'état affectif de la personne concernée. / This study focuses on affective computing in both fields of modeling and detecting emotions. Our contributions concern three points. First, we present a generic solution of emotional data exchange between heterogeneous multi-modal applications. This proposal is based on a new algebraic representation of emotions and is composed of three distinct layers : the psychological layer, the formal computational layer and the language layer. The first layer represents the psychological theory adopted in our approach which is the Plutchik's theory. The second layer is based on a formal multidimensional model. It matches the psychological approach of the previous layer. The final layer uses XML to generate the final emotional data to be transferred through the network. In this study we demonstrate the effectiveness of our model to represent an in infinity of emotions and to model not only the basic emotions (e.g., anger, sadness, fear) but also complex emotions like simulated and masked emotions. Moreover, our proposal provides powerful mathematical tools for the analysis and the processing of these emotions and it enables the exchange of the emotional states regardless of the modalities and sensors used in the detection step. The second contribution consists on a new monomodal method of recognizing emotional states from physiological signals. The proposed method uses signal processing techniques to analyze physiological signals. It consists of two main steps : the training step and the detection step. In the First step, our algorithm extracts the features of emotion from the data to generate an emotion training data base. Then in the second step, we apply the k-nearest-neighbor classifier to assign the predefined classes to instances in the test set. The final result is defined as an eight components vector representing the felt emotion in multidimensional space. The third contribution is focused on multimodal approach for the emotion recognition that integrates information coming from different cues and modalities. It is based on our proposed formal multidimensional model. Experimental results show how the proposed approach increases the recognition rates in comparison with the unimodal approach. Finally, we integrated our study on an automatic tool for prevention and early detection of depression using physiological sensors. It consists of two main steps : the capture of physiological features and analysis of emotional information. The first step permits to detect emotions felt throughout the day. The second step consists on analyzing these emotional information to prevent depression.
9

Reconnaissance et mimétisme des émotions exprimées sur le visage : vers une compréhension des mécanismes à travers le modèle parkinsonien / Facial emotion recognition and facial mimicry : new insights in Parkinson's disease

Argaud, Soizic 07 November 2016 (has links)
La maladie de Parkinson est une affection neurodégénérative principalement associée à la dégénérescence progressive des neurones dopaminergiques du mésencéphale provoquant un dysfonctionnement des noyaux gris centraux. En parallèle de symptômes moteurs bien connus, cette affection entraîne également l’émergence de déficits émotionnels impactant en outre l’expression et la reconnaissance des émotions. Ici, se pose la question d’un déficit de reconnaissance des émotions faciales chez les patients parkinsoniens lié au moins en partie aux troubles moteurs. En effet, selon les théories de simulation des émotions, copier les émotions de l’autre nous permettrait de mieux les reconnaître. Ce serait le rôle du mimétisme facial. Automatique et inconscient, ce phénomène est caractérisé par des réactions musculaires congruentes à l’émotion exprimée par autrui. Dans ce contexte, une perturbation des capacités motrices pourrait conduire à une altération des capacités de reconnaissance des émotions. Or, l’un des symptômes moteurs les plus fréquents dans la maladie de Parkinson, l’amimie faciale, consiste en une perte de la mobilité des muscles du visage. Ainsi, nous avons examiné l’efficience du mimétisme facial dans la maladie de Parkinson, son influence sur la qualité du processus de reconnaissance des émotions, ainsi que l’effet du traitement dopaminergique antiparkinsonien sur ces processus. Pour cela, nous avons développé un paradigme permettant l’évaluation simultanée des capacités de reconnaissance et de mimétisme (corrugator supercilii, zygomaticus major et orbicularis oculi) d’émotions exprimées sur des visages dynamiques (joie, colère, neutre). Cette expérience a été proposée à un groupe de patients parkinsoniens comparé à un groupe de sujets sains témoins. Nos résultats supportent l’hypothèse selon laquelle le déficit de reconnaissance des émotions chez le patient parkinsonien pourrait résulter d’un système « bruité » au sein duquel le mimétisme facial participerait. Cependant, l’altération du mimétisme facial dans la maladie de Parkinson et son influence sur la reconnaissance des émotions dépendraient des muscles impliqués dans l’expression à reconnaître. En effet, ce serait davantage le relâchement du corrugateur plutôt que les contractions du zygomatique ou de l’orbiculaire de l’œil qui nous aiderait à bien reconnaître les expressions de joie. D’un autre côté, rien ne nous permet ici de confirmer l’influence du mimétisme facial sur la reconnaissance des expressions de colère. Enfin, nous avons proposé cette expérience à des patients en condition de traitement habituel et après une interruption temporaire de traitement. Les résultats préliminaires de cette étude apportent des éléments en faveur d’un effet bénéfique du traitement dopaminergique tant sur la reconnaissance des émotions que sur les capacités de mimétisme. L’hypothèse d’un effet bénéfique dit « périphérique » sur la reconnaissance des émotions par restauration du mimétisme facial reste à tester à ce jour. Nous discutons l’ensemble de ces résultats selon les conceptions récentes sur le rôle des noyaux gris centraux et sous l’angle de l’hypothèse de feedback facial. / Parkinson’s disease is a neurodegenerative condition primarily resulting from a dysfunction of the basal ganglia following a progressive loss of midbrain dopamine neurons. Alongside the well-known motor symptoms, PD patients also suffer from emotional disorders including difficulties to recognize and to produce facial emotions. Here, there is a question whether the emotion recognition impairments in Parkinson’s disease could be in part related to motor symptoms. Indeed, according to embodied simulation theory, understanding other people’s emotions would be fostered by facial mimicry. Automatic and non-conscious, facial mimicry is characterized by congruent valence-related facial responses to the emotion expressed by others. In this context, disturbed motor processing could lead to impairments in emotion recognition. Yet, one of the most distinctive clinical features in Parkinson’s disease is facial amimia, a reduction in facial expressiveness. Thus, we studied the ability to mimic facial expression in Parkinson’s disease, its effective influence on emotion recognition as well as the effect of dopamine replacement therapy both on emotion recognition and facial mimicry. For these purposes, we investigated electromyographic responses (corrugator supercilii, zygomaticus major and orbicularis oculi) to facial emotion among patients suffering from Parkinson’s disease and healthy participants in a facial emotion recognition paradigm (joy, anger, neutral). Our results showed that the facial emotion processing in Parkinson’s disease could be swung from a normal to a pathological, noisy, functioning because of a weaker signal-to-noise ratio. Besides, facial mimicry could have a beneficial effect on the recognition of emotion. Nevertheless, the negative impact of Parkinson’s disease on facial mimicry and its influence on emotion recognition would depend on the muscles involved in the production of the emotional expression to decode. Indeed, the corrugator relaxation would be a stronger predictor of the recognition of joy expressions than the zygomatic or orbicularis contractions. On the other hand, we cannot conclude here that the corrugator reactions foster the recognition of anger. Furthermore, we proposed this experiment to a group of patients under dopamine replacement therapy but also during a temporary withdrawal from treatment. The preliminary results are in favour of a beneficial effect of dopaminergic medication on both emotion recognition and facial mimicry. The potential positive “peripheral” impact of dopamine replacement therapy on emotion recognition through restoration of facial mimicry has still to be tested. We discussed these findings in the light of recent considerations about the role of basal ganglia-based circuits and embodied simulation theory ending with the results’ clinical significances.
10

Modélisation, détection et annotation des états émotionnels à l'aide d'un espace vectoriel multidimensionnel

Tayari Meftah, Imen 12 April 2013 (has links) (PDF)
Notre travail s'inscrit dans le domaine de modélisation des états émotionnels. L'objectif est d'étudier et de modéliser les émotions afin d'assurer l'échanges entre applications multimodales. Il s'agit de pouvoir réutiliser et échanger des connaissances émotionnelles entre applications indépendamment de la modalité utilisée. Notre contribution s'axe donc sur deux points. En premier lieu, nous présentons une solution générique d'échange de données émotionnelle hétérogène entre des applications multimodales. Notre approche est basée sur une nouvelle représentation algébrique des émotions et elle est composée de trois couches distinctes: la couche psychologique, la couche de calcul formel et la couche langue. Dans notre travail, nous démontrons l'efficacité de notre modèle pour représenter une infinité d'émotions et de modéliser non seulement les émotions de base (par exemple, la colère, la tristesse, la peur), mais aussi les émotions complexes comme les émotions simulées et masqués. Le second point de notre contribution est axé sur la validation de notre modèle. Nous procédons pour cela à la reconnaissance des émotions a partir des signaux physiologiques. Nous avons utilisé les mêmes données collectées et utilisées dans la thèse de Healey (2000). L'algorithme de reconnaissance des émotion s'appuie sur l'application des technique de traitement de signal et sur une classification par plus proche voisins et en utilisant notre modèle multidimensionnel pour la représentation des émotions.

Page generated in 0.5037 seconds