• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 9
  • 4
  • Tagged with
  • 43
  • 43
  • 30
  • 13
  • 11
  • 11
  • 10
  • 9
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Adolescents avec Troubles Envahissants du Développement Sans Déficience Intellectuelle : quels liens entre les troubles anxieux et la reconnaissance des expressions faciales émotionnelles ? / Adolescents with Autism Spectrum Disorders (ASD) without Intellectual Disabilities : what links between anxiety disorders and facial emotional expression recognition?

Soussana, Myriam 19 December 2012 (has links)
Le taux de prévalence des troubles anxieux est très élevé chez les adolescents avec un Trouble Envahissant du Développement Sans Déficience Intellectuelle (TED-SDI). Hypothèse : Les troubles anxieux sont liés à la reconnaissance des expressions faciales émotionnelles dans les TED-SDI. Objectifs : 1) Etudier les liens entre la présence de troubles anxieux et la reconnaissance des expressions faciales émotionnelles auprès d’adolescents avec TED-SDI, en comparant leurs performances de reconnaissance des expressions faciales émotionnelles selon qu’ils aient ou non des troubles anxieux. 2) Vérifier si ces liens sont spécifiques aux TED-SDI, en comparant les performances à un groupe contrôle anxieux sans TED. 3) Caractériser les troubles anxieux dans les TED-SDI. Méthode : Il s'agit d'une étude transversale, descriptive et comparative d'une population de 46 adolescents avec TED-SDI âgés de 11 à 18 ans dont 20 ont des troubles anxieux. Ces derniers ont été comparés à 20 sujets contrôle du même âge ayant des troubles anxieux sans TED. Résultats : Dans la population avec TED, des liens sont mis en évidence entre la présence de troubles anxieux et l'altération de la reconnaissance des expressions de Colère et Tristesse. Il existe une corrélation spécifique aux TED-SDI entre l'augmentation du niveau d’anxiété sociale et l'amélioration de la reconnaissance de la Peur. Conclusion : Cette étude confirme l’existence de liens entre les troubles anxieux et la reconnaissance des expressions faciales émotionnelles dans les TED-SDI. Des pistes de réflexion sur l’évaluation et le développement de nouvelles prises en charge des troubles anxieux dans cette population sont proposées. / Previous studies reported a high prevalence of anxiety in adolescents with Autism Spectrum Disorders (ASD) without intellectual disability. Hypothesis: There is an association between anxiety disorders and facial emotional expressionrecognition in this population. Objectives: 1) to explore the relationship between anxiety disorders and facial emotional expression recognition in adolescents with ASD without intellectual disability and in a control group of adolescents without ASD. 2) to examine the specificity of this relation to ASD in comparing their performance in facial emotion recognition to that of a control group with anxiety disorder without ASD. 3) to characterize anxiety disorders in ASD without intellectual disability.Methods: Our study is cross-sectional, descriptive and comparative. Forty-six adolescents with ASD without intellectual disability aged between 11 and 18 years participated in the study. Among them, 20 had an anxiety disorder and were compared with 20 controls of the same age, with anxiety disorder without ASD. Results: In adolescents with ASD, anxiety disorders were related to impairments in recognition of the emotions like Anger and Sadness. Moreover, we found a significant correlation between the level ofsocial anxiety and improvement in Fear recognition that was specific to ASD.Conclusion and future directions: This study supports the hypothesis that anxiety disorders are relatedto facial emotion recognition in adolescents with ASD without intellectual disability. Clinicalimplications concerning the assessment of anxiety comorbidities in this population and the lack ofadapted treatments are discussed.
22

Le traitement des expressions faciales au cours de la première année : développement et rôle de l'olfaction / The processing of facial expressions during the first year of life : development and contribution of olfaction

Dollion, Nicolas 14 December 2015 (has links)
La première année de vie constitue une étape critique dans le développement des capacités de traitement des expressions faciales. Olfaction et expressions sont toutes deux étroitement liées, et il est reconnu que dès la naissance les enfants sont capables d’intégrer leur environnement de façon multi-sensorielle. Toutefois, la plupart des travaux sur le traitement multimodal des visages et des expressions se sont restreints à l’étude des interactions audio-visuelles.Dans ce travail de thèse, nous avons en premier lieu levé différentes ambiguïtés concernant l’ontogenèse des capacités de traitement des expressions. Les résultats obtenus ont permis de spécifier l’évolution des stratégies d’exploration visuelle des émotions au cours de la première année, et de démontrer la présence d’une distinction progressive des expressions selon leur signification émotionnelle. Au moyen de l’EEG, nous avons aussi précisé la nature et le décours temporel de la distinction des expressions chez les nourrissons de 3 mois.Le second objectif de nos travaux a été d’approfondir les connaissances sur le traitement multi-sensoriel des expressions, en nous intéressant spécifiquement aux interactions olfacto-visuelles. Nos expériences en potentiels évoqués ont permis de préciser le décours de l’intégration cérébrale de l’odeur dans le traitement des expressions chez l’adulte, et de démontrer la présence d’interactions similaires chez l’enfant de 3 mois. Nous avons également démontré qu’à 7 mois, les odeurs déclenchent une recherche d’expression spécifique. Il ressort de ces travaux que l’olfaction pourrait contribuer à l’établissement des capacités de traitement des expressions faciales. / The first year of life is critical for the development of the abilities to process facial expressions. Olfaction and expressions are both strongly linked to each other, and it is well known that infants are able to multisensorially integrate their environment as early as birth. However, most of the studies interested in multisensory processing of facial expressions are restricted to the investigation of audio-visual interactions.In this thesis, we firstly aimed to resolve different issues concerning the ontogenesis of infants’ ability to process facial expressions. Our results allowed to specify the development of visual exploratory strategies of facial emotions along the first year of life, and to demonstrate that a progressive distinction of expressions according to their emotional meaning is present. Using the EEG, we were also able to specify the nature and the time course of facial expressions distinction in 3-month-old infants.The second objective of our studies was to expand the knowledge concerning the multisensory processing of facial expressions. More specifically we wanted to investigate the influence of olfacto-visual interactions on this processing. Our event-related potentials experiments allowed to specify the time course of the cerebral integration of olfaction in the visual processing of emotional faces in adults, and to demonstrate that similar interactions are present in infants as young as 3 month-old. We also demonstrated that at 7 months of age odors trigger the search for specific facial expressions. Our results suggest that olfaction might contribute to the development of infants’ ability to process facially displayed emotions.
23

Combining 2D facial texture and 3D face morphology for estimating people's soft biometrics and recognizing facial expressions / La connaissance des biométries douces et la reconnaissance des expressions faciales

Ding, Huaxiong 16 December 2016 (has links)
Puisque les traits de biométrie douce peuvent fournir des preuves supplémentaires pour aider à déterminer précisément l’identité de l’homme, il y a eu une attention croissante sur la reconnaissance faciale basée sur les biométrie douce ces dernières années. Parmi tous les biométries douces, le sexe et l’ethnicité sont les deux caractéristiques démographiques importantes pour les êtres humains et ils jouent un rôle très fondamental dans l’analyse de visage automatique. En attendant, la reconnaissance des expressions faciales est un autre challenge dans le domaine de l’analyse de visage en raison de la diversité et de l’hybridité des expressions humaines dans différentes cultures, genres et contextes. Ce thèse est dédié à combiner la texture du visage 2D et la morphologie du visage 3D pour estimer les biométries douces: le sexe, l’ethnicité, etc., et reconnaître les expressions faciales. Pour la reconnaissance du sexe et de l’ethnicité, nous présentons une approche efficace en combinant à la fois des textures locales et des caractéristiques de forme extraites à partir des modèles de visage 3D, contrairement aux méthodes existantes qui ne dépendent que des textures ou des caractéristiques de forme. Afin de souligne exhaustivement la différence entre les groupes sexuels et ethniques, nous proposons un nouveau descripteur, à savoir local circular patterns (LCP). Ce descripteur améliore Les motifs binaires locaux (LBP) et ses variantes en remplaçant la quantification binaire par une quantification basée sur le regroupement, entraînant d’une puissance plus discriminative et une meilleure résistance au bruit. En même temps, l’algorithme Adaboost est engagé à sélectionner les caractéristiques discriminatives fortement liés au sexe et à l’ethnicité. Les résultats expérimentaux obtenus sur les bases de données FRGC v2.0 et BU-3DFE démontrent clairement les avantages de la méthode proposée. Pour la reconnaissance des expressions faciales, nous présentons une méthode automatique basée sur les multi-modalité 2D + 3D et démontrons sa performance sur la base des données BU-3DFE. Notre méthode combine des textures locales et des descripteurs de formes pour atteindre l’efficacité et la robustesse. Tout d’abord, un grand ensemble des points des caractéristiques d’images 2D et de modèles 3D sont localisés à l’aide d’un nouvel algorithme, à savoir la cascade parallèle incrémentielle de régression linéaire (iPar-CLR). Ensuite, on utilise un nouveau descripteur basé sur les histogrammes des gradients d’ordre secondaire (HSOG) en conjonction avec le descripteur SIFT pour décrire la texture locale autour de chaque point de caractéristique 2D. De même, la géométrie locale autour de chaque point de caractéristique 3D est décrite par deux nouveaux descripteurs de forme construits à l’aide des quantités différentielle de géométries de la surface au premier ordre et au second ordre, à savoir meshHOG et meshHOS. Enfin, les résultats de reconnaissance des descripteurs 2D et 3D fournis par le classifier SVM sont fusionnés à la fois au niveau de fonctionnalité et de score pour améliorer la précision. Les expérimentaux résultats démontrent clairement qu’il existe des caractéristiques complémentaires entre les descripteurs 2D et 3D. Notre approche basée sur les multi-modalités surpasse les autres méthodes de l’état de l’art en obtenant une précision de reconnaissance 86,32%. De plus, une bonne capacité de généralisation est aussi présentée sur la base de données Bosphorus. / Since soft biometrics traits can provide sufficient evidence to precisely determine the identity of human, there has been increasing attention for face based soft biometrics identification in recent years. Among those face based soft biometrics, gender and ethnicity are both key demographic attributes of human beings and they play a very fundamental and important role in automatic machine based face analysis. Meanwhile, facial expression recognition is another challenge problem in face analysis because of the diversity and hybridity of human expressions among different subjects in different cultures, genders and contexts. This Ph.D thesis work is dedicated to combine 2D facial Texture and 3D face morphology for estimating people’s soft biometrics: gender, ethnicity, etc., and recognizing facial expression. For the gender and ethnicity recognition, we present an effective and efficient approach on this issue by combining both boosted local texture and shape features extracted from 3D face models, in contrast to the existing ones that only depend on either 2D texture or 3D shape of faces. In order to comprehensively represent the difference between different genders or ethnics groups, we propose a novel local descriptor, namely local circular patterns (LCP). LCP improves the widely utilized local binary patterns (LBP) and its variants by replacing the binary quantization with a clustering based one, resulting in higher discriminative power as well as better robustness to noise. Meanwhile, the following Adaboost based feature selection finds the most discriminative gender- and ethnic-related features and assigns them with different weights to highlight their importance in classification, which not only further raises the performance but reduces the time and memory cost as well. Experimental results achieved on the FRGC v2.0 and BU-3DFE data sets clearly demonstrate the advantages of the proposed method. For facial expression recognition, we present a fully automatic multi-modal 2D + 3D feature-based facial expression recognition approach and demonstrate its performance on the BU–3DFE database. Our approach combines multi-order gradientbased local texture and shape descriptors in order to achieve efficiency a nd robustness. First, a large set of fiducial facial landmarks of 2D face images along with their 3D face scans are localized using a novel algorithm namely incremental Parallel Cascade of Linear Regression (iPar–CLR). Then, a novel Histogram of Second Order Gradients (HSOG) based local image descriptor in conjunction with the widely used first-order gradient based SIFT descriptor are employed to describe the local texture around each 2D landmark. Similarly, the local geometry around each 3D landmark is described by two novel local shape descriptors constructed using the first-order and the second-order surface differential geometry quantities, i.e., Histogram of mesh Gradients (meshHOG) and Histogram of mesh Shape index (curvature quantization, meshHOS). Finally, the Support Vector Machine (SVM) based recognition results of all 2D and 3D descriptors are fused at both featurelevel and score-level to further improve the accuracy. Comprehensive experimental results demonstrate that there exist impressive complementary characteristics between the 2D and 3D descriptors. We use the BU–3DFE benchmark to compare our approach to the state-of-the-art ones. Our multi-modal feature-based approach outperforms the others by achieving an average recognition accuracy of 86,32%. Moreover, a good generalization ability is shown on the Bosphorus database.
24

Atteintes amygdaliennes et troubles émotionnels dans la maladie d'Alzheimer : apport de nouvelles pistes pour le diagnostic

Klein koerkamp, Yanica 01 October 2013 (has links) (PDF)
Le diagnostic de la maladie d'" Alzheimer " (MA) repose essentiellement sur des tests neuropsychologiques, démontrant d'importants déficits mnésiques en lien avec l'atrophie de l'hippocampe. Parallèlement à cela, l'existence d'une atteinte précoce de l'amygdale a très récemment été proposée dans une série d'études, suggérant que cette structure pourrait être un marqueur neuro-anatomique de l'entrée dans la maladie. Les études ayant évalué les répercussions émotionnelles de ces atteintes amygdaliennes n'ont néanmoins pas permis d'aboutir à l'identification d'un profil convergent de déficits. L'objectif de cette thèse a donc été de démontrer l'existence d'une atteinte de l'amygdale à un stade précoce de la MA entrainant des modifications des traitements émotionnels. Dans une première étude en neuroimagerie structurelle, nous avons montré des arguments robustes quant à l'existence d'atteintes anatomiques de l'amygdale chez des patients légèrement atteints par la maladie. L'amplitude de cette atrophie s'est avérée être un indicateur particulièrement sensible du niveau général d'atteintes cognitives mesurées chez nos patients. Dans les études suivantes, nous nous sommes intéressés aux répercussions de cette atteinte sur des activités cognitives sous-tendues plus directement par le fonctionnement de cette structure : les traitements émotionnels. Par l'élaboration d'une méta-analyse, nous avons pu identifier un déficit précoce de la reconnaissance des émotions. Nous avons de plus démontré que les troubles cognitifs des patients expliquaient en partie le déficit émotionnel, sans toutefois l'expliquer dans sa totalité. Enfin, une série d'études comportementales et en neuroimagerie fonctionnelle, a permis de confirmer que les atteintes anatomiques s'accompagnaient bien d'un dysfonctionnement de l'amygdale entrainant des déficits émotionnels, en particulier dans les mécanismes à l'origine de l'extraction spontanée de la saillance émotionnelle. L'ensemble de nos données convergent vers l'idée que l'atteinte amygdalienne et les altérations des mécanismes émotionnels seraient une piste prometteuse afin de préciser le diagnostic actuel de la MA.
25

Représentation invariante des expressions faciales. : Application en analyse multimodale des émotions. / Invariant Representation of Facial Expressions : Application to Multimodal Analysis of Emotions

Soladié, Catherine 13 December 2013 (has links)
De plus en plus d’applications ont pour objectif d’automatiser l’analyse des comportements humains afin d’aider les experts qui réalisent actuellement ces analyses. Cette thèse traite de l’analyse des expressions faciales qui fournissent des informations clefs sur ces comportements.Les travaux réalisés portent sur une solution innovante, basée sur l’organisation des expressions, permettant de définir efficacement une expression d’un visage.Nous montrons que l’organisation des expressions, telle que définie, est universelle : une expression est alors caractérisée par son intensité et sa position relative par rapport aux autres expressions. La solution est comparée aux méthodes classiques et montre une augmentation significative des résultats de reconnaissance sur 14 expressions non basiques. La méthode a été étendue à des sujets inconnus. L’idée principale est de créer un espace d’apparence plausible spécifique à la personne inconnue en synthétisant ses expressions basiques à partir de déformations apprises sur d’autres sujets et appliquées sur le neutre du sujet inconnu. La solution est aussi mise à l’épreuve dans un environnement multimodal dont l’objectif est la reconnaissance d’émotions lors de conversations spontanées. Notre méthode a été mise en œuvre dans le cadre du challenge international AVEC 2012 (Audio/Visual Emotion Challenge) où nous avons fini 2nd, avec des taux de reconnaissance très proches de ceux obtenus par les vainqueurs. La comparaison des deux méthodes (la nôtre et celles des vainqueurs) semble montrer que l’extraction des caractéristiques pertinentes est la clef de tels systèmes. / More and more applications aim at automating the analysis of human behavior to assist or replace the experts who are conducting these analyzes. This thesis deals with the analysis of facial expressions, which provide key information on these behaviors.Our work proposes an innovative solution to effectively define a facial expression, regardless of the morphology of the subject. The approach is based on the organization of expressions.We show that the organization of expressions, such as defined, is universal and can be effectively used to uniquely define an expression. One expression is given by its intensity and its relative position to the other expressions. The solution is compared with the conventional methods based on appearance data and shows a significant increase in recognition results of 14 non-basic expressions. The method has been extended to unknown subjects. The main idea is to create a plausible appearance space dedicated to the unknown person by synthesizing its basic expressions from deformations learned on other subjects and applied to the neutral face of the unknown subject. The solution is tested in a more comprehensive multimodal environment, whose aim is the recognition of emotions in spontaneous conversations. Our method has been implemented in the international challenge AVEC 2012 (Audio / Visual Emotion Challenge) where we finished 2nd, with recognition rates very close to the winners’ ones. Comparison of both methods (ours and the winners’ one) seems to show that the extraction of relevant features is the key to such systems.
26

The influence of bodily actions on social perception and behaviour : assessing effects of power postures / L'influence des actions corporelles sur la perception et le comportement social : évaluation des effets des postures de pouvoir

Metzler, Hannah 13 December 2018 (has links)
Les postures corporelles signalant domination ou soumission servent une fonction de communication chez les humains et d’autres animaux. La question de savoir si l'adoption de telles "postures de pouvoir" influence la perception et le comportement de l'agent fait actuellement l'objet d'un débat. Le travail réalisé pendant cette thèse consistait à explorer les effets de ces postures sur des comportements étroitement liés à leur fonction primaire, à savoir la communication sociale, en se focalisant sur les réponses aux visages, signaux sociaux particulièrement saillants. Dans une série d'expériences, j'ai utilisé des méthodes de corrélation inverse pour visualiser les représentations mentales de traits préférés du visage. Les représentations mentales des visages préférés implicitement et explicitement évoquaient une impression affiliative et légèrement dominante, mais ne révélaient aucun effet reproductible des postures. Deux autres expériences distinctes ont étudié les effets de la posture sur la perception d’expressions faciales menaçantes et sur les comportements d'approche ou d'évitement en réponse à ces signaux. Bien que les postures n'aient pas d’influence sur la reconnaissance explicite d’expressions faciales menaçantes, elles ont un impact sur les décisions d'approcher ou d'éviter des signaux de menace. Plus précisément, l'adoption d'une posture de soumission augmentait la tendance à éviter les personnes exprimant la colère. Enfin, une tentative de réplication des effets des postures sur les niveaux de testostérone et de cortisol a démontré que même l'adoption répétée d'une posture de pouvoir en contexte social ne provoque pas de changements hormonaux. Dans l'ensemble, ces résultats suggèrent que notre posture corporelle n’influence pas nos représentations mentales et notre perception des autres individus, mais pourrait influencer nos actions en réponse aux signaux sociaux. / Expansive and constrictive body postures serve a primary communicative function in humans and other animals by signalling power and dominance. Whether adopting such “power postures” influences the agent’s own perception and behaviour is currently a subject of debate. In this PhD thesis, I explored effects of adopting power postures on behaviours closely related to the postures’ primary function of social signalling by focusing on responses to faces as particularly salient social signals. In a series of experiments, I utilized reverse correlation methods to visualize mental representations of preferred facial traits. Mental representations of implicitly as well as explicitly preferred faces evoked an affiliative and slightly dominant impression, but revealed no replicable effects of power postures. Two further separate experiments investigated posture effects on the perception of threatening facial expressions, and approach vs. avoidance actions in response to such social signals. While postures did not influence explicit recognition of threatening facial expressions, they affected approach and avoidance actions in response to them. Specifically, adopting a constrictive posture increased the tendency to avoid individuals expressing anger. Finally, an attempt to replicate posture effects on levels of testosterone and cortisol demonstrated that even repeatedly adopting a power posture in a social context does not elicit hormonal changes. Altogether, these findings suggest that our body posture does not influence our mental representations and perception of other people’s faces per se, but could influence our actions in response to social signals.
27

Facial expressions of pain in cats : the development and validation of the Feline Grimace Scale

Cayetano Evangelista, Marina 08 1900 (has links)
L’évaluation de la douleur chez le chat est souvent un défi en raison de leur nature discrète et les changements de comportement potentiels dans des situations inhabituelles et stressantes, telles que l'environnement vétérinaire. Différents outils d’évaluation de la douleur (c.-à.-d. des échelles de douleur) basés sur l'observation des comportements ont été proposés pour les chats; cependant, la majorité de ces outils manque de tests de validité, de fiabilité et/ou de généralisabilité. De plus, les échelles de douleur sont peu utilisées dans la pratique clinique. Des outils simples, pratiques et fiables tels que les échelles de grimace (instruments d'évaluation de la douleur basés sur l'expression faciale), ont le potentiel de changer ce scénario. Elles ont été développées pour plusieurs espèces, excluant le chat. L'objectif général de cette thèse était de développer un nouvel instrument basé sur l'expression faciale pour l'évaluation de la douleur aiguë chez les chats, la « Feline Grimace Scale » (FGS) et d'explorer ses applications et ses limitations. Nos hypothèses étaient que la FGS permettrait l’identification de la douleur chez les chats avec précision (dans différentes conditions telles que la douleur d’origine naturelle et postopératoire); elle serait valide et fiable (parmi différents évaluateurs); elle serait capable de détecter la réponse aux analgésiques; et finalement, elle pourrait être appliquée en temps réel dans le contexte clinique. La FGS a été développée et validée en utilisant une approche psychométrique pour détecter la douleur aiguë chez les chats. Cette échelle discriminait entre les chats en douleur de ceux qui ne le sont pas; détectait la réponse à différents analgésiques; et corrélait fortement avec un autre système de notation de la douleur. Une bonne fiabilité inter et intra-observateur a été démontrée, non seulement parmi les vétérinaires, mais aussi parmi les propriétaires de chats, les étudiants vétérinaires et les techniciens en santé animale. L’utilisation de la FGS en temps réel était aussi réalisable. D’autre part, nos résultats suggèrent que le genre de l'évaluateur influencerait l'évaluation de la douleur, car les évaluatrices attribuaient des scores plus élevés que les évaluateurs. La FGS est un outil valide, fiable et pratique pour l'utilisation potentielle en recherche ou en clinique; en temps réel ou par l’évaluation des images. Elle pourrait être aussi applicable dans une large gamme de conditions douloureuses et par des évaluateurs avec différents niveaux d'expertise, et potentiellement aussi à la maison (par les propriétaires de chats). Cela représente un progrès substantiel dans l’identification et la gestion de la douleur féline, vers les plus hautes exigences en matière de soins vétérinaires. / Pain assessment in cats is challenging due to a number of reasons, including their discrete nature and potential behavioral changes in unfamiliar and stressful situations, such as the veterinary environment. Different pain assessing instruments (i.e. pain scales) that rely on the observation of behaviors have been proposed for cats; however, the majority lack validity, reliability and/or generalizability testing. Additionally, the adherence to their use in clinical practice is low and warrants improvement. Simple, practical and reliable tools such as grimace scales (facial expression-based pain assessment instruments), have the potential of changing this scenario. They have been developed for several species, among which the cat was not included. The overall aim of this thesis was to develop a novel facial expression-based instrument for acute pain assessment in cats, the Feline Grimace Scale (FGS) and to explore its applications and limitations. Our hypotheses were that the FGS would be able to accurately identify pain in cats (in different conditions such as naturally-occurring or spontaneous and postoperative pain); it would be valid and reliable (among different raters); it would be able to detect the response to analgesics; and its application in real-time in the clinical context would be feasible. The FGS was developed and validated using a comprehensive psychometric approach to detect acute pain in cats. It has demonstrated a high discriminative ability between painful and non-painful cats; it is capable of detecting the response to different analgesic drugs and it is strongly correlated with another pain scoring system. Furthermore, it demonstrated good inter- and intra-rater reliability, not only among veterinarians, but also among cat owners, veterinary students and nurses (technicians). Real-time scoring using the FGS was proven feasible. On the other hand, our results suggested that the rater gender may influence pain assessment, as female raters assigned higher scores than males. The FGS is a valid, reliable and practical tool potentially for both research and clinical use in real-time or using image assessment; that may be applicable in a wide range of painful conditions, by raters with different degree of expertise, and potentially at home (by cat owners). This represents a substantial progress in feline pain management, towards the highest standards in veterinary care.
28

L’utilisation de l’information visuelle en reconnaissance d’expressions faciales d’émotion

Blais, Caroline 09 1900 (has links)
L’aptitude à reconnaitre les expressions faciales des autres est cruciale au succès des interactions sociales. L’information visuelle nécessaire à la catégorisation des expressions faciales d’émotions de base présentées de manière statique est relativement bien connue. Toutefois, l’information utilisée pour discriminer toutes les expressions faciales de base entre elle demeure encore peu connue, et ce autant pour les expressions statiques que dynamiques. Plusieurs chercheurs assument que la région des yeux est particulièrement importante pour arriver à « lire » les émotions des autres. Le premier article de cette thèse vise à caractériser l’information utilisée par le système visuel pour discriminer toutes les expressions faciales de base entre elles, et à vérifier l’hypothèse selon laquelle la région des yeux est cruciale pour cette tâche. La méthode des Bulles (Gosselin & Schyns, 2001) est utilisée avec des expressions faciales statiques (Exp. 1) et dynamiques (Exp. 2) afin de trouver quelles régions faciales sont utilisées (Exps. 1 et 2), ainsi que l’ordre temporel dans lequel elles sont utilisées (Exp. 2). Les résultats indiquent que, contrairement à la croyance susmentionnée, la région de la bouche est significativement plus utile que la région des yeux pour discriminer les expressions faciales de base. Malgré ce rôle prépondérant de la bouche, c’est toute de même la région des yeux qui est sous-utilisée chez plusieurs populations cliniques souffrant de difficultés à reconnaitre les expressions faciales. Cette observation pourrait suggérer que l’utilisation de la région des yeux varie en fonction de l’habileté pour cette tâche. Le deuxième article de cette thèse vise donc à vérifier comment les différences individuelles en reconnaissance d’expressions faciales sont reliées aux stratégies d’extraction de l’information visuelle pour cette tâche. Les résultats révèlent une corrélation positive entre l’utilisation de la région de la bouche et l’habileté, suggérant la présence de différences qualitatives entre la stratégie des patients et celle des normaux. De plus, une corrélation positive est retrouvée entre l’utilisation de l’œil gauche et l’habileté des participants, mais aucune corrélation n’est retrouvée entre l’utilisation de l’œil droit et l’habileté. Ces résultats indiquent que la stratégie des meilleurs participants ne se distingue pas de celle des moins bons participants simplement par une meilleure utilisation de l’information disponible dans le stimulus : des différences qualitatives semblent exister même au sein des stratégies des participants normaux. / The ability to recognize facial expressions is crucial for the success of social communication. The information used by the visual system to categorize static basic facial expressions is now relatively well known. However, the visual information used to discriminate the basic facial expressions from one another is still unknown, and this is true for both static and dynamic facial expressions. Many believe that the eye region of a facial expression is particularly important when it comes to reading others' emotions. The aim of the first article of this thesis is to determine which information is used by the visual system in order to discriminate between the basic facial expressions and to verify the validity of the hypothesis that the eye region is crucial for this task. The Bubbles method (Gosselin & Schyns, 2001) is used with static (Exp. 1) and dynamic (Exp. 2) facial expressions in order to determine which facial areas are used for the task (Exp. 1) and in which temporal order these facial areas are used (Exp. 2). The results show that, in contrast with the aforementioned belief, the mouth region is significantly more useful than the eye region when discriminating between the basic facial expressions. Despite this preponderant role of the mouth, it is the eye area⎯not the mouth area⎯that is underutilized by many clinical populations suffering from difficulties in recognizing facial expressions. This observation could suggest that the utilization of the eye area varies as a function of the ability to recognize facial expressions. The aim of the second article in this thesis is thus to verify how individual differences in the ability to recognize facial expressions relate to the visual information extraction strategies used for this task. The results show a positive correlation between the ability of the participants and the utilization of the mouth region, suggesting the existence of qualitative differences between the strategy of clinical patients and of normal participants. A positive correlation is also found between the ability of the participants and the utilization of the left eye area, but no correlation is found between the ability and the utilization of the right eye area. These results suggest that the difference between the strategies of the best and the worst participants is not only that the best ones use the information available in the stimulus more efficiently: rather, qualitative differences in the visual information extraction strategies may exist even within the normal population.
29

L’influence du vieillissement normal et pathologique sur le traitement des expressions faciales et du jugement de confiance

Éthier-Majcher, Catherine 04 1900 (has links)
Déterminer si quelqu’un est digne de confiance constitue, tout au long de notre vie, une décision à la base de nos interactions sociales quotidiennes. Des études récentes chez les jeunes adultes ont proposé que le jugement de confiance basé sur un visage constituerait une extension des processus de reconnaissance des expressions faciales, particulièrement de la colère et de la joie (Todorov, 2008). Bien que le jugement de confiance soit d’une grande importance tout au long de notre vie, à notre connaissance, aucune étude n’a tenté d’explorer l’évolution de ce processus au cours du vieillissement. Pourtant, sachant que les personnes âgées saines sont moins efficaces que les jeunes adultes pour reconnaître les expressions faciales émotionnelles (Ruffman et al., 2008; Calder et al., 2003), des différences pourraient exister dans les capacités de ces deux groupes d’âge à poser un jugement de confiance. Le présent travail a permis d’explorer, pour une première fois, les processus perceptifs sous-jacents au jugement de confiance chez une population âgée saine ainsi que chez une population présentant une démence fronto-temporale. Les résultats démontrent que les représentations de colère, de joie et de confiance sont similaires chez les jeunes et les âgés sains et suggèrent qu’il existe bel et bien un lien entre le jugement de confiance et les jugements de joie et de colère. De plus, ils révèlent que ce lien persiste au cours vieillissement, mais que les adultes âgés sains se fient davantage à leur représentation de la colère que les jeunes adultes pour déterminer si un visage est digne de confiance ou non. Enfin, les patients présentant une démence fronto-temporale possèdent des représentations différentes des âgés sains en ce qui concerne la colère, la joie et la confiance, et ils semblent se fier davantage à leur représentation de la joie que les âgés sains pour déterminer le niveau de confiance d’un visage. / To determine whether someone looks trustworthy or not is, throughout our lives, a basic decision in our social interactions. Recent studies have suggested that this type of judgment may be an extension of facial expression judgments, more specifically of anger and happiness judgments (Todorov, 2008). Even though trustworthiness judgments play a great role in our social interactions throughout our lives, little is known about the evolution of this process through aging. However, knowing that older adults are less efficient than younger adults in identifying facial expressions (Ruffman et al., 2008; Calder et al., 2003), one could expect to find differences between young and older adults in the way they judge trustworthiness. This work aimed to explore, for the first time, perceptual processes underlying trustworthiness judgments in a healthy older adult population as well as in a population of fronto-temporal dementia (FTD) patients. Results show that anger, happiness and trustworthiness representations are similar between young and older adults, and they suggest that a relationship does exist between emotional judgments and trustworthiness judgments. Moreover, results show that this relationship persists throughout aging, but that older adults rely more on their representation of anger than younger in adults while judging trustworthiness. Finally, patients with fronto-temporal dementia show different representations of anger, happiness and trustworthiness than that of the controls. Also, for trustworthiness judgments, they rely more on their representation of happiness than controls.
30

Le décodage des expressions faciales émotionnelles à travers différentes bandes de fréquences spatiales et ses interactions avec l’anxiété

Harel, Yann 08 1900 (has links)
Le décodage des expressions faciales émotionnelles (EFE) est une fonction clé du système visuel humain puisqu’il est à la base de la communication non-verbale sur laquelle reposent les interactions sociales. De nombreuses études suggèrent un traitement différentiel des attributs diagnostiques du visage au sein des basses et des hautes fréquences spatiales (FS), respectivement sous-tendu par les voies magno- et parvocellulaires. En outre, des conditions telles que l’anxiété sociale sont susceptibles d’affecter ce traitement et d’entrainer une modulation des potentiels reliés aux évènements (PRE). Cette étude explore la possibilité de prédire le niveau d’anxiété social des individus à partir des corrélats électrophysiologiques du décodage d’EFE dans différentes bandes de FS. À cette fin, les PRE de 26 participants (âge moyen = 23.7 ± 4.7) ont été enregistrés lors de la présentation visuelle d’expressions neutres, de joie ou de colère filtrées pour ne retenir que les basses, moyennes ou hautes FS. L’anxiété sociale a été évaluée par l’administration préalable du questionnaire LSAS. Les latences et pics d’amplitude de la P100, N170, du complexe N2b/P3a et de la P3b ont été analysés statistiquement et utilisés pour entrainer différents algorithmes de classification. L’amplitude de la P100 était reliée au contenu en FS. La N170 a montré un effet des EFE. Le complexe N2b/P3a était plus ample pour les EFE et plus précoce pour les hautes FS. La P3b était moins ample pour les visages neutres, qui étaient aussi plus souvent omis. L’analyse discriminante linéaire a montré une précision de décodage d’en moyenne 56.11% au sein des attributs significatifs. La nature de ces attributs et leur sensibilité à l’anxiété sociale sera discutée. / The decoding of emotional facial expressions (EFE) is a key function of the human visual system since it lays at the basis of non-verbal communication that allows social interactions. Numerous studies suggests that the processing of faces diagnostic features may take place differently for low and high spatial frequencies (SF), respectively in the magno- and parvocellular pathways. Moreover, conditions such as social anxiety are supposed to influence this processing and the associated event-related potentials (ERP). This study explores the feasibility of predicting social anxiety levels using electrophysiological correlates of EFE processing across various SF bands. To this end, ERP from 26 participants (mean age = 23.7 ± 4.7) years old were recorded during visual presentation of neutral, angry and happy facial expressions, filtered to retain only low, medium or high SF. Social anxiety was previously assessed using the LSAS questionnary. Peak latencies and amplitudes of the P100, N170, N2b/P3a complex and P3b components were statistically analyzed and used to feed supervised machine learning algorithms. P100 amplitude was linked to SF content. N170 was effected by EFE. N2b/P3a complex was larger for EFE and earlier for high SF. P3b was lower for neutral faces, which were also more often omitted. The linear discriminant analysis showed a decoding accuracy across significant features with a mean of 56.11%. The nature of these features and their sensitivity to social anxiety will be discussed.

Page generated in 0.121 seconds