• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 2
  • Tagged with
  • 6
  • 6
  • 6
  • 5
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Habiletés sociales et langagières des personnes porteuses du syndrome de Williams : comparaisons intersyndromique / Social and language skills in individuals with Williams Syndrome : cross-syndrome comparisons

Touchet, Claire 01 December 2017 (has links)
Cette recherche a pour objectif d'étudier le développement des capacités en langage, en théorie de l'esprit et en reconnaissance des émotions dans le syndrome de Williams (SW). Ce syndrome est un trouble génétique rare. Le SW se caractérise par un profil sociocognitif particulier associé à une déficience intellectuelle légère à modérée (Bellugi, Marks, Bihrle, & Sabo, 1988 ; Mervis & Bertrand, 1999). Le profil hypersocial caractéristique des personnes avec SW, en particulier leur attrait pour les visages et leur volonté d'interagir avec autrui, pourrait impacter la mise en place de leurs habiletés sociales et langagières. Ces différentes capacités ont été évaluées via 4 expériences chez un même groupe de 16 participants avec SW. Leurs performances ont été comparées à celles de 16 participants avec syndrome de Down, de 16 enfants typiques de même âge verbal et de 16 enfants typiques de même niveau de raisonnement non-verbal. À partir d'une approche d'appariement et de trajectoires développementales, l'analyse des résultats met en avant des compétences non préservées pour le groupe SW. Le lien entre langage et théorie de l'esprit dans le SW semble similaire à celui existant dans le développement typique. Toutefois, les comparaisons intersyndromiques révèlent des spécificités au niveau du profil sociocognitif du SW, notamment la production excessive d'évaluations sociales et leur bonne capacité à attribuer des émotions. Le comportement hypersociable et la facilité d'interaction des personnes avec SW semblent contribuer à surestimer leurs compétences sociocognitives et globales / This research aims to study the development of language, theory of mind and emotion recognition in Williams syndrome (WS). This syndrome is a rare neurodevelopmental disorder of genetic origins. The WS is characterized by a specific sociocognitive profile including mild to moderate intellectual disability (Bellugi, Marks, Bihrle, & Sabo, 1988 ; Mervis & Bertrand, 1999). The distinctive hypersocial phenotype of people with SW, in particular their attractiveness to the faces and their willingness to interact with others, may affect the development of their social and language skills. These different abilities were evaluated by 4 experiments with the same group of 16 participants with SW. Their performance was compared with that of 16 participants with Down syndrome, that of 16 typical children who were matched for verbal age and that of 16 typical children who were matched for non-verbal reasoning. Using a matching approach and developmental trajectories, the analysis of the results point out impaired skills for the WS group. The link between language and theory of mind in the SW seems similar to that existing in typical development. However, cross-syndrome comparisons reveal specificities in the socio-cognitive profile of WS, especially the excessive production of social engagement devices and their good ability to attribute emotions. The hypersocial behavior and ease of interaction of people with WS seem to contribute to overestimating their sociocognitive and global skills
2

Reconnaissance d'états émotionnels par analyse visuelle du visage et apprentissage machine / Recognition of emotional states by visual facial analysis and machine learning

Lekdioui, Khadija 29 December 2018 (has links)
Dans un contexte présentiel, un acte de communication comprend des expressions orales et émotionnelles. A partir de l’observation, du diagnostic et de l’identification de l’état émotionnel d’un individu, son interlocuteur pourra entreprendre des actions qui influenceraient la qualité de la communication. A cet égard, nous pensons améliorer la manière dont les individus perçoivent leurs échanges en proposant d’enrichir la CEMO (communication écrite médiatisée par ordinateur) par des émotions ressenties par les collaborateurs. Pour ce faire, nous proposons d’intégrer un système de reconnaissance, en temps réel, des émotions (joie, peur, surprise, colère, dégoût, tristesse, neutralité) à la plate-forme pédagogique “Moodle”, à partir de l’analyse des expressions faciales de l’apprenant à distance lors des activités collaboratives. La reconnaissance des expressions faciales se fait en trois étapes. Tout d’abord, le visage et ses composants (sourcils, nez, bouche, yeux) sont détectés à partir de la configuration de points caractéristiques. Deuxièmement, une combinaison de descripteurs hétérogènes est utilisée pour extraire les traits caractéristiques du visage. Finalement, un classifieur est appliqué pour classer ces caractéristiques en six émotions prédéfinies ainsi que l’état neutre. Les performances du système proposé seront évaluées sur des bases publiques d’expressions faciales posées et spontanées telles que Cohn-Kanade (CK), Karolinska Directed Emotional Faces (KDEF) et Facial Expressions and Emotion Database (FEED). / In face-to-face settings, an act of communication includes verbal and emotional expressions. From observation, diagnosis and identification of the individual's emotional state, the interlocutor will undertake actions that would influence the quality of the communication. In this regard, we suggest to improve the way that the individuals perceive their exchanges by proposing to enrich the textual computer-mediated communication by emotions felt by the collaborators. To do this, we propose to integrate a real time emotions recognition system in a platform “Moodle”, to extract them from the analysis of facial expressions of the distant learner in collaborative activities. There are three steps to recognize facial expressions. First, the face and its components (eyebrows, nose, mouth, eyes) are detected from the configuration of facial landmarks. Second, a combination of heterogeneous descriptors is used to extract the facial features. Finally, a classifier is applied to classify these features into six predefined emotions as well as the neutral state. The performance of the proposed system will be assessed on a public basis of posed and spontaneous facial expressions such as Cohn-Kanade (CK), Karolinska Directed Emotional Faces (KDEF) and Facial Expressions and Emotion Database (FEED).
3

Conception d'un système de vision par phosphènes / Conception of a phosphene based visual system

Tatur, Guillaume 18 March 2011 (has links)
Ces travaux s'inscrivent dans le cadre plus général de la réalisation d'une prothèse visuelle, destinée aux personnes atteintes de cécité tardive due à une maladie dégénérative des cellules photo réceptrices de la rétine. Par la stimulation adéquate de certaines parties des voies optiques encore fonctionnelles, il est possible de transmettre à nouveau des perceptions visuelles, appelées phosphènes, dans le champ visuel du patient. Les études actuelles portant sur le contenu informationnel de cette vision prothétique proposent simplement de réduire la résolution de l'image d'une caméra embarquée. Notre étude propose une nouvelle approche basée sur le principe de la vision fonctionnelle, développée en collaboration avec les spécialistes de la rééducation fonctionnelle de l'institut ARAMAV. Par le biais de cette approche innovante, nous avons défini des méthodes d'extraction et de représentation des informations de la scène. L'objectif est d'améliorer l'autonomie en mobilité et de rendre possible la perception des expressions faciales. Pour évaluer la pertinence de ces propositions, nous avons développé un simulateur de vision prothétique, dont les paramètres sont basés sur les résultats d'essais cliniques. Pour la mobilité, nous mettons notamment en évidence l'intérêt de fournir un accès aux informations 3D, en substitution ou en complément de l'information de luminosité, ainsi que l'intérêt d'utiliser un oculomètre pour améliorer et faciliter la prise d'informations. Des expériences spécifiques à la mobilité, ainsi que certains résultats initiaux sont présentés. Pour la reconnaissance des expressions faciales, notre étude apporte la preuve que ces expressions sont correctement perçues si nous combinons des techniques de sélection de l'information et l'utilisation de certains prétraitements. / This work falls within the broader framework of visual prostheses conception, designed for people suffering from late blindness due to degenerative diseases of retina photoreceptor cells. By stimulating certain part of the optical pathway that is still functional, it is possible to elicit visual perceptions, called phosphenes, in the subject's visual field. Recent studies on the problematic of informational content of prosthetic vision propose, in majority, a simple reduction in the resolution of grayscale images acquired from a single head worn camera. Our study proposes a new approach based on the principle of functional vision, developed in collaboration with specialists in functional rehabilitation of the ARAMAV institute. Through this innovative approach, we have defined methods for extraction and representation of scene informational content, which aim to improve autonomy in mobility and to make possible the perception of facial expressio ns. In order to evaluate these propositions, we have developed a prosthetic vision simulator, whose parameters are based on clinical trials results. For mobility, we present the usefulness of providing access to 3D information, in substitution or in addition with brightness information and the usefulness of an eye tracking device to improve and facilitate spatial knowledge acquisition. Experiments dedicated to mobility as well as some preliminary results are presented. For the recognition of facial expressions, our study provides evidence that these expressions are correctly perceived if we combined information selection and specific image processing techniques.
4

Adolescents avec Troubles Envahissants du Développement Sans Déficience Intellectuelle : quels liens entre les troubles anxieux et la reconnaissance des expressions faciales émotionnelles ? / Adolescents with Autism Spectrum Disorders (ASD) without Intellectual Disabilities : what links between anxiety disorders and facial emotional expression recognition?

Soussana, Myriam 19 December 2012 (has links)
Le taux de prévalence des troubles anxieux est très élevé chez les adolescents avec un Trouble Envahissant du Développement Sans Déficience Intellectuelle (TED-SDI). Hypothèse : Les troubles anxieux sont liés à la reconnaissance des expressions faciales émotionnelles dans les TED-SDI. Objectifs : 1) Etudier les liens entre la présence de troubles anxieux et la reconnaissance des expressions faciales émotionnelles auprès d’adolescents avec TED-SDI, en comparant leurs performances de reconnaissance des expressions faciales émotionnelles selon qu’ils aient ou non des troubles anxieux. 2) Vérifier si ces liens sont spécifiques aux TED-SDI, en comparant les performances à un groupe contrôle anxieux sans TED. 3) Caractériser les troubles anxieux dans les TED-SDI. Méthode : Il s'agit d'une étude transversale, descriptive et comparative d'une population de 46 adolescents avec TED-SDI âgés de 11 à 18 ans dont 20 ont des troubles anxieux. Ces derniers ont été comparés à 20 sujets contrôle du même âge ayant des troubles anxieux sans TED. Résultats : Dans la population avec TED, des liens sont mis en évidence entre la présence de troubles anxieux et l'altération de la reconnaissance des expressions de Colère et Tristesse. Il existe une corrélation spécifique aux TED-SDI entre l'augmentation du niveau d’anxiété sociale et l'amélioration de la reconnaissance de la Peur. Conclusion : Cette étude confirme l’existence de liens entre les troubles anxieux et la reconnaissance des expressions faciales émotionnelles dans les TED-SDI. Des pistes de réflexion sur l’évaluation et le développement de nouvelles prises en charge des troubles anxieux dans cette population sont proposées. / Previous studies reported a high prevalence of anxiety in adolescents with Autism Spectrum Disorders (ASD) without intellectual disability. Hypothesis: There is an association between anxiety disorders and facial emotional expressionrecognition in this population. Objectives: 1) to explore the relationship between anxiety disorders and facial emotional expression recognition in adolescents with ASD without intellectual disability and in a control group of adolescents without ASD. 2) to examine the specificity of this relation to ASD in comparing their performance in facial emotion recognition to that of a control group with anxiety disorder without ASD. 3) to characterize anxiety disorders in ASD without intellectual disability.Methods: Our study is cross-sectional, descriptive and comparative. Forty-six adolescents with ASD without intellectual disability aged between 11 and 18 years participated in the study. Among them, 20 had an anxiety disorder and were compared with 20 controls of the same age, with anxiety disorder without ASD. Results: In adolescents with ASD, anxiety disorders were related to impairments in recognition of the emotions like Anger and Sadness. Moreover, we found a significant correlation between the level ofsocial anxiety and improvement in Fear recognition that was specific to ASD.Conclusion and future directions: This study supports the hypothesis that anxiety disorders are relatedto facial emotion recognition in adolescents with ASD without intellectual disability. Clinicalimplications concerning the assessment of anxiety comorbidities in this population and the lack ofadapted treatments are discussed.
5

Combining 2D facial texture and 3D face morphology for estimating people's soft biometrics and recognizing facial expressions / La connaissance des biométries douces et la reconnaissance des expressions faciales

Ding, Huaxiong 16 December 2016 (has links)
Puisque les traits de biométrie douce peuvent fournir des preuves supplémentaires pour aider à déterminer précisément l’identité de l’homme, il y a eu une attention croissante sur la reconnaissance faciale basée sur les biométrie douce ces dernières années. Parmi tous les biométries douces, le sexe et l’ethnicité sont les deux caractéristiques démographiques importantes pour les êtres humains et ils jouent un rôle très fondamental dans l’analyse de visage automatique. En attendant, la reconnaissance des expressions faciales est un autre challenge dans le domaine de l’analyse de visage en raison de la diversité et de l’hybridité des expressions humaines dans différentes cultures, genres et contextes. Ce thèse est dédié à combiner la texture du visage 2D et la morphologie du visage 3D pour estimer les biométries douces: le sexe, l’ethnicité, etc., et reconnaître les expressions faciales. Pour la reconnaissance du sexe et de l’ethnicité, nous présentons une approche efficace en combinant à la fois des textures locales et des caractéristiques de forme extraites à partir des modèles de visage 3D, contrairement aux méthodes existantes qui ne dépendent que des textures ou des caractéristiques de forme. Afin de souligne exhaustivement la différence entre les groupes sexuels et ethniques, nous proposons un nouveau descripteur, à savoir local circular patterns (LCP). Ce descripteur améliore Les motifs binaires locaux (LBP) et ses variantes en remplaçant la quantification binaire par une quantification basée sur le regroupement, entraînant d’une puissance plus discriminative et une meilleure résistance au bruit. En même temps, l’algorithme Adaboost est engagé à sélectionner les caractéristiques discriminatives fortement liés au sexe et à l’ethnicité. Les résultats expérimentaux obtenus sur les bases de données FRGC v2.0 et BU-3DFE démontrent clairement les avantages de la méthode proposée. Pour la reconnaissance des expressions faciales, nous présentons une méthode automatique basée sur les multi-modalité 2D + 3D et démontrons sa performance sur la base des données BU-3DFE. Notre méthode combine des textures locales et des descripteurs de formes pour atteindre l’efficacité et la robustesse. Tout d’abord, un grand ensemble des points des caractéristiques d’images 2D et de modèles 3D sont localisés à l’aide d’un nouvel algorithme, à savoir la cascade parallèle incrémentielle de régression linéaire (iPar-CLR). Ensuite, on utilise un nouveau descripteur basé sur les histogrammes des gradients d’ordre secondaire (HSOG) en conjonction avec le descripteur SIFT pour décrire la texture locale autour de chaque point de caractéristique 2D. De même, la géométrie locale autour de chaque point de caractéristique 3D est décrite par deux nouveaux descripteurs de forme construits à l’aide des quantités différentielle de géométries de la surface au premier ordre et au second ordre, à savoir meshHOG et meshHOS. Enfin, les résultats de reconnaissance des descripteurs 2D et 3D fournis par le classifier SVM sont fusionnés à la fois au niveau de fonctionnalité et de score pour améliorer la précision. Les expérimentaux résultats démontrent clairement qu’il existe des caractéristiques complémentaires entre les descripteurs 2D et 3D. Notre approche basée sur les multi-modalités surpasse les autres méthodes de l’état de l’art en obtenant une précision de reconnaissance 86,32%. De plus, une bonne capacité de généralisation est aussi présentée sur la base de données Bosphorus. / Since soft biometrics traits can provide sufficient evidence to precisely determine the identity of human, there has been increasing attention for face based soft biometrics identification in recent years. Among those face based soft biometrics, gender and ethnicity are both key demographic attributes of human beings and they play a very fundamental and important role in automatic machine based face analysis. Meanwhile, facial expression recognition is another challenge problem in face analysis because of the diversity and hybridity of human expressions among different subjects in different cultures, genders and contexts. This Ph.D thesis work is dedicated to combine 2D facial Texture and 3D face morphology for estimating people’s soft biometrics: gender, ethnicity, etc., and recognizing facial expression. For the gender and ethnicity recognition, we present an effective and efficient approach on this issue by combining both boosted local texture and shape features extracted from 3D face models, in contrast to the existing ones that only depend on either 2D texture or 3D shape of faces. In order to comprehensively represent the difference between different genders or ethnics groups, we propose a novel local descriptor, namely local circular patterns (LCP). LCP improves the widely utilized local binary patterns (LBP) and its variants by replacing the binary quantization with a clustering based one, resulting in higher discriminative power as well as better robustness to noise. Meanwhile, the following Adaboost based feature selection finds the most discriminative gender- and ethnic-related features and assigns them with different weights to highlight their importance in classification, which not only further raises the performance but reduces the time and memory cost as well. Experimental results achieved on the FRGC v2.0 and BU-3DFE data sets clearly demonstrate the advantages of the proposed method. For facial expression recognition, we present a fully automatic multi-modal 2D + 3D feature-based facial expression recognition approach and demonstrate its performance on the BU–3DFE database. Our approach combines multi-order gradientbased local texture and shape descriptors in order to achieve efficiency a nd robustness. First, a large set of fiducial facial landmarks of 2D face images along with their 3D face scans are localized using a novel algorithm namely incremental Parallel Cascade of Linear Regression (iPar–CLR). Then, a novel Histogram of Second Order Gradients (HSOG) based local image descriptor in conjunction with the widely used first-order gradient based SIFT descriptor are employed to describe the local texture around each 2D landmark. Similarly, the local geometry around each 3D landmark is described by two novel local shape descriptors constructed using the first-order and the second-order surface differential geometry quantities, i.e., Histogram of mesh Gradients (meshHOG) and Histogram of mesh Shape index (curvature quantization, meshHOS). Finally, the Support Vector Machine (SVM) based recognition results of all 2D and 3D descriptors are fused at both featurelevel and score-level to further improve the accuracy. Comprehensive experimental results demonstrate that there exist impressive complementary characteristics between the 2D and 3D descriptors. We use the BU–3DFE benchmark to compare our approach to the state-of-the-art ones. Our multi-modal feature-based approach outperforms the others by achieving an average recognition accuracy of 86,32%. Moreover, a good generalization ability is shown on the Bosphorus database.
6

Troubles Envahissants du Développement Sans Déficience Intellectuelle : Facteurs Prédictifs de la reconnaissance des expressions faciales émotionnelles / Pervasive Developpmental Disorder without Intellectual Disabilities : Predictiv Factors of facial emotional expression recognition

Brisot-Dubois, Judith 06 December 2011 (has links)
La reconnaissance des expressions faciales émotionelles dans les Troubles Envahissants du Développement (TED) est atypique, contribuant à des difficultés socio-adaptatives y compris dans les TED sans déficience intellectuelle (TED-SDI). Hypothèse : il existe des facteurs de risque ou de protection dans les capacités de reconnaissance des expressions faciales émotionnelles des TED-SDI. Objectifs : 1) caractériser les capacités de 32 enfants et adolescents de 8 à 14 ans avec TED-SDI ; 2) identifier des facteurs de risque ou de protection, comparer nos observations à un groupe contrôle de 37 sujets typiques. Notre étude est transversale, descriptive et analytique. Le critère de jugement principal utilisé est le nombre d'erreurs au DANVA2F, qui évalue les capacités de reconnaissance des expressions faciales émotionnelles de base. Résultats : un nombre significatif d'erreurs plus élevé est observé dans le groupe TED-SDI comparativement à la population normée et à la population contrôle. L'intensité des troubles socio-communicatifs actuels mesurés par l'ADOS constitue un facteur de risque (ORa=2,08 ; IC 95%= [1,02/4,22] ; p=0,006). D'autre part, une faible intensité des comportements stéréotypés et des schémas répétitifs inférieurs mesurée à l'aire 3 de l'ADI apparaît être un facteur de protection (DANVA AF : ORa=0,078 ; IC 95%= [0,007/0,883] ; p=0,02. DANVA CF : ORa : 0,05 ; IC 95%= [0,005/0,44] ; p=0,0004). Conclusion : nos résultats vont dans le sens d'un trouble de la capacité à reconnaitre les expressions faciales dans les TED-SDI et permettent d'identifier des facteurs de risque cliniques de plus grandes vulnérabilités. Perspectives : utiliser un échantillon plus large et développer sur le plan clinique des interventions précoces et multimodales. / Facial emotionanl expression recognition in Pervasive Developpemental Disorders (PDD) are atypic and contribute to social skills difficulties for children and adolescents with PDD, including without intellectual disabilities. Hypothesis: predictiv factors exist in facial emotional expression recognition in PDD. Objectives: 1) characterize the abilities of facial emotional expressions recognition of 32 children and adolescents; 2) identify risk or protective factors in the development of these abilities. Compare our results with a control group of 37 typical peers. Our study is cross-sectional, descriptive and analytical. The primary point was the number of errors in the Danva 2F, which is a validated and standardized assessment tool (basic emotional expression). Results: show that our clinical group made significantly more errors in the recognition of facial emotional expressions than what is observed in population and standardized in our control population. Risk factors of the number of errors made in the Danva are highlighted: the intensity of socio-communicative disorders present as measured by the ADOS (ORa=2,08 ; IC 95%= [1,02/4,22] ; p=0,006). Protective factors are identified, linked to a low of stereotyped and repetitive patterns score below the threshold of the area 3 of the ADI (DANVA AF: ORa=0,078 ; IC 95%= [0,007/0,883] ; p=0,02. DANVA CF: ORa: 0,05 ; IC 95%= [0,005/0,44] ; p=0,0004). Conclusion: results allow us to observe a disorder of the ability to recognize facial expressions in our clinical group and the presence of risk factors and protective factors related to it. Perspectives: use a larger sample to study clinical parameters more related to emotional processing, our clinical work emphasizes the importance of early intervention multimodal, to improve the capacity of emotional processing.

Page generated in 0.1601 seconds