• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 20
  • 17
  • 7
  • Tagged with
  • 86
  • 47
  • 46
  • 20
  • 20
  • 19
  • 15
  • 13
  • 13
  • 12
  • 12
  • 11
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Stéréotype explicite et implicite des personnes porteuses de trisomie 21. Relations entre typicalité du visage, jugement sur l'intelligence et niveau cognitif / Explicit and implicit stereotyping of trisomy 21. Relationships between typicality of faces, judgment of intelligence and cognitive level.

Enéa Drapeau, Claire 20 December 2012 (has links)
La trisomie 21 (t21) est l'anomalie génétique la plus fréquente à l'origine d'une déficience intellectuelle. Bien que la recherche concernant le stéréotype social de la t21 soit limitée, les personnes porteuses de t21, et particulièrement les enfants, semblent être associées à des traits de personnalité tels que « affectueux » et « heureux », les caractéristiques positives l'emportant sur les négatives comme « retardé ». Cependant, ce stéréotype positif coexiste avec des attitudes ambivalentes notamment à propos de l'intégration scolaire de ces enfants. L'objectif principal de cette thèse est d'étudier ce stéréotype au niveau implicite ainsi que l'impact des caractéristiques faciales sur le stéréotype au niveau explicite et implicite. Nos résultats confirment d'une part, un stéréotype social positif explicite dans des échantillons d'étudiants, d'adultes non étudiant et de professionnels du handicap intellectuel. Les visages d'enfants présentant plus de traits faciaux associés à la t21 sont associés à un stéréotype moins positif que ceux en présentant moins. D'autre part, nous mettons en évidence un stéréotype négatif au niveau implicite, même chez les professionnels du handicap. Nous étudions l'influence des variables individuelles sexe, familiarité avec la t21 et théories implicites de l'intelligence sur le stéréotype explicite et implicite. Puis, nous montrons une relation négative entre la typicalité des visages et le jugement sur l'intelligence alors que nous n'observons pas de relation significative entre la typicalité des visages et le niveau cognitif. Nous discutons l'implication de ces résultats sur l'étude du stéréotype et sur les personnes stigmatisées. / Trisomy 21 (t21) or Down syndrome is the most frequent genetic disorder associated with intellectual disability. Although research on the social stereotype toward t21 is very limited, it seems that persons with t21 are typically viewed as “affectionate” and “happy”; with positive personality traits prevailing over the negative ones (e.g., “mentally retarded”). However, this positive stereotype coexists with ambivalent attitudes. The main objective of this study was to investigate the stereotype at the implicit level and the impact of t21 facial features on the stereotype of t21 at the both explicit and implicit levels. Our results confirm, on one hand, a positive social stereotype explicit in samples of young adult students, non-student adults and professional caregivers working with intellectually disabled persons. The positive bias typically found in explicit judgments of children with t21 is smaller for those whose facial features are highly characteristic of this disorder, compared to their counterparts with less distinctive features and to typically developing children. On the other hand, we also show that this bias can coexist with negative evaluations at the implicit level, even among professional caregivers but to a lesser extent. We study the influence of individual variables sex, familiarity with the t21 and implicit theories of intelligence on explicit and implicit stereotypes. Finally, we show a negative relationship between t21 typicality of faces and the judgment of the intelligence as we do not observe a significant relationship between typicality and the cognitive level. We discuss the implications of these results.
42

Communication chez les primates non humains : étude des asymétries dans la production d'expressions oro-faciales / Communication in non-human primates : studying asymmetries during the production of oro-facial expressions

Wallez, Catherine 11 October 2012 (has links)
L'examen des asymétries oro-faciales fournit un indice indirect et fiable pour déterminer la spécialisation hémisphérique des processus liés à la communication socio-émotionnelle chez les primates non humains. Cependant, à ce jour, peu d'études ont été réalisées et les théories formulées chez l'homme sont peu consensuelles. Afin de contribuer à la question de la latéralisation cérébrale des processus cognitivo-émotionnels chez le primate, quatre études expérimentales ont été réalisées au cours de cette thèse. Tout d'abord, deux méthodes ont été utilisées pour mesurer les asymétries oro-faciales dans une population de babouins adultes (une méthode morphométrique et une méthode dite des « chimères »). Une spécialisation hémisphérique droite dominante pour le traitement des émotions négatives a été notée. Une troisième étude a démontré, pour la première fois, une asymétrie oro-faciale au niveau populationnel chez des jeunes macaques et babouins. Enfin, une dernière étude a été réalisée chez des chimpanzés afin de tester la robustesse d'une recherche qui avait mis en évidence une différence d'asymétrie selon la fonction communicative intentionnelle (hémisphère gauche) vs. émotionnelle (hémisphère droit) des vocalisations. Les résultats ont confirmé ceux de la première étude et permettent de discuter des hypothèses concernant l'origine de l'évolution du langage. Ces travaux sont discutés à la lumière des recherches récentes concernant de nombreuses espèces animales. Ils apportent des connaissances nouvelles pour appréhender la phylogénèse de la spécialisation hémisphérique des processus associés à la communication verbale et non verbale chez l'homme. / The study of oro-facial asymmetries offers an indirect and suitable index to determine the hemispheric specialization of the processes associated to socio-emotional communication in non-human primates. However, few studies have been made in this domain and the available theories in humans are in part contradictory. In order to contribute to this field, i.e., hemispheric specialization of cognitive and emotional processing in primates, four experimental studies have been carried out during this doctorate. Firstly, two methods have been used to assess oro-facial asymmetries in adult baboons (a morphometric one and a free viewing of chimeric faces). A right hemispheric specialization for negative emotions was noticed. A third study demonstrated for the first time a population-level hemispheric specialization for the production of emotions in infant macaques and baboons. A last study tested the robustness of previous findings in chimpanzees concerning differences of hemispheric lateralization patterns depending on the communicative function of the vocalizations: intentional (left hemisphere) vs emotional (right hemisphere). Results confirmed the previous conclusions and allowed to discuss hypotheses about the origin of the evolution of language (speech). These collective findings are discussed within the context of the phylogeny of hemispheric specialization mechanisms underlying verbal and nonverbal communication in humans.
43

Le traitement des expressions faciales au cours de la première année : développement et rôle de l'olfaction / The processing of facial expressions during the first year of life : development and contribution of olfaction

Dollion, Nicolas 14 December 2015 (has links)
La première année de vie constitue une étape critique dans le développement des capacités de traitement des expressions faciales. Olfaction et expressions sont toutes deux étroitement liées, et il est reconnu que dès la naissance les enfants sont capables d’intégrer leur environnement de façon multi-sensorielle. Toutefois, la plupart des travaux sur le traitement multimodal des visages et des expressions se sont restreints à l’étude des interactions audio-visuelles.Dans ce travail de thèse, nous avons en premier lieu levé différentes ambiguïtés concernant l’ontogenèse des capacités de traitement des expressions. Les résultats obtenus ont permis de spécifier l’évolution des stratégies d’exploration visuelle des émotions au cours de la première année, et de démontrer la présence d’une distinction progressive des expressions selon leur signification émotionnelle. Au moyen de l’EEG, nous avons aussi précisé la nature et le décours temporel de la distinction des expressions chez les nourrissons de 3 mois.Le second objectif de nos travaux a été d’approfondir les connaissances sur le traitement multi-sensoriel des expressions, en nous intéressant spécifiquement aux interactions olfacto-visuelles. Nos expériences en potentiels évoqués ont permis de préciser le décours de l’intégration cérébrale de l’odeur dans le traitement des expressions chez l’adulte, et de démontrer la présence d’interactions similaires chez l’enfant de 3 mois. Nous avons également démontré qu’à 7 mois, les odeurs déclenchent une recherche d’expression spécifique. Il ressort de ces travaux que l’olfaction pourrait contribuer à l’établissement des capacités de traitement des expressions faciales. / The first year of life is critical for the development of the abilities to process facial expressions. Olfaction and expressions are both strongly linked to each other, and it is well known that infants are able to multisensorially integrate their environment as early as birth. However, most of the studies interested in multisensory processing of facial expressions are restricted to the investigation of audio-visual interactions.In this thesis, we firstly aimed to resolve different issues concerning the ontogenesis of infants’ ability to process facial expressions. Our results allowed to specify the development of visual exploratory strategies of facial emotions along the first year of life, and to demonstrate that a progressive distinction of expressions according to their emotional meaning is present. Using the EEG, we were also able to specify the nature and the time course of facial expressions distinction in 3-month-old infants.The second objective of our studies was to expand the knowledge concerning the multisensory processing of facial expressions. More specifically we wanted to investigate the influence of olfacto-visual interactions on this processing. Our event-related potentials experiments allowed to specify the time course of the cerebral integration of olfaction in the visual processing of emotional faces in adults, and to demonstrate that similar interactions are present in infants as young as 3 month-old. We also demonstrated that at 7 months of age odors trigger the search for specific facial expressions. Our results suggest that olfaction might contribute to the development of infants’ ability to process facially displayed emotions.
44

Combining 2D facial texture and 3D face morphology for estimating people's soft biometrics and recognizing facial expressions / La connaissance des biométries douces et la reconnaissance des expressions faciales

Ding, Huaxiong 16 December 2016 (has links)
Puisque les traits de biométrie douce peuvent fournir des preuves supplémentaires pour aider à déterminer précisément l’identité de l’homme, il y a eu une attention croissante sur la reconnaissance faciale basée sur les biométrie douce ces dernières années. Parmi tous les biométries douces, le sexe et l’ethnicité sont les deux caractéristiques démographiques importantes pour les êtres humains et ils jouent un rôle très fondamental dans l’analyse de visage automatique. En attendant, la reconnaissance des expressions faciales est un autre challenge dans le domaine de l’analyse de visage en raison de la diversité et de l’hybridité des expressions humaines dans différentes cultures, genres et contextes. Ce thèse est dédié à combiner la texture du visage 2D et la morphologie du visage 3D pour estimer les biométries douces: le sexe, l’ethnicité, etc., et reconnaître les expressions faciales. Pour la reconnaissance du sexe et de l’ethnicité, nous présentons une approche efficace en combinant à la fois des textures locales et des caractéristiques de forme extraites à partir des modèles de visage 3D, contrairement aux méthodes existantes qui ne dépendent que des textures ou des caractéristiques de forme. Afin de souligne exhaustivement la différence entre les groupes sexuels et ethniques, nous proposons un nouveau descripteur, à savoir local circular patterns (LCP). Ce descripteur améliore Les motifs binaires locaux (LBP) et ses variantes en remplaçant la quantification binaire par une quantification basée sur le regroupement, entraînant d’une puissance plus discriminative et une meilleure résistance au bruit. En même temps, l’algorithme Adaboost est engagé à sélectionner les caractéristiques discriminatives fortement liés au sexe et à l’ethnicité. Les résultats expérimentaux obtenus sur les bases de données FRGC v2.0 et BU-3DFE démontrent clairement les avantages de la méthode proposée. Pour la reconnaissance des expressions faciales, nous présentons une méthode automatique basée sur les multi-modalité 2D + 3D et démontrons sa performance sur la base des données BU-3DFE. Notre méthode combine des textures locales et des descripteurs de formes pour atteindre l’efficacité et la robustesse. Tout d’abord, un grand ensemble des points des caractéristiques d’images 2D et de modèles 3D sont localisés à l’aide d’un nouvel algorithme, à savoir la cascade parallèle incrémentielle de régression linéaire (iPar-CLR). Ensuite, on utilise un nouveau descripteur basé sur les histogrammes des gradients d’ordre secondaire (HSOG) en conjonction avec le descripteur SIFT pour décrire la texture locale autour de chaque point de caractéristique 2D. De même, la géométrie locale autour de chaque point de caractéristique 3D est décrite par deux nouveaux descripteurs de forme construits à l’aide des quantités différentielle de géométries de la surface au premier ordre et au second ordre, à savoir meshHOG et meshHOS. Enfin, les résultats de reconnaissance des descripteurs 2D et 3D fournis par le classifier SVM sont fusionnés à la fois au niveau de fonctionnalité et de score pour améliorer la précision. Les expérimentaux résultats démontrent clairement qu’il existe des caractéristiques complémentaires entre les descripteurs 2D et 3D. Notre approche basée sur les multi-modalités surpasse les autres méthodes de l’état de l’art en obtenant une précision de reconnaissance 86,32%. De plus, une bonne capacité de généralisation est aussi présentée sur la base de données Bosphorus. / Since soft biometrics traits can provide sufficient evidence to precisely determine the identity of human, there has been increasing attention for face based soft biometrics identification in recent years. Among those face based soft biometrics, gender and ethnicity are both key demographic attributes of human beings and they play a very fundamental and important role in automatic machine based face analysis. Meanwhile, facial expression recognition is another challenge problem in face analysis because of the diversity and hybridity of human expressions among different subjects in different cultures, genders and contexts. This Ph.D thesis work is dedicated to combine 2D facial Texture and 3D face morphology for estimating people’s soft biometrics: gender, ethnicity, etc., and recognizing facial expression. For the gender and ethnicity recognition, we present an effective and efficient approach on this issue by combining both boosted local texture and shape features extracted from 3D face models, in contrast to the existing ones that only depend on either 2D texture or 3D shape of faces. In order to comprehensively represent the difference between different genders or ethnics groups, we propose a novel local descriptor, namely local circular patterns (LCP). LCP improves the widely utilized local binary patterns (LBP) and its variants by replacing the binary quantization with a clustering based one, resulting in higher discriminative power as well as better robustness to noise. Meanwhile, the following Adaboost based feature selection finds the most discriminative gender- and ethnic-related features and assigns them with different weights to highlight their importance in classification, which not only further raises the performance but reduces the time and memory cost as well. Experimental results achieved on the FRGC v2.0 and BU-3DFE data sets clearly demonstrate the advantages of the proposed method. For facial expression recognition, we present a fully automatic multi-modal 2D + 3D feature-based facial expression recognition approach and demonstrate its performance on the BU–3DFE database. Our approach combines multi-order gradientbased local texture and shape descriptors in order to achieve efficiency a nd robustness. First, a large set of fiducial facial landmarks of 2D face images along with their 3D face scans are localized using a novel algorithm namely incremental Parallel Cascade of Linear Regression (iPar–CLR). Then, a novel Histogram of Second Order Gradients (HSOG) based local image descriptor in conjunction with the widely used first-order gradient based SIFT descriptor are employed to describe the local texture around each 2D landmark. Similarly, the local geometry around each 3D landmark is described by two novel local shape descriptors constructed using the first-order and the second-order surface differential geometry quantities, i.e., Histogram of mesh Gradients (meshHOG) and Histogram of mesh Shape index (curvature quantization, meshHOS). Finally, the Support Vector Machine (SVM) based recognition results of all 2D and 3D descriptors are fused at both featurelevel and score-level to further improve the accuracy. Comprehensive experimental results demonstrate that there exist impressive complementary characteristics between the 2D and 3D descriptors. We use the BU–3DFE benchmark to compare our approach to the state-of-the-art ones. Our multi-modal feature-based approach outperforms the others by achieving an average recognition accuracy of 86,32%. Moreover, a good generalization ability is shown on the Bosphorus database.
45

Atteintes amygdaliennes et troubles émotionnels dans la maladie d'Alzheimer : apport de nouvelles pistes pour le diagnostic

Klein koerkamp, Yanica 01 October 2013 (has links) (PDF)
Le diagnostic de la maladie d'" Alzheimer " (MA) repose essentiellement sur des tests neuropsychologiques, démontrant d'importants déficits mnésiques en lien avec l'atrophie de l'hippocampe. Parallèlement à cela, l'existence d'une atteinte précoce de l'amygdale a très récemment été proposée dans une série d'études, suggérant que cette structure pourrait être un marqueur neuro-anatomique de l'entrée dans la maladie. Les études ayant évalué les répercussions émotionnelles de ces atteintes amygdaliennes n'ont néanmoins pas permis d'aboutir à l'identification d'un profil convergent de déficits. L'objectif de cette thèse a donc été de démontrer l'existence d'une atteinte de l'amygdale à un stade précoce de la MA entrainant des modifications des traitements émotionnels. Dans une première étude en neuroimagerie structurelle, nous avons montré des arguments robustes quant à l'existence d'atteintes anatomiques de l'amygdale chez des patients légèrement atteints par la maladie. L'amplitude de cette atrophie s'est avérée être un indicateur particulièrement sensible du niveau général d'atteintes cognitives mesurées chez nos patients. Dans les études suivantes, nous nous sommes intéressés aux répercussions de cette atteinte sur des activités cognitives sous-tendues plus directement par le fonctionnement de cette structure : les traitements émotionnels. Par l'élaboration d'une méta-analyse, nous avons pu identifier un déficit précoce de la reconnaissance des émotions. Nous avons de plus démontré que les troubles cognitifs des patients expliquaient en partie le déficit émotionnel, sans toutefois l'expliquer dans sa totalité. Enfin, une série d'études comportementales et en neuroimagerie fonctionnelle, a permis de confirmer que les atteintes anatomiques s'accompagnaient bien d'un dysfonctionnement de l'amygdale entrainant des déficits émotionnels, en particulier dans les mécanismes à l'origine de l'extraction spontanée de la saillance émotionnelle. L'ensemble de nos données convergent vers l'idée que l'atteinte amygdalienne et les altérations des mécanismes émotionnels seraient une piste prometteuse afin de préciser le diagnostic actuel de la MA.
46

Représentation invariante des expressions faciales. : Application en analyse multimodale des émotions. / Invariant Representation of Facial Expressions : Application to Multimodal Analysis of Emotions

Soladié, Catherine 13 December 2013 (has links)
De plus en plus d’applications ont pour objectif d’automatiser l’analyse des comportements humains afin d’aider les experts qui réalisent actuellement ces analyses. Cette thèse traite de l’analyse des expressions faciales qui fournissent des informations clefs sur ces comportements.Les travaux réalisés portent sur une solution innovante, basée sur l’organisation des expressions, permettant de définir efficacement une expression d’un visage.Nous montrons que l’organisation des expressions, telle que définie, est universelle : une expression est alors caractérisée par son intensité et sa position relative par rapport aux autres expressions. La solution est comparée aux méthodes classiques et montre une augmentation significative des résultats de reconnaissance sur 14 expressions non basiques. La méthode a été étendue à des sujets inconnus. L’idée principale est de créer un espace d’apparence plausible spécifique à la personne inconnue en synthétisant ses expressions basiques à partir de déformations apprises sur d’autres sujets et appliquées sur le neutre du sujet inconnu. La solution est aussi mise à l’épreuve dans un environnement multimodal dont l’objectif est la reconnaissance d’émotions lors de conversations spontanées. Notre méthode a été mise en œuvre dans le cadre du challenge international AVEC 2012 (Audio/Visual Emotion Challenge) où nous avons fini 2nd, avec des taux de reconnaissance très proches de ceux obtenus par les vainqueurs. La comparaison des deux méthodes (la nôtre et celles des vainqueurs) semble montrer que l’extraction des caractéristiques pertinentes est la clef de tels systèmes. / More and more applications aim at automating the analysis of human behavior to assist or replace the experts who are conducting these analyzes. This thesis deals with the analysis of facial expressions, which provide key information on these behaviors.Our work proposes an innovative solution to effectively define a facial expression, regardless of the morphology of the subject. The approach is based on the organization of expressions.We show that the organization of expressions, such as defined, is universal and can be effectively used to uniquely define an expression. One expression is given by its intensity and its relative position to the other expressions. The solution is compared with the conventional methods based on appearance data and shows a significant increase in recognition results of 14 non-basic expressions. The method has been extended to unknown subjects. The main idea is to create a plausible appearance space dedicated to the unknown person by synthesizing its basic expressions from deformations learned on other subjects and applied to the neutral face of the unknown subject. The solution is tested in a more comprehensive multimodal environment, whose aim is the recognition of emotions in spontaneous conversations. Our method has been implemented in the international challenge AVEC 2012 (Audio / Visual Emotion Challenge) where we finished 2nd, with recognition rates very close to the winners’ ones. Comparison of both methods (ours and the winners’ one) seems to show that the extraction of relevant features is the key to such systems.
47

A walk through randomness for face analysis in unconstrained environments / Etude des méthodes aléatoires pour l'analyse de visage en environnement non contraint

Dapogny, Arnaud 01 December 2016 (has links)
L'analyse automatique des expressions faciales est une étape clef pour le développement d'interfaces intelligentes ou l'analyse de comportements. Toutefois, celle-ci est rendue difficile par un grand nombre de facteurs, pouvant être d'ordre morphologiques, liés à l'orientation du visage ou à la présence d'occultations. Nous proposons des adaptations des Random Forest permettant d' adresser ces problématiques:- Le développement des Pairwise Conditional Random Forest, consistant en l'apprentissage de modèles à partir de paires d'images expressives. Les arbres sont de plus conditionnés par rapport à l'expression de la première image afin de réduire la variabilité des transitions. De plus, il est possible de conditionner les arbres en rapport avec une estimation de la pose du visage afin de permettre la reconnaissance quel que soit le point de vue considéré.- L'utilisation de réseaux de neurones auto-associatifs pour modéliser localement l'apparence du visage. Ces réseaux fournissent une mesure de confiance qui peut être utilisée dans le but de pondérer des Random Forests définies sur des sous-espaces locaux du visage. Ce faisant, il est possible de fournir une prédiction d'expression robuste aux occultations partielles du visage.- Des améliorations du récemment proposé algorithme des Neural Decision Forests, lesquelles consistent en une procédure d'apprentissage simplifiée, ainsi qu'en une évaluation "greedy" permettant une évaluation plus rapide, avec des applications liées à l'apprentissage en ligne de représentations profondes pour la reconnaissance des expressions, ainsi que l'alignement de points caractéristiques. / Automatic face analysis is a key to the development of intelligent human-computer interaction systems and behavior understanding. However, there exist a number of factors that makes face analysis a difficult problem. This include morphological differences between different persons, head pose variations as well as the possibility of partial occlusions. In this PhD, we propose a number of adaptations of the so-called Random Forest algorithm to specifically adress those problems. Mainly, those improvements consist in:– The development of a Pairwise Conditional Random Forest framework, that consists in training Random Forests upon pairs of expressive images. Pairwise trees are conditionned on the expression label of the first frame of a pair to reduce the ongoing expression transition variability. Additionnally, trees can be conditionned upon a head pose estimate to peform facial expression recognition from an arbitrary viewpoint.– The design of a hierarchical autoencoder network to model the local face texture patterns. The reconstruction error of this network provides a confidence measurement that can be used to weight Randomized decision trees trained on spatially-defined local subspace of the face. Thus, we can provide an expression prediction that is robust to partial occlusions.– Improvements over the very recent Neural Decision Forests framework, that include both a simplified training procedure as well as a new greedy evaluation procedure, that allows to dramatically improve the evaluation runtime, with applications for online learning and, deep learning convolutional neural network-based features for facial expression recognition as well as feature point alignement.
48

Caractérisation in situ des propriétés mécaniques des parois vasculaires par une technique non invasive / Mechanical characterization of arterial wall by a non-invasive method

Ramaël, Bruno 22 November 2016 (has links)
La thèse s’axe sur l’identification des propriétés mécaniques des artères faciales. Elle s’inscrit dans le cadre du projet FlowFace, qui porte sur l’étude du réseau artériel facial par Imagerie de Résonance Magnétique (IRM). Elle s’appuie sur une campagne de mesures effectuées sur un échantillon de 30 témoins au CHU d’Amiens, qui a permis d’obtenir de manière non invasive l’évolution de la déformation des vaisseaux, ainsi que la mesure des débits les parcourant. Des pressions diastoliques et systoliques ont été mesurées au niveau du bras, indépendamment des mesures IRM. L’objectif de la thèse a été de modéliser la déformation patient-spécifique des vaisseaux sanguins et de mettre en place une technique d’optimisation, afin de déterminer leurs propriétés mécaniques par analyse inverse. Des simulations du comportement des vaisseaux sanguins ont été réalisées au moyen des logiciels d’ANSYS Inc., en modélisant les interactions fluide-structure aussi bien en couplage fort que faible. L’objectif a été de déterminer les déformations pariétales induites par les conditions hémodynamiques, ainsi que les pertes de charge dans les vaisseaux considérés. Les simulations ont mis en jeu des modèles hyperélastiques grande déformation pour simuler le comportement des parois. Les déplacements prédits par le modèle numérique ont été comparés aux déplacements expérimentaux mesurés par IRM. Les propriétés mécaniques des vaisseaux ont été identifiées au moyen de la technique d’optimisation proposée dans la suite ANSYS et basée sur les algorithmes de gradient et algorithmes génétiques. La méthode d’identification a été validée sur des fantômes de vaisseaux, consistant en des tubes cylindriques en élastomère, et pour lesquelles des mesures de déformation sous écoulement pulsé ont été acquises par imagerie IRM. Les valeurs des propriétés mécaniques ainsi déterminées ont été comparées à celles obtenues par tests de traction et tests de dilatation. Un des points cruciaux de l’identification a consisté en la détermination de l’état non pré-contraint. S’il est un paramètre connu pour les fantômes de vaisseaux, il est à déterminer pour les vaisseaux natifs. Le challenge de cette thèse a aussi été de déterminer les propriétés hyperélastiques des vaisseaux sanguins à partir des valeurs systoliques et diastoliques de pression et déformation. La méthode a permis de conclure que le module tangent en diastole avoisine 200 KPa alors que celui en systole se trouve dans un intervalle entre 300 KPa et 1 MPa. / This thesis is based on identifying the mechanical properties of facial arteries. It is part of FlowFace project, which focuses on the study of the facial arterial system by MRI imaging. It is based on a measurement campaign conducted on a sample of 30 people at the Hospital of Amiens, which allowed obtaining noninvasively the evolution of the blood vessel deformation and the measurement of the flow. Diastolic and systolic pressures were measured at the arm independently of the MRI measurements. The aim of the thesis was to model the deformation of blood vessels and to implement an optimization technique to determine their mechanical properties by inverse analysis using MRI measurements of deformation. Simulations of the behavior of the blood vessels were performed, using ANSYS Inc. software, modeling fluid-structure interactions both strong and weak coupling. The objective was to determine the parietal deformations induced by hemodynamic conditions and pressure drops in the vessels concerned. The simulations involved hyperelastic and large deflection models to simulate the behavior of the wall. They allow calculate the numerical displacements that we compared with experimental displacements measured by MRI, the aim is that the difference between numerical and experimental be as low as possible to deduce the adequate mechanical parameters for the artery. To identify the mechanical properties of the vessels, the optimization technique proposed in ANSYS based on genetic algorithms or gradient algorithms was used. The identification method was validated on cylindrical tubes (elastomer), for which deformation measurements were acquired by MRI imaging under pulsating flow. The values of mechanical properties determined were compared with those obtained by traction tests and dilatation tests. One of the crucial points of identification involves the determination of the non-stress state. If it is a known parameter for the elastic tube, it has to be determining for blood vessels. The challenge of this thesis is to determine from a "minimum" quantity of pressure and deformation information, the hyper-elastic properties of blood vessels. The method based on a patient-specific geometry deformation concluded that the tangent modulus in diastole is approximately 200kPa while that in systole is in a range of 300 kPa to 1 MPa.
49

The influence of bodily actions on social perception and behaviour : assessing effects of power postures / L'influence des actions corporelles sur la perception et le comportement social : évaluation des effets des postures de pouvoir

Metzler, Hannah 13 December 2018 (has links)
Les postures corporelles signalant domination ou soumission servent une fonction de communication chez les humains et d’autres animaux. La question de savoir si l'adoption de telles "postures de pouvoir" influence la perception et le comportement de l'agent fait actuellement l'objet d'un débat. Le travail réalisé pendant cette thèse consistait à explorer les effets de ces postures sur des comportements étroitement liés à leur fonction primaire, à savoir la communication sociale, en se focalisant sur les réponses aux visages, signaux sociaux particulièrement saillants. Dans une série d'expériences, j'ai utilisé des méthodes de corrélation inverse pour visualiser les représentations mentales de traits préférés du visage. Les représentations mentales des visages préférés implicitement et explicitement évoquaient une impression affiliative et légèrement dominante, mais ne révélaient aucun effet reproductible des postures. Deux autres expériences distinctes ont étudié les effets de la posture sur la perception d’expressions faciales menaçantes et sur les comportements d'approche ou d'évitement en réponse à ces signaux. Bien que les postures n'aient pas d’influence sur la reconnaissance explicite d’expressions faciales menaçantes, elles ont un impact sur les décisions d'approcher ou d'éviter des signaux de menace. Plus précisément, l'adoption d'une posture de soumission augmentait la tendance à éviter les personnes exprimant la colère. Enfin, une tentative de réplication des effets des postures sur les niveaux de testostérone et de cortisol a démontré que même l'adoption répétée d'une posture de pouvoir en contexte social ne provoque pas de changements hormonaux. Dans l'ensemble, ces résultats suggèrent que notre posture corporelle n’influence pas nos représentations mentales et notre perception des autres individus, mais pourrait influencer nos actions en réponse aux signaux sociaux. / Expansive and constrictive body postures serve a primary communicative function in humans and other animals by signalling power and dominance. Whether adopting such “power postures” influences the agent’s own perception and behaviour is currently a subject of debate. In this PhD thesis, I explored effects of adopting power postures on behaviours closely related to the postures’ primary function of social signalling by focusing on responses to faces as particularly salient social signals. In a series of experiments, I utilized reverse correlation methods to visualize mental representations of preferred facial traits. Mental representations of implicitly as well as explicitly preferred faces evoked an affiliative and slightly dominant impression, but revealed no replicable effects of power postures. Two further separate experiments investigated posture effects on the perception of threatening facial expressions, and approach vs. avoidance actions in response to such social signals. While postures did not influence explicit recognition of threatening facial expressions, they affected approach and avoidance actions in response to them. Specifically, adopting a constrictive posture increased the tendency to avoid individuals expressing anger. Finally, an attempt to replicate posture effects on levels of testosterone and cortisol demonstrated that even repeatedly adopting a power posture in a social context does not elicit hormonal changes. Altogether, these findings suggest that our body posture does not influence our mental representations and perception of other people’s faces per se, but could influence our actions in response to social signals.
50

Aplicación web para la detección de mentiras utilizando redes neuronales recurrentes y micro-expresiones / Web application for lie detection using recurrent neural networks and micro-expressions

Rodriguez Meza, Bryan Alberto, Vargas Lopez-Lavalle, Renzo Nicolas 21 January 2021 (has links)
En la vida cotidiana, detectar una falacia puede tener importantes implicaciones en distintas situaciones sociales. Descifrar mentiras, puede ser determinante en situaciones que impliquen consecuencias graves o moderadas; como el caso de investigaciones policiales. El trabajo expuesto en las siguientes paginas tiene como fin la realización de un sistema de detección de mentiras que utilice una cámara web como medio único para la detección. Además de esto, se busca realizar la investigación correspondiente a las subáreas relacionadas al problema. Estas son la de detección de mentiras, Deep learning y visión computacional. En este trabajo expuesto, se asumirá al acto de mentir como cualquier acto que busque comunicar información falsa o trastornada, de forma deliberada con la finalidad de engañar a otros. La investigación realizada, se hará presente en el desarrollo de un proyecto cuyo alcance consiste en la creación de una aplicación capaz de detectar si una persona dice la verdad a partir de su reconocimiento facial. Para ello, se utilizarán técnicas de visión computacional y machine learning con el fin de dar otra opción más económica y accesible ante las otras metodologías (polígrafo, ERPs, fMRI) que se basan en analizar el estado cerebral requieren de maquinaria extremadamente costosa y tienden a tener la misma precisión que el uso de polígrafos. / In everyday life, detecting a fallacy can have important implications in different social situations. Deciphering lies can be decisive in situations that involve serious or moderate consequences, as in the case of police investigations. The work presented in the following pages is aimed at the realization of a lie detection system that uses a web camera as the only means for detection. In addition to this, it seeks to carry out the investigation corresponding to the subareas related to the problem. These subareas are lie detection, deep learning, and computer vision. In this exposed work, the act of lying will be assumed as any act that seeks to communicate false or disturbed information, deliberately with the purpose of deceiving others. The research carried out will be present in the development of a project whose scope consists of the creation of an application capable of detecting if a person is telling the truth from their facial recognition. To do this, computer vision and machine learning techniques will be used in order to provide another cheaper and more accessible option compared to other methodologies (polygraph, ERPs, fMRI) that are based on analyzing the brain state, require extremely expensive machinery and tend to have the same precision as the use of polygraphs. / Trabajo de investigación

Page generated in 0.0543 seconds