• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 6
  • 1
  • Tagged with
  • 21
  • 21
  • 16
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Contribution à la reconnaissance/authentification de visages 2D/3D / Contribution to 2D/3D face recognition/authentification

Hariri, Walid 13 November 2017 (has links)
L’analyse de visages 3D y compris la reconnaissance des visages et des expressions faciales 3D est devenue un domaine actif de recherche ces dernières années. Plusieurs méthodes ont été développées en utilisant des images 2D pour traiter ces problèmes. Cependant, ces méthodes présentent un certain nombre de limitations dépendantes à l’orientation du visage, à l’éclairage, à l’expression faciale, et aux occultations. Récemment, le développement des capteurs d’acquisition 3D a fait que les données 3D deviennent de plus en plus disponibles. Ces données 3D sont relativement invariables à l’illumination et à la pose, mais elles restent sensibles à la variation de l’expression. L’objectif principal de cette thèse est de proposer de nouvelles techniques de reconnaissance/vérification de visages et de reconnaissance d’expressions faciales 3D. Tout d’abord, une méthode de reconnaissance de visages en utilisant des matrices de covariance comme des descripteurs de régions de visages est proposée. Notre méthode comprend les étapes suivantes : le prétraitement et l’alignement de visages, un échantillonnage uniforme est ensuite appliqué sur la surface faciale pour localiser un ensemble de points de caractéristiques. Autours de chaque point, nous extrayons une matrice de covariance comme un descripteur de région du visage. Deux méthodes d’appariement sont ainsi proposées, et différentes distances (géodésiques / non-géodésique) sont appliquées pour comparer les visages. La méthode proposée est évaluée sur troisbases de visages GAVAB, FRGCv2 et BU-3DFE. Une description hiérarchique en utilisant trois niveaux de covariances est ensuite proposée et validée. La deuxième partie de cette thèse porte sur la reconnaissance des expressions faciales 3D. Pour ce faire, nous avons proposé d’utiliser les matrices de covariances avec les méthodes noyau. Dans cette contribution, nous avons appliqué le noyau de Gauss pour transformer les matrices de covariances en espace d’Hilbert. Cela permet d’utiliser les algorithmes qui sont déjà implémentés pour l’espace Euclidean (i.e. SVM) dans cet espace non-linéaire. Des expérimentations sont alors entreprises sur deux bases d’expressions faciales 3D (BU-3DFE et Bosphorus) pour reconnaître les six expressions faciales prototypiques. / 3D face analysis including 3D face recognition and 3D Facial expression recognition has become a very active area of research in recent years. Various methods using 2D image analysis have been presented to tackle these problems. 2D image-based methods are inherently limited by variability in imaging factors such as illumination and pose. The recent development of 3D acquisition sensors has made 3D data more and more available. Such data is relatively invariant to illumination and pose, but it is still sensitive to expression variation. The principal objective of this thesis is to propose efficient methods for 3D face recognition/verification and 3D facial expression recognition. First, a new covariance based method for 3D face recognition is presented. Our method includes the following steps : first 3D facial surface is preprocessed and aligned. A uniform sampling is then applied to localize a set of feature points, around each point, we extract a matrix as local region descriptor. Two matching strategies are then proposed, and various distances (geodesic and non-geodesic) are applied to compare faces. The proposed method is assessed on three datasetsincluding GAVAB, FRGCv2 and BU-3DFE. A hierarchical description using three levels of covariances is then proposed and validated. In the second part of this thesis, we present an efficient approach for 3D facial expression recognition using kernel methods with covariance matrices. In this contribution, we propose to use Gaussian kernel which maps covariance matrices into a high dimensional Hilbert space. This enables to use conventional algorithms developed for Euclidean valued data such as SVM on such non-linear valued data. The proposed method have been assessed on two known datasets including BU-3DFE and Bosphorus datasets to recognize the six prototypical expressions.
12

Modulation émotionnelle de la perception de l’action motrice d’autrui / Emotional modulation of perception of others’ motor action

Prigent, Elise 15 November 2012 (has links)
L’être humain est un être social amené à comprendre les comportements moteurs d’autrui. Selon la littérature, nous disposons de mécanismes cognitifs spécifiques, d’une part à la perception d’un corps humain (qu’il soit statique ou en mouvement), et d’autre part à la perception des expressions faciales émotionnelles. Ce travail de thèse vise à comprendre dans quelle mesure l'émotion véhiculée par le visage d'une personne, peut moduler notre perception de son action motrice. Les résultats de l’étude 1 ont montré que l’estimation de l’équilibre statique d’autrui pouvait être modulée par l’expression faciale émotionnelle (de sourire ou de crispation) exprimée par celui-ci. L’étude 2, a porté sur l’estimation de l’effort physique développé par une personne uniquement à partir de son expression faciale de douleur. Les résultats ont montré que les participants, dans ce type de tâche, utilisent deux mécanismes perceptifs automatiques. Le premier, mis en évidence par mesure fonctionnelle, facilite l’estimation de l’intensité de douleur à l’effort ressentie par autrui. Le second, démontré par la mesure d’un biais de mémorisation, entraîne une anticipation automatique de la suite de l’évolution de l’expression faciale de douleur à l’effort présentée. L’étude 3 a montré que l’estimation de l’effort physique développé par une personne atteinte de paraplégie réalisant un mouvement de transfert, est modulée par deux comportements de douleur (l’auto-protection et l’expression faciale de douleur). Toutefois, cette modulation diffère selon la familiarité des participants avec le monde médical et la paraplégie. En conclusion, ce travail de recherche propose que la modulation émotionnelle de la perception de l’action motrice d’autrui est en premier lieu sous-tendue par un processus automatique et implicite de contagion émotionnelle (bottom-up). Toutefois, cette dernière peut être inhibée par un processus explicite (top-down) qui dépendrait d’une part du type d’inférence à effectuer sur autrui (estimer l’équilibre postural ou l’effort physique développé), et d’autre part de la familiarité de l’observateur avec l’action motrice et les expressions faciales présentées. / Understanding others’ motor behaviour is part and parcel of Humans’ social experience. According to scientific literature, we rely on specific mechanisms for perceiving human bodies (whether static or moving) on the one hand, and processing emotional facial expressions on the other hand. This thesis aims to understand to what extent the emotion conveyed by a person’s face can modulate one’s perception of her/his motor action. Results of study 1 showed that our estimation of an individual’s static equilibrium is modulated by the observed individual’s emotional facial expression (smiling or tensed). Study 2 focused on perceptual estimation of the physical effort developed by a person on the basis of his facial expression of pain alone. Results revealed that participants adopt two automatic perceptual mechanisms. The first, highlighted via functional measurement, facilitates estimating the intensity of effort pain felt by others. The second, evidenced by measuring memory bias, leads to an automatic anticipation of the subsequent changes in the intensity of pain-related facial expressions. Study 3 showed that the estimation of physical effort developed by a paraplegic individual performing a transfer movement is modulated by two pain behaviours (guarding and facial expression of pain). Interestingly, this modulation varies with participants’ familiarity with both the medical domain and paraplegia. The conclusion of this research suggests that the modulation of emotional perception related to others’ motor action is primarily subtended by an automatic (bottom-up) process and an implicit emotional contagion. However, the latter can be inhibited by an explicit (top-down) process which may depend on (1) the type of inference made on others (estimating postural balance or physical effort developed in others), and (2) the familiarity of the observer with motor action and facial expressions.
13

Apprentissage neuronal de caractéristiques spatio-temporelles pour la classification automatique de séquences vidéo

Baccouche, Moez 17 July 2013 (has links) (PDF)
Cette thèse s'intéresse à la problématique de la classification automatique des séquences vidéo. L'idée est de se démarquer de la méthodologie dominante qui se base sur l'utilisation de caractéristiques conçues manuellement, et de proposer des modèles qui soient les plus génériques possibles et indépendants du domaine. Ceci est fait en automatisant la phase d'extraction des caractéristiques, qui sont dans notre cas générées par apprentissage à partir d'exemples, sans aucune connaissance a priori. Nous nous appuyons pour ce faire sur des travaux existants sur les modèles neuronaux pour la reconnaissance d'objets dans les images fixes, et nous étudions leur extension au cas de la vidéo. Plus concrètement, nous proposons deux modèles d'apprentissage des caractéristiques spatio-temporelles pour la classification vidéo : (i) Un modèle d'apprentissage supervisé profond, qui peut être vu comme une extension des modèles ConvNets au cas de la vidéo, et (ii) Un modèle d'apprentissage non supervisé, qui se base sur un schéma d'auto-encodage, et sur une représentation parcimonieuse sur-complète des données. Outre les originalités liées à chacune de ces deux approches, une contribution supplémentaire de cette thèse est une étude comparative entre plusieurs modèles de classification de séquences parmi les plus populaires de l'état de l'art. Cette étude a été réalisée en se basant sur des caractéristiques manuelles adaptées à la problématique de la reconnaissance d'actions dans les vidéos de football. Ceci a permis d'identifier le modèle de classification le plus performant (un réseau de neurone récurrent bidirectionnel à longue mémoire à court-terme -BLSTM-), et de justifier son utilisation pour le reste des expérimentations. Enfin, afin de valider la généricité des deux modèles proposés, ceux-ci ont été évalués sur deux problématiques différentes, à savoir la reconnaissance d'actions humaines (sur la base KTH), et la reconnaissance d'expressions faciales (sur la base GEMEP-FERA). L'étude des résultats a permis de valider les approches, et de montrer qu'elles obtiennent des performances parmi les meilleures de l'état de l'art (avec 95,83% de bonne reconnaissance pour la base KTH, et 87,57% pour la base GEMEP-FERA).
14

Méthodologie de traitement conjoint des signaux EEG et oculométriques : applications aux tâches d'exploration visuelle libre / Methodology for EEG signal and eye tracking joint processing : applications on free visual exploration tasks

Kristensen, Emmanuelle 12 June 2017 (has links)
Nos travaux se sont articulés autour du problème de recouvrement temporel rencontré lors de l'estimation des potentiels évoqués. Il constitue, plus particulièrement, une limitation majeure pour l'estimation des potentiels évoqués par les fixations ou saccades oculaires lors d'une expérience en enregistrement conjoint EEG et oculométrie. En effet, la méthode habituellement utilisée pour estimer ces potentiels évoqués, la méthode par simple moyennage du signal synchronisé sur l'évènement d'intérêt, suppose qu'il y a un seul potentiel évoqué par essai. Or selon les intervalles inter-stimuli, cette hypothèse n'est pas toujours vérifiée. Ceci est d'autant plus vrai dans le contexte des potentiels évoqués par fixations ou saccades oculaires, les intervalles entre ceux-ci n'étant pas contrôlés par l'expérimentateur et pouvant être plus courts que les latences des potentiels d'intérêt. Le fait que cette hypothèse ne soit pas vérifiée donne une estimation biaisée du potentiel évoqué du fait des recouvrements entre les potentiels évoqués.Nous avons donc utilisé le Modèle Linéaire Général (GLM), méthode de régression linéaire bien connue, pour estimer les potentiels évoqués par les mouvements oculaires afin de répondre à ce problème de recouvrement. Tout d'abord, nous avons introduit, dans ce modèle, un terme de régularisation au sens de Tikhonov dans l'optique d'améliorer le rapport signal sur bruit de l'estimation pour un faible nombre d'essais. Nous avons ensuite comparé le GLM à l'algorithme ADJAR dans un contexte d'enregistrement conjoint EEG et oculométrie lors d'une tâche d'exploration visuelle de scènes naturelles. L'algorithme ADJAR ("ADJAcent Response") est un algorithme classique d'estimation itérative des recouvrements temporels développé en 1993 par M. Woldorff. Les résultats ont montré que le GLM était un modèle plus flexible et robuste que l'algorithme ADJAR pour l'estimation des potentiels évoqués par les fixations oculaires. Puis, deux configurations du GLM ont été comparées pour l'estimation du potentiel évoqué à l'apparition du stimulus et du potentiel évoqué par les fixations au début de l'exploration. Toutes deux prenaient en compte les recouvrements entre potentiels évoqués mais l'une distinguait également le potentiel évoqué par la première fixation de l'exploration du potentiel évoqué par les fixations suivantes. Il est apparu que le choix de la configuration du GLM était un compromis entre la qualité de l'estimation des potentiels et les hypothèses émises sur les processus cognitifs sous-jacents.Enfin, nous avons conduit de bout en bout une expérience d'envergure en enregistrement conjoint EEG et oculométrie portant sur l'exploration des expressions faciales émotionnelles naturelles statiques et dynamiques. Nous avons présenté les premiers résultats pour la modalité statique. Après avoir discuté de la méthode d'estimation des potentiels évoqués selon l'impact des mouvements oculaires sur leur fenêtre de latence, nous avons étudié l'effet du type d'émotion. Nous avons trouvé des modulations du potentiel différentiel EPN (Early Posterior Negativity), entre 230 et 350 ms après l'apparition du stimulus et du potentiel LPP (Late Positivity Potential), entre 400 et 600 ms après l'apparition du stimulus. Nous avons également observé des variations du potentiel évoqué par les fixations oculaires. Pour le potentiel LPP, qui est un marqueur de la reconnaissance consciente de l'émotion, nous avons montré qu'il était important de dissocier l'information qui est immédiatement encodée à l'apparition du stimulus émotionnel, de celle qui est apportée à l'issue de la première fixation. Cela met en évidence un motif d'activation différencié pour les stimuli émotionnels à valence négative ou à valence positive. Cette différenciation est en accord avec l'hypothèse d'un traitement plus rapide des stimuli émotionnels à valence négative que des stimuli émotionnels à valence positive. / Our research focuses on the issue of overlapping for evoked potential estimation. More specifically, this issue is a significant limitation for Eye-Fixation Related Potentials and Eye-Saccade Related Potentials estimations during a joint EEG and eye-tracking recording. Indeed, the usual estimation, by averaging the signal time-locked to the event of interest, is based on the assumption that a single evoked potential occurs during a trial. However, depending on the inter-stimulus intervals, this assumption is not always verified. This is especially the case in the context of Eye-Fixation Related Potentials and Eye-Saccade Related Potentials, given the fact that the intervals between fixations (or saccades) are not controlled by the experimenter and can be shorter than the latencies of the potentials of interest.The fact that this assumption is not verified gives a distorted estimate of the evoked potential due to overlaps between the evoked potentials.We have therefore used the Linear Model (GLM), a well-known linear regression method, to estimate the potentials evoked by ocular movements in order to take into account overlaps. First, we decided to introduce a term of Tikhonov regularization into this model in order to improve the signal-to-noise ratio of the estimate for a small number of trials. Then, we compared the GLM to the ADJAR algorithm in a context of joint EEG and eye-tracking recording during a task of visual exploration of natural scenes. The ADJAR ("ADJAcent Response") algorithm is an algorithm for iterative estimation of temporal overlaps developed in 1993 by M. Woldorff. The results showed that the GLM model was more flexible and robust than the ADJAR algorithm in estimating Eye-Fixation Related Potentials. Further, two GLM configurations were compared in their estimation of evoked potential at the onset of the stimulus and the eye-fixation related potential at the beginning of the testing. Both configurations took into account the overlaps between evoked potentials, but one additionally distinguished the potential evoked by the first fixation of the exploration from the potential evoked by the following fixations. It became clear that the choice of the GLM configuration was a compromise between the estimation quality of the potentials and the assumptions about the underlying cognitive processes.Finally, we conducted an extensive joint EEG and eye-tracking experiment on the exploration of static and dynamic natural emotional facial expressions. We presented the first results for the static modality. After discussing the estimation method of the evoked potentials according to the impact of the ocular movements on their latency window, we studied the influence of the type of emotion. We found modulations of the differential EPN (Early Posterior Negativity) potential, between 230 and 350 ms after the stimulus onset and the Late Positivity Potential (LPP) , between 400 and 600 ms after the stimulus onset. We also observed variations for the Eye-Fixation Related Potentials. Regarding the LPP component, a marker of conscious recognition of emotion, we have shown that it is important to dissociate information that is immediately encoded at the onset of the emotional stimulus from information encoded at the first fixations. This shows a differentiated pattern of activation according to the emotional stimulus valence. This differentiation is in agreement with the hypothesis of a faster treatment of negative emotional stimuli than of positive emotional stimuli.
15

Les visages des sportifs : analyse des expressions faciales et des sous-rôles sociomoteurs par des observateurs selectionnés / The faces of sportsmen : analysis of facial expressions and sociomotor sub-roles by selected observers

Lecroisey, Loïc 15 November 2017 (has links)
Parlebas (1970) affirmait déjà, il y a plus de quarante ans, « l’affectivité est la clef des conduites motrices ». De nombreux travaux se sont concentrés sur la verbalisation des émotions en contexte sportif. A priori ou a posteriori, c’est le sportif qui détermine ce qu’il ressent. Est-il possible de proposer une approche qui viendrait s’adjoindre à celles existantes afin de s’intéresser aux émotions qui naissent durant l’action motrice? L’objet de ce travail porte sur la mise en œuvre d’une méthodologie d’observation qui permet de préserver le caractère écologique de l’émotion sportive. Nous l’envisageons à partir du décryptage des mimiques émotionnelles et des actions du joueur. À l’appui des travaux de Frijda et Tcherkassof (1997), Tcherkassof (2008), Parlebas (1999), Collard (2004), Oboeuf (2010) nous décryptons les émotions et les sous-rôles moteurs actualisés par le joueur en utilisant les expressions faciales et les tendances à l’action. Dans un premier temps, nous créons un test de reconnaissance des expressions faciales sportives. Nous le soumettons à des étudiants STAPS afin d’objectiver des capacités de décodage des visages. Nous constatons que la spécialité sportive a un impact sur la performance. Les résultats suggèrent que les spécialistes des activités de coopération sont de bons décodeurs. Les spécialistes de l’opposition « avec agressivité motrice limitée » sont assez bons. Les combattants sont de piètres décodeurs malgré qu’ils reconnaissent parfaitement la peur. Les spécialistes des activités psychomotrices sont plutôt mauvais mais peu en lien avec cette habileté de décodage. Dans un second temps, nous utilisons les excellents décodeurs sélectionnés grâce à notre test afin qu’ils analysent des vidéos de sportifs en action motrice. Grâce à une caméra embarquée, les visages de chaque joueur peuvent être recensés et analysés dans deux jeux sociomoteurs : la balle assise et l’ours et son gardien. Les observateurs formés et sélectionnés retranscrivent dans une grille d’analyse situationnelle les expressions faciales prototypiques d’une émotion et les sous-rôles sociomoteurs que le joueur actualise (Oboeuf, 2010). Cette grille est un ludogramme émotionnel (Parlebas, 1999). Les seconds types de résultats ainsi recueillis nous invitent à penser qu’il y a des émotions typiques de certaines actions. Lorsqu’elle précède un sous-rôle, la colère est celle de la frappe ou du tir puissant tandis que la peur est celle de l’esquive. Lorsqu’elle succède un replacement ou une interaction de marque favorable, la joie est un retour sur l’objectif du jeu et la douleur est consentie par le contrat ludique. En tant que processus, l’émotion permet au sportif de choisir la conduite motrice qu’il doit mettre en œuvre. En tant que résultat de l’action, l’émotion est une information sur l’atteinte du but du jeu. L’ensemble de nos résultats nous invite à valider cette méthodologie. Il sera désormais nécessaire de reproduire ce type d’étude dans de nombreux sports. / More than forty years ago, Parlebas (1970) affirmed: « affectivity is the key to motor skill ». Many studies have concentrated on the verbalization of emotions in sports context? Before the game or after the game, the sportsman determines what he feels. Is it possible to suggest an approach that would come in line with existing ones in order to be interested in the emotions that arises during motor action? The aim of this work is to implement an observational methodology that preserves the ecological character of sport’s emotion. We consider it from the deciphering of the emotional mimics and the actions of the player. In support of the work of Frijda and Tcherkassof (1997), Tcherkassof (2008), Parlebas (1999), Collard (2004), Oboeuf (2010), we decrypt the emotions and the motor sub-role of player using facial expressions and tendency to action. As a first step, we create a test for recognition of sport’s facial expressions. We submit it to sport students in order to objectify capacities of decoding the faces. We see that the sporting specialty has an impact on performance. The results suggest that specialists in cooperative activities are good decoders. The opposition specialists "with limited motor aggressiveness" are quite good. The fighters are poor decoders despite they fully recognize the fear. Specialists in psychomotor activities are rather bad but not very much related to this skill of decoding. In a second step, we use the excellent decoders selected by our test so that they analyze videos of sportsmen in motor action. Thanks to an embedded camera, the faces of each player can be recorded and analyzed in two sociomotor games: the seated ball and the bear and his keeper. In a situational analysis grid, trained and selected observers retranscribe the prototypical facial expressions of an emotion and the sociomotor sub-roles that the player updates (Oboeuf, 2010). This grid is an emotional ludogram (Parlebas, 1999). The second type of results collected thought that method invite us to think that there are typical emotions inherent to certain actions. Before a sub-role, anger is related to powerful striking or shooting, while fear is interconnected with dodging. Following a replacement or a favorable brand interaction, the joy is a return on the game’s aim and the pain is consented by the play contract. As a process, the emotion allows the athlete to choose the driving behavior that he must implement. As a result of action, emotions are information about reaching the goal of the game. All of our results invite us to validate this methodology. It will now be necessary to repeat this type of study in many sports.
16

Apprentissage neuronal de caractéristiques spatio-temporelles pour la classification automatique de séquences vidéo / Neural learning of spatio-temporal features for automatic video sequence classification

Baccouche, Moez 17 July 2013 (has links)
Cette thèse s'intéresse à la problématique de la classification automatique des séquences vidéo. L'idée est de se démarquer de la méthodologie dominante qui se base sur l'utilisation de caractéristiques conçues manuellement, et de proposer des modèles qui soient les plus génériques possibles et indépendants du domaine. Ceci est fait en automatisant la phase d'extraction des caractéristiques, qui sont dans notre cas générées par apprentissage à partir d'exemples, sans aucune connaissance a priori. Nous nous appuyons pour ce faire sur des travaux existants sur les modèles neuronaux pour la reconnaissance d'objets dans les images fixes, et nous étudions leur extension au cas de la vidéo. Plus concrètement, nous proposons deux modèles d'apprentissage des caractéristiques spatio-temporelles pour la classification vidéo : (i) Un modèle d'apprentissage supervisé profond, qui peut être vu comme une extension des modèles ConvNets au cas de la vidéo, et (ii) Un modèle d'apprentissage non supervisé, qui se base sur un schéma d'auto-encodage, et sur une représentation parcimonieuse sur-complète des données. Outre les originalités liées à chacune de ces deux approches, une contribution supplémentaire de cette thèse est une étude comparative entre plusieurs modèles de classification de séquences parmi les plus populaires de l'état de l'art. Cette étude a été réalisée en se basant sur des caractéristiques manuelles adaptées à la problématique de la reconnaissance d'actions dans les vidéos de football. Ceci a permis d'identifier le modèle de classification le plus performant (un réseau de neurone récurrent bidirectionnel à longue mémoire à court-terme -BLSTM-), et de justifier son utilisation pour le reste des expérimentations. Enfin, afin de valider la généricité des deux modèles proposés, ceux-ci ont été évalués sur deux problématiques différentes, à savoir la reconnaissance d'actions humaines (sur la base KTH), et la reconnaissance d'expressions faciales (sur la base GEMEP-FERA). L'étude des résultats a permis de valider les approches, et de montrer qu'elles obtiennent des performances parmi les meilleures de l'état de l'art (avec 95,83% de bonne reconnaissance pour la base KTH, et 87,57% pour la base GEMEP-FERA). / This thesis focuses on the issue of automatic classification of video sequences. We aim, through this work, at standing out from the dominant methodology, which relies on so-called hand-crafted features, by proposing generic and problem-independent models. This can be done by automating the feature extraction process, which is performed in our case through a learning scheme from training examples, without any prior knowledge. To do so, we rely on existing neural-based methods, which are dedicated to object recognition in still images, and investigate their extension to the video case. More concretely, we introduce two learning-based models to extract spatio-temporal features for video classification: (i) A deep learning model, which is trained in a supervised way, and which can be considered as an extension of the popular ConvNets model to the video case, and (ii) An unsupervised learning model that relies on an auto-encoder scheme, and a sparse over-complete representation. Moreover, an additional contribution of this work lies in a comparative study between several sequence classification models. This study was performed using hand-crafted features especially designed to be optimal for the soccer action recognition problem. Obtained results have permitted to select the best classifier (a bidirectional long short-term memory recurrent neural network -BLSTM-) to be used for all experiments. In order to validate the genericity of the two proposed models, experiments were carried out on two different problems, namely human action recognition (using the KTH dataset) and facial expression recognition (using the GEMEP-FERA dataset). Obtained results show that our approaches achieve outstanding performances, among the best of the related works (with a recognition rate of 95,83% for the KTH dataset, and 87,57% for the GEMEP-FERA dataset).
17

Approche neuropsychologique des troubles émotionnels dans la schizophrénie / Neuropsychological approach of emotional disorders in schizophrenia

Dondaine, Thibaut 29 September 2014 (has links)
Les troubles schizophréniques stabilisés s'accompagnent souvent de déficits cognitifs et émotionnels. Les plus récents travaux mettent en relation la cognition, la motivation et les émotions dans la présentation cliniques des troubles schizophréniques. L'objectif de ce travail est de décrire les troubles de la reconnaissance des émotions, du sentiment subjectif et des réactions physiologiques liées aux émotions dans les troubles schizophréniques stabilisés. L'influence des troubles cognitifs et de l'apathie sur les processus émotionnels est également explorée. Dans une première étude, nous avons mis en évidence l'introduction de biais dans la reconnaissance des émotions dans deux modalités sensorielles (visuelle et auditive).Dans l'étude suivante, nous nous sommes intéressés à l'influence des troubles des fonctions exécutives dans le sentiment subjectif des émotions. A l'aide d'extrait de films, nous avons montré qu'un trouble des fonctions exécutives pouvait entraîner l'introduction d'un ressenti émotionnel nuancé dans les troubles schizophréniques stabilisés. L'apathie est un trouble fréquent dans la schizophrénie et peut influencer les processus émotionnels. Dans un troisième travail, nous avons étudié l'impact de l'apathie sur les réactions physiologiques induites par les émotions. Nous avons montré que la sévérité de l'apathie était corrélée à une diminution de l'activité électrodermale lors de l'induction d'émotions positives. Les résultats de ces travaux montrent un impact des troubles cognitifs et motivationnels sur les processus émotionnels dans les troubles schizophréniques stabilisés. Ces travaux nous encouragent à explorer les bases cérébrales de l'interaction entre émotion et cognition dans la schizophrénie. Des applications cliniques sont également discutées. / Stabilized schizophrenia is characterized by cognitive and emotional deficits. Recent works adopted a dynamic view of the relationship between cognition; motivation and emotion in schizophrenia. The objective of this work was to describe the impairments of recognition; subjective feelings and physiological reactions related to emotions in stabilized schizophrenia. The influence of cognitive impairment and apathy on the emotional processes was also explored. In a first study on a group of 23 patients with schizophrenia; we highlighted the introduction of bias in the recognition of emotion in two sensory modalities (visual and auditory). In the next study; we investigated the influence of executive function disorders in the subjective feeling of emotions. With film excerpts; we showed that a disorder in executive functions could lead the introduction of a mixed subjective feeling in schizophrenia. Apathy is a common disorder in schizophrenia and may influence emotional processes. In a third study; we investigated the impact of apathy on physiological reactions induced by emotion. We have shown that the severity of apathy was correlated with a decrease in electrodermal activity during induction of positive emotions. The results of these studies show an impact of cognitive and motivational disturbances in emotional processes in stabilized schizophrenia. This work encourages us to explore the neural bases of the interaction between emotion and cognition in schizophrenia. Clinical applications are also discussed.
18

Characterization of oral pain in cats after dental extractions in a multidisciplinary approach

Watanabe, Ryota 09 1900 (has links)
Les maladies bucco-dentaires sont fréquemment rapportées en médecine vétérinaire et le traitement généralement nécessite l’extraction des dents. Cependant, la procédure est invasive et une évaluation à long terme ainsi qu’une gestion de la douleur sont nécessaires. En médecine vétérinaire, les opioïdes, les blocs anesthésiques locaux et les anti-inflammatoires non stéroïdiens sont administrés en intervention analgésique péri-opératoire. Par exemple, la buprénorphine est un opioïde analgésique puissant, hautement lipophile, et est principalement utilisé pour traiter la douleur aiguë. La buprénorphine est souvent administrée dans le cadre d'une analgésie multimodale. Les signes comportementaux de la douleur induite par les maladies bucco-dentaires n'ont pas été systématiquement étudiés chez les chats, et les connaissances actuelles sont principalement basées sur des preuves anecdotiques ou des études réalisées chez d'autres espèces. On ignore comment les maladies bucco-dentaires et le traitement (c'est-à-dire l'extraction dentaire) peuvent affecter la prise alimentaire péri-opératoire, les scores de douleur, les besoins analgésiques supplémentaires et les comportements chez les chats. En outre, il serait important de savoir si l’échelle de douleur basée sur l'expression faciale (Feline Grimace Scale: FGS) pourrait également être utilisée pour l'évaluation de la douleur buccale. Les objectifs du projet étaient 1) d'identifier les comportements spécifiques associés aux maladies bucco-dentaires en utilisant une évaluation par vidéo, et de les corréler aux scores de la douleur en temps réel, 2) d'évaluer l'impact des maladies bucco-dentaires et de la douleur sur la prise alimentaire et les comportements liés à l'alimentation, 3) de déterminer les effets du traitement des maladies bucco-dentaires sur le comportement, les scores de la douleur et la prise alimentaire, 4) d’évaluer la fiabilité inter-évaluateurs du FGS et 5) pour évaluer l'efficacité analgésique et les événements indésirables d'une formulation à haute concentration de formulation de chlorhydrate de buprénorphine (Simbadol, 1,8 mg / mL) en comparaison avec une formulation standard de chlorhydrate de buprénorphine (Vetergesic, 0,3 mg / mL) dans le cadre d'un schéma multimodal chez les chats subissant des extractions dentaires. Les hypothèses étaient que 1) des comportements spécifiques pourraient être identifiés et corrélés aux scores de la douleur en temps réel, 2) les chats atteints d'une maladie bucco-dentaire sévère auraient une consommation alimentaire plus faible et des scores de douleur plus élevés et nécessiteraient une analgésie de secours comparativement aux chats qui ne sont pas / minimalement atteints par une maladie bucco-dentaire, 3) le traitement des maladies bucco-dentaires réduirait la prévalence des comportements spécifiques ainsi que les scores de douleur et améliorerait la consommation alimentaire de ces animaux, 4) les scores FGS notés par différents évaluateurs seraient fiables et 5) Simbadol et Vetergesic produiraient tous deux des scores de douleur postopératoire, des événements indésirables, ainsi que le moment et la prévalence de l'analgésie de secours similaires lors de l'utilisation du Glasgow Composite Measure Pain Scale-Feline (CMPS-F). Le projet a été divisé en deux études et quatre articles (étude 1: articles 1 à 3, étude 2: article 4): 1) article sur le score de la douleur, les besoins en analgésie de secours et la quantité de nourriture ingérée chez les chats subissant un traitement oral, 2) article sur les comportements spécifiques induits par la douleur liés à la douleur buccale chez les chats sous traitement oral, 3) article sur la fiabilité inter-évaluateurs de la FGS chez les chats sous traitement oral, et 4) comparaison détaillée de l'efficacité analgésique de deux schémas posologiques en utilisant deux concentrations différentes de buprénorphine chez les chats subissant des extractions dentaires. Dans le premier article, vingt-quatre chats ont été répartis également en deux groupes: un groupe qui représente des maladies bucco-dentaires légères (traitement dentaire minimal) et un autre sévères (extractions dentaires multiples) sur la base d'un système de notation dentaire qui impliquait le nombre et l'emplacement de l'extraction des dents et hospitalisés pendant 7 jours (admission au jour 0, examen bucco-dentaire, radiographies et traitement sous anesthésie générale le jour 1 et sortie le jour 6). Pendant l'hospitalisation, les scores de douleur basés sur l'échelle composite de Glasgow (CMPS-F), la prévalence de l'analgésie de secours (CMPS-F ≥ 5/20), la prise d'aliments secs et mous (%) pendant 3 minutes et 2 heures, l'apport quotidien d'aliments mous et les cytokines inflammatoires sériques ont été analysés. Dans le deuxième article, les chats ont été filmés à distance pendant 10 min tout au long de l'étude à différents moments (au total 36h d'enregistrement vidéo). Les vidéos se composaient de quatre parties soit les comportements généraux, de jeu, d'alimentation et post-alimentation. La durée et la fréquence des différents comportements basés sur un éthogramme ont été analysées. Dans le troixième article, quatre-vingt-onze captures d'images (c'est-à-dire des captures d'écran) à partir de vidéos filmées aux jours 1 (postopératoire 6 heures) et 6 pour l'article 2 et des vidéos filmées avant / après l'analgésie de sauvetage ont été incluses. Le FGS comprend cinq unités d'action (AU): les yeux, les oreilles, le museau, les moustaches et la position de la tête. Les scores FGS des images ont été évalués indépendamment par quatre évaluateurs en aveugle. La fiabilité inter-évaluateurs de chaque score AU et FGS total et l'effet de la présence du soignant ont été évalués. Dans l'étude 2 (article 4), vingt-trois chats subissant des extractions dentaires ont été inclus. Les chats ont reçu aléatoirement soit Simbadol (1.8 mg/mL; 0.24 mg/kg SC, toutes les 24 heures, n = 11) ou Vetergesic (0.3 mg/mL; 0.02 mg/kg IM, toutes les 8 h, n = 12) tout au long de l'étude. Ils ont été admis au jour 0, ont subi un examen oral, des radiographies et un traitement sous anesthésie générale le jour 1 et ont été libérés le jour 4. La sédation et la douleur ont été évaluées à l'aide de l'échelle visuelle analogique interactive dynamique (jour 1) et CMPS-F, respectivement. Les scores de sédation, de douleur et la prévalence de l'analgésie de secours (CMPS-F ≥ 5/20) et du ressentiment (défini comme tout type de comportement d'évitement associé à l'aversion pour l'administration de médicaments) ont été analysés statistiquement. Les études ont montré que les scores de la douleur et la prévalence de l'analgésie de secours étaient significativement élevés, ainsi que les apports d'aliments secs et mous étaient significativement diminués chez les chats atteints d'une maladie grave par rapport à ceux présentant une maladie légère. De surcroit, la maladie buccale influence les cytokines inflammatoires et induit des comportements. Par ailleurs, Le FGS est un outil fiable pour l’évaluation de la douleur buccale et n’est pas affecté par la présence du soignant. En outre, les scores de la douleur et la prévalence de l'analgésie de secours chez les chats auxquels Simbadol a été administré n'étaient pas significativement différents de ceux administrés par Vetergesic. De plus, certains chats administrés par Vetergesic ont développé un ressentiment à l'égard de l'administration du médicament, qui n'était pas significativement différent de ceux administrés par Simbadol. Une analgésie à long terme est nécessaire après des extractions dentaires chez les chats atteints d'une maladie bucco-dentaire sévère. La diminution de l'apport alimentaire et les comportements spécifiques identifiés dans les études pourraient être utilisés pour différencier entre les chats douloureux des chats indolores dans la pratique clinique. Le FGS est un outil fiable pour l'évaluation de la douleur chez les chats subissant des extractions dentaires. Simbadol a produit des effets analgésiques similaires à Vetergesic sans induire un ressentiment pendant l'administration du médicament. / Oral disease is one of the most commonly reported diseases in veterinary medicine, and tooth extractions are commonly required as the treatment. The procedure, however, is invasive, and long-term pain management is necessary. In veterinary medicine, opioids, local anesthetic blocks and nonsteroidal anti-inflammatory drugs are administered as perioperative analgesic intervention. Behavioral signs of oral disease-induced pain have not been systematically investigated in cats, and the current knowledge is mostly based on anecdotal evidence or studies performed in other species. It is not known how oral disease and the treatment (i.e. tooth extractions) can affect perioperative food intake, pain scores, additional analgesic requirements and behaviors in cats. Also, it is not known if a facial expression-based pain scale (Feline Grimace Scale: FGS) could be used for oral pain assessment as well. The objectives of this PhD program were: 1) to identify the specific behaviors associated with oral disease by using video assessment, and to verify their correlation with the real-time pain scores, 2) to assess the impact of oral disease and pain on food intake and feeding-related behaviors, 3) to determine the effects of oral disease treatment on behavior, pain scores and food intake, 4) to assess the inter-rater reliability of the FGS in cats undergoing dental extractions and 5) to evaluate the analgesic efficacy and adverse events of a high-concentration formulation of buprenorphine hydrochloride formulation (Simbadol, 1.8 mg/mL) in comparison with a standard buprenorphine hydrochloride formulation (Vetergesic, 0.3 mg/mL) as part of a multimodal regimen in cats undergoing dental extractions. The hypotheses were: 1) specific behaviors associated with oral disease would be identified and correlated with real-time pain scores, 2) cats with severe oral disease would have lower food intake and higher pain scores, and require rescue analgesia when compared with cats with no/minimal oral disease, 3) treatment of oral disease would reduce the prevalence of specific behaviors and pain scores and improve food consumption of these animals, 4) the FGS scores scored by different raters would be reliable in cats undergoing dental extractions and 5) both Simbadol and Vetergesic would produce similar postoperative pain scores, adverse events and timing and prevalence of rescue analgesia when using the Glasgow Composite Measure Pain Scale-Feline (CMPS-F). The project was divided into two studies and four articles (study 1: articles 1-3, study 2: article 4): 1) investigation of pain scores, rescue analgesia requirements and the amount of food intake in cats undergoing oral treatment, 2) investigation of the pain-induced specific behaviors related to oral pain in cats undergoing oral treatment, 3) investigation of inter-rater reliability of FGS in cats undergoing oral treatment, and 4) comparison of the analgesic efficacy of two dosage regimens using two different concentrations of buprenorphine in cats undergoing dental extractions. In article 1, twenty-four cats were equally divided into minimal (minimal dental treatment) or severe (multiple dental extractions) oral disease groups based on a dental scoring system which involved the number and location of teeth extraction and hospitalized for 7 days (admission on day 0, oral examination, radiographs and treatment under general anesthesia on day 1 and discharge on day 6). During hospitalization, pain scores based on CMPS-F, the prevalence of rescue analgesia (CMPS-F ≥ 5/20), dry and soft food intake (%) during periods of 3 minutes and 2 hours, daily soft food intake and serum inflammatory cytokines were analyzed and compared. In article 2, cats were filmed remotely for 10 min throughout the study at different time points (total of 36h of video recording). The videos consisted of four parts namely general, playing, feeding and post-feeding behaviors. The duration and frequency of different behaviors based on an ethogram were analyzed. In article 3, ninety-one image captures (i.e. screenshots) from videos filmed at days 1 (postoperative 6 hours) and 6 for article 2 and videos filmed before/after rescue analgesia were included. The FGS comprises five action units (AU): eyes, ears, muzzle, whiskers and head position. The FGS scores of the images were independently scored by four blinded raters. Inter-rater reliability of each AU and total FGS scores and the effect of the caregiver’s presence were evaluated. In study 2 (article 4), twenty-three cats undergoing tooth extractions were included. Cats randomly received either Simbadol (1.8 mg/mL; 0.24 mg/kg SC, every 24h, n = 11) or Vetergesic (0.3 mg/mL; 0.02 mg/kg IM, every 8h, n = 12) throughout the study. They were admitted on day 0, underwent oral examination, radiographs and treatment under general anesthesia on day 1 and discharged on day 4. Sedation and pain were scored using the dynamic interactive visual analog scale (day 1) and CMPS-F¬, respectively. Sedation and pain scores and the prevalence of rescue analgesia (CMPS-F ≥ 5/20) and resentment (defined as any type of escape behavior associated with aversion to drug administration) were analyzed. The studies found that the pain scores and the prevalence of rescue analgesia were significantly increased, and dry and soft food intakes were significantly decreased in cats with severe disease when compared with those with minimal disease, and the oral disease influences inflammatory cytokines and induces the specific behaviors. FGS is a reliable tool for the assessment of oral pain and is not affected by the caregiver’s presence. Pain scores and the prevalence of rescue analgesia in cats administered Simbadol were not significantly different from those administered Vetergesic, and some cats administered Vetergesic developed resentment to the administration of the drug, which was not significantly different from those administered Simbadol. Long-term analgesia is required after dental extractions in cats with severe oral disease. A decrease in food intake and specific behaviors identified in the studies could be used to differentiate painful versus pain-free cats in clinical practice. The FGS is a reliable tool for pain assessment in cats undergoing dental extractions. Simbadol produced similar analgesic effects to Vetergesic without resentment during drug administration.
19

Communication affective médiée via une interface tactile / Affective Mediated Communication via a Tactile Interface

Tsalamlal, Mohamed Yacine 27 June 2016 (has links)
La communication affective est au cœur de nos interactions interpersonnelles. Nous communiquons les émotions à travers de multiples canaux non verbaux. Plusieurs travaux de recherche sur l’interaction homme-machine ont exploité ces modalités de communication afin de concevoir des systèmes permettant de reconnaître et d’afficher automatiquement des signaux affectifs. Le toucher est la modalité la moins explorée dans ce domaine de recherche. L’aspect intrusif des interfaces haptiques actuelles est l’un des principaux obstacles à leur utilisation dans la communication affective médiée. En effet, l’utilisateur est physiquement connecté à des systèmes mécaniques pour recevoir la stimulation. Cette configuration altère la transparence de l’interaction médiée et empêche la perception de certaines dimensions affectives comme la valence. L’objectif de cette thèse est de proposer et d’étudier une technique de stimulation tactile sans contact avec des systèmes mécaniques pour médier des signaux d’affects. Sur la base de l’état de l’art des interfaces haptiques, nous avons proposé une stratégie de stimulation tactile basée sur l’utilisation d’un jet d’air mobile. Cette technique permet de fournir une stimulation tactile non-intrusive sur des zones différentes du corps. De plus, ce dispositif tactile permettrait une stimulation efficace de certains mécanorécepteurs qui jouent un rôle important dans les perceptions d’affects positifs. Nous avons conduit une étude expérimentale pour comprendre les relations entre les caractéristiques physiques de la stimulation tactile par jet d’air et la perception affective des utilisateurs. Les résultats mettent en évidence les effets principaux de l'intensité et de la vitesse du mouvement du jet d’air sur l’évaluation subjective mesurée dans l’espace affectif (à savoir, la valence, l'arousal et de la dominance).La communication des émotions est clairement multimodale. Nous utilisons le toucher conjointement avec d’autres modalités afin de communiquer les différents messages affectifs. C’est dans ce sens que nous avons conduit deux études expérimentales pour examiner la combinaison de la stimulation tactile par jet d’air avec les expressions faciales et vocales pour la perception de la valence. Ces expérimentations ont été conduites dans un cadre théorique et expérimental appelé théorie de l’intégration de l’information. Ce cadre permet de modéliser l’intégration de l’information issue de plusieurs sources en employant une algèbre cognitive. Les résultats de nos travaux suggèrent que la stimulation tactile par jet d’air peut être utilisée pour transmettre des signaux affectifs dans le cadre des interactions homme-machine. Les modèles perceptifs d’intégration bimodales peuvent être exploités pour construire des modèles computationnels permettant d’afficher des affects en combinant la stimulation tactile aux expressions faciales ou à la voix. / Affective communication plays a major role in our interpersonal interactions. We communicate emotions through multiple non-verbal channels. Researches on human-computer interaction have exploited these communication channels in order to design systems that automatically recognize and display emotional signals. Touch has receivers less interest then other non-verbal modalities in this area of research. The intrusive aspect of current haptic interfaces is one of the main obstacles to their use in mediated emotional communication. In fact, the user is must physically connected to mechanical systems to receive the stimulation. This configuration affects the transparency of the mediated interaction and limits the perception of certain emotional dimensions as the Valence. The objective of this thesis is to propose and study a technique for tactile stimulation. This technique does not require contact with mechanical systems to transmit affective signals. On the basis of the state of the art of haptic interfaces, we proposed a strategy of tactile stimulation based on the use of a mobile air jet. This technique provides a non-intrusive tactile stimulation on different areas of the body. In addition, this tactile device would allow effective stimulation of some mechanoreceptors that play an important role in perceptions of positive affect. We conducted an experimental study to understand the relationships between the physical characteristics of tactile stimulation by air jet and the emotional perception of the users. The results highlight the main effects of the intensity and the velocity of movement of the air stream on the subjective evaluation measured in space affective (namely, Valence, Arousal and Dominance).The communication of emotions is clearly multi-modal. We use touch jointly with other modalities to communicate different emotional messages. We conducted two experimental studies to examine the combination of air jet tactile stimulation with facial and vocal expressions for perception of the valence. These experiments were conducted in a theoretical and experimental framework called integration of information theory. This framework allows modelling the integration of information from multiple sources using a cognitive algebra. Our work suggests that tactile stimulation by air jet can be used to transmit emotional signals in the context of the human-machine interactions. Perceptual bimodal integration models can be exploited to build computational models to display affects by combining tactile stimulation to facial expressions or the voice.
20

Élaboration d’une signature cérébrale de l’expression faciale de la douleur via l’utilisation d’approches d’apprentissage machine

Picard, Marie-Eve 12 1900 (has links)
L’expression faciale est un vecteur de communication important dans l’expérience de douleur. Cependant, les corrélats neuronaux associés à cette manifestation de la douleur demeurent peu investigués. Le but de ce mémoire était de développer un modèle neurobiologique permettant de prédire l’expression faciale évoquée par des stimuli douloureux afin d’approfondir nos connaissances sur les mécanismes cérébraux de la douleur et de la communication non verbale. La signature cérébrale de l’expression faciale de la douleur a été élaborée sur un jeu de données d’IRMf acquis chez des adultes en santé en utilisant des algorithmes d’apprentissage machine pour prédire des scores d’expression faciale évoquée par des stimulations douloureuses phasiques (c.-à-d. de courtes stimulations) à l’échelle de la population. Les résultats suggèrent qu’il est possible de prédire ces réponses faciales à partir d’un patron d’activation multivoxels. Cette signature cérébrale se distingue, du moins partiellement, de signatures cérébrales prédictives de l’intensité et du caractère déplaisant de la douleur rapportée et de la valeur future de la douleur. Bien que d’autres études soient nécessaires pour examiner la spécificité et la généralisabilité de la signature cérébrale de l’expression faciale de la douleur, ce mémoire souligne l’existence d’une représentation cérébrale spatialement distribuée prédictive des réponses faciales en lien avec la douleur, et suggère l’importance de cette mesure comportementale dans l’expérience de la douleur comme étant complémentaire aux mesures autorapportées de l’intensité perçue. / Facial expression is an important communication vector in the experience of pain. However, the neural correlates associated with this manifestation of pain remain relatively unexplored. The goal of this thesis was to develop a neurobiological model to predict facial expression evoked by painful stimuli in order to expand our knowledge of the brain mechanisms of pain and non-verbal communication. The brain signature of facial expressions of pain was developed on a dataset including healthy adults using machine learning algorithms to predict facial expression scores evoked by phasic painful stimuli (i.e., short stimulation) at the population level. The results suggest that it is possible to predict the facial expression of pain from a multivoxel activation pattern. This brain signature of facial pain expression is at least partially distinct from other brain signatures predictive of reported pain intensity and unpleasantness, and future pain value. Although further studies are needed to examine the specificity and generalizability of the brain signature of facial expression of pain, this master thesis highlights the existence of a spatially distributed brain representation predictive of pain-related facial responses, and suggests the importance of this behavioural measure in the experience of pain as complementary to self-reported measures of pain intensity.

Page generated in 0.1161 seconds