• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • Tagged with
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

L’utilisation de l’information visuelle en reconnaissance d’expressions faciales d’émotion

Blais, Caroline 09 1900 (has links)
L’aptitude à reconnaitre les expressions faciales des autres est cruciale au succès des interactions sociales. L’information visuelle nécessaire à la catégorisation des expressions faciales d’émotions de base présentées de manière statique est relativement bien connue. Toutefois, l’information utilisée pour discriminer toutes les expressions faciales de base entre elle demeure encore peu connue, et ce autant pour les expressions statiques que dynamiques. Plusieurs chercheurs assument que la région des yeux est particulièrement importante pour arriver à « lire » les émotions des autres. Le premier article de cette thèse vise à caractériser l’information utilisée par le système visuel pour discriminer toutes les expressions faciales de base entre elles, et à vérifier l’hypothèse selon laquelle la région des yeux est cruciale pour cette tâche. La méthode des Bulles (Gosselin & Schyns, 2001) est utilisée avec des expressions faciales statiques (Exp. 1) et dynamiques (Exp. 2) afin de trouver quelles régions faciales sont utilisées (Exps. 1 et 2), ainsi que l’ordre temporel dans lequel elles sont utilisées (Exp. 2). Les résultats indiquent que, contrairement à la croyance susmentionnée, la région de la bouche est significativement plus utile que la région des yeux pour discriminer les expressions faciales de base. Malgré ce rôle prépondérant de la bouche, c’est toute de même la région des yeux qui est sous-utilisée chez plusieurs populations cliniques souffrant de difficultés à reconnaitre les expressions faciales. Cette observation pourrait suggérer que l’utilisation de la région des yeux varie en fonction de l’habileté pour cette tâche. Le deuxième article de cette thèse vise donc à vérifier comment les différences individuelles en reconnaissance d’expressions faciales sont reliées aux stratégies d’extraction de l’information visuelle pour cette tâche. Les résultats révèlent une corrélation positive entre l’utilisation de la région de la bouche et l’habileté, suggérant la présence de différences qualitatives entre la stratégie des patients et celle des normaux. De plus, une corrélation positive est retrouvée entre l’utilisation de l’œil gauche et l’habileté des participants, mais aucune corrélation n’est retrouvée entre l’utilisation de l’œil droit et l’habileté. Ces résultats indiquent que la stratégie des meilleurs participants ne se distingue pas de celle des moins bons participants simplement par une meilleure utilisation de l’information disponible dans le stimulus : des différences qualitatives semblent exister même au sein des stratégies des participants normaux. / The ability to recognize facial expressions is crucial for the success of social communication. The information used by the visual system to categorize static basic facial expressions is now relatively well known. However, the visual information used to discriminate the basic facial expressions from one another is still unknown, and this is true for both static and dynamic facial expressions. Many believe that the eye region of a facial expression is particularly important when it comes to reading others' emotions. The aim of the first article of this thesis is to determine which information is used by the visual system in order to discriminate between the basic facial expressions and to verify the validity of the hypothesis that the eye region is crucial for this task. The Bubbles method (Gosselin & Schyns, 2001) is used with static (Exp. 1) and dynamic (Exp. 2) facial expressions in order to determine which facial areas are used for the task (Exp. 1) and in which temporal order these facial areas are used (Exp. 2). The results show that, in contrast with the aforementioned belief, the mouth region is significantly more useful than the eye region when discriminating between the basic facial expressions. Despite this preponderant role of the mouth, it is the eye area⎯not the mouth area⎯that is underutilized by many clinical populations suffering from difficulties in recognizing facial expressions. This observation could suggest that the utilization of the eye area varies as a function of the ability to recognize facial expressions. The aim of the second article in this thesis is thus to verify how individual differences in the ability to recognize facial expressions relate to the visual information extraction strategies used for this task. The results show a positive correlation between the ability of the participants and the utilization of the mouth region, suggesting the existence of qualitative differences between the strategy of clinical patients and of normal participants. A positive correlation is also found between the ability of the participants and the utilization of the left eye area, but no correlation is found between the ability and the utilization of the right eye area. These results suggest that the difference between the strategies of the best and the worst participants is not only that the best ones use the information available in the stimulus more efficiently: rather, qualitative differences in the visual information extraction strategies may exist even within the normal population.
2

L’utilisation de l’information visuelle en reconnaissance d’expressions faciales d’émotion

Blais, Caroline 09 1900 (has links)
L’aptitude à reconnaitre les expressions faciales des autres est cruciale au succès des interactions sociales. L’information visuelle nécessaire à la catégorisation des expressions faciales d’émotions de base présentées de manière statique est relativement bien connue. Toutefois, l’information utilisée pour discriminer toutes les expressions faciales de base entre elle demeure encore peu connue, et ce autant pour les expressions statiques que dynamiques. Plusieurs chercheurs assument que la région des yeux est particulièrement importante pour arriver à « lire » les émotions des autres. Le premier article de cette thèse vise à caractériser l’information utilisée par le système visuel pour discriminer toutes les expressions faciales de base entre elles, et à vérifier l’hypothèse selon laquelle la région des yeux est cruciale pour cette tâche. La méthode des Bulles (Gosselin & Schyns, 2001) est utilisée avec des expressions faciales statiques (Exp. 1) et dynamiques (Exp. 2) afin de trouver quelles régions faciales sont utilisées (Exps. 1 et 2), ainsi que l’ordre temporel dans lequel elles sont utilisées (Exp. 2). Les résultats indiquent que, contrairement à la croyance susmentionnée, la région de la bouche est significativement plus utile que la région des yeux pour discriminer les expressions faciales de base. Malgré ce rôle prépondérant de la bouche, c’est toute de même la région des yeux qui est sous-utilisée chez plusieurs populations cliniques souffrant de difficultés à reconnaitre les expressions faciales. Cette observation pourrait suggérer que l’utilisation de la région des yeux varie en fonction de l’habileté pour cette tâche. Le deuxième article de cette thèse vise donc à vérifier comment les différences individuelles en reconnaissance d’expressions faciales sont reliées aux stratégies d’extraction de l’information visuelle pour cette tâche. Les résultats révèlent une corrélation positive entre l’utilisation de la région de la bouche et l’habileté, suggérant la présence de différences qualitatives entre la stratégie des patients et celle des normaux. De plus, une corrélation positive est retrouvée entre l’utilisation de l’œil gauche et l’habileté des participants, mais aucune corrélation n’est retrouvée entre l’utilisation de l’œil droit et l’habileté. Ces résultats indiquent que la stratégie des meilleurs participants ne se distingue pas de celle des moins bons participants simplement par une meilleure utilisation de l’information disponible dans le stimulus : des différences qualitatives semblent exister même au sein des stratégies des participants normaux. / The ability to recognize facial expressions is crucial for the success of social communication. The information used by the visual system to categorize static basic facial expressions is now relatively well known. However, the visual information used to discriminate the basic facial expressions from one another is still unknown, and this is true for both static and dynamic facial expressions. Many believe that the eye region of a facial expression is particularly important when it comes to reading others' emotions. The aim of the first article of this thesis is to determine which information is used by the visual system in order to discriminate between the basic facial expressions and to verify the validity of the hypothesis that the eye region is crucial for this task. The Bubbles method (Gosselin & Schyns, 2001) is used with static (Exp. 1) and dynamic (Exp. 2) facial expressions in order to determine which facial areas are used for the task (Exp. 1) and in which temporal order these facial areas are used (Exp. 2). The results show that, in contrast with the aforementioned belief, the mouth region is significantly more useful than the eye region when discriminating between the basic facial expressions. Despite this preponderant role of the mouth, it is the eye area⎯not the mouth area⎯that is underutilized by many clinical populations suffering from difficulties in recognizing facial expressions. This observation could suggest that the utilization of the eye area varies as a function of the ability to recognize facial expressions. The aim of the second article in this thesis is thus to verify how individual differences in the ability to recognize facial expressions relate to the visual information extraction strategies used for this task. The results show a positive correlation between the ability of the participants and the utilization of the mouth region, suggesting the existence of qualitative differences between the strategy of clinical patients and of normal participants. A positive correlation is also found between the ability of the participants and the utilization of the left eye area, but no correlation is found between the ability and the utilization of the right eye area. These results suggest that the difference between the strategies of the best and the worst participants is not only that the best ones use the information available in the stimulus more efficiently: rather, qualitative differences in the visual information extraction strategies may exist even within the normal population.
3

Information utile à la catégorisation du sexe des visages

Dupuis-Roy, Nicolas 09 1900 (has links)
La présente thèse avait pour mandat d’examiner la question suivante : quels sont les indices visuels utilisés pour catégoriser le sexe d’un visage et comment sont-ils traités par le cerveau humain? La plupart des études examinant l’importance de certaines régions faciales pour la catégorisation du sexe des visages présentaient des limites quant à leur validité externe. L’article 1 visait à investiguer l’utilisation des indices achromatiques et chromatiques (sur l’axe xy) dans un contexte de plus grande validité externe. Pour ce faire, nous avons utilisé la technique Bubbles afin d’échantillonner l’espace xy de visages en couleurs n’ayant subi aucune transformation. Afin d’éviter les problèmes liés à la grande répétition des mêmes visages, nous avons utilisé un grand nombre de visages (c.-à-d. 300 visages caucasiens d’hommes et de femmes) et chaque visage n’a été présenté qu’une seule fois à chacun des 30 participants. Les résultats indiquent que la région des yeux et des sourcils—probablement dans le canal blanc-noir—est l’indice le plus important pour discriminer correctement le genre des visages; et que la région de la bouche—probablement dans le canal rouge-vert—est l’indice le plus important pour discriminer rapidement et correctement le genre des visages. Plusieurs études suggèrent qu’un indice facial que nous n’avons pas étudié dans l’article 1—les distances interattributs—est crucial à la catégorisation du sexe. L’étude de Taschereau et al. (2010) présente toutefois des données allant à l’encontre de cette hypothèse : les performances d’identification des visages étaient beaucoup plus faibles lorsque seules les distances interattributs réalistes étaient disponibles que lorsque toutes les autres informations faciales à l’exception des distances interattributs réalistes étaient disponibles. Quoi qu’il en soit, il est possible que la faible performance observée dans la condition où seules les distances interattributs étaient disponibles soit explicable non par une incapacité d’utiliser ces indices efficacement, mais plutôt par le peu d’information contenue dans ces indices. L’article 2 avait donc comme objectif principal d’évaluer l’efficacité—une mesure de performance qui compense pour la faiblesse de l’information disponible—des distances interattributs réalistes pour la catégorisation du sexe des visages chez 60 participants. Afin de maximiser la validité externe, les distances interattributs manipulées respectaient la distribution et la matrice de covariance observées dans un large échantillon de visages (N=515). Les résultats indiquent que les efficacités associées aux visages ne possédant que de l’information au niveau des distances interattributs sont un ordre de magnitude plus faibles que celles associées aux visages possédant toute l’information que possèdent normalement les visages sauf les distances interattributs et donnent le coup de grâce à l’hypothèse selon laquelle les distances interattributs seraient cuciale à la discrimination du sexe des visages. L’article 3 avait pour objectif principal de tester l’hypothèse formulée à la fin de l’article 1 suivant laquelle l’information chromatique dans la région de la bouche serait extraite très rapidement par le système visuel lors de la discrimination du sexe. Cent douze participants ont chacun complété 900 essais d’une tâche de discrimination du genre pendant laquelle l’information achromatique et chromatique des visages était échantillonnée spatiotemporellement avec la technique Bubbles. Les résultats d’une analyse présentée en Discussion seulement confirme l’utilisation rapide de l’information chromatique dans la région de la bouche. De plus, l’utilisation d’un échantillonnage spatiotemporel nous a permis de faire des analyses temps-fréquences desquelles a découlé une découverte intéressante quant aux mécanismes d’encodage des informations spatiales dans le temps. Il semblerait que l’information achromatique et chromatique à l’intérieur d’une même région faciale est échantillonnée à la même fréquence par le cerveau alors que les différentes parties du visage sont échantillonnées à des fréquences différentes (entre 6 et 10 Hz). Ce code fréquentiel est compatible avec certaines évidences électrophysiologiques récentes qui suggèrent que les parties de visages sont « multiplexées » par la fréquence d’oscillations transitoires synchronisées dans le cerveau. / In this thesis, we asked which face cues are used for gender discrimination and how they are processed by the humain brain. The few studies have tried to answer this question used only a small set of grayscale stimuli, often distorted and presented a large number of times. In Article 1, we reassessed the importance of chromatic and achromatic facial cues for gender categorisation in a more realistic setting. We used the Bubbles technique to sample the xy plane of a set of 300 color photographs of Caucasian faces, each presented only once to 30 participants. Results show that the region of the eyes and the eyebrows—probably in the light-dark channel—is the most important facial cue for accurate gender discrimination; and that the mouth region is also driving fast correct responses (but not fast incorrect responses)—the gender discrimination information in the mouth region is concentrated in the red-green color channel. Several studies suggest that a cue which we did not examine in Article 1—interattribute distances (e.g. the interpupil distance)—is critical for gender discrimination. A recent study by Taschereau-Dumouchel et al. (2010) challenged this idea by showing that participants were nearly at chance when asked to identify faces on the sole basis of real-word interattribute distances, while they were nearly perfect when all other facial cues were shown. However, it remains possible that humans are highly tuned to interattribute distances but that the information conveyed by these cues is scarce. In Article 2, we tested this hypothesis by contrasting the efficiencies—a measure of performance that factors out task difficulty—of 60 observers in six face-gender categorization tasks. Most importantly, efficiencies for faces that varied only in terms of their interattribute distances were an order of magnitude lower than efficiencies for faces that varied in all respects except their interattribute distances or in all respects. These results provide a definitive blow to the idea that real-world interattribute distances are critical for face gender categorization. In Article 3, we tested and confirmed the hypothesis formulated at the end of Article 1 according to which observers would rapidly extract chromatic information in the mouth region during sex categorization. One hundred and twelve participants each performed 900 trials of a face gender categorization task in which the achromatic and isoluminant chromatic content of faces were partially revealed in space and time with Bubbles. This experiment also allowed us to perform time-frequency analyses, which showed that achromatic and isoluminant chromatic information within the same facial part were sampled by the brain at the same frequency, whereas different facial parts were sampled at distinct frequencies (ranging from 6 to 10 Hz). This sampling code is consistent with recent electrophysiological evidence suggesting that facial features are multiplexed by the frequency of transient synchronized oscillations in the brain.

Page generated in 0.2416 seconds