• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 69
  • 18
  • 9
  • Tagged with
  • 100
  • 46
  • 45
  • 33
  • 23
  • 21
  • 20
  • 19
  • 15
  • 14
  • 13
  • 13
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Variations systématiques dans l’utilisation de l’information du visage, de la prosopagnosie développementale à la super-reconnaissance

Tardif, Jessica 08 1900 (has links)
Il existe de grandes variations interindividuelles dans les habiletés pour la reconnaissance des visages. Alors que plusieurs avenues ont été explorées pour expliquer ces variations, leur source reste inconnue. L’utilisation d’information visuelle étant reliée à la performance pour n’importe quelle tâche, l’objectif du projet était d’utiliser la méthode des Bulles pour évaluer comment l’information visuelle utilisée est liée aux habiletés. Ainsi, les habiletés pour la reconnaissance des visages ont été mesurées chez 107 participants, un large échantillon d’individus normaux provenant du spectre complet d’habiletés, incluant les extrêmes de ce spectre (i.e. prosopagnosie développementale et super-reconnaissance). Ensuite, une tâche de reconnaissance de visages célèbres a été complétée, utilisant la méthode des Bulles pour échantillonner aléatoirement l’information visuelle à chaque essai (1000). Une régression a permis de déterminer quelle information était échantillonnée de façon systématique lors des essais où le participant a répondu correctement. Cette opération résulte en une image de classification pour chaque participant, montrant l’information visuelle utilisée. Enfin, grâce à une régression de deuxième ordre, nous avons pu déterminer quelles sont les régions du visage dont l’utilisation permet de prédire les habiletés dans quatre tâches différentes. Les résultats montrent que 59% de la variation dans les habiletés peut être expliquée grâce à l’utilisation de certaines régions du visage. Plus spécifiquement, plus les participants font usage systématiquement de la région de l’œil gauche du point de vue de l'observateur, plus ils sont habiles. / Abilities for face recognition largely vary among neurotypical individuals. The source of these variations remains largely unknown. Because use of visual information affects performance for a task, the main objective of the project was to better understand the way in which visual information is used affects abilities for face recognition. To this end, we have used the Bubbles method to evaluate use of information in neurotypical participants from the complete spectrum of abilities for face recognition, including extreme cases (developmental prosopagnosics and super-recognizers). Therefore, face recognition abilities were measured in 107 participants prior to evaluating the visual information they use. In 1000 trials where participants were asked to identify a celebrity’s face, visual information was spatially randomly sampled using the Bubbles method. A regression was then applied between the location of the sampled information and accuracy on each trial, determining which information was systematically sampled when participants correctly identified faces. A second-order regression was then used, which determined the utilization of which regions of the face predicts ability scores, measured in four different tests. Results show that 59% of variations in abilities can be explained by the use of visual information for face recognition. Specifically, the more systematically participants use the region of the left eye, the more accurate they tend to be.
82

Les distances entre les attributs internes du visage humain

Taschereau-Dumouchel, Vincent 08 1900 (has links)
La zeitgesit contemporaine sur la reconnaissance des visages suggère que le processus de reconnaissance reposerait essentiellement sur le traitement des distances entre les attributs internes du visage. Il est toutefois surprenant de noter que cette hypothèse n’a jamais été évaluée directement dans la littérature. Pour ce faire, 515 photographies de visages ont été annotées afin d’évaluer l’information véhiculée par de telles distances. Les résultats obtenus suggèrent que les études précédentes ayant utilisé des modifications de ces distances ont présenté 4 fois plus d’informations que les distances inter-attributs du monde réel. De plus, il semblerait que les observateurs humains utilisent difficilement les distances inter-attributs issues de visages réels pour reconnaître leurs semblables à plusieurs distances de visionnement (pourcentage correct maximal de 65%). Qui plus est, la performance des observateurs est presque parfaitement restaurée lorsque l’information des distances inter-attributs n’est pas utilisable mais que les observateurs peuvent utiliser les autres sources d’information de visages réels. Nous concluons que des indices faciaux autre que les distances inter-attributs tel que la forme des attributs et les propriétés de la peau véhiculent l’information utilisée par le système visuel pour opérer la reconnaissance des visages. / According to an influential view, based on studies of development and of the face inversion effect, human face recognition relies mainly on the treatment of the distances among internal facial features. However, there is surprisingly little evidence supporting this claim. Here, we first use a sample of 515 face photographs to estimate the face recognition information available in interattribute distances. We demonstrate that previous studies of interattribute distances generated faces that exaggerated 4 times this information compared to real-world faces. When interattribute distances are sampled from a real-world distribution, we show that human observers recognize faces poorly across a broad range of viewing distances (with a maximum accuracy of 65%). In contrast, recognition performance is restored when observers only use facial cues of real-world faces other than interattribute distances. We conclude that facial cues other than interattribute distances such as attribute shapes and skin properties are the dominant information of face recognition mechanisms.
83

Information utile à la catégorisation du sexe des visages

Dupuis-Roy, Nicolas 09 1900 (has links)
La présente thèse avait pour mandat d’examiner la question suivante : quels sont les indices visuels utilisés pour catégoriser le sexe d’un visage et comment sont-ils traités par le cerveau humain? La plupart des études examinant l’importance de certaines régions faciales pour la catégorisation du sexe des visages présentaient des limites quant à leur validité externe. L’article 1 visait à investiguer l’utilisation des indices achromatiques et chromatiques (sur l’axe xy) dans un contexte de plus grande validité externe. Pour ce faire, nous avons utilisé la technique Bubbles afin d’échantillonner l’espace xy de visages en couleurs n’ayant subi aucune transformation. Afin d’éviter les problèmes liés à la grande répétition des mêmes visages, nous avons utilisé un grand nombre de visages (c.-à-d. 300 visages caucasiens d’hommes et de femmes) et chaque visage n’a été présenté qu’une seule fois à chacun des 30 participants. Les résultats indiquent que la région des yeux et des sourcils—probablement dans le canal blanc-noir—est l’indice le plus important pour discriminer correctement le genre des visages; et que la région de la bouche—probablement dans le canal rouge-vert—est l’indice le plus important pour discriminer rapidement et correctement le genre des visages. Plusieurs études suggèrent qu’un indice facial que nous n’avons pas étudié dans l’article 1—les distances interattributs—est crucial à la catégorisation du sexe. L’étude de Taschereau et al. (2010) présente toutefois des données allant à l’encontre de cette hypothèse : les performances d’identification des visages étaient beaucoup plus faibles lorsque seules les distances interattributs réalistes étaient disponibles que lorsque toutes les autres informations faciales à l’exception des distances interattributs réalistes étaient disponibles. Quoi qu’il en soit, il est possible que la faible performance observée dans la condition où seules les distances interattributs étaient disponibles soit explicable non par une incapacité d’utiliser ces indices efficacement, mais plutôt par le peu d’information contenue dans ces indices. L’article 2 avait donc comme objectif principal d’évaluer l’efficacité—une mesure de performance qui compense pour la faiblesse de l’information disponible—des distances interattributs réalistes pour la catégorisation du sexe des visages chez 60 participants. Afin de maximiser la validité externe, les distances interattributs manipulées respectaient la distribution et la matrice de covariance observées dans un large échantillon de visages (N=515). Les résultats indiquent que les efficacités associées aux visages ne possédant que de l’information au niveau des distances interattributs sont un ordre de magnitude plus faibles que celles associées aux visages possédant toute l’information que possèdent normalement les visages sauf les distances interattributs et donnent le coup de grâce à l’hypothèse selon laquelle les distances interattributs seraient cuciale à la discrimination du sexe des visages. L’article 3 avait pour objectif principal de tester l’hypothèse formulée à la fin de l’article 1 suivant laquelle l’information chromatique dans la région de la bouche serait extraite très rapidement par le système visuel lors de la discrimination du sexe. Cent douze participants ont chacun complété 900 essais d’une tâche de discrimination du genre pendant laquelle l’information achromatique et chromatique des visages était échantillonnée spatiotemporellement avec la technique Bubbles. Les résultats d’une analyse présentée en Discussion seulement confirme l’utilisation rapide de l’information chromatique dans la région de la bouche. De plus, l’utilisation d’un échantillonnage spatiotemporel nous a permis de faire des analyses temps-fréquences desquelles a découlé une découverte intéressante quant aux mécanismes d’encodage des informations spatiales dans le temps. Il semblerait que l’information achromatique et chromatique à l’intérieur d’une même région faciale est échantillonnée à la même fréquence par le cerveau alors que les différentes parties du visage sont échantillonnées à des fréquences différentes (entre 6 et 10 Hz). Ce code fréquentiel est compatible avec certaines évidences électrophysiologiques récentes qui suggèrent que les parties de visages sont « multiplexées » par la fréquence d’oscillations transitoires synchronisées dans le cerveau. / In this thesis, we asked which face cues are used for gender discrimination and how they are processed by the humain brain. The few studies have tried to answer this question used only a small set of grayscale stimuli, often distorted and presented a large number of times. In Article 1, we reassessed the importance of chromatic and achromatic facial cues for gender categorisation in a more realistic setting. We used the Bubbles technique to sample the xy plane of a set of 300 color photographs of Caucasian faces, each presented only once to 30 participants. Results show that the region of the eyes and the eyebrows—probably in the light-dark channel—is the most important facial cue for accurate gender discrimination; and that the mouth region is also driving fast correct responses (but not fast incorrect responses)—the gender discrimination information in the mouth region is concentrated in the red-green color channel. Several studies suggest that a cue which we did not examine in Article 1—interattribute distances (e.g. the interpupil distance)—is critical for gender discrimination. A recent study by Taschereau-Dumouchel et al. (2010) challenged this idea by showing that participants were nearly at chance when asked to identify faces on the sole basis of real-word interattribute distances, while they were nearly perfect when all other facial cues were shown. However, it remains possible that humans are highly tuned to interattribute distances but that the information conveyed by these cues is scarce. In Article 2, we tested this hypothesis by contrasting the efficiencies—a measure of performance that factors out task difficulty—of 60 observers in six face-gender categorization tasks. Most importantly, efficiencies for faces that varied only in terms of their interattribute distances were an order of magnitude lower than efficiencies for faces that varied in all respects except their interattribute distances or in all respects. These results provide a definitive blow to the idea that real-world interattribute distances are critical for face gender categorization. In Article 3, we tested and confirmed the hypothesis formulated at the end of Article 1 according to which observers would rapidly extract chromatic information in the mouth region during sex categorization. One hundred and twelve participants each performed 900 trials of a face gender categorization task in which the achromatic and isoluminant chromatic content of faces were partially revealed in space and time with Bubbles. This experiment also allowed us to perform time-frequency analyses, which showed that achromatic and isoluminant chromatic information within the same facial part were sampled by the brain at the same frequency, whereas different facial parts were sampled at distinct frequencies (ranging from 6 to 10 Hz). This sampling code is consistent with recent electrophysiological evidence suggesting that facial features are multiplexed by the frequency of transient synchronized oscillations in the brain.
84

Adéquation algorithme-architecture pour les réseaux de neurones à convolution : application à l'analyse de visages embarquée / Algorithm-architecture matching for convolutional neural network : application to embedded facial analysis

Mamalet, Franck 06 July 2011 (has links)
La prolifération des capteurs d'images dans de nombreux appareils électroniques, et l'évolution des capacités de traitements à proximité de ces capteurs ouvrent un champ d'exploration pour l'implantation et l'optimisation d'algorithmes complexes de traitement d'images afin de proposer des systèmes de vision artificielle embarquée. Ces travaux s'inscrivent dans la problématique dite d'adéquation algorithme-architecture (A3). Ils portent sur une classe d'algorithmes appelée réseau de neurones à convolutions (ConvNet) et ses applications en analyse de visages embarquée. La chaîne d'analyse de visages, introduite par Garcia et al., a été choisie d'une part pour ses performances en taux de détection/reconnaissance au niveau de l'état de l'art, et d'autre part pour son caractère homogène reposant sur des ConvNets. La première contribution de ces travaux porte sur une étude d'adéquation de cette chaîne d'analyse de visages aux processeurs embarqués. Nous proposons plusieurs adaptations algorithmiques des ConvNets, et montrons que celles-ci permettent d'obtenir des facteurs d'accélération importants (jusqu'à 700) sur un processeur embarqué pour mobile, sans dégradation des performances en taux de détection/reconnaissance. Nous présentons ensuite une étude des capacités de parallélisation des ConvNets, au travers des travaux de thèse de N. Farrugia. Une exploration "gros-grain" du parallélisme des ConvNets, suivie d'une étude de l'ordonnancement interne des processeurs élémentaires, conduisent à une architecture parallèle paramétrable, capable de détecter des visages à plus de 10 images VGA par seconde sur FPGA. Nous proposons enfin une extension de ces études à la phase d'apprentissage de ces réseaux de neurones. Nous étudions des restrictions de l'espace des hypothèses d'apprentissage, et montrons, sur un cas d'application, que les capacités d'apprentissage des ConvNets ne sont pas dégradées, et que le temps d'apprentissage peut être réduit jusqu'à un facteur cinq. / Proliferation of image sensors in many electronic devices, and increasing processing capabilities of such sensors, open a field of exploration for the implementation and optimization of complex image processing algorithms in order to provide embedded vision systems. This work is a contribution in the research domain of algorithm-architecture matching. It focuses on a class of algorithms called convolution neural network (ConvNet) and its applications in embedded facial analysis. The facial analysis framework, introduced by Garcia et al., was chosen for its state of the art performances in detection/recognition, and also for its homogeneity based on ConvNets. The first contribution of this work deals with an adequacy study of this facial analysis framework with embedded processors. We propose several algorithmic adaptations of ConvNets, and show that they can lead to significant speedup factors (up to 700) on an embedded processor for mobile phone, without performance degradation. We then present a study of ConvNets parallelization capabilities, through N. Farrugia's PhD work. A coarse-grain parallelism exploration of ConvNets, followed by study of internal scheduling of elementary processors, lead to a parameterized parallel architecture on FPGA, able to detect faces at more than 10 VGA frames per second. Finally, we propose an extension of these studies to the learning phase of neural networks. We analyze several hypothesis space restrictions for ConvNets, and show, on a case study, that classification rate performances are almost the same with a training time divided by up to five.
85

Approche temporelle de la mémoire de reconnaissance visuelle et atteinte au stade prodromal de la maladie d'Alzheimer

Besson, Gabriel 12 June 2013 (has links)
La mémoire de reconnaissance visuelle (MRV) est atteinte précocement dans la maladie d'Alzheimer (MA). Or, elle reposerait sur deux processus : la familiarité (simple sentiment d'avoir déjà rencontré un item) et la recollection (récupération de détails associés à l'item lors de son encodage). Si la recollection est clairement atteinte au début de la MA, les résultats concernant la familiarité sont à ce jour contradictoires. Supposée plus rapide que la recollection, la familiarité devrait pouvoir être évaluée directement par une approche temporelle. Son atteinte dans la MA pourrait alors être mieux comprise.Pour tester ces hypthèses, la procédure comportementale SAB (Speed and Accuracy Boosting) a été créée. Permettant d'étudier les propriétés de la MRV (sa vitesse-limite, Articles 1 et 2, ou sa nature « bottom-up », Article 3), ainsi que l'hypothèse que la familiarité est plus rapide que la recollection, cette méthode s'est montrée évaluer majoritairement la familiarité (Article 1). Chez des patients à risque de MA, une dissociation inattendue au sein de la familiarité a alors pu être révélée, avec une atteinte des signaux tardifs de familiarité (utilisés lors d'un jugement classique), mais une préservation des premiers signaux (supportant la détection rapide évaluée en SAB) (Article 4).En outre, la segmentation manuelle d'images IRM du lobe temporal interne (premières régions cérébrales touchées dans la MA, et clées pour la MRV) a été appliquée à la problématique connexe de l'effet de l'âge au début de la MA (Article 5).Indépendamment, ces méthodes ont permis de mieux comprendre la MRV et son atteinte au début de la MA ; leur combinaison s'annonce très prometteuse. / Visual recognition memory (VRM) is impaired early in Alzheimer's Disease (AD), but would rely on two processes : familiarity (mere feeling that an item has been seen previously) and recollection (retrieval of details associated to the item at encoding). If recollection is clearly impaired in early AD, results concerning familiarity remain contradictory. Supposed to be faster than recollection, familiarity should be better understood using a temporal approach. Its possible impairment in AD could then be better understood.In order to test this, a behavioural procedure was designed: the SAB (Speed and Accuracy Boosting). Revealing different properties of VRM (its speed-limit, Articles 1 and 2; its « bottom-up » nature, Article 3) and some of its processes (familiarity appeares indeed faster than recollection, Article 1), results showed that the SAB procedure was mainly assessing familiarity (Article 1). In patients at risk of AD, an unexpected dissociation within familiarity processes was evidenced, with an impairment of late signals of familiarity (as used for classical judgements), but a preservation of the first signals (supporting fast detection assessed with the SAB) (Article 4).Last, manual segmentation of MRI images of the medial temporal lobe (first cerebral regions affected in AD, known for their key role in VRM) was also used to assess age effect at the early stage of AD (Article 5).Independently, both methods allowed understanding better the VRM and its impairment in early AD; their combination appears very promising.
86

Bases neurophysiologiques de la perception des visages : potentiels évoqués intracérébraux et stimulation corticale focale / Neurophysiological basis of face perception : intrecerebral evoked potentials and focal cortical stimulation

Jonas, Jacques 04 July 2016 (has links)
La perception visuelle des visages est une fonction importante du cerveau humain, essentielle pour les interactions sociales. L’étude des bases neurales de la perception des visages a débuté il y a plusieurs décennies et les découvertes servent de modèle pour la compréhension de la perception visuelle en général. L’imagerie structurelle des patients présentant un déficit de reconnaissance des visages à la suite d’une lésion cérébrale a montré l’importance d’un vaste territoire au sein du cortex ventral occipito-temporal (VOTC), du lobe occipital jusqu’au lobe temporal antérieur (LTA), avec une prédominance droite. L’imagerie par résonnance magnétique fonctionnelle (IRMf) a montré l’existence de zones cérébrales circonscrites qui répondent plus fortement aux visages qu’aux autres objets visuels (organisation en « cluster ») principalement dans le VOTC postérieur. Cependant l’IRMf a été limitée dans sa capacité à retrouver de telles régions dans le lobe temporal antérieur à cause d’artefacts méthodologiques. Les études d’électro-encéphalographie intracrânienne (iEEG) réalisées chez les patients épileptiques sont une opportunité unique d’enregistrer l’activité neuronale directe avec un très haut rapport signal/bruit. Les études iEEG ont enregistré des réponses sélectives aux visages largement distribuées dans le VOTC, sans organisation en « clusters ». Malgré des années de recherches, plusieurs questions cruciales restent sans réponse : (1) quelle est l’organisation spatiale des régions sélectives aux visages (organisation distribuée vs. en « clusters ») ? ; (2) quelles sont les bases neurales de la perception des visages dans le LTA ? ; (3) quelles sont les régions critiques pour la perception des visages ? Afin de répondre à ces questions, nous avons utilisé les enregistrements et les stimulations électriques intracérébraux. Dans une 1ère étude (Jonas et al., sous presse), nous avons combiné les enregistrements iEEG avec la stimulation visuelle périodique rapide (FPVS). La méthode FPVS est basée sur le principe suivant : présenter des stimuli visuels à une fréquence fixe va générer une réponse EEG périodique à la même fréquence. Nous avons utilisé cette approche pour réaliser une cartographie complète des réponses sélectives aux visages dans le VOTC (28 participants). Nous leur avons montré des séquences d’images d’objets présentées à une fréquence fixe et rapide (6 Hz), avec un visage présenté tous les 5 objets (1,2 Hz). Les réponses sélectives aux visages ont été identifiées objectivement (à la fréquence de stimulation) et quantifiées dans tout le VOTC. Bien que ces réponses aient été enregistrées de manière largement distribuée, nous avons identifié plusieurs régions dans les lesquelles les réponses les plus fortes se regroupent spatialement (en « clusters »). De plus, nous avons enregistré la plus forte réponse dans le gyrus fusiforme droit. Enfin, nous avons enregistré des réponses sélectives aux visages dans 3 régions distinctes du LTA. Dans 3 autres études, nous rapportons de très rares cas de stimulations électriques de régions sélectives aux visages, testant leur rôle critique dans la perception des visages. Nous rapportons un cas de déficit transitoire de la perception des visages après stimulation du gyrus occipital inférieur droit, la région sélective au visage la plus postérieure (Jonas et al., 2012, 2014) et un cas similaire après stimulation du LTA (Jonas et al., 2015). Dans l’ensemble, ces études montrent que : (1) les régions impliquées dans la perception des visages sont largement distribuées le long du VOTC et certaines sont marquées par un regroupement spatial de leurs réponses les plus fortes ; (2) plusieurs régions distinctes sont sélectives aux visages dans le LTA; (3) des régions spécifiques dans le VOTC postérieur et le LTA sont critiques pour la perception des visages. Ces études montrent l’intérêt des enregistrements intracérébraux pour la compréhension des mécanismes de perception visuelle / Visual perception of faces is a primary function of the human brain, critical for social interactions. The neural basis of face perception in humans has been investigated extensively for decades as a primary research goal, whose findings may serve as a rich model for understanding perceptual recognition. Structural imaging of individuals with face recognition impairment following brain damage point to a large territory of the human ventral occipito-temporal cortex (VOTC), from the occipital lobe to the anterior temporal lobe (ATL), with a right hemispheric advantage. Functional magnetic resonance imaging studies (fMRI) have reported face-selective responses (larger responses to faces than other visual objects) in circumscribed regions (clustered organization) of the posterior VOTC. However, they failed to report genuine responses in the ATL because of methodological artefacts. Intracranial electroencephalographic (iEEG) recordings performed in epileptic patients offer a unique opportunity to measure direct local neural activity with a very high signal-to-noise ratio. In contrast to fMRI studies, iEEG studies recorded face-selective responses in widely distributed regions of the VOTC without any evidence of a clustered organization. Despite decades of research, several outstanding questions are still unanswered: (1) what is the spatial organization of brain regions supporting face perception (clustered vs. distributed)?; (2) what are the neural basis of face perception in the ATL?; (3) which are the critical regions for face perception? To address these gaps in knowledge, we used human iEEG recordings and electrical intracerebral stimulations. In a first study (Jonas et al., in press), we combined iEEG recordings with the Fast Periodic Visual Stimulation (FPVS), a powerful approach providing objective and high signal-to-noise brain responses. FPVS is based on the simple principle: presenting visual stimuli at a fixed rate generates a periodic EEG response at exactly the same frequency. We use this approach to report a comprehensive map of face-selective responses across the VOTC in a large group of participants (N=28). They were presented with natural images of objects at a rapid fixed rate (6 images per second: 6 Hz), with face stimuli interleaved as every 5th stimulus (i.e., 1.2 Hz). Face-selective responses were objectively (i.e., exactly at the face stimulation frequency) identified and quantified throughout the whole VOTC. Although face-selective responses were widely distributed, specific regions displayed a clustered spatial organization of their most face-selective responses. Among these regions, the right fusiform gyrus showed the largest face-selective response. In addition, we recorded face-selective responses in 3 distinct regions of the ATL. In 3 others studies, we reported very rare cases of intracerebral electrical stimulation of face-selective brain regions, testing the critical role of these regions in face perception. We reported a case of transient inability to recognize faces following the stimulation of the right inferior occipital gyrus, the most posterior face-selective region (Jonas et al., 2012, 2014) and one similar case following the stimulation of the right ATL (Jonas et al., 2015). Overall, these studies show that: (1) face-selective responses are widely distributed but some specific regions displayed a clustered spatial organization of their most face-selective responses; (2) several distinct regions are face-selective in the ATL; (3) specific brain regions in the posterior VOTC and in the ATL are critical for face perception. These finding also illustrate the diagnostic value of intracerebral electrophysiological recordings in understanding visual recognition processes
87

Etude des corrélats cérébraux sous-tendant les processus associatifs impliqués dans l'identification des personnes

Joassin, Frédéric 29 March 2006 (has links)
L'être humain est pourvu des multiples canaux sensoriels par lesquels il appréhende le monde. Un critère fondamental à notre adaptation est notre capacité à établir des relations entre les différentes informations que nos sens perçoivent. Cette capacité est notamment cruciale dans nos interactions sociales puisque nous devons constamment intégrer en une représentation unifiée les informations visuelles (telles que les visages), auditives (telles que les voix) et verbales (telles que le discours ou le nom) afin de pouvoir identifier nos interlocuteurs. Sachant que le traitement des principales informations qui nous permettent d'identifier les personnes (visages, voix et nom de famille) est sous-tendu par l'activation de régions cérébrales spécifiques et distinctes les unes des autres, la question qui se pose est de savoir comment le cerveau opère pour créer une représentation unifiée des personnes que nous connaissons. Dans la première partie de cette thèse, nous passerons en revue différentes études qui ont tenté de cerner les régions cérébrales impliquées dans le traitement (perception et reconnaissance) de chaque type d'information. Le premier chapitre sera consacré aux corrélats cérébraux du traitement des visages, le second à ceux impliqués dans le traitement des noms propres, le troisième à ceux impliqués dans le traitement des voix. Ces processus seront chaque fois abordés sous l'angle de la neuropsychologie cognitive, de l'imagerie cérébrale fonctionnelle et de l'électrophysiologie. Un quatrième chapitre théorique sera consacré à l'étude des processus associatifs entre ces trois types d'informations, et nous verrons que rares sont les études qui ont directement examiné les activités cérébrales spécifiques à la récupération d'associations entre informations relatives à l'identité des personnes. L'approche expérimentale sera abordée dans la seconde partie de cette thèse. Les quatre études décrites dans cette partie se basent sur les résultats de l'étude de Campanella et al. (2001) qui, par PET-scan, ont examiné les régions cérébrales activées par la récupération d'associations entre visages et noms propres. Utilisant la méthode soustractive, consistant en la soustraction de deux conditions unimodales d'une condition bimodale, ces auteurs ont montré une activation d'un réseau d'aires cérébrales latéralisé dans l'hémisphère gauche et incluant notamment le lobule pariétal inférieur, interprété comme étant une région de convergence multimodale où s'opère l'intégration des différentes informations perçues par les sujets. La méthode soustractive sera utilisée dans toutes les expériences décrites dans cette section. La première étude de cette thèse, utilisant la même méthodologie appliquée à la méthode électrophysiologique des potentiels évoqués, aura pour but d'examiner le décours temporel des activités observées par Campanella et al. (2001). La seconde étude en potentiels évoqués aura pour but d'examiner si les activités observées dans les deux études pré-citées sont spécifiques aux processus associatifs entre visages et noms propres, ou s'ils reflètent des processus plus généraux permettant de lier tout objet visuel à son nom. Les études 3 et 4 viseront quant à elles à définir si le lobule pariétal inférieur gauche est impliqué dans l'intégration de stimulations exclusivement visuelles, ou si il est impliqué dans le « binding » de tout type d'information relative aux personnes, quelle que soit les modalités de présentation. Dans ce cadre, l'étude 3 examinera les corrélats cérébraux impliqués dans la récupération d'associations entre visages et voix. L'étude 4 examinera cette question au moyen de l'imagerie par résonance magnétique fonctionnelle. La dernière partie de cette thèse sera consacrée à l'interprétation de l'ensemble des résultats des 4 expériences décrites précédemment. L'accent y sera mis sur la latence d'apparition des ondes spécifiques aux conditions associatives, apparaissant en même temps que les activités propres au traitement de chaque type d'information, ainsi que sur le rôle du gyrus pariétal inférieur gauche dans l'intégration des représentations des différents attributs par lesquels nous identifions les personnes.
88

La perception des visages en vidéos: Contributions à un modèle saillance visuelle et son application sur les GPU

Rahman, Anis 13 April 2013 (has links) (PDF)
Les études menées dans cette thèse portent sur le rôle des visages dans l'attention visuelle. Nous avons cherché à mieux comprendre l'influence des visages dans les vidéos sur les mouvements oculaires, afin de proposer un modèle de saillance visuelle pour la prédiction de la direction du regard. Pour cela, nous avons analysé l'effet des visages sur les fixations oculaires d'observateurs regardant librement (sans consigne ni tâche particulière) des vidéos. Nous avons étudié l'impact du nombre de visages, de leur emplacement et de leur taille. Il est apparu clairement que les visages dans une scène dynamique (à l'instar de ce qui se passe sur les images fixes) modifie fortement les mouvements oculaires. En nous appuyant sur ces résultats, nous avons proposé un modèle de saillance visuelle, qui combine des caractéristiques classiques de bas-niveau (orientations et fréquences spatiales, amplitude du mouvement des objets) avec cette caractéristique importante de plus haut-niveau que constitue les visages. Enfin, afin de permettre des traitements plus proches du temps réel, nous avons développé une implémentation parallèle de ce modèle de saillance visuelle sur une plateforme multi-GPU. Le gain en vitesse est d'environ 130x par rapport à une implémentation sur un processeur multithread.
89

Stratégie de perception pour la compréhension de scènes par une approche focalisante, application à la reconnaissance d'objets

Trujillo Morales, Noël 13 December 2007 (has links) (PDF)
La problématique scientifique abordée concerne la reconnaissance visuelle d'objets s'inscrivant dans une scène observée. Nous proposons une méthodologie qui va de la définition et la construction du modèle de l'objet, jusqu'à la définition de la stratégie pour la reconnaissance ultérieure de celui-ci. Du point de vue de la représentation, cette approche est capable de modéliser aussi bien la structure de l'objet que son apparence ; à partir de caractéristiques multiples. Celles-ci servent d'indices d'attention lors de la phase de reconnaissance. Dans ce cadre, reconnaître l'objet revient à " instancier " ce modèle dans la scène courante. La tâche de reconnaissance correspond à un processus actif de génération/vérification d'hypothèses régi par le principe de focalisation. Ce dernier agissant sur quatre niveaux du " spectre attentionnel " : la sélection des opérateurs pour le traitement bas niveau, la sélection de l'intervalle d'action de ceux-ci, la sélection de la résolution et la sélection de la région d'intérêt dans l'image. Le fait d'agir sur tous ces niveaux, entraîne une diminution de la combinatoire implicite dans une problématique de recherche visuelle. Sous un regard plutôt unifié, le mécanisme de contrôle de l'attention, du type bottom-up$top-down, reste implicite dans la stratégie globale de reconnaissance. La " focalisation progressive " et la représentation hybride du modèle, permettent de tirer profit des deux types de représentation classiques. D'une part, la structure de l'objet permet de focaliser le processus de reconnaissance à partir d'observations locales, d'autre part, une fois détectée la région probable de l'objet, la décision finale est faite à partir de l'apparence de celui-ci. Dans le cadre proposé, en intégrant des connaissances sur la structure de la scène (paramètres 3D), d'autres tâches comme celles de la localisation et du suivi sont intégrées d'une façon naturelle. La prise en compte de ces paramètres permet d'estimer l'évolution de la zone d'intérêt dans l'image, lorsque l'objet évolue dans le monde 3D. La méthodologie proposée a été testée pour la reconnaissance, la localisation et le suivi de visages et de piétons.
90

Les distances entre les attributs internes du visage humain

Taschereau-Dumouchel, Vincent 08 1900 (has links)
La zeitgesit contemporaine sur la reconnaissance des visages suggère que le processus de reconnaissance reposerait essentiellement sur le traitement des distances entre les attributs internes du visage. Il est toutefois surprenant de noter que cette hypothèse n’a jamais été évaluée directement dans la littérature. Pour ce faire, 515 photographies de visages ont été annotées afin d’évaluer l’information véhiculée par de telles distances. Les résultats obtenus suggèrent que les études précédentes ayant utilisé des modifications de ces distances ont présenté 4 fois plus d’informations que les distances inter-attributs du monde réel. De plus, il semblerait que les observateurs humains utilisent difficilement les distances inter-attributs issues de visages réels pour reconnaître leurs semblables à plusieurs distances de visionnement (pourcentage correct maximal de 65%). Qui plus est, la performance des observateurs est presque parfaitement restaurée lorsque l’information des distances inter-attributs n’est pas utilisable mais que les observateurs peuvent utiliser les autres sources d’information de visages réels. Nous concluons que des indices faciaux autre que les distances inter-attributs tel que la forme des attributs et les propriétés de la peau véhiculent l’information utilisée par le système visuel pour opérer la reconnaissance des visages. / According to an influential view, based on studies of development and of the face inversion effect, human face recognition relies mainly on the treatment of the distances among internal facial features. However, there is surprisingly little evidence supporting this claim. Here, we first use a sample of 515 face photographs to estimate the face recognition information available in interattribute distances. We demonstrate that previous studies of interattribute distances generated faces that exaggerated 4 times this information compared to real-world faces. When interattribute distances are sampled from a real-world distribution, we show that human observers recognize faces poorly across a broad range of viewing distances (with a maximum accuracy of 65%). In contrast, recognition performance is restored when observers only use facial cues of real-world faces other than interattribute distances. We conclude that facial cues other than interattribute distances such as attribute shapes and skin properties are the dominant information of face recognition mechanisms.

Page generated in 0.0284 seconds