• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Behavioural and neural inter-individual variability in voice perception processes / Variabilité comportementale et neurale interindividuelle dans les processus de perception de la voix

Aglieri, Virginia 16 May 2018 (has links)
Chez l'homme, la voix facilite les interactions sociales par la transmission d’informations sur l'identité de la personne, ses émotions ou sa personnalité. En particulier, l'identité du locuteur peut être automatiquement extraite même lorsque le message et l'état émotionnel varient, ce qui suggère des mécanismes cognitifs et cérébraux partiellement dissociables pour ces processus. Cependant, la reconnaissance d'une voix familière ou la discrimination entre deux locuteurs sont, pour certains sujets, non seulement non-automatiques, mais même impossibles. Ce déficit, lorsqu'il se manifeste dès la naissance, est appelé phonagnosie du développement et constitue la contrepartie auditive de la prosopagnosie (déficit de reconnaissance des visages). Dans le domaine visuel, il a été proposé que les sujets affectés par la prosopagnosie du développement représentent des cas extrêmes dans la distribution des capacités de reconnaissance de visages. A l’inverse, des "super-reconnaisseurs" des visages se situaient à l’opposé de cette distribution.Comme la distribution des capacités de reconnaissance de la voix dans la population générale était encore inconnue, le premier objectif de cette thèse a été d'en étudier les différences individuelles au moyen d'un court test - le Glasgow Voice Memory Test (GVMT). Les résultats obtenus ont reflété une large variabilité interindividuelle dans les capacités de reconnaissance des voix: parmi une cohorte de 1120 sujets, il y avait à la fois des sujets avec des performances significativement en dessous de la moyenne (potentiels phonagnosiques) et des "super-reconnaisseurs" des voix. Cette variabilité individuelle comportementale semblerait se refléter au niveau cérébral, comme révélés par l'imagerie par résonance magnétique fonctionnelle (IRMf) : en fait, il a été montré précédemment qu'il existait une variabilité interindividuelle considérable dans le signal BOLD (blood-oxygen level dependent) lié à la voix dans les zones temporales de la voix (TVAs). Ces régions sont situées sur le bord supérieur des sulcus/gyrus temporal supérieur (STS/STG) et montrent une activation préférentielle pour les sons vocaux plutôt que non vocaux. Le deuxième objectif de ce travail fut de mieux caractériser le lien entre les mécanismes comportementaux et neuronaux sous-tendant la variabilité interindividuelle dans les processus de reconnaissance des voix. Pour cela, nous avons examiné comment la perception de la voix modulait la connectivité fonctionnelle entre les TVAs, constituant le "noyau" du réseau de perception de la voix, et les régions frontales également sensibles aux voix, constituant une extension de ce réseau. Les résultats ont montré qu'il y avait une connectivité fonctionnelle positive dans l'ensemble du réseau et que la connectivité fonctionnelle fronto-temporelle et fronto-frontale droite augmentait avec les scores obtenus lors du GVMT.Pour compléter ce travail, nous avons réalisé une autre étude IRMf en utilisant des analyses multivariées, afin de clarifier les corrélats neuronaux de la reconnaissance du locuteur mais aussi le lien entre sensibilité cérébrale à la voix et capacités de reconnaissance du locuteur. Pour cela, des sujets ayant des capacités de reconnaissance vocale hétérogènes ont été soumis à la fois à une tâche d'identification du locuteur et à une tâche d'écoute passive de sons vocaux et non vocaux. Les résultats ont confirmé que l’identification du locuteur s’effectuait via un réseau étendu de régions, incluant les TVAs mais aussi des régions frontales. De plus, nous avons observé que le score de classification voix/non-voix dans le STS droit permettait de prédire les capacités d'identification des locuteurs.Dans l'ensemble, ces résultats suggèrent que les capacités de reconnaissance vocale varient considérablement d'un individu à l'autre et que cette variabilité pourrait être le reflet de profils d’activité cérébrale différents au sein du réseau de la perception de la voix. / In humans, voice conveys heterogeneous information such as speaker’s identity, which can be automatically extracted even when language content and emotional state vary. We hypothesized that the ability to recognize a speaker considerably varied across the population, as previously observed for face recognition. To test this hypothesis, a short voice recognition test was delivered to 1120 subjects in order to observe how voice recognition abilities were distributed in the general population. Since it has been previously observed that there exists a considerable inter-individual variability in voice-elicited activity in temporal voice areas (TVAs), regions along the superior temporal sulcus/gyrus (STS/STG) that show preferentially activation for voices than other sounds, the second aim of this work was then to better characterize the link between the behavioral and neural mechanisms underlying inter-individual variability in voice recognition processes through functional magnetic resonance imaging (fMRI). The results of a first fMRI study showed that functional connectivity between frontal and temporal voice sensitive regions increased with voice recognition scores obtained at a voice recognition test. Another fMRI study showed that speaker’s identity was treated in an extended network of regions, including TVAs but also frontal regions and that voice/non-voice classification accuracy in right STS increased with speaker identification abilities. Altogether, these results suggest that voice recognition abilities considerably vary across subjects and that this variability can be mirrored by different neural profiles within the voice perception network.
2

Temporal signals classification / Classification de signaux temporels

Rida, Imad 03 February 2017 (has links)
De nos jours, il existe de nombreuses applications liées à la vision et à l’audition visant à reproduire par des machines les capacités humaines. Notre intérêt pour ce sujet vient du fait que ces problèmes sont principalement modélisés par la classification de signaux temporels. En fait, nous nous sommes intéressés à deux cas distincts, la reconnaissance de la démarche humaine et la reconnaissance de signaux audio, (notamment environnementaux et musicaux). Dans le cadre de la reconnaissance de la démarche, nous avons proposé une nouvelle méthode qui apprend et sélectionne automatiquement les parties dynamiques du corps humain. Ceci permet de résoudre le problème des variations intra-classe de façon dynamique; les méthodes à l’état de l’art se basant au contraire sur des connaissances a priori. Dans le cadre de la reconnaissance audio, aucune représentation de caractéristiques conventionnelle n’a montré sa capacité à s’attaquer indifféremment à des problèmes de reconnaissance d’environnement ou de musique : diverses caractéristiques ont été introduites pour résoudre chaque tâche spécifiquement. Nous proposons ici un cadre général qui effectue la classification des signaux audio grâce à un problème d’apprentissage de dictionnaire supervisé visant à minimiser et maximiser les variations intra-classe et inter-classe respectivement. / Nowadays, there are a lot of applications related to machine vision and hearing which tried to reproduce human capabilities on machines. These problems are mainly amenable to a temporal signals classification problem, due our interest to this subject. In fact, we were interested to two distinct problems, humain gait recognition and audio signal recognition including both environmental and music ones. In the former, we have proposed a novel method to automatically learn and select the dynamic human body-parts to tackle the problem intra-class variations contrary to state-of-art methods which relied on predefined knowledge. To achieve it a group fused lasso algorithm is applied to segment the human body into parts with coherent motion value across the subjects. In the latter, while no conventional feature representation showed its ability to tackle both environmental and music problems, we propose to model audio classification as a supervised dictionary learning problem. This is done by learning a dictionary per class and encouraging the dissimilarity between the dictionaries by penalizing their pair- wise similarities. In addition the coefficients of a signal representation over these dictionaries is sought as sparse as possible. The experimental evaluations provide performing and encouraging results.

Page generated in 0.0859 seconds