• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • 1
  • Tagged with
  • 7
  • 7
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

La plasticité et la structure du chant de la fauvette à tête noire étudiées chez des populations migratrices et sédentaires / Plasticity And Structure Of The Blackcap Song Studied In Migratory And Sedentary Population

Linossier, Juliette 18 December 2015 (has links)
L’objectif de la thèse a été d’étudier la structure, la fonction et la plasticité au cours du temps du chant d’un oiseau mâle adulte, la fauvette à tête noire Sylvia atricapilla. L’influence de différents comportements migratoires sur les caractéristiques du chant, sur la maintenance des dialectes et sur l’apprentissage a également été étudiée chez deux populations, une migratrice (représentée par 2 groupes à Paris) et une sédentaire (représentée par 3 groupes en Corse). Le chant de cette espèce est constitué de deux parties aux caractéristiques acoustiques bien distinctes, le warble et le whistle. Nos expériences de diffusion montrent que chacune des deux parties peut provoquer une réponse territoriale des mâles. Ce chant en deux parties permet probablement aux fauvettes de transmettre des informations différentes, destinées à différents auditoires, proches et lointains, mâles et femelles. Nos analyses génétiques par microsatellites ne montrent pas de structure génétique des groupes et populations. Néanmoins, nous avons montré l’existence de variations micro-géographiques au niveau de la composition en syllabes et en séquences de syllabes de cette seconde partie du chant. Bien que le renouvellement des individus soit plus important chez les migrateurs que chez les sédentaires, les 2 populations ont un taux de partage de syllabes et de phrases équivalent au sein des groupes. Nous avons cependant observé que les individus migrateurs ont un répertoire de syllabes 2 fois plus grand mais une diversité de phrases partagées 2 fois moins grandes que les sédentaires. Le suivi d’individus sédentaires sur plusieurs années consécutives a permis de montrer que l’espèce faisait preuve d’une plasticité vocale puisqu’on observe un plus grand partage de syllabes et de phrases intra année qu’inter année au sein des groupes. Même si les individus semblent modifier le contenu de leurs chants chaque année, nous n’avons pas réussi à mettre en évidence par des expériences de diffusion en milieu naturel un apprentissage à l’âge adulte de nouvelles syllabes ou de nouvelles phrases. / The aim of the thesis was to study the structure, function and plasticity over time of the song of a male adult bird, the blackcap Sylvia atricapilla. The influence of different migratory behaviors on the song characteristics, on the dialect maintenance and on learning has also been studied in two populations, a migratory one (represented by two groups in Paris) and a sedentary one (represented by 3 groups in Corsica). The song of this species consists of two parts with distinct sound characteristics, the warble and the whistle. Our playback experiments show that both parts trigger male territorial response. Such a song in two parts probably allows blackcaps to transmit different information for different audiences, close and distant, males and females. Genetic analyzes with microsatellites show no genetic structure of groups and populations. Nevertheless, we have shown the existence of micro-geographical variations in the composition of syllables and sequences of syllables in the whistle part. Although the turnover of individuals is higher among migrants than among sedentary populations, the two populations have similar syllables and phrases sharing within groups. However, migratory birds, compared to sedentary ones, have a syllable repertoire size twice as large and a repertoire of phrase sharing much smaller. The survey of sedentary individuals over several consecutive years has shown that the species show a vocal plasticity since a greater sharing of syllables and of phrases is observed intra year than between years within groups. Although individuals seem able to modify their songs every year, we didn’t succeed in showing with playback experiments in natural environment that adults males were able to learn new syllables or new phrases.
2

Analyse et reconnaissance des manifestations acoustiques des émotions de type peur en situations anormales

Clavel, Chloé 06 1900 (has links) (PDF)
Cette thèse aborde le problème de la reconnaissance des émotions dans la parole. Nous avons choisi de centrer notre étude sur un type de manifestations émotionnelles jusqu'alors peu étudié dans le domaine du traitement de la parole: les émotions de type peur en situations anormales. Les situations anormales correspondent ici à des événements imprévus, constituant une menace pour la vie humaine. Cette étude est motivée par une application nouvelle dans le domaine de la reconnaissance d'émotions: la sécurité civile. Le point de départ de ce travail a consisté en la définition et en l'acquisition d'un matériel d'étude illustrant des émotions extrêmes de type peur, dans des contextes de menace. Le corpus SAFE (Situation Analysis in a Fictional and Emotional corpus) développé à cet effet utilise comme source le cinéma de fiction. Il consiste en 400 séquences audiovisuelles d'une durée totale de 7 heures. Une stratégie d'annotation adaptée à la tâche de surveillance et intégrant plusieurs niveaux de description (niveau contextuel et niveau émotionnel) a été mise en place. Le système de reconnaissance des émotions, développé sur ce corpus, traite un grand nombre de locuteurs inconnus, dans des environnements sonores et contextes variés. Il consiste en une classification peur/neutre. L'originalité de la méthode repose sur une modélisation dissociée des contenus voisé et non voisé du signal de parole, les deux contenus étant ensuite fusionnés à l'étape de décision du système de classification. Les résultats obtenus sont très encourageants compte tenu de la diversité des données et de la complexité du phénomène à reconnaître : le taux d'erreur avoisine les 30%.
3

Le chant basque monodique (1897-1990) : analyse musicologique comparée des sources écrites et musicales

Hirigoyen Bidart, Marie 25 September 2012 (has links) (PDF)
Le XXème siècle marque le début de l'étude musicologique sur le chant basque, concept apparu dans le courant du XIXème siècle. La plupart des recherches insistent sur les spécificités de cette pratique. A cette même époque, l'enregistrement de ce répertoire permet la constitution d'archives sonores. Pourtant, musicologues et collecteurs de sources sonores ne se rencontrent pas. Or, l'examen approfondi des études musicologiques publiées sur le chant basque amène à penser que les caractéristiques musicales attribuées à cette pratique tout au long du XXème siècle ne sont pas toutes pertinentes, que ce soit dans les termes employés ou dans la conception même de la musique. Elles renseignent parfois plus sur les auteurs et le contexte d'écriture de l'ouvrage/ article que sur la musique elle-même. Ces descriptionspeuvent de ce fait être nuancées à la lumière de nouvelles analyses. Une comparaison diachronique et synchronique de sources écrites et musicales de la fin du XIXème siècle à la fin du XXème siècle permet d'une part d'observer le lien entre ce qui est " dit " sur le sujet du point de vue musicologique et ce que nous pouvons en entendre, et d'autre part de repérer les caractéristiques musicales communes qui se dégagent de l'ensemble. Nous formulons l'hypothèse qu'il existe dans le chant basque monodique, non des caractéristiques musicales intrinsèques, mais des éléments musicaux mobiles, variés, des " indices ", notamment du point de vue de la hauteur, qui peuvent être observés grâce à des outils d'analyse modernes.
4

Facteurs suprasegmentaux intervenant dans l'intelligibilité du discours en français, langue seconde, chez les hispanophones

Chevrier, Karine 06 1900 (has links)
Mémoire numérisé par la Direction des bibliothèques de l’Université de Montréal / Ce mémoire traite des facteurs suprasegmentaux intervenant dans le discours d'hispanophones s'exprimant en français. Nous tentons de déterminer, par le biais d'une expérience menée auprès de quatre locuteurs vénézuéliens, si certains facteurs suprasegmentaux déviants, dont la courbe intonative, sont susceptibles de jouer un rôle dans l'intelligibilité du discours de ces locuteurs. Cette étude comporte quatre chapitres abordant les thèmes suivants : Nous dressons, tout d'abord, l'état des faits sur l'intelligibilité, la compréhensibilité et l'accent étranger d'apprenants d'une langue seconde. Le chapitre deux traite de l'intonation et, par extension, des phénomènes suprasegmentaux en général, et présente une description des systèmes prosodiques de l'espagnol et du français ainsi qu'une comparaison des deux systèmes. Nous nous appuyons principalement sur le modèle de Pierrehurnbert et Hirschberg (1990) dans la description de ces systèmes. Nous concluons ce chapitre avec une section sur la phonologie de l'interlangue. Le chapitre trois présente l'expérience proprement dite, qui consiste principalement en l’enregistrement de vingt phrases françaises par des sujets hispanophones, phrases qui ont ensuite été transcrites par vingt juges francophones. L'analyse acoustique de ces phrases se concentre principalement sur la courbe intonative, c'est-à-dire les variations de la fréquence fondamentale. Finalement, le chapitre quatre fait état de l'analyse des résultats de cette expérience. Notre hypothèse principale veut que les phrases des sujets hispanophones obtenant le score d'intelligibilité le plus bas soient celles dont les courbes intonatives sont les plus déviantes par rapport à celles des locutrices-témoins francophones. Nous voulons démontrer, par ailleurs, que les phrases correspondant aux scores de transcription les plus bas sont aussi celles correspondant aux scores de reconnaissance de la modalité-cible les plus bas.. Cette recherche a pour but de démontrer que les facteurs suprasegmentaux sont tout autant susceptibles que les facteurs segmentaux de gêner la compréhensibilité (perçue) du discours et d'en affecter l'intelligibilité (objective). Notre objectif, en ce sens, est d'aller au-delà de la plupart des recherches sur la prononciation en langue seconde, lesquelles se sont concentrées jusqu'à maintenant principalement sur la prononciation des segments. Nous sommes consciente que si la recherche s'est surtout limitée aux segments, c'est qu'il semble impossible d'isoler les facteurs suprasegmentaux d'une prononciation déviante et d'analyser leur impact sur la perception des auditeurs. C'est pour cette raison que, bien que nous aimions nous concentrer uniquement sur les variations de la fréquence fondamentale, d'autres facteurs suprasegmentaux tels que le rythme seront considérés dans l'analyse des résultats.
5

Le chant basque monodique (1897-1990) : analyse musicologique comparée des sources écrites et musicales / Monodic basque singing (1897 - 1990) : comparative musicological analysis of written and musical sources

Hirigoyen Bidart, Marie 25 September 2012 (has links)
Le XXème siècle marque le début de l’étude musicologique sur le chant basque, concept apparu dans le courant du XIXème siècle. La plupart des recherches insistent sur les spécificités de cette pratique. A cette même époque, l’enregistrement de ce répertoire permet la constitution d’archives sonores. Pourtant, musicologues et collecteurs de sources sonores ne se rencontrent pas. Or, l’examen approfondi des études musicologiques publiées sur le chant basque amène à penser que les caractéristiques musicales attribuées à cette pratique tout au long du XXème siècle ne sont pas toutes pertinentes, que ce soit dans les termes employés ou dans la conception même de la musique. Elles renseignent parfois plus sur les auteurs et le contexte d’écriture de l’ouvrage/ article que sur la musique elle-même. Ces descriptionspeuvent de ce fait être nuancées à la lumière de nouvelles analyses. Une comparaison diachronique et synchronique de sources écrites et musicales de la fin du XIXème siècle à la fin du XXème siècle permet d’une part d’observer le lien entre ce qui est « dit » sur le sujet du point de vue musicologique et ce que nous pouvons en entendre, et d’autre part de repérer les caractéristiques musicales communes qui se dégagent de l’ensemble. Nous formulons l’hypothèse qu’il existe dans le chant basque monodique, non des caractéristiques musicales intrinsèques, mais des éléments musicaux mobiles, variés, des « indices », notamment du point de vue de la hauteur, qui peuvent être observés grâce à des outils d’analyse modernes. / The XXth century marks the beginning of the musicological study of the Basque singing, a concept appeared during the course of the XIXth century. Most of these researchs insist on the specificities of such a practice. At the same time, the recording of this repertory allows the setting up of sound archives. Nevertheless, musicologists and collectors of the sound sources do not meet. However, a thorough examination of the musicology studies published about the Basque singing leads to think that the musical characteristics ascribed to this practice throughout the XXth century are not all relevant whether concerning the terms being used or the conception of the very music. They often inform more on the authors and the context of the writing of the work/article than on the music itself. These descriptions may then be qualified in the light of new analyses. A diachronic and synchronic comparison of the written and musical sources from the late XIXth century to the end of the XXth allows us, on the one hand, to observe the link between what is “said” on the topic from the musicology point of view and what we can hear, and on the other hand to spot the common musical characteristics emerging from the whole.We formulate the hypothesis that the monodic Basque singing does not present any intrinsic musical characteristics. Rather, we observe mobile and diverse musical elements, kinds of “clues”, especially as far as pitch is concerned, that can be observed thanks to modern analysis tools.
6

Modeling and predicting affect in audio signals : perspectives from acoustics and chaotic dynamics / Modelisation de l'affect dans le son : perspectives de l'acoustique et de la dynamique chaotique

Mouawad, Pauline 28 June 2017 (has links)
La présente thèse décrit un projet de recherche multidisciplinaire qui porte sur la reconnaissance de l’émotion dans les sons, couvrant les théories psychologiques, l’analyse du signal acoustique,l’apprentissage automatique et la dynamique chaotique.Dans nos interactions et nos relations sociales, nous dépendons considérablement de la communication de l’information et de notre perception des messages transmis. En fait, la communication se produit lorsque les signaux transmettent des informations entre une source et une destination. Le signal peut être verbal, et l’information est ensuite portée par des motifs sonores, tels que des mots. Dans la communication vocale non verbale, cependant,l’information peut être des modèles perceptifs qui véhiculent des indices affectifs, que nous percevons et évaluons sous la forme d’intentions, d’attitudes, d’humeurs et d’émotions.La prévalence de la composante affective peut être observée dans les interactions informatiques humaines (HCI) où le développement d’applications automatisées qui comprennent et expriment les émotions est devenu crucial. De tels systèmes doivent être significatifs et faciles à utiliser pour l’utilisateur final, de sorte que notre interaction avec eux devient une expérience positive. Bien que la reconnaissance automatique des émotions dans les sons ait reçu une attention accrue au cours des dernières années, il s’agit encore d’un jeune domaine de recherche.Non seulement cela contribue à l’informatique affective en général, mais il fournit également une compréhension approfondie de la signification des sons dans notre vie quotidienne.Dans cette thèse, le problème de la reconnaissance des affects est abordé à partir d’une double perspective: nous commençons par adopter une approche standard de l’analyse acoustique du signal, où nous examinons et expérimentons les fonctionnalités existantes pour déterminer leur rôle dans la communication émotionnelle. Ensuite, nous nous tournons vers la dynamique chaotique et la symbolisation des séries temporelles, pour comprendre le rôle de la dynamique inhérente des sons dans l’expressivité affective. Nous menons nos études dans le contexte des sons non verbaux, à savoir les sons vocaux, musicaux et environnementaux.D’un point de vue de l’écoute humaine, une tâche d’annotation est menée pour construire un ground-truth de voix de chant non verbales, marquées par des descriptions catégoriques du modèle bidimensionnel d’émotions. Deux types de sons sont inclus dans l’étude: vocal et glottal.D’un point de vue psychologique, la présente recherche porte sur un débat qui existe depuis longtemps parmi les scientifiques et les psychologues, concernant les origines communes de la musique et de la voix. La question est abordée à partir d’une analyse acoustique ainsi que d’une approche dynamique non linéaire.D’un point de vue de la modélisation, ce travail propose une nouvelle approche dynamique non linéaire pour la reconnaissance de l’affect dans le son, basée sur la dynamique chaotique et la symbolisation adaptative des séries temporelles. Tout au long de cette thèse, les contrastes clés dans l’expressivité de l’émotion sont illustrés parmi les différents types de sons, à travers l’analyse des propriétés acoustiques, les métriques de la dynamique non linéaire et les performances des prédictions.Enfin, d’un point de vue progressif, nous suggérons que les travaux futurs étudient des caractéristiques motivées par les études cognitives. Nous suggérons également d’examiner dans quelle mesure nos caractéristiques reflètent les processus cognitifs. En outre, nous recommandons que nos fonctionnalités dynamiques soient testées dans des études à grande échelle de la reconnaissance d’émotions à travers la participation aux défis expérimentaux, dans le but de vérifier s’ils obtiennent un consensus. / The present thesis describes a multidisciplinary research project on emotion recognition in sounds, covering psychological theories, acoustic-based signal analysis, machine learning and chaotic dynamics.In our social interactions and relationships, we rely greatly on the communication of information and on our perception of the messages transmitted. In fact communication happens when signals transmit information between a source and a destination. The signal can be verbal,and the information is then carried by sound patterns, such as words. In non verbal vocal communication however, information can be perceptual patterns that convey affective cues,that we sense and appraise in the form of intentions, attitudes, moods and emotions.The prevalence of the affective component can be seen in human computer interactions(HCI) where the development of automated applications that understand and express emotions has become crucial. Such systems need to be meaningful and friendly to the end user, so thatour interaction with them becomes a positive experience. Although the automatic recognition of emotions in sounds has received increased attention in recent years, it is still a young fieldof research. Not only does it contribute to Affective Computing in general, but it also provides insight into the significance of sounds in our daily life.In this thesis the problem of affect recognition is addressed from a dual perspective: we start by taking a standard approach of acoustic-based signal analysis, where we survey and experiment with existing features to determine their role in emotion communication. Then,we turn to chaotic dynamics and time series symbolization, to understand the role of the inherent dynamics of sounds in affective expressiveness. We conduct our studies in the context of nonverbal sounds, namely voice, music and environmental sounds.From a human listening point of view, an annotation task is conducted to build a ground truth of nonverbal singing voices, labelled with categorical descriptions of the two-dimensional model of affect. Two types of sounds are included in the study: vocal and glottal.From a psychological perspective, the present research addresses a debate that is of long standing among scientists and psychologists, concerning the common origins of music and voice.The question is addressed from an acoustic-based analysis as well as a nonlinear dynamics approach.From a modeling viewpoint, this work proposes a novel nonlinear dynamics approach for the recognition of affect in sound, based on chaotic dynamics and adaptive time series symbolization.Throughout this thesis, key contrasts in the expressiveness of affect are illustrated among the different types of sounds, through the analysis of acoustic properties, nonlinear dynamics metrics and predictions performances. Finally from a progressive perspective, we suggest that future works investigate features that are motivated by cognitive studies. We also suggest to examine to what extent our features reflect cognitive processes. Additionally we recommend that our dynamic features be tested inlarge scale ER studies through the participation in ER challenges, with an aim to verify if they gain consensus.
7

Intelligibilité de la parole d'enfants sourds porteurs d'un implant cochléaire unilatéral et d'enfants normo-entendants / Speech intelligibility of deaf children with a unilateral cochlear implant and normal-hearing children

Legendre, Clara 23 May 2014 (has links)
Ce travail de recherche s’inscrit dans le domaine de la phonétique clinique et relève plus particulièrement de l’intelligibilité de la parole d’enfants sourds implantés cochléaires et d’enfants normo-entendants. L’intérêt de cette thèse réside dans la comparaison des productions d’enfants sourds implantés cochléaires et d’enfants normo-entendants, appariés en âge chronologique. Nous analysons des paramètres segmentaux et suprasegmentaux en production, tels que les voyelles du français standard et les consonnes fricatives /f, s, ʃ/, l’étude du débit de parole, l’intelligibilité de mots monosyllabiques auprès d’auditeurs naïfs, ou encore l’intelligibilité de la parole semi-spontanée. Nous nous intéressons également à la façon dont les productions des enfants implantés cochléaires sont perçues par un jury d’auditeurs naïfs (n=10 ; moyenne d’âge 37 ans). Le but premier de ce travail est de mettre en avant les différences ou similitudes majeures entre nos deux groupes en fonction de l’âge chronologique des enfants mais également en fonction du recul à l’implant, du suivi rééducatif et du mode de communication. Les enfants sourds porteurs d’un implant cochléaire présentent une qualité de la voix et de la parole comparable à celle d’enfants normo-entendants de même âge chronologique, mais non similaire puisque des différences acoustiques, segmentales et supra-segmentales ont été mises en avant. Il pourrait être intéressant d’étendre cette observation aux enfants implantés précocement. / This research task falls under the field of clinical phonetics and more particularly raises of the intelligibility of the word of deaf children with cochlear implant and normal-hearing children. The interest of this thesis lies in the comparison of the productions of deaf children with cochlear implant and normal-hearing children, paired in chronological age. We analyze segmental and suprasegmental parameters in production, such as the vowels of standard French and the fricative consonants /f, S, ʃ/, the study of the speech rate of word, the comprehensibility of monosyllabic words with naive listeners, or still the comprehensibility of the semi-spontaneous word. We are also interested in the way in which the productions of the established children cochléaires are perceived by a jury of naive listeners (n=10; average age 37 years). The primary purpose of this work is to highlight the major differences or similarities between the two groups based on the chronological age of the children but also on the age back to the cochlear implant, the rehabilitative monitoring and communication mode. Deaf children with cochlear implants present a quality of the voice and word comparable with that of normal-hearing children of the same chronological age, but non similar age since differences acoustic, segmental and suprasegmental were put ahead. It might be interesting to extend this observation to early implanted children.

Page generated in 0.0727 seconds