Spelling suggestions: "subject:"implant cochleáair"" "subject:"implant cochleáaide""
1 |
Intelligibilité de la parole d'enfants sourds porteurs d'un implant cochléaire unilatéral et d'enfants normo-entendants / Speech intelligibility of deaf children with a unilateral cochlear implant and normal-hearing childrenLegendre, Clara 23 May 2014 (has links)
Ce travail de recherche s’inscrit dans le domaine de la phonétique clinique et relève plus particulièrement de l’intelligibilité de la parole d’enfants sourds implantés cochléaires et d’enfants normo-entendants. L’intérêt de cette thèse réside dans la comparaison des productions d’enfants sourds implantés cochléaires et d’enfants normo-entendants, appariés en âge chronologique. Nous analysons des paramètres segmentaux et suprasegmentaux en production, tels que les voyelles du français standard et les consonnes fricatives /f, s, ʃ/, l’étude du débit de parole, l’intelligibilité de mots monosyllabiques auprès d’auditeurs naïfs, ou encore l’intelligibilité de la parole semi-spontanée. Nous nous intéressons également à la façon dont les productions des enfants implantés cochléaires sont perçues par un jury d’auditeurs naïfs (n=10 ; moyenne d’âge 37 ans). Le but premier de ce travail est de mettre en avant les différences ou similitudes majeures entre nos deux groupes en fonction de l’âge chronologique des enfants mais également en fonction du recul à l’implant, du suivi rééducatif et du mode de communication. Les enfants sourds porteurs d’un implant cochléaire présentent une qualité de la voix et de la parole comparable à celle d’enfants normo-entendants de même âge chronologique, mais non similaire puisque des différences acoustiques, segmentales et supra-segmentales ont été mises en avant. Il pourrait être intéressant d’étendre cette observation aux enfants implantés précocement. / This research task falls under the field of clinical phonetics and more particularly raises of the intelligibility of the word of deaf children with cochlear implant and normal-hearing children. The interest of this thesis lies in the comparison of the productions of deaf children with cochlear implant and normal-hearing children, paired in chronological age. We analyze segmental and suprasegmental parameters in production, such as the vowels of standard French and the fricative consonants /f, S, ʃ/, the study of the speech rate of word, the comprehensibility of monosyllabic words with naive listeners, or still the comprehensibility of the semi-spontaneous word. We are also interested in the way in which the productions of the established children cochléaires are perceived by a jury of naive listeners (n=10; average age 37 years). The primary purpose of this work is to highlight the major differences or similarities between the two groups based on the chronological age of the children but also on the age back to the cochlear implant, the rehabilitative monitoring and communication mode. Deaf children with cochlear implants present a quality of the voice and word comparable with that of normal-hearing children of the same chronological age, but non similar age since differences acoustic, segmental and suprasegmental were put ahead. It might be interesting to extend this observation to early implanted children.
|
2 |
Décoder les émotions à travers la musique et la voixPaquette, Sébastien 12 1900 (has links)
L’objectif de cette thèse est de comparer les mécanismes fondamentaux liés à la perception émotionnelle vocale et musicale. Cet objectif est sustenté par de nombreux rapports et théories appuyant l'idée de substrats neuronaux communs pour le traitement des émotions vocales et musicales. Il est proposé que la musique, afin de nous faire percevoir des émotions, recrute/recycle les circuits émotionnels qui ont évolué principalement pour le traitement des vocalisations biologiquement importantes (p.ex. cris pleurs). Bien que certaines études ont relevé de grandes similarités entre ces deux timbres (voix, musique) du point de vue cérébral (traitement émotionnel) et acoustique (expressions émotionnelles), certaines différences acoustiques et neuronales spécifique à chaque timbre ont également été observées. Il est possible que les différences rapportées ne soient pas spécifiques au timbre, mais observées en raison de facteurs spécifiques aux stimuli utilisés tels que leur complexité et leur longueur. Ici, il est proposé de contourner les problèmes de comparabilité de stimulus, par l’utilisation des expressions émotionnelles les plus simples dans les deux domaines.
Pour atteindre l’objectif global de la thèse, les travaux ont été réalisés en deux temps. Premièrement, une batterie de stimuli émotionnels musicaux comparables aux stimuli vocaux déjà disponibles (Voix Affectives Montréalaises) a été développée. Des stimuli (Éclats Émotionnels Musicaux) exprimant 4 émotions (joie, peur, tristesse, neutralité) performés au violon et à la clarinette ont été enregistrés et validés. Ces Éclats Émotionnels Musicaux ont obtenu un haut taux de reconnaissance (M=80.4%) et reçu des jugements d’arousal (éveil/stimulation) et de valence correspondant à l’émotion qu’il représentait. Nous avons donc pu, dans un deuxième temps, utiliser ces stimuli nouvellement validés et les Voix Affectives Montréalaises pour réaliser deux études de comparaison expérimentales. D’abord, nous avons effectué à l’aide de l’imagerie par résonnance magnétique fonctionnelle une comparaison des circuits neuronaux utilisés pour le traitement de ces deux types d’expressions émotionnelles. Indépendamment de leur nature vocale ou musicale, une activité cérébrale spécifique à l'émotion a été observée dans le cortex auditif (centrée sur le gyrus temporal supérieur) et dans les régions limbiques (gyrus parahippocampique/amygdale), alors qu'aucune activité spécifique aux stimuli vocaux ou musicaux n'a été observée. Par la suite, nous avons comparé la perception des émotions vocales et musicales sous simulation d’implant cochléaire. Cette simulation affectant grandement la perception des indices acoustiques liés aux hauteurs tonales (important pour la discrimination émotionnelle), nous a permis de déterminer quels indices acoustiques secondaires à ceux-ci sont importants pour la perception émotionnelle chez les utilisateurs d’implant cochléaire. L’examen des caractéristiques acoustiques et des jugements émotionnels a permis de déterminer que certaines caractéristiques timbrales (clarté, énergie et rugosité) communes à la voix et la musique sont utilisées pour réaliser des jugements émotionnels sous simulations d’implant cochléaire, dans les deux domaines.
L’attention que nous avons portée au choix des stimuli nous a permis de mettre de l’avant les grandes similarités (acoustique, neuronales) impliquées dans la perception des émotions vocales et musicales. Cette convergence d’évidence donne un appui important à l’hypothèse de circuits neuronaux fondamentaux commun pour le traitement des émotions vocales et musicales. / The aim of this thesis is to compare the fundamental mechanisms related to vocal and musical emotion perception. This objective is supported by many reports and theories bringing forward the idea of common neural substrates for the treatment of vocal and musical emotions. It is proposed that music, in order to make us perceive emotions, recruits/recycles the emotional circuits that evolved mainly for the treatment of biologically important vocalisations (e.g. cries, screams). Although some studies have found great similarities between these two timbres (voice, music) from the cerebral (emotional treatment) and acoustic (emotional expressions) point of view, some acoustic and neural differences specific to each timbre have also been reported. It is possible that the differences described are not specific to the timbre but are observed due to factors specific to the stimuli used such as their complexity and length. Here, it is proposed to circumvent the problems of stimulus comparability by using the simplest emotional expressions in both domains.
To achieve the overall objective of the thesis, the work was carried out in two stages. First, a battery of musical emotional stimuli comparable to the vocal stimuli already available (Montreal Affective Voices) was developed. Stimuli (Musical Emotional Bursts) expressing 4 emotions (happiness, fear, sadness, neutrality) performed on the violin and clarinet were recorded and validated. These Musical Emotional Bursts obtained a high recognition rate (M = 80.4%) and received arousal and valence judgments corresponding to the emotion they represented. Secondly, we were able to use these newly validated stimuli and the Montreal Affective Voices to perform two experimental comparison studies. First, functional magnetic resonance imaging was used to compare the neural circuits used to process these two types of emotional expressions. Independently of their vocal or musical nature, emotion-specific activity was observed in the auditory cortex (centered on the superior temporal gyrus) and in the limbic regions (amygdala/parahippocampal gyrus), whereas no activity specific to vocal or musical stimuli was observed. Subsequently, we compared the perception of vocal and musical emotions under cochlear implant simulation. This simulation greatly affects the perception of acoustic indices related to pitch (important for emotional discrimination), allowing us to determine which acoustic indices secondary to these are important for emotional perception in cochlear implant users. Examination of acoustic characteristics and emotional judgments determined that certain timbral characteristics (brightness, energy, and roughness) common to voice and music are used to make emotional judgments in both domains, under cochlear implant simulations.
The specific attention to our stimuli selection has allowed us to put forward the similarities (acoustic, neuronal) involved in the perception of vocal and musical emotions. This convergence of evidence provides important support to the hypothesis of a fundamental common neural circuit for the processing of vocal and musical emotions.
|
Page generated in 0.0669 seconds