• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 5
  • Tagged with
  • 22
  • 10
  • 10
  • 9
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

L'émergence du contrôle articulatoire au stade du babillage. Une étude acoustique et cinématique

Canault, Mélanie 12 December 2007 (has links) (PDF)
L'acquisition du langage est un processus long et complexe au cours duquel le bébé doit faire émerger une compétence linguistique spécifique tout en développant ses performances motrices. Le babillage, période que l'on situe généralement entre l'âge de 6 mois et l'âge de 12 mois, s'inscrit comme une phase transitoire capitale de l'évolution du langage au cours de laquelle un certain nombre d'habiletés vont se mettre en place. C'est au cours de cette période développementale que les premières syllabes émergent.<br />Dans un premier temps, elles sont redupliquées (babillage redupliqué), puis elles vont peu à peu offrir des configurations différentes (babillage varié). Toutefois, cette première forme de structuration du langage ne serait pas le résultat d'un développement moteur, mais plutôt celui de fortes contraintes imposées par la mandibule. C'est du moins ce que défend la théorie « Frame then Content » de MACNEILAGE (1998) pivot de notre recherche. L'alternance des phases d'ouverture et de fermeture de la cavité buccale, sous l'impulsion de cet articulateur, offre un enchaînement syllabique régulier. Au stade précoce du babillage, la mandibule domine le système de production alors que la langue est soumise à une relative inertie articulatoire. Bien que la mandibule soit le seul articulateur actif, elle ne serait pas encore contrôlée au début du babillage. C'est à l'âge d'un an que la mandibule atteindrait sa maturité, c'est-à-dire à la fin du babillage. Nous chercherons donc, dans un premier temps, à savoir comment va s'établir l'évolution du patron temporel des gestes mandibulaires. Mais nous tendrons également à montrer comment les déplacements de la langue vont se dissocier de ceux de la mandibule pour devenir indépendants avec l'âge.<br />Deux jeux de données seront exploités, un échantillon de données acoustiques et un échantillon de données acoustiques et articulatoires (Optotrak) couplées.
12

Adaptation de clones orofaciaux à la morphologie et aux stratégies de contrôle de locuteurs cibles pour l'articulation de la parole

Valdes, Julian 28 June 2013 (has links) (PDF)
La capacité de production de la parole est apprise et maintenue au moyen d'une boucle de perception-action qui permet aux locuteurs de corriger leur propre production en fonction du retour perceptif reçu. Ce retour est auditif et proprioceptif, mais pas visuel. Ainsi, les sons de parole peuvent être complétés par l'affichage des articulateurs sur l'écran de l'ordinateur, y compris ceux qui sont habituellement cachés tels que la langue ou le voile du palais, ce qui constitue de la parole augmentée. Ce type de système a des applications dans des domaines tels que l'orthophonie, la correction phonétique et l'acquisition du langage. Ce travail a été mené dans le cadre du développement d'un système de retour articulatoire visuel, basé sur la morphologie et les stratégies articulatoires d'un locuteur de référence, qui anime automatiquement une tête parlante 3D à partir du son de la parole. La motivation de cette recherche était d'adapter ce système à plusieurs locuteurs. Ainsi, le double objectif de cette thèse était d'acquérir des connaissances sur la variabilité inter-locuteur, et de proposer des modèles pour adapter un clone de référence, composé de modèles des articulateurs de la parole (lèvres, langue, voile du palais, etc.), à d'autres locuteurs qui peuvent avoir des morphologies et des stratégies articulatoires différentes. Afin de construire des modèles articulatoires pour différents contours du conduit vocal, nous avons d'abord acquis des données qui couvrent l'espace articulatoire dans la langue française. Des Images médio-sagittales obtenues par Résonance Magnétique (IRM) pour onze locuteurs francophones prononçant 63 articulations ont été recueillis. L'un des principaux apports de cette étude est une base de données plus détaillée et plus grande que celles disponibles dans la littérature. Cette base contient, pour plusieurs locuteurs, les tracés de tous les articulateurs du conduit vocal, pour les voyelles et les consonnes, alors que les études précédentes dans la littérature sont principalement basées sur les voyelles. Les contours du conduit vocal visibles dans l'IRM ont été tracés à la main en suivant le même protocole pour tous les locuteurs. Afin d'acquérir de la connaissance sur la variabilité inter-locuteur, nous avons caractérisé nos locuteurs en termes des stratégies articulatoires des différents articulateurs tels que la langue, les lèvres et le voile du palais. Nous avons constaté que chaque locuteur a sa propre stratégie pour produire des sons qui sont considérées comme équivalents du point de vue de la communication parlée. La variabilité de la langue, des lèvres et du voile du palais a été décomposé en une série de mouvements principaux par moyen d'une analyse en composantes principales (ACP). Nous avons remarqué que ces mouvements sont effectués dans des proportions différentes en fonction du locuteur. Par exemple, pour un déplacement donné de la mâchoire, la langue peut globalement se déplacer dans une proportion qui dépend du locuteur. Nous avons également remarqué que la protrusion, l'ouverture des lèvres, l'influence du mouvement de la mâchoire sur les lèvres, et la stratégie articulatoire du voile du palais peuvent également varier en fonction du locuteur. Par exemple, certains locuteurs replient le voile du palais contre la langue pour produire la consonne /ʁ/. Ces résultats constituent également une contribution importante à la connaissance de la variabilité inter-locuteur dans la production de la parole. Afin d'extraire un ensemble de patrons articulatoires communs à différents locuteurs dans la production de la parole (normalisation), nous avons basé notre approche sur des modèles linéaires construits à partir de données articulatoires. Des méthodes de décomposition linéaire multiple ont été appliquées aux contours de la langue, des lèvres et du voile du palais. L'évaluation de nos modèles repose sur deux critères: l'explication de la variance et l'erreur quadratique moyenne. Les modèles ont également été évalués en utilisant une procédure de validation croisée. Le but de l'utilisation de telle procédure était de vérifier la capacité de généralisation des modèles en évaluant leurs performances sur des données qui n'ont pas été utilisées pour leur construction. Afin de modéliser la langue, les lèvres et le voile du palais avec un ensemble commun de composantes pour tous les locuteurs, plusieurs méthodes de décomposition linéaires multiple ont été utilisées et comparées. L'ACP conjointe a donné les meilleurs résultats. En conclusion, nous avons constaté une réduction considérable en termes de nombre de composantes nécessaires lors de l'utilisation d'ACP conjointe, par rapport au nombre total de composantes nécessaires par les modèles ACP individuels de tous les locuteurs. Ces résultats de modélisation constituent une extension importante des études disponibles dans la littérature, à des locuteurs plus nombreux, incluant de plus nombreuses articulations (en particulier les consonnes) et de plus nombreux articulateurs (lèvres, voile du palais).
13

Analyse de la phonologie du bribri (chibcha) dans une perspective typologique : nasalité et géminée modulée / Analysis of Bribri phonology (Chibchan) in a typological perspective : nasality and the contour geminate consonant

Chevrier, Natacha 26 April 2017 (has links)
Le bribri est une langue chibcha parlée au Costa Rica (Amérique Centrale). Les langues chibcha représentent la principale famille de l’Aire Intermédiaire (Constenla 1991), qui relie la Mesoamérique aux zones amazonienne et andine. Ce sont cependant toutes des langues en danger, encore relativement peu décrites.Cette thèse est une analyse de la phonologie du bribri (Schlabach 1974 ; Wilson 1974 ; Constenla 1981 ; Jara 2004), problématisée autour de ses caractéristiques typologiques :(i) Le système nasal : le bribri fait partie des rares langues du monde dans lesquelles la nasalité n’est pas distinctive pour les consonnes. Les consonnes nasales présentes dans l’output sont le résultat d’harmonies nasales (Cohn 1993 ; Walker 1998, 2001) et d’hypervoisement par abaissement du voile du palais (Iverson & Salmons 1996 ; Solé 2009). Alors que le premier processus avait en partie été décrit pour le bribri (Wilson 1970 ; Constenla 1982, 1985 ; Tohsaku 1987), le second n’avait pas encore été identifié.(ii) La consonne /tk/ : une unité distinctive, combinant deux lieux, sans pour autant être une consonne doublement articulée, contrairement à ce qui avait précédemment été décrit (Lehmann 1920 ; Schlabach 1974 ; Wilson 1974 ; Constenla 1981 ; Jara 2004). Je propose de l’analyser comme une géminée modulée (contour segment, Sagey 1990).La présente étude s’inscrit dans la lignée des travaux qui considèrent que les structures phonologiques doivent être expliquées par des contraintes phonétiques, comme les travaux précurseurs d’Ohala (1975, 1981, 1983). J’utilise plus particulièrement le modèle de la Phonologie Articulatoire (Browman & Goldstein 1986, 1989). Les analyses s’appuient sur des données acoustiques, récoltées dans deux communautés bribri entre 2012 et 2014 (Bajo Coen - Coroma et Amubre).En plus d’une démarche typologique et phonétique, j’adopte une approche dialectale et diachronique, afin de mieux appréhender le système phonologique de la langue. / Bribri is a Chibchan language spoken in Costa Rica (Central America). Chibchan languages form the main family of the Intermediate Area (Constenla 1991), which links Mesoamerica to the Amazonian and the Andean regions. All of them are endangered and are still under described.This dissertation provides an analysis of Bribri phonology (Schlabach 1974; Wilson 1974; Constenla 1981; Jara 2004) problematized according to its typological characteristics:(i) The nasal system: Bribri is among the few languages in the world to lack distinctive nasal consonants. The nasal consonants present in the output result from nasal harmony (Cohn 1993; Walker 1998, 2001) and hypervoicing through velopharyngeal opening (Iverson & Salmons 1996; Solé 2009). While the first process has been partially described for Bribri (Wilson 1970; Constenla 1982, 1985; Tohsaku 1987), the second has not been individuated in the language.(ii) The consonant /tk/: the consonant /tk/ is a distinctive unit which combines two places of articulation. Contrary to what has been previously described (Lehmann 1920; Schlabach 1974; Wilson 1974; Constenla 1981; Jara 2004), it is not a doubly articulated consonant. I propose to analyse it as a contour geminate consonant (based on the concept of contour segment, Sagey 1990).Following Ohala’s pioneering work (1975, 1981, 1983), this work is based on the assumption that phonological structures must be explained by phonetic constraints. More specifically, I use the Articulatory Phonology frame (Browman & Goldstein 1986, 1989). The analysis is based on acoustic data collected among two Bribri communities, between 2012 and 2014 (Bajo Coen - Coroma and Amubre).Along the typological and phonetic approach, I have adopted a dialectal and diachronical point of view to better capture the phonological system of the language.
14

Understanding rumination as a form of inner speech : probing the role of motor processes / Comprendre les ruminations mentales comme une forme de parole intérieure : examiner le rôle des processus moteurs

Nalborczyk, Ladislas 18 October 2019 (has links)
Les ruminations mentales sont majoritairement exprimées sous forme verbale et il a été proposé de les considérer, par conséquent, comme une forme dysfonctionnelle de parole intérieure (i.e., production mentale de parole). D’autre part, les recherches sur la psychophysiologie de la parole intérieure ont révélé que les processus neuronaux impliqués dans la parole à voix haute et dans la parole intérieure sont similaires. Ces observations sont cohérentes avec l’idée que certaines formes de parole intérieure pourraient être considérées comme une forme de simulation de la parole à voix haute, de la même manière que certaines actions imaginées peuvent être considérées comme le résultat d’une simulation de l’action correspondante (par exemple, marcher et s’imaginer en train de marcher). En d’autres termes, l’hypothèse de la simulation motrice suggère que le système moteur de la parole devrait également être impliqué lors de la production de parole intérieure. L’hypothèse corollaire peut être formulée, selon laquelle la production de parole intérieure (et de ruminations) devrait être perturbée par une perturbation du système moteur de la parole. Nous avons mené une série de cinq études visant à sonder le rôle du système moteur de la parole dans les ruminations. Dans l’ensemble, nos résultats soulignent que, bien que la rumination verbale puisse être considérée comme une forme de parole intérieure, elle ne semble pas recruter spécifiquement le système moteur de la parole. Plus précisément, nous soutenons que la rumination peut être considérée comme une forme de parole intérieure particulièrement condensée, qui s’exprimerait sous la forme d’une représentation phonologique, et dont les traits articulatoires ne seraient pas complètements spécifiés. Nous faisons le lien entre ces résultats et l’hypothèse théorique du cadre “habitude-but” de la rumination dépressive et nous discutons de leurs implications pour les théories de la production de parole intérieure. / Rumination is known to be a predominantly verbal process and has been proposed to be considered as such as a dysfunctional form of inner speech (i.e., the silent production of words in one’s mind). On the other hand, research on the psychophysiology of inner speech revealed that the neural processes involved in overt and covert speech tend to be very similar. This is coherent with the idea that some forms of inner speech could be considered as a kind of simulation of overt speech, in the same way as imagined actions can be considered as the result of a simulation of the corresponding overt action (e.g., walking and imagined walking). In other words, the motor simulation hypothesis suggests that the speech motor system should be involved as well during inner speech production. The corollary hypothesis might be drawn, according to which the production of inner speech (and rumination) should be disrupted by a disruption of the speech motor system. We conducted a series of five studies aiming to probe the role of the speech motor system in rumination. Overall, our results highlight that although verbal rumination may be considered as a form of inner speech, it might not specifically involve the speech motor system. More precisely, we argue that rumination might be considered as a particularly strongly condensed form of inner speech that does not systematically involve fully specified articulatory features. We discuss these findings in relation to the habit-goal framework of depressive rumination and we discuss the implications of these findings for theories of inner speech production.
15

Extraction semi-automatique des mouvements du tractus vocal à partir de données cinéradiographiques

Fontecave, Julie 08 December 2006 (has links) (PDF)
Le travail présenté dans cette thèse est basé sur deux observations. D'abord il existe de longues séquences cinéradiographiques du conduit vocal en parole naturelle qui sont sous exploitées à cause du travail laborieux qu'implique le marquage manuel des images de ces séquences. Ensuite la cinéradiographie est une technique généralement bien cadrée qui se prête à l'application d'un algorithme dit de rétro-marquage. Le principe est d'associer des paramètres implicites et extraits du signal vidéo à des paramètres géométriques contrôlés et définis a posteriori, plutôt que d'extraire directement des données géométriques à l'aide de marqueurs. La méthode semi-automatique d'extraction de contours du conduit vocal que nous proposons est une adaptation de cet algorithme et permet de minimiser l'intervention manuelle. Pour une séquence et un articulateur donnés, une première étape consiste à marquer manuellement, sur un nombre limité d'images clefs, quelques degrés de liberté définissant le contour de l'articulateur. Dans un deuxième temps, ces marques géométriques sont associées à chaque image de la séquence via un index calculé à partir des coefficients DCT basses fréquences des images : on associe à chaque image l'index de l'image clef la plus proche. Cette technique, en une passe, permet ainsi de reconstruire des données géométriques dynamiques. Chaque articulateur (langue, vélum, lèvres...) est d'abord estimé de manière indépendante par la méthode, puis les contours extraits sont combinés pour récupérer la forme du conduit vocal complet. De là, les distances médio-sagittales du tractus vocal et les fonctions d'aire associées sont calculées pour la séquence entière.<br /><br />La première partie de ce manuscrit présente la méthode développée et l'évaluation de l'erreur de marquage. La seconde partie tente de valider phonétiquement les configurations géométriques estimées. Une première étude basée sur les voyelles permet de retrouver des résultats classiques en phonétique en fonction des différentes classes vocaliques. Les fréquences caractéristiques des voyelles, ou formants, estimées à partir des contours sont ensuite considérées, avec l'utilisation d'un modèle d'association linéaire d'une part et celle d'un modèle acoustique d'autre part. A l'aide de ce dernier, la synthèse d'un signal de parole intelligible est réalisée à partir des contours extraits, en estimant de façon complémentaire, depuis le signal audio, la source et la modulation d'amplitude en 2 sous-bandes. Enfin, nous prolongeons l'étude dynamique par deux observations : l'une sur la production des consonnes et l'autre sur les mouvements du vélum. L'ensemble de ces résultats montre que la méthode proposée peut être utilisée pour exploiter, d'un point de vue phonétique, ces longues séquences cinéradiographiques.
16

La gémination en tarifit : considérations phonologiques, étude acoustique et articulatoire / Gemination in Tarifit berber : phonological considerations, acoustic and articulatory study

Bouarourou, Fayssal 08 December 2014 (has links)
Ce travail se focalise sur le parler du tarifit de la province de Nador, afin d’étudier la gémination dans cette variante du berbère, parlée au Maroc. Il s’agit d’une investigation articulatoire cinéradiographique et acoustique. Un aperçu général du système phonologique du tarifit est proposé. Dans la revue critique de l’état de la question, nous avons tenté, d’abord, de montrer les différents arguments relatifs à la représentation des géminées en un seul segment ou en une suite de deux segments. Nous avons ensuite évoqué les débats contradictoires sur les notions de tension et de gémination. Notre recherche est conduite dans le cadre du paradigme de la perturbation et des réajustements, en variant la vitesse d’élocution. Les résultats principaux dans le domaine acoustique montrent, pour toutes les consonnes, simples et géminées, produites en vitesse d'élocution normale ou rapide, que la durée de la tenue consonantique est l’indice principal qui permet de les distinguer. Au niveau articulatoire, l’étude du timing des paramètres articulatoires indique, entre autres, que c’est le contact apical, vélaire et uvulaire, plus long pour la géminée, qui est le paramètre préférentiel de la distinction phonologique simple vs. géminée. L’analyse des vues de profil donne les résultats suivants en ce qui concerne l’étendue de contact (mm) : a) l’étendue de contact des occlusives est systématiquement plus importante pour les géminées que pour les simples ; b) l’étendue de contact augmente de la consonne apical, au vélaire (réalisée plutôt palatale), puis à l’uvulaire. Les résultats sont discutés en termes de relations articulatori - acoustiques. / This work focuses on tarifit of the provinces of Nador, in order to study gemination in this variant of Berber spoken in Morocco. This is an acoustic and articulatory X-ray investigation. A general overview of the tarifit phonological system is proposed. In a critical review of the literature, we tried, first, to show the different arguments concerning representation of geminates as one or as a sequence of two segments. We then discussed the contradictory debates on the concepts of tension and gemination. Our research is carried out within the perturbation and readjustments paradigm, by varying speech rates. Main results in the acoustic domain show for all consonants, singletons and geminates, produced in normal or fast speech, that consonantal closure is the main cue that allows distinguishing them. On the articulatory level, the study of the timing of articulatory parameters indicates, among other things, that it is the apical, velar and uvular contact, longer for geminates, which is the preferred parameter of the singleton vs. geminate phonological distinction. Analysis of profile views gives the following results regarding contact extent (mm) : a) contact extent for plosives are systematically larger for geminates than for singletons ; b) contact extent increases as one goes from the apical consonant to the velar (rather palatal) consonant, then to the uvular consonant. Results are discussed in terms of articulatory - acoustic relations.
17

Étude électrophysiologique de la mémoire à court terme auditive

Guimond, Synthia 05 1900 (has links)
La présente étude s’intéresse aux mécanismes neuronaux qui sous-tendent la rétention en mémoire à court terme auditive (MCTA) en utilisant la technique des potentiels reliés aux événements (PRE). Dans l’Expérience 1, nous avons isolé une composante de PRE, nommée SAN pour « sustained anterior negativity ». La SAN augmentait en amplitude négative plus le nombre de sons à maintenir en MCTA augmentait. Cet effet de charge était présent, bien que la durée totale des stimuli restait la même entre les conditions. L’effet de charge observé par la SAN dans l’Expérience 1 disparaissait dans l’Expérience 2, où les mêmes sons étaient utilisés, mais où la mémorisation de ceux-ci n’était plus requise. Finalement, dans l’Expérience 3, la tâche de MCTA a été effectuée avec et sans suppression articulatoire durant l'intervalle de rétention. L’effet de charge trouvé dans l’Expérience 1 était de nouveau observé, lorsque les participants faisaient la tâche de suppression articulatoire ou non. Ces résultats suggèrent que la SAN reflète l'activité nécessaire pour le maintien des objets acoustiques dans un système de MCTA qui serait distinct de la répétition phonologique. / We studied the neuronal mechanisms that implement acoustic short-term memory (ASTM) for pitch using event-related potentials (ERP). Experiment 1 isolated an ERP component, the sustained anterior negativity (SAN), that increased in amplitude with increasing memory load in ASTM using stimuli with equal duration at all memory loads. The SAN load effect found in Experment 1, when pitch had to be remembered to perform the task, was absent in Experiment 2 using the same sounds when memory was not required. In Experiment 3 the memory task was performed without or with concurrent articulatory suppression during the retention interval, to suppress rehearsal via an articulatory loop. Load-related effects found in Experiment 1 were found again, whether participants engaged in concurrent suppression or not. The results suggest that the SAN reflects activity required to maintain pitch objects in an ASTM system that is distinct from articulatory rehearsal.
18

Formes articulatoires et formes phonologiques : le cas de la liaison

Grosson, Céline 14 December 2011 (has links)
Les résultats obtenus en psycholinguistique via des études perceptives sur le traitement de la consonne de liaison montrent que le traitement de ce phénomène complexe n’est qu’imparfaitement prédit par les différentes théories phonologiques dans lesquelles il a été intégré de manière explicite. C’est pourquoi nous proposons dans cette thèse, qui s’inscrit dans une perspective résolument nouvelle, d’envisager la liaison du point de vue de la production et de la formaliser dans le cadre de la Phonologie articulatoire de Browman et Goldstein (1986). Ce modèle présente l’avantage d’une organisation directe entre phonologie et phonétique en utilisant une seule unité qui sert à la fois de primitive phonologique et d’unité d’action motrice dans la production de la parole : le geste articulatoire. Nous supposons que le statut phonologique de « segment flottant » proposé pour la consonne de liaison dans le cadre de la phonologie autosegmentale (Clements & Keyser, 1985 ; Encrevé 1988) puisse trouver un corrélat au niveau articulatoire et puisse être observé et mesuré expérimentalement. L’analyse qui vient à l’appui de cette hypothèse compare la consonne de liaison avec la consonne initiale de mot dans des contextes vocaliques identiques au moyen de mesures électro-palatographiques. Nos résultats suggèrent que la consonne de liaison est soumise à une modification quantitative des caractéristiques dynamiques qui lui sont associés. Les mouvements des articulateurs ainsi que les relations entre les gestes consonantique et vocalique sont ré-échelonnés en fonction de la position qu’occupe la consonne de manière graduelle. / Perceptual studies in the field of psycholinguistics on the processing of the liaison consonant have shown that this complex phenomenon is not perfectly predicted by the different phonological theories in which it has been explicitly integrated. In this thesis, we propose to investigate liaison from a totally new perspective, that is from a production point of view, and to formalise this phenomenon in the framework of Browman and Goldstein (1986)’s Articulatory Phonology. This model is advantageous as it provides a direct connection between phonology and phonetics where only one unit is used both as a phonological primitive and as a unit of motor action in speech production, that is articulatory gesture. In the Framework of autosegmental phonology (Clements & Keyser, 1985 ; Encrevé 1988), the phonological status of the liaison consonant is considered to be a floating segment. In this thesis, we hypothesise that there is a correlate at the articulatory level that can be observed and experimentally measured. This hypothesis is tested by comparing the liaison consonant with the word-initial consonant in identical vowel contexts by using electro-palatographical measurements.Results suggest that the liaison consonant is subjected to a quantitative modification of the dynamic caracteristics which are associated with it. The articulator movements, as well as the relations between consonant and vowel gestures, are gradually re-scaled according to the consonant position.
19

Étude électrophysiologique de la mémoire à court terme auditive

Guimond, Synthia 05 1900 (has links)
La présente étude s’intéresse aux mécanismes neuronaux qui sous-tendent la rétention en mémoire à court terme auditive (MCTA) en utilisant la technique des potentiels reliés aux événements (PRE). Dans l’Expérience 1, nous avons isolé une composante de PRE, nommée SAN pour « sustained anterior negativity ». La SAN augmentait en amplitude négative plus le nombre de sons à maintenir en MCTA augmentait. Cet effet de charge était présent, bien que la durée totale des stimuli restait la même entre les conditions. L’effet de charge observé par la SAN dans l’Expérience 1 disparaissait dans l’Expérience 2, où les mêmes sons étaient utilisés, mais où la mémorisation de ceux-ci n’était plus requise. Finalement, dans l’Expérience 3, la tâche de MCTA a été effectuée avec et sans suppression articulatoire durant l'intervalle de rétention. L’effet de charge trouvé dans l’Expérience 1 était de nouveau observé, lorsque les participants faisaient la tâche de suppression articulatoire ou non. Ces résultats suggèrent que la SAN reflète l'activité nécessaire pour le maintien des objets acoustiques dans un système de MCTA qui serait distinct de la répétition phonologique. / We studied the neuronal mechanisms that implement acoustic short-term memory (ASTM) for pitch using event-related potentials (ERP). Experiment 1 isolated an ERP component, the sustained anterior negativity (SAN), that increased in amplitude with increasing memory load in ASTM using stimuli with equal duration at all memory loads. The SAN load effect found in Experment 1, when pitch had to be remembered to perform the task, was absent in Experiment 2 using the same sounds when memory was not required. In Experiment 3 the memory task was performed without or with concurrent articulatory suppression during the retention interval, to suppress rehearsal via an articulatory loop. Load-related effects found in Experiment 1 were found again, whether participants engaged in concurrent suppression or not. The results suggest that the SAN reflects activity required to maintain pitch objects in an ASTM system that is distinct from articulatory rehearsal.
20

Adaptation de clones orofaciaux à la morphologie et aux stratégies de contrôle de locuteurs cibles pour l'articulation de la parole / Adaptation of orofacial clones to the morphology and control strategies of target speakers for speech articulation

Valdés Vargas, Julian Andrés 28 June 2013 (has links)
La capacité de production de la parole est apprise et maintenue au moyen d'une boucle de perception-action qui permet aux locuteurs de corriger leur propre production en fonction du retour perceptif reçu. Ce retour est auditif et proprioceptif, mais pas visuel. Ainsi, les sons de parole peuvent être complétés par l'affichage des articulateurs sur l'écran de l'ordinateur, y compris ceux qui sont habituellement cachés tels que la langue ou le voile du palais, ce qui constitue de la parole augmentée. Ce type de système a des applications dans des domaines tels que l'orthophonie, la correction phonétique et l'acquisition du langage. Ce travail a été mené dans le cadre du développement d'un système de retour articulatoire visuel, basé sur la morphologie et les stratégies articulatoires d'un locuteur de référence, qui anime automatiquement une tête parlante 3D à partir du son de la parole. La motivation de cette recherche était d'adapter ce système à plusieurs locuteurs. Ainsi, le double objectif de cette thèse était d'acquérir des connaissances sur la variabilité inter-locuteur, et de proposer des modèles pour adapter un clone de référence, composé de modèles des articulateurs de la parole (lèvres, langue, voile du palais, etc.), à d'autres locuteurs qui peuvent avoir des morphologies et des stratégies articulatoires différentes. Afin de construire des modèles articulatoires pour différents contours du conduit vocal, nous avons d'abord acquis des données qui couvrent l'espace articulatoire dans la langue française. Des Images médio-sagittales obtenues par Résonance Magnétique (IRM) pour onze locuteurs francophones prononçant 63 articulations ont été recueillis. L'un des principaux apports de cette étude est une base de données plus détaillée et plus grande que celles disponibles dans la littérature. Cette base contient, pour plusieurs locuteurs, les tracés de tous les articulateurs du conduit vocal, pour les voyelles et les consonnes, alors que les études précédentes dans la littérature sont principalement basées sur les voyelles. Les contours du conduit vocal visibles dans l'IRM ont été tracés à la main en suivant le même protocole pour tous les locuteurs. Afin d'acquérir de la connaissance sur la variabilité inter-locuteur, nous avons caractérisé nos locuteurs en termes des stratégies articulatoires des différents articulateurs tels que la langue, les lèvres et le voile du palais. Nous avons constaté que chaque locuteur a sa propre stratégie pour produire des sons qui sont considérées comme équivalents du point de vue de la communication parlée. La variabilité de la langue, des lèvres et du voile du palais a été décomposé en une série de mouvements principaux par moyen d'une analyse en composantes principales (ACP). Nous avons remarqué que ces mouvements sont effectués dans des proportions différentes en fonction du locuteur. Par exemple, pour un déplacement donné de la mâchoire, la langue peut globalement se déplacer dans une proportion qui dépend du locuteur. Nous avons également remarqué que la protrusion, l'ouverture des lèvres, l'influence du mouvement de la mâchoire sur les lèvres, et la stratégie articulatoire du voile du palais peuvent également varier en fonction du locuteur. Par exemple, certains locuteurs replient le voile du palais contre la langue pour produire la consonne /ʁ/. Ces résultats constituent également une contribution importante à la connaissance de la variabilité inter-locuteur dans la production de la parole. Afin d'extraire un ensemble de patrons articulatoires communs à différents locuteurs dans la production de la parole (normalisation), nous avons basé notre approche sur des modèles linéaires construits à partir de données articulatoires. Des méthodes de décomposition linéaire multiple ont été appliquées aux contours de la langue, des lèvres et du voile du palais ... / The capacity of producing speech is learned and maintained by means of a perception-action loop that allows speakers to correct their own production as a function of the perceptive feedback received. This auto feedback is auditory and proprioceptive, but not visual. Thus, speech sounds may be complemented by augmented speech systems, i.e. speech accompanied by the virtual display of speech articulators shapes on a computer screen, including those that are typically hidden such as tongue or velum. This kind of system has applications in domains such as speech therapy, phonetic correction or language acquisition in the framework of Computer Aided Pronunciation Training (CAPT). This work has been conducted in the frame of development of a visual articulatory feedback system, based on the morphology and articulatory strategies of a reference speaker, which automatically animates a 3D talking head from the speech sound. The motivation of this research was to make this system suitable for several speakers. Thus, the twofold objective of this thesis work was to acquire knowledge about inter-speaker variability, and to propose vocal tract models to adapt a reference clone, composed of models of speech articulator's contours (lips, tongue, velum, etc), to other speakers that may have different morphologies and different articulatory strategies. In order to build articulatory models of various vocal tract contours, we have first acquired data that cover the whole articulatory space in the French language. Midsagittal Magnetic Resonance Images (MRI) of eleven French speakers, pronouncing 63 articulations, have been collected. One of the main contributions of this study is a more detailed and larger database compared to the studies in the literature, containing information of several vocal tract contours, speakers and consonants, whereas previous studies in the literature are mostly based on vowels. The vocal tract contours visible in the MRI were outlined by hand following the same protocol for all speakers. In order to acquire knowledge about inter-speaker variability, we have characterised our speakers in terms of the articulatory strategies of various vocal tract contours like: tongue, lips and velum. We observed that each speaker has his/her own strategy to achieve sounds that are considered equivalent, among different speakers, for speech communication purposes. By means of principal component analysis (PCA), the variability of the tongue, lips and velum contours was decomposed in a set of principal movements. We noticed that these movements are performed in different proportions depending on the speaker. For instance, for a given displacement of the jaw, the tongue may globally move in a proportion that depends on the speaker. We also noticed that lip protrusion, lip opening, the influence of the jaw movement on the lips, and the velum's articulatory strategy can also vary according to the speaker. For example, some speakers roll up their uvulas against the tongue to produce the consonant /ʁ/ in vocalic contexts. These findings also constitute an important contribution to the knowledge of inter-speaker variability in speech production. In order to extract a set of common articulatory patterns that different speakers employ when producing speech sounds (normalisation), we have based our approach on linear models built from articulatory data. Multilinear decomposition methods have been applied to the contours of the tongue, lips and velum. The evaluation of our models was based in two criteria: the variance explanation and the Root Mean Square Error (RMSE) between the original and recovered articulatory coordinates. Models were also assessed using a leave-one-out cross validation procedure ...

Page generated in 0.0637 seconds