• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • Tagged with
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Approche rationnelle de l'utilisation des articulateurs en omnipratique

Le Berre, Miliau Hoornaert, Alain. Lauret, Jean-François. January 2005 (has links) (PDF)
Thèse d'exercice : Chirurgie dentaire : Université de Nantes : 2005. / Bibliogr. p. 151-162 [134 réf.].
2

Étude de la reproductibilité d'un système de mesure de la cinématique mandibulaire KAVO ARCUS Digma /

Courtieu, Klervi Hoornaert, Alain. January 2004 (has links) (PDF)
Thèse d'exercice : Chirurgie dentaire : Université de Nantes : 2004. / Bibliogr. f. 62-63 [14 réf.].
3

Reconstitution de la parole par imagerie ultrasonore et vidéo de l'appareil vocal : vers une communication parlée silencieuse

Hueber, Thomas 09 December 2009 (has links) (PDF)
L'objectif poursuivi dans ce travail de thèse est la réalisation d'un dispositif capable d'interpréter une parole normalement articulée mais non vocalisée, permettant ainsi la " communication parlée silencieuse ". Destiné, à terme, à être léger et portatif, ce dispositif pourrait être utilisé d'une part, par une personne ayant subi une laryngectomie (ablation du larynx suite à un cancer), et d'autre part, pour toute communication, soit dans un milieu où le silence est requis (transport en commun, opération militaire, etc.), soit dans un environnement extrêmement bruité. Le dispositif proposé combine deux systèmes d'imagerie pour capturer l'activité de l'appareil vocal pendant " l'articulation silencieuse " : l'imagerie ultrasonore, qui donne accès aux articulateurs internes de la cavité buccale (comme la langue), et la vidéo, utilisée pour capturer le mouvement des lèvres. Le problème traité dans cette étude est celui de la synthèse d'un signal de parole " acoustique ", uniquement à partir d'un flux de données " visuelles " (images ultrasonores et vidéo). Cette conversion qualifiée ici de " visuo-acoustique ", s'effectue par apprentissage artificiel et fait intervenir quatre étapes principales : l'acquisition des données audiovisuelles, leur caractérisation, l'inférence d'une cible acoustique à partir de l'observation du geste articulatoire et la synthèse du signal. Dans le cadre de la réalisation du dispositif expérimental d'acquisition des données, un système de positionnement de la sonde ultrasonore par rapport à la tête du locuteur, basé sur l'utilisation combinée de deux capteurs inertiaux a tout d'abord été conçu. Un système permettant l'enregistrement simultané des flux visuels et du flux acoustique, basé sur la synchronisation des capteurs ultrasonore, vidéo et audio par voie logicielle, a ensuite été développé. Deux bases de données associant observations articulatoires et réalisations acoustiques, contenant chacune environ une heure de parole (continue), en langue anglaise, ont été construites. Pour la caractérisation des images ultrasonores et vidéo, deux approches ont été mises en œuvre. La première est basée sur l'utilisation de la transformée en cosinus discrète, la seconde, sur l'analyse en composantes principales (approche EigenTongues/EigenLips). La première approche proposée pour l'inférence des paramètres acoustiques, qualifiée de " directe ", est basée sur la construction d'une " fonction de conversion " à l'aide d'un réseau de neurones et d'un modèle par mélange de gaussiennes. Dans une seconde approche, qualifiée cette fois " d'indirecte ", une étape de décodage des flux visuels au niveau phonétique est introduite en amont du processus de synthèse. Cette étape intermédiaire permet notamment l'introduction de connaissances linguistiques a priori sur la séquence observée. Elle s'appuie sur la modélisation des gestes articulatoires par des modèles de Markov cachés (MMC). Deux méthodes sont enfin proposées pour la synthèse du signal à partir de la suite phonétique décodée. La première est basée sur une approche par concaténation d'unités ; la seconde utilise la technique dite de " synthèse par MMC ". Pour permettre notamment la réalisation d'adaptations prosodiques, ces deux méthodes de synthèse s'appuient sur une description paramétrique du signal de parole du type "Harmonique plus Bruit" (HNM).
4

De la substance à la forme : rôle des contraintes motrices orofaciales et brachiomanuelles de la parole dans l'émergence du langage

Rochet-Capellan, Amélie 23 October 2007 (has links) (PDF)
Et si les propriétés sensori-motrices de la parole modelaient le langage ? Cette hypothèse a propulsé le langage dans le monde de la complexité et de la cognition en-corporée. Nous introduisons ici différents types d'arguments montrant le rôle de la motricité de la parole dans la genèse du langage. Motricité orofaciale, d'abord, avec l'idée que les propriétés de la coordination inter-articulateurs contraindraient la morphogenèse du langage. Motricité orofaciale et brachiomanuelle, ensuite, avec l'hypothèse que le langage émergerait de la coordination main-bouche portant l'acte de pointage par la voix et par la main. Dans ce cadre, nos expériences analysent les mouvements enregistrés chez des locuteurs du français dans différentes tâches afin d'établir les propriétés des coordinations mâchoire-langue-lèvres dans la parole, puis mâchoire-main dans le pointage. Ces recherches s'intègrent au cadre de recherche global et récent proposant d'étudier le langage comme un système-complexe.

Page generated in 0.0411 seconds