Return to search

Modèles Markoviens Contextuels / Contextual Markovian Models

La modélisation de données séquentielles est utile à de nombreux domaines : reconnaissance de parole, de gestes, d'écriture, ou encore la synthèse d'animations pour des avatars virtuels. Notre modélisation part du constat qu'une part importante de la variabilité entre les séquences d'observations peut être la conséquence de quelques variables contextuellesfixes le long de la séquence ou qui varient en fonction du temps. Une phrase peut être exprimée différemment en fonction de l'humeur du locuteur, un geste peut être plus ample en fonction de la taille de l'acteur etc... Ce type de variabilité ne peut pas toujours être supprimée par des pré-traitements.Dans un premier temps, nous proposons les modèles Markoviens Contextuels (CHMM), afin de modéliser directement l'influence du contexte sur les séquences d'observation en paramétrisant les distributions de probabilités des HMMs par des variables contextuelles statiques ou dynamiques.Puis, nous décrivons une approche afin d'exploiter efficacement l'information contextuelle dans un modèle discriminant, les Champs de Markov Conditionnels et Contextuels (CHCRF).Nous testons plusieurs variantes des CHMMs et investiguons dans quelle mesure cette modélisation est pertinente pour la classification de caractères manuscrits, la reconnaissance de parole ou pour la synthèse de mouvements de sourcils à partir de la parole pour un avatar virtuel.Enfin, afin d'apprendre à partir de moins d'exemples, nous proposons une approche de type Transfert utilisant les HMMs Contextuels. Cette méthode réalise du partage d'information entre les classes la ou les approches génératives apprennent des modèles de classes indépendants. / Modeling time series has practical applications in many domains : speech, gesture and handwriting recognition, synthesis of realistic character animations etc...The starting point of our modeling is that an important part of the variability between observation sequences may be the consequence of a few contextual variables that remain fixed all along a sequence or that vary slowly with time. For instance a sentence may be uttered quite differently according to the speaker emotion, a gesture may have more amplitude depending on the height of the performer etc... Such a variability cannot always be removed through preprocessing.We first propose the generative framework of Contextual Hidden Markov Models (CHMM) to model directly the influence of contextual information on observation sequences by parameterizing the probability distributions of HMMs with static or dynamic contextual variables. We test various instances of this framework on classification of handwritten characters, speech recognition and synthesis of eyebrow motion from speech for a virtual avatar.For each of these tasks, we investigate in what extent such modeling can translate into performance gains. We then introduce a natural and efficient way to exploit contextual information into Contextual Hidden Conditional Random Fields (CHCRF), the discriminative counter part of CHMMs.CHCRF may be viewed as an efficient way to learn a HCRF that exploit contextual information.Finally, we propose a Transfer Learning approach to learn Contextual HMMs from fewer examples. This method relies on sharing information between classes where in generative models classes are normally considered independent.

Identiferoai:union.ndltd.org:theses.fr/2014PA066426
Date30 September 2014
CreatorsRadenen, Mathieu
ContributorsParis 6, Artières, Thierry
Source SetsDépôt national des thèses électroniques françaises
LanguageEnglish
Detected LanguageEnglish
TypeElectronic Thesis or Dissertation, Text

Page generated in 0.0017 seconds