• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 21
  • 9
  • Tagged with
  • 78
  • 78
  • 58
  • 29
  • 28
  • 16
  • 16
  • 16
  • 15
  • 12
  • 12
  • 11
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Structuration multimodale des vidéos de tennis en utilisant des modèles segmentaux

Delakis, Emmanouil 23 October 2006 (has links) (PDF)
L'analyse automatique du contenu de la vidéo est un sujet de recherche émergent avec de nombreuses applications pratiques sur de grandes bases de données de vidéo ou sur les enregistreurs vidéo personnels. Le centre de cette étude est la construction automatique de la table des matières d'une émission de tennis en utilisant les modèles markoviens et la programmation dynamique. Motivés par le besoin de représentations multimodales plus efficaces, nous proposons l'utilisation des caractéristiques segmentales dans le cadre des modèles de segment, au lieu des caractéristiques en trames des modèles de Markov cachés. En considérant chaque scène de la vidéo comme un segment, les points de synchronisation entre différentes modalités sont étendus aux frontières de la scène, qui est l'unité thématique de base de la vidéo. Les caractéristiques visuelles venant de la vidéo diffusée et les caractéristiques auditives enregistrées dans le court sont traitées avant fusion dans leurs propres segments, avec leurs propres modèles et fréquences d'échantillonnage. Diverses techniques pour modéliser les segments sont examinées, y compris les modèles de Markov cachés de densité discrète ou continue, les modèles bigrames ou des approches connexionnistes, fonctionnant sur les caractéristiques audiovisuelles automatiquement extraites. Des modèles de segments et des modèles de Markov cachés, avec des topologies hiérarchiques ou ergodiques, sont établis et comparés sur un corpus de 15 heures de vidéos de tennis. Les paramètres des modèles sont estimés sur des données étiquetées. Selon le modèle segmentale utilisé, la fusion asynchrone avec des modèles de segments peut atteindre le même niveau de performance que les modèles de Markov cachés. La fusion des ressources textuelles de la vidéo, c'est-à-dire les annonces de points, est également considérée. Pour exploiter entièrement leur contenu sémantique sur l'évolution réelle du jeu et tenir compte des événements non reconnus, un arrangement original du décodage de Viterbi a été développé. Il produit des solutions qui sont conformes aux annonces de points et apporte ainsi une nette amélioration de la performance du système.
12

Apprentissage de modèles de comportement pour le contrôle d'exécution et la planification robotique

Infantes, Guillaume 05 October 2006 (has links) (PDF)
Les systèmes robotiques autonomes évoluent dans des environnements fortement imprévisibles, et sont sujets à des très grandes imprécisions des capteurs et de leur connaissance en général. De fait, ils sont construits dans l'objectif de robustesse et non pas de fournir des modèles de leur comportement, qui sont nécessaires à la prise de décision de plus haut niveau, type planification ou contrôle d'exécution. Dans les applications actuelles, ils sont souvent très abstraits et simplifiés par rapport à une application réelle. Nous proposons d'explorer la construction automatique de modèles intermédiaires stochastiques pour des systèmes robotiques réels. Dans un premier temps, nous expliquons la construction de modèles de Markov cachés, des données brutes à la définition d'états inobservables, et leur apprentissage. Nous passons ensuite à des modèles d'expressivité plus grande, et expliquons pourquoi les méthodes de calcul exact sont impossibles à appliquer. Nous montrons alors un algorithme original d'apprentissage quantitatif de tels modèles, et passons en revue différentes méthodes d'apprentissage de la causalité sous-jacente. Nous montrons une utilisation de tels modèles pour optimiser un comportement robotique, et pour que le système puisse décider d'apprendre.
13

Prédiction markovienne in silico des régions constantes et variables des lentivirus

Quillon, Aurélia 06 December 2006 (has links) (PDF)
Les lentivirus présentent une évolution rapide du gène env, notamment dans la région codant la glycoprotéine de surface (SU). Un fait remarquable est que les mutations de la SU sont localisées dans des zones spécifiques, appelées régions variables (V), séparées par des régions dites constantes (C). Afin de déterminer s'il existe des signatures spécifiques des régions C et V, nous avons développé des modèles de Markov cachés, ou HMM (Hidden Markov Models), basés sur la composition en oligonucléotides de chaque type de région, capables de différencier les régions C et V des lentivirus. Nous avons entraîné des modèles de Markov cachés sur des séquences des SU des lentivirus équins, humains, simiens et des petits ruminants. Nous avons obtenu une délimitation claire des régions C et V de tous ces lentivirus ainsi que des lentivirus bovins et félins qui n'avaient pas été utilisés pour définir les modèles. Nos résultats suggèrent que les régions C et V des lentivirus ont des compositions statistiques en mots de nucléotides et d'acides aminés différentes. Des signatures caractéristiques des régions C et V ont été extraites à partir des modèles définis.
14

Analyse de la qualité des signatures manuscrites en-ligne par la mesure d'entropie

Houmani, Nesma 13 January 2011 (has links) (PDF)
Cette thèse s'inscrit dans le contexte de la vérification d'identité par la signature manuscrite en-ligne. Notre travail concerne plus particulièrement la recherche de nouvelles mesures qui permettent de quantifier la qualité des signatures en-ligne et d'établir des critères automatiques de fiabilité des systèmes de vérification. Nous avons proposé trois mesures de qualité faisant intervenir le concept d'entropie. Nous avons proposé une mesure de qualité au niveau de chaque personne, appelée "Entropie personnelle", calculée sur un ensemble de signatures authentiques d'une personne. L'originalité de l'approche réside dans le fait que l'entropie de la signature est calculée en estimant les densités de probabilité localement, sur des portions, par le biais d'un Modèle de Markov Caché. Nous montrons que notre mesure englobe les critères habituels utilisés dans la littérature pour quantifier la qualité d'une signature, à savoir: la complexité, la variabilité et la lisibilité. Aussi, cette mesure permet de générer, par classification non supervisée, des catégories de personnes, à la fois en termes de variabilité de la signature et de complexité du tracé. En confrontant cette mesure aux performances de systèmes de vérification usuels sur chaque catégorie de personnes, nous avons trouvé que les performances se dégradent de manière significative (d'un facteur 2 au minimum) entre les personnes de la catégorie "haute Entropie" (signatures très variables et peu complexes) et celles de la catégorie "basse Entropie" (signatures les plus stables et les plus complexes). Nous avons ensuite proposé une mesure de qualité basée sur l'entropie relative (distance de Kullback-Leibler), dénommée "Entropie Relative Personnelle" permettant de quantifier la vulnérabilité d'une personne aux attaques (bonnes imitations). Il s'agit là d'un concept original, très peu étudié dans la littérature. La vulnérabilité associée à chaque personne est calculée comme étant la distance de Kullback-Leibler entre les distributions de probabilité locales estimées sur les signatures authentiques de la personne et celles estimées sur les imitations qui lui sont associées. Nous utilisons pour cela deux Modèles de Markov Cachés, l'un est appris sur les signatures authentiques de la personne et l'autre sur les imitations associées à cette personne. Plus la distance de Kullback-Leibler est faible, plus la personne est considérée comme vulnérable aux attaques. Cette mesure est plus appropriée à l'analyse des systèmes biométriques car elle englobe en plus des trois critères habituels de la littérature, la vulnérabilité aux imitations. Enfin, nous avons proposé une mesure de qualité pour les signatures imitées, ce qui est totalement nouveau dans la littérature. Cette mesure de qualité est une extension de l'Entropie Personnelle adaptée au contexte des imitations: nous avons exploité l'information statistique de la personne cible pour mesurer combien la signature imitée réalisée par un imposteur va coller à la fonction de densité de probabilité associée à la personne cible. Nous avons ainsi défini la mesure de qualité des imitations comme étant la dissimilarité existant entre l'entropie associée à la personne à imiter et celle associée à l'imitation. Elle permet lors de l'évaluation des systèmes de vérification de quantifier la qualité des imitations, et ainsi d'apporter une information vis-à-vis de la résistance des systèmes aux attaques. Nous avons aussi montré l'intérêt de notre mesure d'Entropie Personnelle pour améliorer les performances des systèmes de vérification dans des applications réelles. Nous avons montré que la mesure d'Entropie peut être utilisée pour : améliorer la procédure d'enregistrement, quantifier la dégradation de la qualité des signatures due au changement de plateforme, sélectionner les meilleures signatures de référence, identifier les signatures aberrantes, et quantifier la pertinence de certains paramètres pour diminuer la variabilité temporelle.
15

Détection des potentiels d'action par la fluorescence calcique chez le poisson zèbre

Rondy-Turcotte, Jean-Christophe January 2020 (has links)
L'utilisation de fluorofores sensibles au calcium permet de mesurer de manière non invasive l'activité des neurones. En effet, les potentiels d'actions font augmenter la concentration de calcium à l'intérieur d'une cellule, ce qui à son tour fait augmenter la fluorescence. Un dé important est de retrouver la séquence de potentiels d'actions à partir d'une mesure de fluorescence. Dans ce mémoire, nous verrons comment utiliser la fluorescence calcique pour déterminer une séquence de potentiels d'actions. Nous appliquons un algorithme basé sur l'algorithme de Viterbi et les chaînes de Markov à états cachés, développés par Deneux et al. À l'aide de cet algorithme, nous estimons les trains de potentiels d'actions ayant lieu dans un ensemble de neurones de poisson zèbres in vivo.
16

Applications en bioinformatique avec des modèles de Markov / Applications in Bioinformatics with Markov Models

Robinson, Sean 01 June 2018 (has links)
Dans cette thèse nous présentons quatre applications en bioinformatique avec des modèles de Markov. Ces modèles sont particulièrement répandus car la structure Markov permet de modéliser des indépendances conditionnelles complexes tout en permettant une inférence efficace. Nous atteignons une variété d’objectifs tels que l'alignement, la classification, la segmentation et la quantification, par inférence dans différents types de modèles de Markov. De cette manière nous montrons que les modèles de Markov peuvent être utilisés pour générer de nouvelles connaissances dans diverses applications liées à une variété de champs de recherche en biologie. / In this thesis we present four applications in bioinformatics with Markov models. Such models are especially popular since the Markov structure allows for complex conditional independences to be modelled while still allowing for efficient inference. We achieve a variety of aims, ranging from alignment, classification, segmentation and quantification, through inference in different types of Markov models. In this way we show that Markov models can be used to generate new knowledge in diverse applications relating to multiple domains of biological research.
17

Modélisation de dialogues à l'aide d'un modèle Markovien caché

Besbes, Ghina 16 April 2018 (has links)
La modélisation de dialogue humain-machine est un domaine de recherche qui englobe plusieurs disciplines telles que la philosophie, les sciences cognitives et sociales, et l’informatique. Elle a pour but de reproduire la capacité humaine afin d’apprendre des stratégies optimales de dialogue. De plus, elle vise à concevoir et à évaluer des systèmes de gestion de dialogue ou d’étudier plus en détails la nature des conversations. Par ailleurs, peu de modèles de simulation de dialogues existants ont été jugé bons. Ce mémoire présente un modèle de Markov caché qui prédit l’action de l’utilisateur dans les systèmes de dialogue étant donné l’action du système précédente. L’apprentissage du modèle a été réalisé selon une approche d’apprentissage non supervisé en utilisant différentes méthodes de la validation croisée. Quant à l’évaluation du modèle, elle a été faite en utilisant différentes métriques. Les résultats de l’évaluation ont été en dessous des attentes mais tout de même satisfaisants par rapport aux travaux antérieurs. Par conséquent, des avenues de recherches futures seront proposées pour surpasser cette problématique. Mots-clés : traitement de la langue naturelle, dialogue oral homme-machine, modèle de Markov caché, apprentissage non supervisé, validation croisée. / Modeling human-machine dialogue is a research area that encompasses several disciplines such as philosophy, computer science, as well as cognitive and social sciences. It aims to replicate the human ability to learn optimal strategies of dialogue. Furthermore, it aims to design and evaluate management systems for dialogue, and to study the nature of the conversations in more detail. Moreover, few simulation models of existing dialogues were considered good. This thesis presents a hidden Markov model that predicts the action of the user in dialogue systems on the basis of the previous system action. The learning model has been realized through an approach to unsupervised learning using different methods of cross validation. As for model evaluation, it has been done using different metrics. The evaluation results were below expectation. Nonetheless, they are satisfactory compared to previous work. Ultimately, avenues for future research are proposed to overcome this problem. Keywords: natural language processing, spoken dialogue human-machine, Hidden Markov Model (HMM), unsupervised learning, cross validation.
18

Modélisation d'un usager de jeu vidéo avec un modèle de Markov caché

Bettayeb, Miloud 18 April 2018 (has links)
Le succès de l'utilisation du modèle de Markov caché dans des domaines comme le traitement des images, la biologie, la médecine et la robotique, est principalement dû à la possibilité qu'il offre d'obtenir des traitements efficaces et de construire des modèles par apprentissage automatique, même pour d'importantes masses de données. L'objectif de cette mémoire est de d'évaluer l'adéquation et l'efficacité de ce modèle pour modéliser les activités d'utilisateurs de jeux vidéo. Dans ce mémoire, nous avons choisi le jeu Pacman pour mener notre étude. Ce jeu présente un intérêt particulier car les décisions de déplacement et les stratégies utilisées par les joueurs sont basées sur des contraintes liées à l'environnement du jeu (les fantômes, les points, les pastilles, les fruits...). Nous avons choisi d'appliquer le modèle de Markov caché pour modéliser le contrôle du Pacman par un joueur. Notre premier objectif est de prédire la stratégie utilisée par le joueur pendant des parties de jeu. Pour cette tâche, nous avons utilisé seulement le modèle du Markov caché, Notre deuxième objectif est de tenter d'identifier un joueur à partir d'épisodes de jeux. Pour cette deuxième tâche, nous avons combiné un modèle de Markov caché avec une méthode de classification pour obtenir nos résultats. D'après les résultats obtenus dans nos travaux, nous pouvons affirmer que ces modèles se révèlent efficaces pour la reconnaissance d'activités dans des jeux vidéo.
19

Algorithmes de restauration bayésienne mono- et multi-objets dans des modèles markoviens

Petetin, Yohan 27 November 2013 (has links) (PDF)
Cette thèse est consacrée au problème d'estimation bayésienne pour le filtrage statistique, dont l'objectif est d'estimer récursivement des états inconnus à partir d'un historique d'observations, dans un modèle stochastique donné. Les modèles stochastiques considérés incluent principalement deux grandes classes de modèles : les modèles de Markov cachés et les modèles de Markov à sauts conditionnellement markoviens. Ici, le problème est abordé sous sa forme générale dans la mesure où nous considérons le problème du filtrage mono- et multi objet(s), ce dernier étant abordé sous l'angle de la théorie des ensembles statistiques finis et du filtre " Probability Hypothesis Density ". Tout d'abord, nous nous intéressons à l'importante classe d'approximations que constituent les algorithmes de Monte Carlo séquentiel, qui incluent les algorithmes d'échantillonnage d'importance séquentiel et de filtrage particulaire auxiliaire. Les boucles de propagation mises en jeux dans ces algorithmes sont étudiées et des algorithmes alternatifs sont proposés. Les algorithmes de filtrage particulaire dits " localement optimaux ", c'est à dire les algorithmes d'échantillonnage d'importance avec densité d'importance conditionnelle optimale et de filtrage particulaire auxiliaire pleinement adapté sont comparés statistiquement, en fonction des paramètres du modèle donné. Ensuite, les méthodes de réduction de variance basées sur le théorème de Rao-Blackwell sont exploitées dans le contexte du filtrage mono- et multi-objet(s) Ces méthodes, utilisées principalement en filtrage mono-objet lorsque la dimension du vecteur d'état à estimer est grande, sont dans un premier temps étendues pour les approximations Monte Carlo du filtre Probability Hypothesis Density. D'autre part, des méthodes de réduction de variance alternatives sont proposées : bien que toujours basées sur le théorème de Rao-Blackwell, elles ne se focalisent plus sur le caractère spatial du problème mais plutôt sur son caractère temporel. Enfin, nous abordons l'extension des modèles probabilistes classiquement utilisés. Nous rappelons tout d'abord les modèles de Markov couple et triplet dont l'intérêt est illustré à travers plusieurs exemples pratiques. Ensuite, nous traitons le problème de filtrage multi-objets, dans le contexte des ensembles statistiques finis, pour ces modèles. De plus, les propriétés statistiques plus générales des modèles triplet sont exploitées afin d'obtenir de nouvelles approximations de l'estimateur bayésien optimal (au sens de l'erreur quadratique moyenne) dans les modèles à sauts classiquement utilisés; ces approximations peuvent produire des estimateurs de performances comparables à celles des approximations particulaires, mais ont l'avantage d'être moins coûteuses sur le plan calculatoire
20

Chaînes de Markov cachées et séparation non supervisée de sources

RAFI, Selwa 11 June 2012 (has links) (PDF)
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle

Page generated in 0.0592 seconds