• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 15
  • 9
  • Tagged with
  • 58
  • 58
  • 58
  • 26
  • 21
  • 13
  • 12
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Structuration multimodale des vidéos de sport par modèles stochastiques

Kijak, Ewa 22 December 2003 (has links) (PDF)
Cette étude présente une méthode de structuration d'une vidéo utilisant des indices sonores et visuels. Cette méthode repose sur un modèle statistique de l'entrelacement temporel des plans de la vidéo. Le cadre général de la modélisation est celui des modèles de Markov cachés. Les indices visuels sont utilisés pour caractériser le type des plans. Les indices audio décrivent les événements sonores apparaissant durant un plan. La structure de la vidéo est représentée par un modèle de Markov caché hiérarchique, intégrant les informations a priori sur le contenu de la vidéo, ainsi que sur les règles d'édition. L'approche est validée dans le cadre des vidéos de tennis, ce dernier présentant une structure intrinsèque hiérarchique bien définie. En résultat de l'analyse de l'entrelacement temporel des différents types de plans, des scènes caractéristiques du tennis sont identifiées. De plus, chaque plan de la vidéo est assigné à un niveau de hiérarchie décrit en terme de point, jeu et set. Cette classification et segmentation simultanées de la structure globale de la vidéo peuvent être utilisées pour la création de résumés vidéo ou pour permettre une navigation non linéaire dans le document vidéo.
2

Traitement bio-inspiré de la parole pour système de reconnaissance vocale

Loiselle, Stéphane January 2010 (has links)
Cette thèse présente un traitement inspiré du fonctionnement du système auditif pour améliorer la reconnaissance vocale. Pour y parvenir, le signal de la parole est filtré par un banc de filtres et compressé pour en produire une représentation auditive. L'innovation de l'approche proposée se situe dans l'extraction des éléments acoustiques (formants, transitions et onsets ) à partir de la représentation obtenue. En effet, une combinaison de détecteurs composés de neurones à décharges permet de révéler la présence de ces éléments et génère ainsi une séquence d'événements pour caractériser le contenu du signal. Dans le but d'évaluer la performance du traitement présenté, la séquence d'événements est adaptée à un système de reconnaissance vocale conventionnel, pour une tâche de reconnaissance de chiffres isolés prononcés en anglais. Pour ces tests, la séquence d'événements agit alors comme une sélection de trames automatique pour la génération des observations (coefficients cepstraux). En comparant les résultats de la reconnaissance du prototype et du système de reconnaissance original, on remarque que les deux systèmes reconnaissent très bien les chiffres prononcés dans des conditions optimales et que le système original est légèrement plus performant. Par contre, la différence observée au niveau des taux de reconnaissance diminue lorsqu'une réverbération vient affecter les données à reconnaître et les performances de l'approche proposée parviennent à dépasser celles du système de référence. De plus, la sélection de trames automatique offre de meilleures performances dans des conditions bruitées. Enfin, l'approche proposée se base sur des caractéristiques dans le temps en fonction de la nature du signal, permet une sélection plus intelligente des données qui se traduit en une parcimonie temporelle, présente un potentiel fort intéressant pour la reconnaissance vocale sous conditions adverses et utilise une détection des caractéristiques qui peut être utilisée comme séquence d'impulsions compatible avec les réseaux de neurones à décharges.
3

Recherche de domaines protéiques divergents à l'aide de modèles de Markov cachés : application à Plasmodium falciparum / Protein Domain Detection with Hidden Markov Models : application to Plasmodium falciparum

Terrapon, Nicolas 03 December 2010 (has links)
Les modèles de Markov cachés (MMC) par exemple ceux de la librairie Pfam sont des outils très populaires pour l'annotation des domaines protéiques. Cependant, ils ne sont pas toujours adaptés aux protéines les plus divergentes. C'est notamment le cas avec Plasmodium falciparum (principal agent du paludisme chez l'Homme), où les MMC de Pfam identifient peu de familles distinctes de domaines, et couvrent moins de 50% des protéines de l'organisme. L'objectif de cette thèse est d'apporter des méthodes nouvelles pour affiner la détection de domaines dans les protéines divergentes.Le premier axe développé est une approche d'identification de domaines utilisant leurs propriétés de co-occurrence. Différentes études ont montré que la majorité des domaines apparaissent dans les protéines avec un ensemble très réduits d'autres domaines favoris. Notre méthode exploite cette propriété pour détecter des domaines trop divergents pour être identifiés par l'approche classique. Cette détection s'accompagne d'une estimation du taux d'erreur par une procédure de ré-échantillonnage. Chez P. falciparum, elle permet d'identifier, avec un taux d'erreur estimé inférieur à 20%, 585 nouveaux domaines dont 159 familles étaient inédites dans cet organisme ce qui représente 16% du nombre de domaines connus.Le second axe de mes recherches présente plusieurs méthodes de corrections statistiques et évolutives des MMC pour l'annotation d'organismes divergents. Deux types d'approches ont été proposées. D'un côté, nous intégrons aux alignements d'apprentissage des MMC, les séquences précédemment identifiés dans l'organisme cible ou ses proches relatifs. La limitation de cette solution est que seules des familles de domaines déjà connues dans le taxon peuvent ainsi être identifiées. Le deuxième type d'approche contourne cette limitation en corrigeant tous les modèles par une prise en compte de l'évolution des séquences d'apprentissage. Pour cela, nous faisons appel à des techniques classiques de la bioinformatique et de l'apprentissage statistique. Les résultats obtenus offrent un ensemble de prédictions complémentaires totalisant 663 nouveaux domaines supplémentaires dont 504 familles inédites soit une augmentation de 18% à ajouter aux précédents résultats. / Hidden Markov Models (HMMs) from Pfam database for example are popular tools for protein domain annotation. However, they are not well suited for studying highly divergent proteins. This is notably the case with Plasmodium falciparum (main causal agent of human malaria), where Pfam HMMs identify few distinct domain families and cover less than 50% of its proteins. This thesis aims at providing new methods to enhance domain detection in divergent proteins.The first axis of this work is an approach of domain identification based on domain co-occurrence. Several studies shown that a majority of domains appear in proteins with a small set of other favourite domains. Our method exploits this tendency to detect domains escaping to the classical procedure because of their divergence. Detected domains come along with an false discovery rate (FDR) estimation computed with a shuffling procedure. In P. falciparum proteins, this approach allows us identify, with an FDR below 20%, 585 new domains with 159 families that were previously unseen in this organism which account for 16% of the known domains.The second axis of my researches involves the development of statistical and evolutionary methods of HMM correction to improve the annotation of divergent organisms. Two kind of approaches are proposed. On the one hand, the sequences previously identified in the target organism and its close relatives are integrated in the learning alignments. An obvious limitation of this solution is that only new occurrences of previously known families in the taxon can be discovered. On the other hand, we evade this limitation by adjusting HMM parameters by simulating the evolution of the learning sequences. To this end, classical techniques from bioinformatics and statistical learning were used. Alternative libraries offer a complementary set of predictions summing 663 new domains with 504 previously unseen families corresponding to an improvement of 18% to add to the previous results.
4

Vers une agentification de comportements observés : une approche originale basée sur l’apprentissage automatique pour la simulation d’un environnement réel / Towards agentification of observed behavior : an original approach based on machine learning for real environment simulation

Saffar, Imen 19 June 2013 (has links)
La conception d'outils de simulation capables de reproduire la dynamique et l'évolution de phénomènes complexes réels est une tâche difficile. La modélisation de ces phénomènes par des approches analytiques est souvent impossible, obligeant le concepteur à s'orienter vers des approches comportementales. Dans ce contexte, les simulations multi-agents représentent aujourd'hui une alternative crédible aux simulations classiques. Elles restent cependant délicates à mettre en œuvre. En effet, le concepteur de la simulation doit être capable de transcrire en comportement d'agents la dynamique du phénomène qu'il observe. Cette étape requiert généralement les compétences d'un spécialiste possédant une certaine expertise du phénomène à simuler. Dans cette thèse, nous proposons une manière originale de traiter l'observation de comportements réels à simuler, sans avoir recours à l'aide d'un expert.Il s'agit de s'appuyer sur des techniques d'apprentissage non supervisé pour identifier et extraire des comportements et ainsi faciliter l'agentification de la simulation. Notre approche constitue, de ce fait, un pas vers la conception automatique de simulations multi-agents reproduisant des phénomènes observables. Cette approche est motivée par un cadre applicatif visant la simulation de comportements de clients à l'intérieur d'un espace de vente. / The design of simulation tools, which are able to reproduce the dynamics and evolution of complex real phenomena, is hard. Modeling these phenomena by analytical approaches is often unsuitable, forcing the designer to turn towards behavioral approaches. In this context, multi-agent simulations are now a credible alternative to the classical simulations. However, they remain difficult to implement. In fact, the designer of the simulation must be able to transcribe the dynamic of the phenomenon being observed in agents behavior. This step usually requires the skills of a specialist with some expertise in the phenomenon to be simulated. In this thesis, we propose a novel way to treat observing real behaviors to simulate, without resorting to the help of an expert.It is relying on unsupervised learning techniques to identify and extract behavior and facilitate the agentification. Our approach is, therefore, a step towards the automatic design of multi-agent simulations reproducing observable phenomena. This approach is motivated by an application context aiming the simulation of customers’ behavior within a retail space.
5

Structuration multimodale des vidéos de tennis en utilisant des modèles segmentaux

Delakis, Emmanouil 23 October 2006 (has links) (PDF)
L'analyse automatique du contenu de la vidéo est un sujet de recherche émergent avec de nombreuses applications pratiques sur de grandes bases de données de vidéo ou sur les enregistreurs vidéo personnels. Le centre de cette étude est la construction automatique de la table des matières d'une émission de tennis en utilisant les modèles markoviens et la programmation dynamique. Motivés par le besoin de représentations multimodales plus efficaces, nous proposons l'utilisation des caractéristiques segmentales dans le cadre des modèles de segment, au lieu des caractéristiques en trames des modèles de Markov cachés. En considérant chaque scène de la vidéo comme un segment, les points de synchronisation entre différentes modalités sont étendus aux frontières de la scène, qui est l'unité thématique de base de la vidéo. Les caractéristiques visuelles venant de la vidéo diffusée et les caractéristiques auditives enregistrées dans le court sont traitées avant fusion dans leurs propres segments, avec leurs propres modèles et fréquences d'échantillonnage. Diverses techniques pour modéliser les segments sont examinées, y compris les modèles de Markov cachés de densité discrète ou continue, les modèles bigrames ou des approches connexionnistes, fonctionnant sur les caractéristiques audiovisuelles automatiquement extraites. Des modèles de segments et des modèles de Markov cachés, avec des topologies hiérarchiques ou ergodiques, sont établis et comparés sur un corpus de 15 heures de vidéos de tennis. Les paramètres des modèles sont estimés sur des données étiquetées. Selon le modèle segmentale utilisé, la fusion asynchrone avec des modèles de segments peut atteindre le même niveau de performance que les modèles de Markov cachés. La fusion des ressources textuelles de la vidéo, c'est-à-dire les annonces de points, est également considérée. Pour exploiter entièrement leur contenu sémantique sur l'évolution réelle du jeu et tenir compte des événements non reconnus, un arrangement original du décodage de Viterbi a été développé. Il produit des solutions qui sont conformes aux annonces de points et apporte ainsi une nette amélioration de la performance du système.
6

Apprentissage de modèles de comportement pour le contrôle d'exécution et la planification robotique

Infantes, Guillaume 05 October 2006 (has links) (PDF)
Les systèmes robotiques autonomes évoluent dans des environnements fortement imprévisibles, et sont sujets à des très grandes imprécisions des capteurs et de leur connaissance en général. De fait, ils sont construits dans l'objectif de robustesse et non pas de fournir des modèles de leur comportement, qui sont nécessaires à la prise de décision de plus haut niveau, type planification ou contrôle d'exécution. Dans les applications actuelles, ils sont souvent très abstraits et simplifiés par rapport à une application réelle. Nous proposons d'explorer la construction automatique de modèles intermédiaires stochastiques pour des systèmes robotiques réels. Dans un premier temps, nous expliquons la construction de modèles de Markov cachés, des données brutes à la définition d'états inobservables, et leur apprentissage. Nous passons ensuite à des modèles d'expressivité plus grande, et expliquons pourquoi les méthodes de calcul exact sont impossibles à appliquer. Nous montrons alors un algorithme original d'apprentissage quantitatif de tels modèles, et passons en revue différentes méthodes d'apprentissage de la causalité sous-jacente. Nous montrons une utilisation de tels modèles pour optimiser un comportement robotique, et pour que le système puisse décider d'apprendre.
7

Prédiction markovienne in silico des régions constantes et variables des lentivirus

Quillon, Aurélia 06 December 2006 (has links) (PDF)
Les lentivirus présentent une évolution rapide du gène env, notamment dans la région codant la glycoprotéine de surface (SU). Un fait remarquable est que les mutations de la SU sont localisées dans des zones spécifiques, appelées régions variables (V), séparées par des régions dites constantes (C). Afin de déterminer s'il existe des signatures spécifiques des régions C et V, nous avons développé des modèles de Markov cachés, ou HMM (Hidden Markov Models), basés sur la composition en oligonucléotides de chaque type de région, capables de différencier les régions C et V des lentivirus. Nous avons entraîné des modèles de Markov cachés sur des séquences des SU des lentivirus équins, humains, simiens et des petits ruminants. Nous avons obtenu une délimitation claire des régions C et V de tous ces lentivirus ainsi que des lentivirus bovins et félins qui n'avaient pas été utilisés pour définir les modèles. Nos résultats suggèrent que les régions C et V des lentivirus ont des compositions statistiques en mots de nucléotides et d'acides aminés différentes. Des signatures caractéristiques des régions C et V ont été extraites à partir des modèles définis.
8

Analyse de la qualité des signatures manuscrites en-ligne par la mesure d'entropie

Houmani, Nesma 13 January 2011 (has links) (PDF)
Cette thèse s'inscrit dans le contexte de la vérification d'identité par la signature manuscrite en-ligne. Notre travail concerne plus particulièrement la recherche de nouvelles mesures qui permettent de quantifier la qualité des signatures en-ligne et d'établir des critères automatiques de fiabilité des systèmes de vérification. Nous avons proposé trois mesures de qualité faisant intervenir le concept d'entropie. Nous avons proposé une mesure de qualité au niveau de chaque personne, appelée "Entropie personnelle", calculée sur un ensemble de signatures authentiques d'une personne. L'originalité de l'approche réside dans le fait que l'entropie de la signature est calculée en estimant les densités de probabilité localement, sur des portions, par le biais d'un Modèle de Markov Caché. Nous montrons que notre mesure englobe les critères habituels utilisés dans la littérature pour quantifier la qualité d'une signature, à savoir: la complexité, la variabilité et la lisibilité. Aussi, cette mesure permet de générer, par classification non supervisée, des catégories de personnes, à la fois en termes de variabilité de la signature et de complexité du tracé. En confrontant cette mesure aux performances de systèmes de vérification usuels sur chaque catégorie de personnes, nous avons trouvé que les performances se dégradent de manière significative (d'un facteur 2 au minimum) entre les personnes de la catégorie "haute Entropie" (signatures très variables et peu complexes) et celles de la catégorie "basse Entropie" (signatures les plus stables et les plus complexes). Nous avons ensuite proposé une mesure de qualité basée sur l'entropie relative (distance de Kullback-Leibler), dénommée "Entropie Relative Personnelle" permettant de quantifier la vulnérabilité d'une personne aux attaques (bonnes imitations). Il s'agit là d'un concept original, très peu étudié dans la littérature. La vulnérabilité associée à chaque personne est calculée comme étant la distance de Kullback-Leibler entre les distributions de probabilité locales estimées sur les signatures authentiques de la personne et celles estimées sur les imitations qui lui sont associées. Nous utilisons pour cela deux Modèles de Markov Cachés, l'un est appris sur les signatures authentiques de la personne et l'autre sur les imitations associées à cette personne. Plus la distance de Kullback-Leibler est faible, plus la personne est considérée comme vulnérable aux attaques. Cette mesure est plus appropriée à l'analyse des systèmes biométriques car elle englobe en plus des trois critères habituels de la littérature, la vulnérabilité aux imitations. Enfin, nous avons proposé une mesure de qualité pour les signatures imitées, ce qui est totalement nouveau dans la littérature. Cette mesure de qualité est une extension de l'Entropie Personnelle adaptée au contexte des imitations: nous avons exploité l'information statistique de la personne cible pour mesurer combien la signature imitée réalisée par un imposteur va coller à la fonction de densité de probabilité associée à la personne cible. Nous avons ainsi défini la mesure de qualité des imitations comme étant la dissimilarité existant entre l'entropie associée à la personne à imiter et celle associée à l'imitation. Elle permet lors de l'évaluation des systèmes de vérification de quantifier la qualité des imitations, et ainsi d'apporter une information vis-à-vis de la résistance des systèmes aux attaques. Nous avons aussi montré l'intérêt de notre mesure d'Entropie Personnelle pour améliorer les performances des systèmes de vérification dans des applications réelles. Nous avons montré que la mesure d'Entropie peut être utilisée pour : améliorer la procédure d'enregistrement, quantifier la dégradation de la qualité des signatures due au changement de plateforme, sélectionner les meilleures signatures de référence, identifier les signatures aberrantes, et quantifier la pertinence de certains paramètres pour diminuer la variabilité temporelle.
9

Détection des potentiels d'action par la fluorescence calcique chez le poisson zèbre

Rondy-Turcotte, Jean-Christophe January 2020 (has links)
L'utilisation de fluorofores sensibles au calcium permet de mesurer de manière non invasive l'activité des neurones. En effet, les potentiels d'actions font augmenter la concentration de calcium à l'intérieur d'une cellule, ce qui à son tour fait augmenter la fluorescence. Un dé important est de retrouver la séquence de potentiels d'actions à partir d'une mesure de fluorescence. Dans ce mémoire, nous verrons comment utiliser la fluorescence calcique pour déterminer une séquence de potentiels d'actions. Nous appliquons un algorithme basé sur l'algorithme de Viterbi et les chaînes de Markov à états cachés, développés par Deneux et al. À l'aide de cet algorithme, nous estimons les trains de potentiels d'actions ayant lieu dans un ensemble de neurones de poisson zèbres in vivo.
10

Modélisation de dialogues à l'aide d'un modèle Markovien caché

Besbes, Ghina 16 April 2018 (has links)
La modélisation de dialogue humain-machine est un domaine de recherche qui englobe plusieurs disciplines telles que la philosophie, les sciences cognitives et sociales, et l’informatique. Elle a pour but de reproduire la capacité humaine afin d’apprendre des stratégies optimales de dialogue. De plus, elle vise à concevoir et à évaluer des systèmes de gestion de dialogue ou d’étudier plus en détails la nature des conversations. Par ailleurs, peu de modèles de simulation de dialogues existants ont été jugé bons. Ce mémoire présente un modèle de Markov caché qui prédit l’action de l’utilisateur dans les systèmes de dialogue étant donné l’action du système précédente. L’apprentissage du modèle a été réalisé selon une approche d’apprentissage non supervisé en utilisant différentes méthodes de la validation croisée. Quant à l’évaluation du modèle, elle a été faite en utilisant différentes métriques. Les résultats de l’évaluation ont été en dessous des attentes mais tout de même satisfaisants par rapport aux travaux antérieurs. Par conséquent, des avenues de recherches futures seront proposées pour surpasser cette problématique. Mots-clés : traitement de la langue naturelle, dialogue oral homme-machine, modèle de Markov caché, apprentissage non supervisé, validation croisée. / Modeling human-machine dialogue is a research area that encompasses several disciplines such as philosophy, computer science, as well as cognitive and social sciences. It aims to replicate the human ability to learn optimal strategies of dialogue. Furthermore, it aims to design and evaluate management systems for dialogue, and to study the nature of the conversations in more detail. Moreover, few simulation models of existing dialogues were considered good. This thesis presents a hidden Markov model that predicts the action of the user in dialogue systems on the basis of the previous system action. The learning model has been realized through an approach to unsupervised learning using different methods of cross validation. As for model evaluation, it has been done using different metrics. The evaluation results were below expectation. Nonetheless, they are satisfactory compared to previous work. Ultimately, avenues for future research are proposed to overcome this problem. Keywords: natural language processing, spoken dialogue human-machine, Hidden Markov Model (HMM), unsupervised learning, cross validation.

Page generated in 0.0982 seconds