• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 89
  • 59
  • 11
  • Tagged with
  • 159
  • 159
  • 79
  • 79
  • 46
  • 31
  • 30
  • 28
  • 26
  • 26
  • 26
  • 24
  • 22
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Reconnaissance de l'écriture manuscrite en-ligne par approche combinant systèmes à vastes marges et modèles de Markov cachés

Ahmad, Abdul Rahim 29 December 2008 (has links) (PDF)
Nos travaux concernent la reconnaissance de l'écriture manuscrite qui est l'un des domaines de prédilection pour la reconnaissance des formes et les algorithmes d'apprentissage. Dans le domaine de l'écriture en-ligne, les applications concernent tous les dispositifs de saisie permettant à un usager de communiquer de façon transparente avec les systèmes d'information. Dans ce cadre, nos travaux apportent une contribution pour proposer une nouvelle architecture de reconnaissance de mots manuscrits sans contrainte de style. Celle-ci se situe dans la famille des approches hybrides locale/globale où le paradigme de la segmentation/reconnaissance va se trouver résolu par la complémentarité d'un système de reconnaissance de type discriminant agissant au niveau caractère et d'un système par approche modèle pour superviser le niveau global. Nos choix se sont portés sur des Séparateurs à Vastes Marges (SVM) pour le classifieur de caractères et sur des algorithmes de programmation dynamique, issus d'une modélisation par Modèles de Markov Cachés (HMM). Cette combinaison SVM/HMM est unique dans le domaine de la reconnaissance de l'écriture manuscrite. Des expérimentations ont été menées, d'abord dans un cadre de reconnaissance de caractères isolés puis sur la base IRONOFF de mots cursifs. Elles ont montré la supériorité des approches SVM par rapport aux solutions à bases de réseaux de neurones à convolutions (Time Delay Neural Network) que nous avions développées précédemment, et leur bon comportement en situation de reconnaissance de mots.
42

Programmation dynamique et traitement d'images sur machines parallèles à mémoire distribuée

Miguet, Serge 17 December 1990 (has links) (PDF)
Nous étudions la mise en œuvre d'algorithmes parallèles sur des ordinateurs a mémoire distribuée. A travers plusieurs exemples issus de la programmation dynamique, de l'algèbre linéaire et du traitement d'images, nous exposons les problèmes lies a la programmation de ces machines: topologie d'interconnexion, stratégie d'allocation des données, équilibrage des calculs et minimisation du volume de communication inter-processeurs. Les exemples étudiés sont pour la plupart des algorithmes séquentiels couteux en temps de calcul et en place mémoire, et pour lesquels il est très intéressant d'avoir une parallélisation efficace. Nous avons choisi des problèmes dont l'implémentation sur des machines a mémoire distribuée n'est pas aisée, essentiellement a cause de la grande interdépendance entre les différentes taches composant les algorithmes
43

Modélisation du risque de liquidité et méthodes de quantification appliquées au contrôle stochastique séquentiel

Gassiat, Paul 07 December 2011 (has links) (PDF)
Cette thèse est constituée de deux parties pouvant être lues indépendamment. Dans la première partie on s'intéresse à la modélisation mathématique du risque de liquidité. L'aspect étudié ici est la contrainte sur les dates des transactions, c'est-à-dire que contrairement aux modèles classiques où les investisseurs peuvent échanger les actifs en continu, on suppose que les transactions sont uniquement possibles à des dates aléatoires discrètes. On utilise alors des techniques de contrôle optimal (programmation dynamique, équations d'Hamilton-Jacobi-Bellman) pour identifier les fonctions valeur et les stratégies d'investissement optimales sous ces contraintes. Le premier chapitre étudie un problème de maximisation d'utilité en horizon fini, dans un cadre inspiré des marchés de l'énergie. Dans le deuxième chapitre on considère un marché illiquide à changements de régime, et enfin dans le troisième chapitre on étudie un marché où l'agent a la possibilité d'investir à la fois dans un actif liquide et un actif illiquide, ces derniers étant corrélés. Dans la deuxième partie on présente des méthodes probabilistes de quantification pour résoudre numériquement un problème de switching optimal. On considère d'abord une approximation en temps discret du problème et on prouve un taux de convergence. Ensuite on propose deux méthodes numériques de quantification : une approche markovienne où on quantifie la loi normale dans le schéma d'Euler, et dans le cas où la diffusion n'est pas contrôlée, une approche de quantification marginale inspirée de méthodes numériques pour le problème d'arrêt optimal.
44

Optimisation d'un portfolio GNL, par l'approche de programmation stochastique

Cen, Zhihao 22 November 2011 (has links) (PDF)
Le travail présenté dans cette thèse est motivé par le problème de gestion de transport de gaz naturel liquéfié (GNL) par cargo proposé par Total. Le gestion de portefeuille doit satisfaire toute les contraintes et faire arbitrage entre les différents marchés. Donc, il traduit mathématiquement un problème d'optimisation stochastique, dynamique et en nombre entiers. Cette thèse se compose de quatre parties: 1 Nous introduisons une méthode numérique pour résoudre le problème de relaxation continue. Nous nous appuyons sur la méthode de quantification pour discrétiser le processus et nous utilisons l'algorithme de programmation dynamique duale stochastique. Nous montrons la convergence de cette méthode numérique et donnons une analyse d'erreur sur la discrétisation par quantification. Des tests numériques sur le marché énergie sont fournis. 2 Nous étudions l'optimisation sous risque inverse en utilisant la "conditional value at risk (CVaR)" dans le critère. Nous montrons que notre algorithme est bien adapté pour cette formulation. De plus, nous utilisons la technique de changement de probabilité dans la programmation stochastique pour améliorer la simulation d'évènements rares. Des tests numériques similaire dans le cas risque neutre sont donnés en guise comparaison. 3 Nous étudions la sensibilité de la valeur de portefeuille par rapport aux divers paramètres dans le modèle de prix sur le marché. Nous proposons une méthode numérique pour calculer les valeurs de sensibilité qui est basée sur le théorème de Danskin. On fournit la convergence de valeur de sensibilité du problème discrétisé vers celui de problème continu. On donne également des tests de comparaison avec d'autres méthodes. 4 Enfin, nous nous concentrons sur le problème stochastique en nombre entier. La méthode de coupe intégralité est utilisée pour le problème en nombre entier. Nous montrons qu'il n'est possible de converger vers la solution entière à cause de non convexité et discontinuité de la fonction valeur. Nous appliquons une méthode heuristique et proposons des améliorations basées sur la méthode de coupe précédent. Des tests numérique sont donnés.
45

Apprentissage par renforcement hiérarchique et factorisé

Kozlova, Olga 07 June 2010 (has links) (PDF)
Cette thèse a été réalisée dans un contexte de simulation industrielle qui s'intéresse aux problèmes de la modélisation du comportement humain dans les simulateurs d'entraînement militaire ou de sécurité civile. Nous avons abordé cette problématique sous l'angle de l'apprentissage et de la planification dans l'incertain, en modélisant les problèmes que nous traitons comme des problèmes stochastiques de grande taille dans le cadre des Processus de Décision Markoviens (MDP). Les MDP factorisés (FMDP) sont un cadre standard de représentation des problèmes séquentiels dans l'incertain, où l'état du système est décomposé en un ensemble de variables aléatoires. L'apprentissage par renforcement factorisé (FRL) est une approche d'apprentissage indirecte dans les FMDP où les fonctions de transition et de récompense sont inconnues a priori et doivent être apprises sous une forme factorisée. Par ailleurs, dans les problèmes où certaines combinaisons de variables n'existent pas, la représentation factorisée n'empêche pas la représentation de ces états que nous appelons impossibles. Dans la première contribution de cette thèse, nous montrons comment modéliser ce type de problèmes de manière théoriquement bien fondée. De plus, nous proposons une heuristique qui considère chaque état comme impossible tant qu'il n'a pas été visité. Nous en dérivons un algorithme dont les performances sont démontrées sur des problèmes jouet classiques dans la littérature, MAZE6 et BLOCKS WORLD, en comparaison avec l'approche standard. Pour traiter les MDP de grande taille, les MDP hiérarchiques (HMDP) sont aussi basés sur l'idée de la factorisation mais portent cette idée à un niveau supérieur. D'une factorisation d'état des FMDP, les HMDP passent à une factorisation de tâche, où un ensemble de situations similaires (définies par leurs buts) est représenté par un ensemble de sous-tâches partiellement définies. Autrement dit, il est possible de simplifier le problème en le décomposant en sous-problèmes plus petits et donc plus faciles à résoudre individuellement, mais aussi de réutiliser les sous-tâches afin d'accélérer la recherche de la solution globale. Le formalisme des options qui inclut des actions abstraites à durée étendue, permet de modéliser efficacement ce type d'architecture. La deuxième contribution de cette thèse est la proposition de TeXDYNA, un algorithme pour la résolution de MDP de grande taille dont la structure est inconnue. TeXDYNA combine les techniques d'abstraction hiérarchique de l'apprentissage par renforcement hiérarchique (HRL) et les techniques de factorisation de FRL pour décomposer hiérarchiquement le FMDP sur la base de la découverte automatique des sous-tâches directement à partir de la structure du problème qui est elle même apprise en interaction avec l'environnement. Nous évaluons TeXDYNA sur deux benchmarks, à savoir les problèmes TAXI et LIGHT BOX, et nous montrons que combiner l'abstraction d'information contextuelle dans le cadre des FMDP et la construction d'une hiérarchie dans le cadre des HMDP permet une compression très efficace des structures à apprendre, des calculs plus rapides et une meilleure vitesse de convergence. Finalement, nous estimons le potentiel et les limitations de TeXDYNA sur un problème jouet plus représentatif du domaine de la simulation industrielle.
46

Des spectres MS/MS à l'identification des protéines - Interprétation des données issues de l'analyse d'un mélange de protéines d'un organisme non séquencé

Cliquet, Freddy 27 June 2011 (has links) (PDF)
La spectrométrie de masse est une technique utilisée en protéomique pour identifier des protéines inconnues dans un échantillon. Le spectromètre mesure la masse de fragments de la protéine et fournit ainsi des spectres expérimentaux qui sont des représentations, sous forme de séries de pics, de la présence de ces différents fragments. En étudiant ces spectres, nous espérons pouvoir identifier la protéine d'origine en la retrouvant dans une banque. L'objectif de cette thèse est de proposer de nouvelles méthodes permettant d'étudier ces spectres. Cependant, ces méthodes doivent fonctionner sur des organismes non séquencés. Dans ce cas particulier, nous ne retrouverons pas exactement ces protéines dans la banque, mais uniquement des protéines qui y ressemblent. Nous proposons tout d'abord un nouvel algorithme dit de comparaison de spectres : PacketSpectralAlignment. Cet algorithme permet de comparer des spectres expérimentaux à des spectres créés à partir des données contenues dans la banque, et ce, même en présence de modifications. Cette comparaison permet l'association de chacun des spectres à un peptide de cette banque. Ensuite, nous détaillerons différents prétraitements et filtrages permettant d'améliorer l'exploitation de notre nouvel algorithme. Tous ces éléments sont intégrés dans une plate-forme intitulé SIFpackets. Enfin, nous validons les résultats de PacketSpectralAlignment ainsi que de SIFpackets sur différents jeux de données réelles.
47

Contrôle stochastique par quantification et applications à la finance

Illand, Camille 18 December 2012 (has links) (PDF)
Cette thèse est constituée de trois parties pouvant être lues indépendamment. Dans la première partie, on s'intéresse à la résolution de problème de contrôle stochastique par des méthodes de quantification. La quantification consiste à trouver la meilleure approximation d'une loi de probabilité continue par une loi de probabilité discrète avec un nombre donné N de points supportant cette loi. Nous allons expliciter un cadre de programmation dynamique " générique " qui permet de résoudre de nombreux problèmes de contrôle stochastique comme les problèmes de temps d'arrêt optimal, de maximisation d'utilité, d'équations différentielles stochastiques rétrogrades, de filtrage... Dans ce cadre, nous donnons trois schémas de discrétisation en espace associée à la quantification d'une chaîne de Markov. Dans la deuxième partie, nous présentons un schéma numérique pour les équations différentielles stochastiques rétrogrades doublement réfléchies. Nous nous plaçons dans un cadre général qui contient des sauts et des processus progressifs dépendant de la trajectoire. On propose une approximation du type schéma d'Euler. Nous prouvons la convergence du schéma pour les équations différentielles stochastiques rétrogrades quand le nombre de pas de temps n tend vers l'infini. Nous donnons aussi la vitesse de convergence pour les game options. Dans la troisième partie, on s'intéresse à la réplication des dérivés sur la variance réalisée. On propose une couverture robuste au modèle de volatilité constituée de positions dynamiques sur des options européennes. On étend ensuite cette méthodologie aux options sur fond et aux processus à saut.
48

De nouvelles méthodes pour l'alignement des séquences biologiques

Gîrdea, Marta 10 December 2010 (has links) (PDF)
L'alignement de séquences biologiques est une technique fondamentale en bioinformatique, et consiste à identifier des séries de caractères similaires (conservés) qui apparaissent dans le même ordre dans les deux séquences, et à inférer un ensemble de modifications (substitutions, insertions et suppressions) impliquées dans la transformation d'une séquence en l'autre. Cette technique permet de déduire, sur la base de la similarité de séquence, si deux ou plusieurs séquences biologiques sont potentiellement homologues, donc si elles partagent un ancêtre commun, permettant ainsi de mieux comprendre l'évolution des séquences. Cette thèse aborde les problèmes de comparaison de séquences dans deux cadres différents: la détection d'homologies et le séquençage à haut débit. L'objectif de ce travail est de développer des méthodes d'alignement qui peuvent apporter des solutions aux deux problèmes suivants: i) la détection d'homologies cachées entre des protéines par comparaison de séquences protéiques, lorsque la source de leur divergence sont les mutations qui changent le cadre de lecture, et ii) le mapping de reads SOLiD (séquences de di-nucléotides chevauchantes codés par des couleurs) sur un génome de référence. Dans les deux cas, la même idée générale est appliquée: comparer implicitement les séquences d'ADN pour la détection de changements qui se produisent à ce niveau, en manipulant, en pratique, d'autres représentations (séquences de protéines, séquences de codes di-nucléotides) qui fournissent des informations supplémentaires et qui aident à améliorer la recherche de similarités. Le but est de concevoir et d'appliquer des méthodes exactes et heuristiques d'alignement, ainsi que des systemes de scores, adaptés à ces scénarios.
49

Optimisation des ressources de réseaux hétérogènes avec coeur de réseau MPLS

Rachdi, Mohamed Anouar 03 May 2007 (has links) (PDF)
La qualité de service (QoS), liée au partage des ressources, prend tout son sens dans le cadre des réseaux multimédias. L'intégration de celle-ci dans les protocoles de routage, nécessite la prise en compte des phénomènes de congestion. Cela a favorisé l'apparition du protocole MPLS (Multi Protocol Label Switching). Cette nouvelle technologie, grâce à son routage par LSP (Label Swithed Path), permet une gestion plus fine des ressources disponibles dans le réseau. Nous traitons en première partie de ce travail le problème du routage des LSPs dans les réseaux IP/MPLS. Nous en formulons une modélisation originale qui tient compte de la QoS. Nous proposons aussi une heuristique de résolution (ILSP-OLS-ACO) qui gère un grand nombre de contraintes opérationnelles, tels que la bande passante, les contraintes d'affinités ou de sécurité sur les LSPs. Celle-ci fournit des solutions quasi-optimales tout en permettant le passage à l'échelle (grands réseaux, milliers de LSPs). La deuxième partie de notre travail concerne la conception optimale de topologie d'accès. L'originalité de l'approche réside dans le fait de prendre en compte le trafic générés par les clients ainsi que les coûts des équipements. Nous élaborons une modélisation basée sur la programmation linéaire en nombres entiers. Nous proposons pour la résoudre une méthode exacte basée sur des techniques de « Branch and Cut ». Nous proposons aussi une heuristique combinant une technique de « clustering » et une technique de recherche locale, qui permet d'obtenir très rapidement des solutions quasi-optimales.
50

Segmentation/classification de processus. Application a l'analyse de donnees de microarrays CGH.

Picard, Franck 16 November 2005 (has links) (PDF)
Dans cette thèse nous proposons un nouveau modèle statistique pour l'analyse des problèmes de segmentation/classification dont l'objectif <br /> est de partitionner des données en zones homogènes, et de regrouper ces zones en un nombre fini de classes. Les problèmes de segmentation/classification sont traditionnellement étudiés à l'aide <br /> des modèles de chaînes de Markov cachées. Nous proposons un modèle alternatif qui combine un modèle de segmentation et un modèle de mélange.<br /> <br /> Nous construisons notre modèle dans le cas gaussien et nous proposons une généralisation à des variables discrètes dépendantes. Les paramètres de ce modèle sont estimés par maximum de vraisemblance à l'aide d'un algorithme hybride fondé sur la programmation dynamique et sur l'algorithme EM. Nous abordons un nouveau problème de sélection de modèle qui est la sélection simultanée du nombre de groupes et du nombre de segments et proposons une heuristique pour ce choix. <br /> <br /> Notre modèle est appliqué à l'analyse de données issues d'une nouvelle technologie, les microarrays CGH (Comparative Genomic Hybridization). Cette technique permet de compter le nombre de milliers de gènes le long du génome en une seule expérience. L'application de notre méthode à ces données permet de localiser des zones délétées ou amplifiées le long des chromosomes. Nous proposons également une application à l'analyse des séquences d'ADN pour l'identification de régions homogènes en terme de composition en nucléotides.

Page generated in 0.1076 seconds