• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 682
  • 323
  • 51
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1057
  • 348
  • 219
  • 209
  • 204
  • 167
  • 145
  • 144
  • 116
  • 101
  • 91
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Analyse des modèles particulaires de Feynman-Kac et application à la résolution de problèmes inverses en électromagnétisme

Giraud, François 29 May 2013 (has links)
Dans une première partie théorique, nous nous penchons sur une analyse rigoureuse des performances de l'algorithme Sequential Monte Carlo (SMC) conduisant à des résultats de type bornes L^p et inégalités de concentration. Nous abordons notamment le cas particulier des SMC associés à des schémas de température, et analysons sur ce sujet un processus à schéma adaptatif.Dans une seconde partie appliquée, nous illustrons son utilisation par la résolution de problèmes inverses concrets en électromagnétisme. Le plus important d'entre eux consiste à estimer les propriétés radioélectriques de matériaux recouvrant un objet de géométrie connue, et cela à partir de mesures de champs rétrodiffusés. Nous montrons comment l'algorithme SMC, couplé à des calculs analytiques, permet une inversion bayésienne, et fournit des estimées robustes enrichies d'estimations des incertitudes. / Sequential and Quantum Monte Carlo methods, as well as genetic type search algorithms, can be interpreted as a mean field and interacting particle approximation of Feynman-Kac models in distribution spaces. The performance of these population Monte Carlo algorithms is strongly related to the stability properties of nonlinear Feynman-Kac semigroups. In a first theoretical part, we analyze these models in terms of Dobrushin ergodic coefficients of the reference Markov transitions and the oscillations of the potential functions. Sufficient conditions for uniform concentration inequalities w.r.t. time are expressed explicitly in terms of these two quantities. We provide an original perturbation analysis that applies to annealed and adaptive FK models, yielding what seems to be the first results of this kind for these type of models. Special attention is devoted to the particular case of Boltzmann-Gibbs measures' sampling. In this context, we design an explicit way of tuning the number of Markov Chain Monte Carlo iterations with temperature schedule. We also propose and analyze an alternative interacting particle method based on an adaptive strategy to define the temperature increments. In a second, applied part, we illustrate the use of these SMC algorithms in the field of inverse problems. Mainly, the following electromagnetism (EM) inverse problem is addressed. It consists in estimating local radioelectric properties of materials recovering an object from global EM scattering measurements, at various incidences and wave frequencies. This large scale ill-posed inverse problem is explored by an intensive exploitation of an efficient 2D Maxwell solver, distributed on high performance computing machines. Applied to a large training data set, a statistical analysis reduces the problem to a simpler probabilistic metamodel, on which Bayesian inference can be performed. Considering the radioelectric properties as a hidden dynamic stochastic process, that evolves in function of the frequency, it is shown how the Sequential Monte Carlo methods can take benefit of the structure and provide local EM property estimates.
272

Métaheuristiques pour l'optimisation topologique : application à la conception de dispositifs électromagnétiques / Metaheuristics for topology optimization : application to the design of electromagnetic devices

Denies, Jonathan 10 September 2013 (has links)
L'optimisation topologique est une méthode de conception qui permet de définir de manière autonome la topologie, les formes et les dimensions d'un dispositif en vue de répondre de manière optimale à des critères de design. Initialement réservée au dimensionnement de pièces mécaniques, elle s'oriente aujourd’hui vers la conception de dispositifs plus complexes comme ceux rencontrés dans le domaine de l'électromécanique. C'est dans ce cadre que se situe notre travail. Un outil d'optimisation topologique étant formé de l'association d'un algorithme d'optimisation et d'un formalisme de distribution de matière, nous avons dans une première étape comparé différents couplages d'algorithmes métaheuristiques et de formalismes de distribution de matière en vue de choisir le couple qui semble le mieux adapté au problème traité. Cette comparaison nous a conduits à choisir comme outil d'optimisation l'association d'un algorithme génétique et d'une distribution de matière par cellules de Voronoï. Nous avons ensuite examiné comment améliorer les capacités d'exploration et d'exploitation de cet outil. Nous avons, à cet effet, étudié les aspects liés à la gestion de la taille de la population et à l'adaptation des mécanismes de reproduction au caractère graphique du problème. A l'issue de cette deuxième étape, nous avons finalisé un outil d'optimisation que nous avons testé sur des cas d'étude dont la complexité se rapproche de celle rencontrée au niveau industriel. Nous avons ainsi montré le potentiel de notre outil d'optimisation au niveau de la conception dans le cadre de l'électromécanique. / Topology optimization is a method of conception which is able to define the topology, the form and the dimensions of a device with the aim of responding optimally to given design criteria. Initially reserved to the sizing of mechanics parts, this method is directed today towards the conception of more complexes devices as those encountered in applied electromagnetic. It is in this context that our work was performed. A topology optimization tool is made of the combination of an optimization algorithm and a material distribution formalism. In a first step, we compared different couplings of metaheuristic algorithms and material distribution formalisms. This comparison led us to choose as optimization tool for the problem under study, the combination of a genetic algorithm and a distribution of material by Voronoi cells. In a second step, we discussed how to improve the exploration and exploitation capabilities of this tool. We have, for this purpose, studied aspects related to the management of the size of the population and to the adaptation of the mechanisms of reproduction to the graphical nature of the problem. After this second step, we builded our optimization tool that we tested on study cases whose complexity is similar to that encountered at industrial showing its potential of to design electromechanical devices.
273

Robust routing optimization in resilient networks : Polyhedral model and complexity issues / Optimisation robuste du routage dans les réseaux résilients : Modèle polyédrique et problèmes de complexité

Zotkiewicz, Mateusz 04 January 2011 (has links)
Dans les grands réseaux de transport, certains éléments du réseau peuvent être responsables du traitement d’importants volumes de trafic. Cela rend ces réseaux vulnérables aux pannes telles que les coupures de câbles. Des mécanismes appropriés pour le recouvrement du trafic doivent être mis en oeuvre pour éviter les ruptures de service. Une des meilleures techniques pour protéger les réseaux de transport consiste à prévoir des mécanismes de restauration au niveau de la couche transport elle-même afin que chaque opérateur de transport puisse sécuriser son propre réseau et offrir un service de transport fiable aux autres acteurs tels que les opérateurs IP. D’autres mécanismes de protection pourront alors être déployés aux niveaux supérieurs sans interférences avec la restauration au niveau transport. Outre les pannes pouvant touchers ses composantes, un réseau doit aussi faire face à l’incertitude de la matrice de trafic qu’on chercher à acheminer dans le réseau. Cette incertitude est une conséquence de la multiplication des applications et services faisant appel au réseau. La mobilité des usagers ainsi que les pannes touchant le réseau contribuent également à cette incertitude. La thèse se découpe donc en deux parties. Dans la première partie, nous nous intéressons à la complexité des différents mécanismes de sécurisation des réseaux. Dans la seconde partie, nous nous intéressons à l’incertitude de la matrice de trafic et notamment au modèle polyédrique / In the thesis robust routing design problems in resilient networks are considered. In the first part computational complexity of such problems are discussed. The following cases are considered: - path protection and path restoration - failure-dependent and failure-independent restoration - cases with and without stub-release - single-link failures and multiple-link failures (shared risk link group) - non-bifurcated (unsplittable) flows and bifurcated flows For each of the related optimization cases a mixed-integer (in the non-bifurcated cases) or linear programming formulation (in all bifurcated cases) is presented, and their computational complexity is investigated. For the NP-hard cases original NP-hardness proofs are provided, while for the polynomial cases compact linear programming formulations (which prove the polynomiality in the question) are discussed. Moreover, pricing problems related to each of the considered NP-hard problems are discussed. The second part of the thesis deals with various routing strategies in networks where the uncertainty issues are modeled using the polyhedral model. In such networks two extrema are possible. The simplest in terms of implementation, and simultaneously the least effective strategy, is the robust stable routing. On the other hand, the most effective strategy, i.e., the dynamic routing, is virtually impossible to implement in real world networks. Therefore, the major aim of this part of the thesis is to present novel routing strategies that merge the simplicity of the robust stable routing with the efficiency of the dynamic routing
274

Logique floue et algorithmes génétiques pour le pré-traitement de données de biopuces et la sélection de gènes

Bonilla Huerta, Edmundo 13 November 2008 (has links) (PDF)
Dans le domaine de la biologie moléculaire, les technologies d'analyse d'expression génique comme les biopuces suscitent un intérêt très grand. Une des applications de ces technologies est le diagnostic et la classification de différents types de tumeurs. Une des particularités des données issues des biopuces est qu'elles sont décrites par un très grand nombre d'attributs (gènes) alors que peu d'échantillons analysés sont disponibles. Cela empêche la compréhension des données et réduit de manière considérable la performance des algorithmes de classification. Dans cette thèse, nous proposons des méthodes innovantes pour réduire la taille initiale des données et pour sélectionner des ensembles de gènes pertinents pour une classification supervisée. Nous proposons tout d'abord une méthode de pré-traitement des données et de réduction de dimension basée sur la logique floue. Le problème de la sélection d'attributs est ensuite traité par deux types d'approche. Dans la première, nous proposons une méthode enveloppe qui grâce à une double exploration génétique sélectionne un ensemble de gènes pertinents pour un classifieur SVM. Dans la deuxième, nous proposons une méthode intégrée où les informations fournies par un classifieur linéaire (ADL) guident le processus de recherche vers un sous-ensemble de petite taille et performant pour la classification. Les différentes expérimentations que nous avons menées montrent de très bonnes performances, surtout pour la méthode intégrée.
275

Algorithmes métaheuristiques hybrides pour la sélection de gènes et la classification de données de biopuces

Hernandez Hernandez, José Crispin 14 November 2008 (has links) (PDF)
Les biopuces permettent de mesurer simultanément l'activité d'un grand nombre de gènes au sein d'échantillons biologiques et de réaliser un diagnostic (reconnaissance tissu sain/tissu cancéreux ou distinction entre différents types de cancer) à partir de ces données. Pour cette tâche de classification, on dispose d'un faible nombre d'échantillons alors que chaque échantillon est décrit par un très grand nombre de gènes. Dans cette thèse, nous nous intéressons à la sélection de gènes qui permet de proposer un sous-ensemble de gènes pertinents afin de construire un classifieur prédisant le type de tumeur qui caractérise un échantillon cellulaire. Le problème de la sélection de gènes est un problème très difficile et les algorithmes métaheuristiques à base de voisinage (méthodes de recherche locale) et à base de populations (algorithmes génétiques et algorithmes mémétiques) semblent bien appropriés pour traiter ce problème. Dans cette thèse, nous proposons plusieurs méthodes de sélection dites intégrées, combinant des algorithmes métaheuristiques avec un séparateur à vaste marge linéaire (SVM). Dans ces algorithmes, la qualité d'un sous-ensemble de gènes sélectionnés est évaluée grâce au classifieur SVM. De plus, nos algorithmes exploitent l'information de pertinence fournie par le classifieur SVM sur les différents gènes pour guider les mécanismes de recherche locale ou pour proposer des opérateurs génétiques spécialisés. Des expérimentations ont été réalisées sur les différents jeux de données disponibles dans la littérature et nos méthodes se révèlent très compétitives par rapport aux travaux existants.
276

Algorithmes à front d'onde et accès transparent aux données

Clauss, Pierre-Nicolas 05 November 2009 (has links) (PDF)
Cette thèse introduit deux outils pour l'accès performant aux données d'un algorithme à front d'onde dans un contexte d'exécution out-of-core. Ces algorithmes sont facilement parallélisables en utilisant des techniques de macro-pipelining, qui permettent un recouvrement des calculs et des communications. Le premier outil part du constat que les performances des opérations de lecture/écriture dans une telle situation sont désastreuses: les données sont éclatées sur disque et leur rapatriement en mémoire est long et coûteux. Le nouvel agencement de données sur disque proposé permet de résoudre ces problèmes en accédant aux données uniquement de manière contiguë. Si ce premier outil décrit comment accéder aux données, le deuxième est un modèle de synchronisation qui décrit quand y accéder. En effet, l'exécution parallèle et concurrente des algorithmes à front d'onde nécessite un contrôle strict des temps d'accès et des temps d'attente. Le modèle présenté dans cette thèse remplit ce rôle, tout en donnant des garanties de propriétés intéressantes pour les applications itératives: verrouillage pro-actif, évolution sans interblocages, progression homogène des tâches. L'utilisation de ces deux outils a été intensivement testée sur un benchmark de référence et expérimentée sur des machines de la plate-forme Grid'5000.
277

Algorithmes d'approximation pour l'optimisation en ligne d'ordonnancements et de structures de communications.

Thibault, Nicolas 24 November 2006 (has links) (PDF)
La réservation de ressources dans un réseau de communication est un domaine d'application très vaste, qui implique des problèmes algorithmiques nombreux et variés. La modélisation d'un réseau sous la forme d'un graphe permet, indépendamment de sa nature physique, de développer des algorithmes pour déterminer quels sont les noeuds et/ou les liens du réseau qui doivent être réservés. Il s'agit de gérer au mieux l'attribution de ces ressources pour les membres qui inter-agissent via le réseau. Pour la résolution de problèmes liés à la réservation de ressources au niveau d'un lien particulier, c'est la modélisation sous la forme d'un ordonnancement qui est alors particulièrement adaptée. Dans ce type de problèmes, il n'est pas toujours possible de connaître à l'avance toutes les données à traiter. En effet, les demandes de membres amenés à communiquer via le réseau ainsi que les demandes de réservation au niveau des liens arrivent en pratique au fils de l'eau. Pour prendre en compte cette difficulté, nous nous plaçons dans le contexte de l'algorithmique on-line (en ligne). Les données du problème à traiter ne sont donc pas connues dès le départ, mais révélées au fur et à mesure, sans aucune connaissance du futur. Pour chacun des problèmes on-lines traités, nous proposons des algorithmes que nous évaluons analytiquement, en fonction d'un (ou parfois plusieurs) critère(s) de performance.
278

Représentations dynamiques de graphes

Crespelle, Christophe 28 September 2007 (has links) (PDF)
Ce travail de thèse traite du maintien dynamique de représentations géométriques de graphes. Le manuscrit met en avant des connexions fortes entre trois types de représentation de graphes : les décompositions de graphes, les modèles géométriques et les représentations arborescentes à degrés de liberté (PQ-arbres, PC-arbres et autres structures du même type). De nouvelles relations entre ces objets sont mises en évidence et d'autres déjà connues sont approfondies. Notamment, il est établi une équivalence mathématique et algorithmique entre la décomposition modulaire des graphes d'intervalles et le PQ-arbre de leurs cliques maximales.<br /><br />Les connexions entre les trois types de représentation précités sont exploitées pour la conception d'algorithmes de reconnaissance entièrement dynamiques pour les cographes orientés, les graphes de permutation et les graphes d'intervalles. Pour les cographes orientés, l'algorithme présenté est de complexité optimale, il traite les modifications de sommet en temps O(d), où d est le degré du sommet en question, et les modifications d'arête en temps constant. Les algorithmes pour les graphes de permutation et les graphes d'intervalles ont la même complexité : les modifications d'arête et de sommet sont traitées en temps O(n), où n est le nombre de sommets du graphe. Une des contributions du mémoire est de mettre en lumière des similarités très fortes entre les opérations d'ajout d'un sommet dans un graphe de permutation et dans un graphe d'intervalles. <br />L'approche mise en oeuvre dans ce mémoire est assez générale pour laisser entrevoir les mêmes possibilités algorithmiques pour d'autres classes de graphes définies géométriquement.
279

Modèles de séries chronologiques Bilinéaires : Estimations, Algorithmes et Applications

Bouzaâchane, Khadija 16 December 2006 (has links) (PDF)
Plusieurs travaux sur l'estimation des paramètres de certains modèles bilinéaires ont été réalisé avec quelques applications et simulations.<br />Notre objectif dans cette thèse était alors, d'édifier un nouvel algorithme d'estimation des paramètres de ces modèles, et leur utilisation dans la modélisation des données issues de phénomènes réels.<br />Notre avons développé notre nouvelle technique d'estimation en se basant sur la méthode du maximum de vraisemblance et l'algorithme du filtre de Kalman, ce dernier requiert une représentation en espace d'état de ces modèles. nous avons pour cela utilisé la représentation affine en état polynomiale en entrée introduite par Guégan et la représentation de Hamilton.<br />Pour exhiber la bonne performance de notre approche nous avons généré plusieurs simulations.<br />Notre algorithme d'estimation a été implémenté dans un outil logiciel, que nous avons conçu au profit de certains modèles bilinéaires particuliers.
280

Approche hybride - lexicale et thématique - pour la modélisation, la détection et l'exploitation des fonctions lexicales en vue de l'analyse sémantique de texte

Schwab, Didier 07 December 2005 (has links) (PDF)
Utilisée à la fois pour l'apprentissage et l'exploitation des vecteurs conceptuels, l'analyse sémantique de texte est centrale à nos recherches. L'amélioration qualitative du processus d'analyse entraîne celle des vecteurs. En retour, cette meilleure pertinence a un effet positif sur l'analyse. Parmi les différentes voies à explorer pour obtenir ce cercle vertueux, l'une des pistes les plus intéressantes semble être la découverte puis l'exploitation des relations lexicales entre les mots du texte. Ces relations, parmi lesquelles la synonymie, l'antonymie, l'hyperonymie, la bonification ou l'intensification, sont modélisables sous la forme de fonctions lexicales. Énoncées essentiellement dans un cadre de production par Igor Mel'čuk, nous cherchons, dans cette thèse, à les adapter à un cadre d'analyse. Nous introduisons ici deux classes de Fonctions Lexicales d'Analyse. Les premières, les FLA de construction permettent de fabriquer un vecteur conceptuel à partir des informations lexicales disponibles. Les secondes, les FLA d'évaluation permettent de mesurer la pertinence d'une relation lexicale entre plusieurs termes. Ces dernières sont modélisables grâce à des informations thématiques (vecteurs conceptuels) et/ou grâce à des informations lexicales (relations symboliques entre les objets lexicaux).<br /><br />Les informations lexicales sont issues de la base lexicale sémantique dont nous introduisons l'architecture à trois niveaux d'objets lexicaux (item lexical, acception, lexie). Elles sont matérialisées sous la forme de Relations Lexicales Valuées qui traduisent la probabilité d'existence de la relation entre les objets. L'utilité de ces relations a pu être mis en évidence pour l'analyse sémantique grâce à l'utilisation du paradigme des algorithmes à fourmis. Le modèle introduit dans cette thèse, utilise à la fois les vecteurs conceptuels et les relations du réseau lexical pour résoudre une partie des problèmes posés lors d'une analyse sémantique.<br /><br />Tous nos outils ont été implémentés en Java. Ils reposent sur Blexisma (Base LEXIcale Sémantique Multi-Agent) une architecture multi-agent élaborée au cours de cette thèse dont l'objectif est d'intégrer tout élément lui permettant de créer, d'améliorer et d'exploiter une ou plusieurs Bases Lexicales Sémantiques. Les expériences menées ont montré la faisabilité de cette approche, sa pertinence en termes d'amélioration globale de l'analyse et ouvert des perspectives de recherches fort intéressantes.

Page generated in 0.0706 seconds