• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 348
  • 156
  • 40
  • 2
  • 2
  • 1
  • Tagged with
  • 562
  • 275
  • 181
  • 148
  • 143
  • 127
  • 84
  • 76
  • 75
  • 75
  • 72
  • 69
  • 63
  • 61
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

On combinatorial approximation algorithms in geometry / Sur les algorithmes d'approximation combinatoires en géométrie

Jartoux, Bruno 12 September 2018 (has links)
L'analyse des techniques d'approximation est centrale en géométrie algorithmique, pour des raisons pratiques comme théoriques. Dans cette thèse nous traitons de l'échantillonnage des structures géométriques et des algorithmes d'approximation géométriques en optimisation combinatoire. La première partie est consacrée à la combinatoire des hypergraphes. Nous débutons par les problèmes de packing, dont des extensions d'un lemme de Haussler, particulièrement le lemme dit de Shallow packing, pour lequel nous donnons aussi un minorant optimal, conjecturé mais pas établi dans les travaux antérieurs. Puis nous appliquons ledit lemme, avec la méthode de partition polynomiale récemment introduite, à l'étude d'un analogue combinatoire des régions de Macbeath de la géométrie convexe : les M-réseaux, pour lesquels nous unifions les résultats d'existence et majorations existants, et donnons aussi quelques minorants. Nous illustrons leur relation aux epsilon-réseaux, structures incontournables en géométrie combinatoire et algorithmique, notamment en observant que les majorants de Chan et al. (SODA 2012) ou Varadarajan (STOC 2010) pour les epsilon-réseaux (uniformes) découlent directement de nos résultats sur les M-réseaux. La deuxième partie traite des techniques de recherche locale appliquées aux restrictions géométriques de problèmes classiques d'optimisation combinatoire. En dix ans, ces techniques ont produit les premiers schémas d'approximation en temps polynomial pour divers problèmes tels que celui de calculer un plus petit ensemble intersectant pour un ensemble de disques donnés en entrée parmi un ensemble de points donnés en entrée. En fait, il a été montré que pour de nombreux tels problèmes, la recherche locale de rayon Θ (1/epsilon²) donne une (1 + epsilon)-approximation en temps n^{O(1/epsilon²)}. Savoir si l'exposant de n pouvait être ramené à o (1/epsilon²) demeurait une question ouverte. Nous répondons par la négative : la garantie d'approximation de la recherche locale n'est améliorable pour aucun desdits problèmes / The analysis of approximation techniques is a key topic in computational geometry, both for practical and theoretical reasons. In this thesis we discuss sampling tools for geometric structures and geometric approximation algorithms in combinatorial optimization. Part I focuses on the combinatorics of geometric set systems. We start by discussing packing problems in set systems, including extensions of a lemma of Haussler, mainly the so-called shallow packing lemma. For said lemma we also give an optimal lower bound that had been conjectured but not established in previous work on the topic. Then we use this lemma, together with the recently introduced polynomial partitioning technique, to study a combinatorial analogue of the Macbeath regions from convex geometry: Mnets, for which we unify previous existence results and upper bounds, and also give some lower bounds. We highlight their connection with epsilon-nets, staples of computational and combinatorial geometry, for example by observing that the unweighted epsilon-net bound of Chan et al. (SODA 2012) or Varadarajan (STOC 2010) follows directly from our results on Mnets. Part II deals with local-search techniques applied to geometric restrictions of classical combinatorial optimization problems. Over the last ten years such techniques have produced the first polynomial-time approximation schemes for various problems, such as that of computing a minimum-sized hitting set for a collection of input disks from a set of input points. In fact, it was shown that for many of these problems, local search with radius Θ(1/epsilon²) gives a (1 + epsilon)-approximation with running time n^{O(1/epsilon²)}. However the question of whether the exponent of n could be decreased to o(1/epsilon²) was left open. We answer it in the negative: the approximation guarantee of local search cannot be improved for any of these problems. The key ingredient is a new lower bound on locally expanding planar graphs, which is then used to show the impossibility results
92

Combinatoire énumérative et algébrique autour du PASEP / Enumerative and algebraic combinatorics related to the PASEP

Nunge, Arthur 11 December 2018 (has links)
Cette thèse se situe à l'interface de la combinatoire énumérative et algébrique et porte sur l'étude des probabilités du processus d'exclusion partiellement asymétrique (PASEP).Dans un premier temps, nous démontrons bijectivement une conjecture de Novelli-Thibon-Williams concernant l'interprétation combinatoire de coefficients de matrices de transition dans l'algèbre des fonctions symétriques non-commutatives. Plus précisément, ces matrices expriment les coefficients de changement de base des bases complètes et rubans d'une part vers les bases monomiales et fondamentales introduites par Tevlin d'autre part. Les coefficients de ces matrices donnent un raffinement des probabilités du PASEP et sont décrits en utilisant de nouvelles statistiques sur les permutations. La conjecture stipule que ce raffinement peut se formuler via des statistiques déjà connues dans le monde du PASEP. Nous nous intéressons ensuite à une généralisation du PASEP avec deux types de particules dans le modèle : le 2-PASEP. Nous donnons ainsi plusieurs interprétations combinatoires des probabilités de ce modèle. Pour ce faire, nous introduisons une nouvelle famille de chemins généralisant les histoires de Laguerre : les histoires de Laguerre marquées. Nous généralisons ensuite la bijection de Françon-Viennot entre les histoires de Laguerre et les permutations pour définir les permutations partiellement signées qui nous donneront une seconde interprétation combinatoire de ces probabilités. Dans une troisième partie, nous généralisons les travaux de Tevlin afin de définir des bases monomiales et fondamentales dans l'algèbre des compositions segmentées. Afin de décrire les matrices de changement de base entre ces bases et d'autres déjà connues dans cette algèbre, nous définissons une algèbre indexée par les permutations partiellement signées en utilisant les statistiques définies précédemment pour décrire la combinatoire du 2-PASEP. Nous définissons également des q-analogues de ces bases afin de faire le lien avec les probabilités du 2-PASEP en fonction du paramètre q de ce modèle. Enfin, en utilisant le fait que les permutations partiellement signées sont en bijection avec les permutations segmentées, nous nous inspirons des statistiques définies précédemment pour introduire des descentes sur ces objets et ainsi définir une généralisation des polynômes eulériens sur les permutations segmentées. Pour étudier ces polynômes, nous utilisons les outils algébriques développés dans la partie précédente / This thesis comes within the scope of enumerative and algebraic combinatorics and studies the probabilities of the partially asymmetric exclusion process (PASEP).First, we bijectively prove a conjecture of Novelli-Thibon-Williams concerning the combinatorial interpretation of the entries of the transition matrices between some bases of the noncommutative symmetric functions algebra. More precisely, these matrices correspond to the transition matrices of, on the one hand the complete and ribbon bases and on the other hand the monomial and fundamental bases, both introduced by Tevlin. The coefficients of these matrices provide a refinement of the probabilities of the PASEP and are described using new statistics on permutations. This conjecture states that this refinement can also be described using classical statistics of the PASEP. In the second part, we study a generalization of the PASEP using two kinds of particles: the 2-PASEP. Hence, we give several combinatorial interpretations of the probabilities of this model. In order to do so, we define a new family of paths generalizing the Laguerre histories: the marked Laguerre histories. We also generalize the Françon-Viennot bijection between Laguerre histories and permutations to define partially signed permutations giving another combinatorial interpretation of these probabilities. In a third part, we generalize Tevlin's work in order to define a monomial basis and a fundamental basis on the algebra over segmented compositions. In order to describe the transition matrices between these bases and other bases already known in this algebra, we define an algebra indexed by partially signed permutations using the statistics previously defined to describe the combinatorics of the 2-PASEP. We also define some q-analogues of these bases related to the probabilities of the 2-PASEP according to the q parameter of this model. Finally, using the fact that partially signed permutations and segmented permutations are in bijection, we use the statistics defined previously to define descents on these objects and get a generalization of the Eulerian polynomials on segmented permutations. To study these polynomials, we use the algebraic tools introduced in the previous part
93

Approximation et complexité paramétrée de problèmes d’optimisation dans les graphes : partitions et sous-graphes / Approximation and parameterized complexity of graph optimisation problems : partitions and subgraphs

Watrigant, Rémi 02 October 2014 (has links)
La théorie de la NP-complétude nous apprend que pour un certain nombre de problèmes d'optimisation, il est vain d'espérer un algorithme efficace calculant une solution optimale. Partant de ce constat, un moyen pour contourner cet obstacle est de réaliser un compromis sur chacun de ces critères, engendrant deux approches devenues classiques. La première, appelée approximation polynomiale, consiste à développer des algorithmes efficaces et retournant une solution proche d'une solution optimale. La seconde, appelée complexité paramétrée, consiste à développer des algorithmes retournant une solution optimale mais dont l'explosion combinatoire est capturée par un paramètre de l'entrée bien choisi. Cette thèse comporte deux objectifs. Dans un premier temps, nous proposons d'étudier et d'appliquer les méthodes classiques de ces deux domaines afin d'obtenir des résultats positifs et négatifs pour deux problèmes d'optimisation dans les graphes : un problème de partition appelé Sparsest k-Compaction, et un problème de recherche d'un sous-graphe avec une cardinalité fixée appelé Sparsest k-Subgraph. Dans un second temps, nous présentons comment les méthodes de ces deux domaines ont pu se combiner ces dernières années pour donner naissance au principe d'approximation paramétrée. En particulier, nous étudierons les liens entre approximation et algorithmes de noyaux. / The theory of NP-completeness tells us that for many optimization problems, there is no hope for finding an efficient algorithm computing an optimal solution. Based on this, two classical approaches have been developped to deal with these problems. The first one, called polynomial- time approximation, consists in designing efficient algorithms computing a solution that is close to an optimal one. The second one, called param- eterized complexity, consists in designing exact algorithms which com- binatorial explosion is captured by a carefully chosen parameter of the instance. The goal of this thesis is twofold. First, we study and apply classical methods from these two domains in order to obtain positive and negative results for two optimization problems in graphs: a partitioning problem called Sparsest k-Compaction, and a cardinality constraint subgraph problem called Sparsest k-Subgraph. Then, we present how the different methods from these two domains have been combined in recent years in a concept called parameterized approximation. In particular, we study the links between approximation and kernelization algorithms.
94

Une approche combinatoire novatrice fondée sur les matroïdes orientés pour la caractérisation de la morphologie 3D des structures anatomiques / A new combinatorial method based on oriented matroids to characterize the 3D morphology of anatomical structures

Sol, Kevin 05 December 2013 (has links)
Dans cette thèse, nous proposons une approche combinatoire novatrice fondée sur les matroïdes orientés pour l'étude quantitative de la forme de structures anatomiques 3D. Nous nous basons sur des points de repère qui ont été préalablement localisés par des experts sur la structure anatomique étudiée. La nouveauté de cette méthode provient de l'utilisation de matroïdes orientés. Ces outils mathématiques nous permettent de coder la position relative des points de repère de façon purement combinatoire, c'est-à-dire sans utiliser de notions d'angles ou de distances, en associant un signe (0, + ou -) à chaque sous-ensemble de (d+1) points de repère où d est la dimension de l'espace (dans notre cas 2 ou 3). Dans une première partie, nous supposons qu'il existe des contraintes d'ordres sur chaque axe de coordonnée pour les points de repère. Nous obtenons alors une caractérisation (en dimension 2 et 3) des sous-ensembles de points de repère dont le signe associé est constant, quelles que soient les valeurs des coordonnées satisfaisant les contraintes d'ordre. Dans une deuxième partie, nous cherchons à classifier un ensemble de modèles 3D, en les codant au préalable par ces listes de signes. Nous analysons d'abord comment s'appliquent les algorithmes de clustering classiques, puis nous décrivons comment caractériser des classes de façon directe, à l'aide des signes associés à quelques sous-ensembles de points de repère. Dans une troisième partie, nous détaillons les algorithmes et l'implémentation en machine de cette nouvelle méthode de morphométrie afin de pouvoir l'appliquer à des données réelles. Dans la dernière partie, nous appliquons la méthode sur trois bases de données composées chacune de plusieurs dizaines de points de repères relevés sur plusieurs dizaines à plusieurs centaines de structures crâniennes pour des applications en anatomie comparée, en orthodontie et sur des cas cliniques d'enfants présentant des déformations cranio-faciales. / In this thesis, we propose an innovative combinatorial method based on oriented matroids for the quantitative study of the shape of 3D anatomical structures. We rely on landmarks which were previously defined by experts on the studied anatomical structure. The novelty of this method results from the use of oriented matroids. These mathematical tools allow us to encode the relative position of landmarks in a purely combinatorial way, that is without using concepts of angles or distances, by associating a sign (0, + or -) for each subset of (d+1) landmarks where d is the dimension of space (in our case 2 or 3). In the first part, we assume that there exist constraints of orders on each coordinate axis for the landmarks. We obtain a characterization (in dimension 2 and 3) of the subsets of landmarks of which the associated sign is constant, regardless of the values of the coordinates satisfying the constraints of order. In a second part, we try to classify a set of 3D models, encoding in advance by these lists of signs. We first analyze how to apply classic clustering algorithms, and then describe how to characterize the classes directly, using signs associated with some subsets of landmarks. In the third part, we explain the algorithms and the implementation of this new morphometry method in order to apply it to real data. In the last part, we apply the method to three databases each consisting of several dozens of points defined on several dozens to several hundreds of cranial structures for applications in comparative anatomy, in orthodontics and on clinical cases of children with craniofacial deformities.
95

Approximation, complexité paramétrée et stratégies de résolution de problèmes d'affectation multidimensionnelle / Approximability, parameterized complexity and solving strategies of some multidimensional assignment problems

Duvillié, Guillerme 07 October 2016 (has links)
Au cours de la thèse, nous nous sommes intéressés aux problèmes d'empilement de wafers. Ces problèmes apparaissent lors de la fabrication de processeurs en 3 dimensions. Au cours du processus de fabrication, les puces électroniques doivent être empilées les unes sur les autres. Jusqu'à peu, ces dernières, une fois gravées sur des plaques de silicium appelées wafers, étaient découpées, puis triées afin d'écarter les puces défectueuses et enfin assemblées les unes entre elles.Cependant empiler les wafers plutôt que les puces présente de nombreux avantages techniques et financiers. Naturellement, étant impossible d'écarter les puces défectueuses sans découper la plaque de silice, le problème de la superposition d'une puce viable avec une puce défectueuse se pose. Une pile de puces, étant considérées comme défectueuse si elle contient ne serait-ce qu'une puce défectueuse, la superposition non réfléchie des wafers entre eux mènerait à un rendement désastreux.Afin de générer un nombre minimum de piles défectueuses, une "cartographie" de chaque wafer candidat à la superposition est réalisée lors d'une phase de test, permettant de situer les puces défectueuses sur le wafer. Une fois cette cartographie réalisée, l'objectif est de sélectionner les wafers qui seront assemblés ensembles de manière à faire correspondre les défauts de chacun des wafers.Ce problème peut être modélisé à l'aide d'un problème d'affectation multidimensionnelle. Chaque wafer est représenté par un vecteur comportant autant de composantes que de puces sur le wafer qu'il représente. Une composante égale à zéro matérialise une puce défectueuse tandis qu'un un matérialise une puce viable. Chaque lot de wafers est représenté par un lot de vecteurs. Formellement, une instance d'empilement de wafers est représenté par m ensembles de n vecteurs binaires p-dimensionnels. L'objectif est alors de réaliser n m-uplets disjoints contenant exactement un vecteur par ensemble. Ces m-uplets représenteront les piles. Chaque m-uplet peut être représenté par un vecteur binaire p-dimensionnels, chaque composante étant calculée en réalisant le ET binaire des composantes correspondantes des vecteurs qui composent le m-uplet. Autrement dit, une composante du vecteur représentant le m-uplet est égale à un si et seulement si tous les vecteurs ont cette composante égale à un. Et donc une pile de puces est viables si toutes les puces qui la composent sont viables. L'objectif est alors de minimiser le nombre de zéros ou de maximiser le nombre de un.La thèse comporte deux grandes parties. Une partie théorique abordant la complexité des différentes versions du problèmes en fonction de certains paramètres tels que m, n, p ou encore le nombre maximum de zéros par vecteurs. Nous montrons entre autre que ces problèmes peuvent être utilisés pour modéliser des problèmes plus classiques tels que Maximum Clique, Minimum Vertex Cover ou encore k-Dimensional Matching, permettant de prouver un certain nombre de résultats négatifs que ce soit d'un point de vue de la complexité classique, l'approximabilité ou la complexité paramétrée. Nous fournissons également des résultats positifs pour des cas particuliers du problème.Dans un second temps, nous nous intéressons à la résolution pratique du problème en fournissant et comparant un certain nombre de formulations en Programmation Linéaire en Nombres Entiers. Mais nous nous intéressons également aux performances en pratique de certaines heuristiques à garantie de performances détaillées dans la partie théorique. / In this thesis, we focused in the Wafer-to-Wafer integration problems. These problems come from IC manufacturing. During the production of three-dimensional processors, dies have to be superimposed. Until recent, the dies were engraved on a silicon disk called wafer, then were cut, tested and sorted to suppress faulty dies and lastly superimposed one to each other.However superimposing wafers instead of dies presents several technical and financial advantages. Since faulty dies can only be dismissed when cutting the wafer, superimpose two wafers can lead to superimpose a faulty die with a viable one. In this case, the resulting stack of dies is considered as faulty. It follows that a bad assignment between the wafers can lead to a disastrous yield.In order to minimize the number of faulty dies stacks, a "failure map" of each wafer is generated during a test phase. This map gives location of the faulty dies on the wafers. The objective is then to take advantage of this map to define an assignment of the wafers to each other in order to match as many failures as possible.This problem can be modelized with Multidimensional Assignment problems. Each wafer can be seen as a vector with as many dimensions as the number of dies engraved on it. A coordinate set to zero marks a faulty die while a coordinate set to one indicates a viable one. Each seat of wafers is represented by a set of vector. Formally, an instance of a Wafer-to-Wafer integration problem is represented by m sets of n p-dimensional vectors. The objective is then to partition the vectors into n disjoint m-tuples, each tuple containing exactly one vector per set. An m-tuple represents a stack of wafers. Every m-tuple can be represented by a p-dimensional vector. Each coordinate is computed by performing the bitwise AND between the corresponding coordinates of the vectors that compose the m-tuple. In other words, a coordinate of the representative vector is equal to one if and only if this coordinate is equal to one in every vector composing the tuple. It follows that a dies stack is viable if and only if all the dies composing the stack are viable. The objective is then to maximize the overall number of ones of to minimize the overall number of zeros.The first part of the thesis is a theoretical one. We study the complexity of the considered versions of the problem with regards to natural parameters such as m, n, p or the number of zeros per vector. We show that these problems can encode more classical problems such as Maximum Clique, Minimum Vertex Cover or k-Dimensional Matching. This leads to several negative results from computational complexity, approximability or even parameterized complexity point of view. We also provide several positive results for some specific cases of the problem.In a second part, we focus on the practical solving of the problem. We provide and compare several Integer Linear Programming formulations. We also focus on performances of some approximation algorithms that we detailed in the theoretical part.
96

Méthodes combinatoires de reconstruction de réseaux phylogénétiques / Combinatorial Methods for Phylogenetic Network Reconstruction

Gambette, Philippe 30 November 2010 (has links)
Les réseaux phylogénétiques généralisent le modèle de l'arbre pour décrire l'évolution, en permettant à des arêtes entre les branches de l'arbre d'exprimer des échanges de matériel génétique entre espèces coexistantes. De nombreuses approches combinatoires - fondées sur la manipulation d'ensembles finis d'objets mathématiques - ont été conçues pour reconstruire ces réseaux à partir de données extraites de plusieurs arbres de gènes contradictoires. Elles se divisent en plusieurs catégories selon le type de données en entrées (triplets, quadruplets, clades ou bipartitions) et les restrictions de structure sur les réseaux reconstruits. Nous analysons en particulier la structure d'une classe de réseaux restreints, les réseaux de niveau k, et adaptons ce paramètre de niveau au contexte non enraciné. Nous donnons aussi de nouvelles méthodes combinatoires pour reconstruire des réseaux phylogénétiques, à partir de clades - méthode implémentée dans le logiciel Dendroscope - ou de quadruplets. Nous étudions les limites de ces méthodes combinatoires (explosion de complexité, bruit et silence dans les données, ambiguïté des réseaux reconstruits) et la façon de les prendre en compte, en particulier par un pré-traitement des données. Finalement, nous illustrons les résultats de ces méthodes de reconstruction sur des données réelles avant de conclure sur leur utilisation dans une méthodologie globale qui intègre des aspects statistiques. / Phylogenetic networks generalize the tree concept to model Evolution, by allowing edges between branches inside the tree to reflect genetic material exchanges between coexisting species. Lots of combinatorial approaches have been designed to reconstruct networks from data extracted from a set of contradictory gene trees. These approaches can be divided into several categories depending on the kind of input, i.e. triplets, quartets, clusters and splits, and on the kind of structure restrictions they impose on reconstructed networks.We particularly analyze the structure of one class of such restricted networks, namely level-k phylogenetic networks, and adapt this level parameter to the unrooted context. We also give new combinatorial methods to reconstruct phylogenetic networks from clusters - implemented in Dendroscope - or quartets. We study the limits of combinatorial methods (complexity explosion, noise and silence in the data, ambiguity in the reconstucted network), and the way to tackle them, in particular with an appropriate data preprocessing. Finally we illustrate the results of these reconstruction methods on a dataset, and we conclude on how to use them in a global methodology which integrates statistical aspects.
97

Dimensionnement GRWA et protection par segment dans les réseaux optiques WDM

Bouffard, Alexandre January 2005 (has links)
No description available.
98

Analyse combinatoire de données : structures et optimisation / Logical Analysis of Data : Structures and Optimization

Darlay, Julien 19 December 2011 (has links)
Cette thèse porte sur des problèmes d'exploration de données avec le point de vue de la recherche opérationnelle. L'exploration de données consiste en l'apprentissage de nouvelles connaissances à partir d'observations contenues dans une base de données. La nature des problèmes rencontrés dans ce domaine est proche de celle des problèmes de la recherche opérationnelle: grandes instances, objectifs complexes et difficulté algorithmique. L'exploration de données peut aussi se modéliser comme un problème d'optimisation avec un objectif partiellement connu. Cette thèse se divise en deux parties. La première est une introduction à l'exploration de données. Elle présente l'Analyse Combinatoire de Données (ACD), une méthode d'exploration de données issue de l'optimisation discrète. Cette méthode est appliquée à des données médicales originales et une extension aux problèmes d'analyse de temps de survie est proposée. L'analyse de temps de survie consiste à modéliser le temps avant un événement (typiquement un décès ou une rechute). Les heuristiques proposées utilisent des techniques classiques de recherche opérationnelle telles que la programmation linéaire en nombres entiers, la décomposition de problème, des algorithmes gloutons. La seconde partie est plus théorique et s'intéresse à deux problèmes combinatoires rencontrés dans le domaine de l'exploration de données. Le premier est un problème de partitionnement de graphes en sous-graphes denses pour l'apprentissage non supervisé. Nous montrons la complexité algorithmique de ce problème et nous proposons un algorithme polynomial basé sur la programmation dynamique lorsque le graphe est un arbre. Cet algorithme repose sur des résultats de la théorie des couplages. Le second problème est une généralisation des problèmes de couverture par les tests pour la sélection d'attributs. Les lignes d'une matrice sont coloriées en deux couleurs. L'objectif est de trouver un sous-ensemble minimum de colonnes tel que toute paire de lignes avec des couleurs différentes restent distinctes lorsque la matrice est restreinte au sous-ensemble de colonnes. Nous montrons des résultats de complexité ainsi que des bornes serrées sur la taille des solutions optimales pour différentes structures de matrices. / This thesis focuses on some data mining problems with an operations research point of view. Data mining is the process of learning new knowledge from large datasets. The problems in this field are close to the ones encountered in operations research: Large instances, complex objectives and algorithmic difficulty. Moreover, learning knowledge from a dataset can be viewed as a particular optimization problem with a partially known objective function. This thesis is divided into two main parts. The first part starts with an introduction to data mining. Then it presents a specific method from the field of discrete optimization known as Logical Analysis of Data (LAD). In this part, an original medical application and an extension of LAD to survival analysis are presented. Survival analysis is the modeling of time to event (typically death or failure). The proposed heuristics are derived from classical operations research methods such as integer programming, problem decomposition and greedy algorithms. The second part is more theoretical and focuses on two combinatorial problems encountered while solving practical data mining problems. The first one is a problem of graph partition into dense subgraphs for unsupervised learning. We emphasize the algorithmic complexity of this problem, and give a polynomial algorithm based on dynamic programming when the graph is a tree. This algorithm relies on famous combinatorial optimization results in matching theory. The second problem is a generalization of test cover for feature selection. The rows of a binary matrix are bicolored. The objective is to find a minimum subset of columns such that any pair of rows with different colors are still distinct when the matrix is restricted to the subset of columns. We give complexity results and tight bounds on the size of the optimal solutions for various matrix structures.
99

Solving Hard Combinatorial Optimization Problems using Cooperative Parallel Metaheuristics / Utilisation de méta-heuristiques coopératives parallèles pour la résolution de problèmes d'optimisation combinatoire difficiles

Munera Ramirez, Danny 27 September 2016 (has links)
Les Problèmes d’Optimisation Combinatoire (COP) sont largement utilisés pour modéliser et résoudre un grand nombre de problèmes industriels. La résolution de ces problèmes pose un véritable défi en raison de leur inhérente difficulté, la plupart étant NP-difficiles. En effet, les COP sont difficiles à résoudre par des méthodes exactes car la taille de l’espace de recherche à explorer croît de manière exponentielle par rapport à la taille du problème. Les méta-heuristiques sont souvent les méthodes les plus efficaces pour résoudre les problèmes les plus difficiles. Malheureusement, bien des problèmes réels restent hors de portée des meilleures méta-heuristiques. Le parallélisme permet d’améliorer les performances des méta-heuristiques. L’idée de base est d’avoir plusieurs instances d’une méta-heuristique explorant de manière simultanée l’espace de recherche pour accélérer la recherche de solution. Les meilleures techniques font communiquer ces instances pour augmenter la probabilité de trouver une solution. Cependant, la conception d’une méthode parallèle coopérative n’est pas une tâche aisée, et beaucoup de choix cruciaux concernant la communication doivent être résolus. Malheureusement, nous savons qu’il n’existe pas d’unique configuration permettant de résoudre efficacement tous les problèmes. Ceci explique que l’on trouve aujourd’hui des systèmes coopératifs efficaces mais conçus pour un problème spécifique ou bien des systèmes plus génériques mais dont les performances sont en général limitées. Dans cette thèse nous proposons un cadre général pour les méta-heuristiques parallèles coopératives (CPMH). Ce cadre prévoit plusieurs paramètres permettant de contrôler la coopération. CPMH organise les instances de méta-heuristiques en équipes ; chaque équipe vise à intensifier la recherche dans une région particulière de l’espace de recherche. Cela se fait grâce à des communications intra-équipes. Des communications inter-équipes permettent quant a` elles d’assurer la diversification de la recherche. CPMH offre à l’utilisateur la possibilité d’ajuster le compromis entre intensification et diversification. De plus, ce cadre supporte différentes méta-heuristiques et permet aussi l’hybridation de méta-heuristiques. Nous proposons également X10CPMH, une implémentation de CPMH, écrite en langage parallèle X10. Pour valider notre approche, nous abordons deux COP du monde industriel : des variantes difficiles du Problème de Stable Matching (SMP) et le Problème d’Affectation Quadratique (QAP). Nous proposons plusieurs méta-heuristiques originales en version séquentielle et parallèle, y compris un nouvelle méthode basée sur l’optimisation extrémale ainsi qu’un nouvel algorithme hybride en parallèle coopératif pour QAP. Ces algorithmes sont implémentés grâce à X10CPMH. L’évaluation expérimentale montre que les versions avec parallélisme coopératif offrent un très bon passage à l’échelle tout en fournissant des solutions de haute qualité. Sur les variantes difficiles de SMP, notre méthode coopérative offre des facteurs d’accélération super-linéaires. En ce qui concerne QAP, notre méthode hybride en parallèle coopératif fonctionne très bien sur les cas les plus difficiles et permet d’améliorer les meilleures solutions connues de plusieurs instances. / Combinatorial Optimization Problems (COP) are widely used to model and solve real-life problems in many different application domains. These problems represent a real challenge for the research community due to their inherent difficulty, as many of them are NP-hard. COPs are difficult to solve with exact methods due to the exponential growth of the problem’s search space with respect to the size of the problem. Metaheuristics are often the most efficient methods to make the hardest problems tractable. However, some hard and large real-life problems are still out of the scope of even the best metaheuristic algorithms. Parallelism is a straightforward way to improve metaheuristics performance. The basic idea is to perform concurrent explorations of the search space in order to speed up the search process. Currently, the most advanced techniques implement some communication mechanism to exchange information between metaheuristic instances in order to try and increase the probability to find a solution. However, designing an efficient cooperative parallel method is a very complex task, and many issues about communication must be solved. Furthermore, it is known that no unique cooperative configuration may efficiently tackle all problems. This is why there are currently efficient cooperative solutions dedicated to some specific problems or more general cooperative methods but with limited performances in practice. In this thesis we propose a general framework for Cooperative Parallel Metaheuristics (CPMH). This framework includes several parameters to control the cooperation. CPMH organizes the explorers into teams; each team aims at intensifying the search in a particular region of the search space and uses intra-team communication. In addition, inter-team communication is used to ensure search diversification. CPMH allows the user to tune the trade-off between intensification and diversification. However, our framework supports different metaheuristics and metaheuristics hybridization. We also provide X10CPMH, an implementation of our CPMH framework developed in the X10 parallel language. To assess the soundness of our approach we tackle two hard real-life COP: hard variants of the Stable Matching Problem (SMP) and the Quadratic Assignment Problem (QAP). For all problems we propose new sequential and parallel metaheuristics, including a new Extremal Optimization-based method and a new hybrid cooperative parallel algorithm for QAP. All algorithms are implemented thanks to X10CPMH. A complete experimental evaluation shows that the cooperative parallel versions of our methods scale very well, providing high-quality solutions within a limited timeout. On hard and large variants of SMP, our cooperative parallel method reaches super-linear speedups. Regarding QAP, the cooperative parallel hybrid algorithm performs very well on the hardest instances, and improves the best known solutions of several instances.
100

Screening and deconvoluting complex mixtures of catalyst components in reaction development / Identification de nouveaux systèmes catalytiques par criblage et déconvolution de mélanges de catalyseurs potentiels

Wolf, Eléna 02 October 2015 (has links)
Le développement réactionnel est problème multidimensionnel complexe qui, dans un scénario représentatif, implique l’unique convergence de plusieurs paramètres à une réactivité désirée. Le choix incorrect d’un seul paramètre réactionnel tel que le pré-catalyseur, le ligand mais aussi le solvant ou encore l’acide/base peut complètement supprimer la réactivité du système. De ce fait, ce processus requiert souvent de nombreuses expérimentations pour obtenir un premier résultat probant. Pour éviter de tester toutes les combinaisons en parallèle, des approches créatives de criblage ont été développées ces dernières années mais le nombre important de reactions nécessaires à l’exploration de juste trois ou quatre paramètres est toujours un challenge pour les chimistes qui n’ont pas accès au criblage à haut debit. Afin de répondre à cette problèmatique, une stratégie combinatoire réaction-économique pour l’identification d’un lead hit dans une reaction spécifique est proposée. Des mélanges complexes de pré-catalyseurs et de ligands, choisis au préalable, sont testés avec un ou deux autres paramètres de reaction supplémentaires pour identifier de bonnes conditions de réaction dans un nombre minimum de manipulations. La déconvolution iterative permet ensuite d’identifier le catalyseur, généré in situ, le plus actif dans les conditions réactionnelles. L’application de cette approche est décrite sur une réaction de Friedel-Crafts, une arylation ortho-C–H sélective de composés benzamides, une alkylation C3 d’indole et en catalyse asymétrique sur une réaction d’hétéro Diels-Alder. / Reaction development is a complex multidimensional problem that, in a representative scenario, requires often the unique convergence of multiple parameters for a desired reactivity. The incorrect choice of a single parameter, such as the pre-catalyst, the ligand, the solvent or the acid/base, can completely eliminate the reactivity of the system. Thus, the process often requires extensive manipulations to obtain a lead hit. To avoid this time consuming process, many creative screening approaches have been developed but the large number of reactions necessary to explore the intersection of just three or four parameters is still a challenge for chemists who do not have access to high throughput experimentation. A reaction-economic combinatorial strategy is described for lead hit identification in catalyst discovery directed towards a specific transformation. Complex mixtures of rationally chosen pre-catalysts and ligands are screened against various reaction parameters to identify lead conditions in a small number of reactions. Iterative deconvolution of the resulting hits identifies which components contribute to the lead in situ generated catalyst. The application of this screening approach is described in the dehydrative Friedel-Crafts reaction, in the ortho-C–H arylation of benzamides, in the C3-indole alkylation and in the asymmetric hetero Diels-Alder cycloaddition.

Page generated in 0.063 seconds