• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • Tagged with
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Complexité dans les Jeux Infinis sur les Graphes et les Réseaux de Contraintes Temporelles / Complexity in Infinite Games on Graphs and Temporal Constraint Networks

Comin, Carlo 20 March 2017 (has links)
Cette thèse porte sur un certain nombre de problèmes algorithmiques motivés par la planification temporelle automatisée et la vérification formelle des systèmes réactifs et finis. Nous nous sommes concentrés sur les méthodes théoriques des jeux pour obtenir de nouvelles connaissances, des limites de complexité améliorées et des algorithmes plus rapides pour les modèles suivants: réseaux temporels hyper, réseaux conditionnels Simples / Hyper temporels, jeux de mise à jour, jeux Muller McNaughton et jeux Mean Payoff / This dissertation deals with a number of algorithmic problems motivated by automated temporal planning and formal verification of reactive and finite state systems. We focused on game theoretical methods to obtain novel insights, improved complexity bounds, and faster algorithms for the following models: Hyper Temporal Networks, Conditional Simple/Hyper Temporal Networks, Update Games, Muller McNaughton Games, and Mean Payoff Games
2

Extraction de programmes plus efficaces à partir de preuves (non-constructives) par l'interprétation Dialectica Légère (Monotone).

Hernest, Mircea Dan 14 December 2006 (has links) (PDF)
Cette thèse présente une nouvelle optimisation de l'interprétation fonctionnelle (dite "Dialectica") de Gödel pour l'extraction de programmes plus efficaces à partir de preuves arithmétiques et même analytiques (classiques). La version dite "légère" de Dialectica se combine aussi et encore plus facilement avec l'optimisation dite "monotone" de Kohlenbach sur l'interprétation fonctionnelle de Gödel pour l'extraction de majorants et marges plus efficaces à partir de preuves monotones (classiques). La Dialectica légère est obtenue par l'adaptation des quantificateurs "uniformes" (sans signification computationnelle) de Berger. En plus, sa présentation est faite dans le style de la Déduction Naturelle, comme amélioration de l'adaptation récente de Jørgensen s! ur la Dialectica originelle de Gödel. Un bon nombre d'exemples concrèts sont traités sur l'ordinateur par la nouvelle technique d'extraction de programmes. La comparaison en machine avec la technique de synthèse de programmes appelée "A-traduction raffinée" de Berger, Buchholz et Schwichtenberg montre une très bonne performance de la Dialectica légère. Cette dernière n'est dépassée que dans le cas du Lemme de Dickson. Nous développons aussi la théorie de la synthèse de programmes efficaces, de complexité calculatoire polynômiale en temps, par la nouvelle Dialectica légère (monotone). Dans ce but nous métissons deux structures préexistantes de Cook-Urquhart-Ferreira et respectivement Kohlenbach pour obtenir une "Analyse bornée par des polynômes en temps". Ici, le résultat théorique est prometteur mais des exemple! s pratiques restent encore à trouver pour montrer la diff! ére nce de cette structure par rapport à l'"Analyse bornée par un polynôme" de Kohlenbach.
3

Contributions to static and adjustable robust linear optimization / Contributions à l’optimisation linéaire robuste statique et ajustable

Costa Santos, Marcio 25 November 2016 (has links)
L'incertitude a été toujours présente dans les problèmes d'optimisation. Dans ce travail, nous nous intéressons aux problèmes d'optimisation multi-niveaux où l'incertitude apparaît très naturellement. Les problèmes d'optimisation multi-niveaux avec incertitude ont suscité un intérêt à la fois théorique et pratique. L'optimisation robuste fait partie des méthodes les plus étudiées pour traiter ces problèmes. En optimisation robuste, nous cherchons une solution qui optimise la fonction objective pour le pire scénario appartenant à un ensemble d'incertitude donné. Les problèmes d'optimisation robuste multi-niveaux sont difficiles à résoudre, même de façon heuristique. Dans cette thèse, nous abordons les problèmes d'optimisation robuste à travers le prisme des méthodes de décomposition. Ces méthodes décomposent le problème en un problème maître (MP) et plusieurs problèmes satellites de séparation (AP). Dans ce contexte, les solutions et les relaxations heuristiques ont une importance particulière. Même pour les problèmes d'optimisation combinatoires, les relaxations sont importantes pour analyser l'écart de l'optimalité des solutions heuristiques. Un autre aspect important est l'utilisation des heuristiques comme integrés dans une méthode exacte. Les principales contributions de ce travail sont les suivantes. Premièrement, nous proposons une nouvelle relaxation pour les problèmes multi-niveaux basée sur l’approche dite d’information parfaite dans le domaine de l’optimisation stochastique. L'idée principale derrière cette méthode est d'éliminer les contraintes de non anticipativité du modèle pour obtenir un problème plus simple. Nous pouvons ensuite fournir des algorithmes combinatoires ad-hoc et des formulations de programmation mixte en nombres entiers compactes pour ce problème. Deuxièmement, nous proposons de nouveaux algorithmes de programmation dynamique pour résoudre les problèmes satellites apparaissant dans une classe spécifique de problèmes robustes pour un ensemble d'incertitude de type budget. Ce type d'incertitude est basé sur le nombre maximum d'écarts autorisés et leur taille. Ces algorithmes peuvent être appliqués à des problèmes de lot-sizing et à des problèmes de tournées de véhicules. Enfin, nous proposons un modèle robuste pour un problème lié à l’installation équitable de capteurs. Ce modèle fait le lien entre l'optimisation robuste et l'optimisation stochastique avec contraintes probabilistes ambigües. / Uncertainty has always been present in optimization problems, and it arises even more severely in multistage optimization problems. Multistage optimization problems underuncertainty have attracted interest from both the theoretical and the practical level.Robust optimization stands among the most established methodologies for dealing with such problems. In robust optimization, we look for a solution that optimizes the objective function for the worst possible scenario, in a given uncertainty set. Robust multi-stage optimization problems are hard to solve even heuristically. In this thesis, we address robust optimization problems through the lens of decompositions methods. These methods are based on the decomposition of the robust problem into a master problem (MP) and several adversarial separation problems (APs). The master problem contains the original robust constraints, however, written only for finite numbers of scenarios. Additional scenarios are generated on the y by solving the APs. In this context, heuristic solutions and relaxations have a particular importance. Similarly to combinatorial optimization problems, relaxations are important to analyze the optimality gap of heuristic solutions. Heuristic solutions represent a substantial gain from the computational viewpoint, especially when used to solve the separation problem. Because the adversarial problems must be solved several times, good heuristic solution may avoid the exact solution of the APs. The main contributions of this work are three-fold. First, we propose a new relaxation for multi-stage problems based on the approach named perfect information in the field of stochastic optimization. The main idea behind this method is to remove nonanticipativity constraints from the model to obtain a simpler problem for which we can provide ad-hoc combinatorial algorithms and compact mixed integer programming formulations. Second, we propose new dynamic programming algorithms to solve the APs for robust problems involving budgeted uncertainty, which are based on the maximum number of deviations allowed and on the size of the deviations. These algorithms can be applied to lot-sizing problems and vehicle routing problems among others. Finally, we study the robust equitable sensor location problem. We make the connection between the robust optimization and the stochastic programming with ambiguous probabilistic constraints. We propose linear models for several variants of the problem together withnumerical results.
4

Sur les limites empiriques du calcul : calculabilité, complexité et physique / On the empirical limitations on computation : computability, complexity and physics

Pégny, Maël 05 December 2013 (has links)
Durant ces dernières décennies, la communauté informatique a montré un intérêt grandissant pour les modèles de calcul non-standard, inspirés par des phénomènes physiques, biologiques ou chimiques. Les propriétés exactes de ces modèles ont parfois été l'objet de controverses: que calculent-ils? Et à quelle vitesse? Les enjeux de ces questions sont renforcés par la possibilité que certains de ces modèles pourraient transgresser les limites acceptées du calcul, en violant soit la thèse de Church-Turing soit la thèse de Church-Turing étendue. La possibilité de réaliser physiquement ces modèles a notamment été au coeur des débats. Ainsi, des considérations empiriques semblent introduites dans les fondements même de la calculabilité et de la complexité computationnelle, deux théories qui auraient été précédemment considérées comme des parties purement a priori de la logique et de l'informatique. Par conséquent, ce travail est consacré à la question suivante : les limites du calcul reposent-elles sur des fondements empiriques? Et si oui, quels sont-ils? Pour ce faire, nous examinons tout d'abord la signification précise des limites du calcul, et articulons une conception épistémique du calcul, permettant la comparaison des modèles les plus variés. Nous répondrons à la première question par l'affirmative, grâce à un examen détaillé des débats entourant la faisabilité des modèles non-standard. Enfin, nous montrerons les incertitudes entourant la deuxième question dans l'état actuel de la recherche, en montrant les difficultés de la traduction des concepts computationnels en limites physiques. / Recent years have seen a surge in the interest for non-standard computational models, inspired by physical, biological or chemical phenomena. The exact properties of some of these models have been a topic of somewhat heated discussion: what do they compute? And how fast do they compute? The stakes of these questions were heightened by the claim that these models would violate the accepted limits of computation, by violating the Church-Turing Thesis or the Extended Church-Turing Thesis. To answer these questions, the physical realizability of some of those models - or lack thereof - has often been put at the center of the argument. It thus seems that empirical considerations have been introduced into the very foundations of computability and computational complexity theory, both subjects that would have been previously considered purely a priori parts of logic and computer science. Consequently, this dissertation is dedicated to the following question: do computability and computational complexity theory rest on empirical foundations? If yes, what are these foundations? We will first examine the precise meaning of those limits of computation, and articulate a philosophical conception of computation able to make sense of this variety of models. We then answer the first question by the affirmative, through a careful examination of current debates around non-standard models. We show the various difficulties surrounding the second question, and study how they stem from the complex translation of computational concepts into physical limitations.

Page generated in 0.1323 seconds