• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 19
  • 3
  • Tagged with
  • 62
  • 62
  • 34
  • 31
  • 14
  • 11
  • 11
  • 11
  • 9
  • 9
  • 8
  • 8
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Algorithmes stochastiques pour l'apprentissage, l'optimisation et l'approximation du régime stationnaire / Stochastic algorithms for learning, optimization and approximation of the steady regime

Saadane, Sofiane 02 December 2016 (has links)
Dans cette thèse, nous étudions des thématiques autour des algorithmes stochastiques et c'est pour cette raison que nous débuterons ce manuscrit par des éléments généraux sur ces algorithmes en donnant des résultats historiques pour poser les bases de nos travaux. Ensuite, nous étudierons un algorithme de bandit issu des travaux de N arendra et Shapiro dont l'objectif est de déterminer parmi un choix de plusieurs sources laquelle profite le plus à l'utilisateur en évitant toutefois de passer trop de temps à tester celles qui sont moins per­formantes. Notre but est dans un premier temps de comprendre les faiblesses structurelles de cet algorithme pour ensuite proposer une procédure optimale pour une quantité qui mesure les performances d'un algorithme de bandit, le regret. Dans nos résultats, nous proposerons un algorithme appelé NS sur-pénalisé qui permet d'obtenir une borne de regret optimale au sens minimax au travers d'une étude fine de l'algorithme stochastique sous-jacent à cette procédure. Un second travail sera de donner des vitesses de convergence pour le processus apparaissant dans l'étude de la convergence en loi de l'algorithme NS sur-pénalisé. La par­ticularité de l'algorithme est qu'il ne converge pas en loi vers une diffusion comme la plupart des algorithmes stochastiques mais vers un processus à sauts non-diffusif ce qui rend l'étude de la convergence à l'équilibre plus technique. Nous emploierons une technique de couplage afin d'étudier cette convergence. Le second travail de cette thèse s'inscrit dans le cadre de l'optimisation d'une fonc­tion au moyen d'un algorithme stochastique. Nous étudierons une version stochastique de l'algorithme déterministe de boule pesante avec amortissement. La particularité de cet al­gorithme est d'être articulé autour d'une dynamique qui utilise une moyennisation sur tout le passé de sa trajectoire. La procédure fait appelle à une fonction dite de mémoire qui, selon les formes qu'elle prend, offre des comportements intéressants. Dans notre étude, nous verrons que deux types de mémoire sont pertinents : les mémoires exponentielles et poly­nomiales. Nous établirons pour commencer des résultats de convergence dans le cas général où la fonction à minimiser est non-convexe. Dans le cas de fonctions fortement convexes, nous obtenons des vitesses de convergence optimales en un sens que nous définirons. En­fin, l'étude se termine par un résultat de convergence en loi du processus après une bonne renormalisation. La troisième partie s'articule autour des algorithmes de McKean-Vlasov qui furent intro­duit par Anatoly Vlasov et étudié, pour la première fois, par Henry McKean dans l'optique de la modélisation de la loi de distribution du plasma. Notre objectif est de proposer un al­gorithme stochastique capable d'approcher la mesure invariante du processus. Les méthodes pour approcher une mesure invariante sont connues dans le cas des diffusions et de certains autre processus mais ici la particularité du processus de McKean-Vlasov est de ne pas être une diffusion linéaire. En effet, le processus a de la mémoire comme les processus de boule pesante. De ce fait, il nous faudra développer une méthode alternative pour contourner ce problème. Nous aurons besoin d'introduire la notion de pseudo-trajectoires afin de proposer une procédure efficace. / In this thesis, we are studying severa! stochastic algorithms with different purposes and this is why we will start this manuscript by giving historicals results to define the framework of our work. Then, we will study a bandit algorithm due to the work of Narendra and Shapiro whose objectif was to determine among a choice of severa! sources which one is the most profitable without spending too much times on the wrong orres. Our goal is to understand the weakness of this algorithm in order to propose an optimal procedure for a quantity measuring the performance of a bandit algorithm, the regret. In our results, we will propose an algorithm called NS over-penalized which allows to obtain a minimax regret bound. A second work will be to understand the convergence in law of this process. The particularity of the algorith is that it converges in law toward a non-diffusive process which makes the study more intricate than the standard case. We will use coupling techniques to study this process and propose rates of convergence. The second work of this thesis falls in the scope of optimization of a function using a stochastic algorithm. We will study a stochastic version of the so-called heavy bali method with friction. The particularity of the algorithm is that its dynamics is based on the ali past of the trajectory. The procedure relies on a memory term which dictates the behavior of the procedure by the form it takes. In our framework, two types of memory will investigated : polynomial and exponential. We will start with general convergence results in the non-convex case. In the case of strongly convex functions, we will provide upper-bounds for the rate of convergence. Finally, a convergence in law result is given in the case of exponential memory. The third part is about the McKean-Vlasov equations which were first introduced by Anatoly Vlasov and first studied by Henry McKean in order to mode! the distribution function of plasma. Our objective is to propose a stochastic algorithm to approach the invariant distribution of the McKean Vlasov equation. Methods in the case of diffusion processes (and sorne more general pro cesses) are known but the particularity of McKean Vlasov process is that it is strongly non-linear. Thus, we will have to develop an alternative approach. We will introduce the notion of asymptotic pseudotrajectory in odrer to get an efficient procedure.
32

Reconstruction de modèles CAO de scènes complexes à partir de nuages de points basés sur l’utilisation de connaissances a priori / Reconstruction of CAD model of industrial scenes using a priori knowledge

Bey, Aurélien 25 June 2012 (has links)
Certaines opérations de maintenance sur sites industriels nécessitent une planification à partir de modèles numériques 3D des scènes où se déroulent les interventions. Pour permettre la simulation de ces opérations, les modèles 3D utilisés doivent représenter fidèlement la réalité du terrain. Ces représentations virtuelles sont habituellement construites à partir de nuages de points relevés sur le site, constituant une description métrologique exacte de l’environnement sans toutefois fournir une description géométrique de haut niveau.Il existe une grande quantité de travaux abordant le problème de la reconstruction de modèles 3D à partir de nuages de points, mais peu sont en mesure de fournir des résultats suffisamment fiables dans un contexte industriel et cette tâche nécessite en pratique l’intervention d’opérateurs humains.Les travaux réalisés dans le cadre de cette thèse visent l’automatisation de la reconstruction,avec comme principal objectif la fiabilité des résultats obtenus à l’issu du processus. Au vu de la complexité de ce problème, nous proposons d’exploiter des connaissances et données a priori pour guider la reconstruction. Le premier a priori concerne la compositiondes modèles 3D : en Conception Assistée par Ordinateur (CAO), les scènes industrielles sont couramment décrites comme des assemblages de primitives géométriques simples telles que les plans, sphères, cylindres, cônes, tores, etc. Nous hiérarchisons l’analyse en traitant dans un premier temps les plans et les cylindres, comme un préalable à la détection de stores. On obtient ainsi une description fiable des principaux composants d’intérêt dans les environnements industriels. Nous proposons en outre d’exploiter un certain nombre de règles régissant la manière dont ces primitives s’assemblent en un modèle CAO, basées surdes connaissances ”métier” caractérisant les scènes industrielles que nous traitons. De plus,nous tirons parti d’un modèle CAO existant d´ecrivant une scène similaire à celle que nous souhaitons reconstruire, provenant typiquement de la reconstruction antérieure d’un site semblable au site d’intérêt. Bien que semblables en théorie, ces scènes peuvent présenterdes différences significatives qui s’accentuent au cours de leur exploitation.La méthode que nous développons se fonde sur une formulation Bayésienne du problème de reconstruction : il s’agit de retrouver le modèle CAO le plus probable vis à visdes différentes attentes portées par les données et les a priori sur le modèle à reconstruire. Les diverses sources d’a priori s’expriment naturellement dans cette formulation. Pour permettre la recherche du modèle CAO optimal, nous proposons une approche basée surdes tentatives d’insertion d’objets générés aléatoirement. L’acceptation ou le rejet de ces objets repose ensuite sur l’am´elioration systématique de la solution en cours de construction. Le modèle CAO se construit ainsi progressivement, par ajout et suppression d’objets, jusqu’à obtention d’une solution localement optimale. / 3D models are often used in order to plan the maintenance of industrial environments.When it comes to the simulation of maintenance interventions, these 3D models have todescribe accurately the actual state of the scenes they stand for. These representationsare usually built from 3D point clouds that are huge set of 3D measurements acquiredin industrial sites, which guarantees the accuracy of the resulting 3D model. Althoughthere exists many works addressing the reconstruction problem, there is no solution toour knowledge which can provide results that are reliable enough to be further used inindustrial applications. Therefore this task is in fact handled by human experts nowadays.This thesis aims at providing a solution automating the reconstruction of industrialsites from 3D point clouds and providing highly reliable results. For that purpose, ourapproach relies on some available a priori knowledge and data about the scene to beprocessed. First, we consider that the 3D models of industrial sites are made of simpleprimitive shapes. Indeed, in the Computer Aided Design (CAD) field, this kind of scenesare described as assemblies of shapes such as planes, spheres, cylinders, cones, tori, . . . Ourown work focuses on planes, cylinders and tori since these three kind of shapes allow thedescription of most of the main components in industrial environment. Furthermore, weset some a priori rules about the way shapes should be assembled in a CAD model standingfor an industrial facility, which are based on expert knowledge about these environments.Eventually, we suppose that a CAD model standing for a scene which is similar to theone to be processed is available. This a priori CAO model typically comes from the priorreconstruction of a scene which looks like the one we are interested in. Despite the factthat they are similar theoretically, there may be significant differences between the sitessince each one has its own life cycle.Our work first states the reconstruction task as a Bayesian problem in which we haveto find the most probable CAD Model with respect to both the point cloud and the a prioriexpectations. In order to reach the CAD model maximizing the target probability, wepropose an iterative approach which improves the solution under construction each time anew randomly generated shape is tried to be inserted in it. Thus, the CAD model is builtstep by step by adding and removing shapes, until the algorithm gets to a local maximumof the target probability.
33

Prédiction de la structure de contrôle de bactéries par optimisation sous incertitude

Ait El Faqir, Marouane 22 November 2016 (has links)
L'approche de la biologie des systèmes vise à intégrer les méthodologies appliquées dans la conception et l'analyse des systèmes technologiques complexes, au sein de la biologie afin de comprendre les principes de fonctionnement globaux des systèmes biologiques. La thèse s'inscrit dans le cadre de la biologie des systèmes et en particulier dans la prolongation d'une méthode issue de ce cadre : la méthode Resource Blance Analysis (RBA). Nous visons dans cette thèse à augmenter le pouvoir prédictif de la méthode via un travail de modélisation tout en gardant un bon compromis entre représentativité des modèles issus de ce cadre et leur résolution numérique efficace. La thèse se décompose en deux grandes parties : la première vise à intégrer les aspects thermodynamiques et cinétiques inhérents aux réseaux métaboliques. La deuxième vise à comprendre l'impact de l'aspect stochastique de la production des enzymes sur le croissance de la bactérie. Des méthodes numériques ont été élaborées pour la résolution des modèles ainsi établis dans les deux cas déterministe et stochastique. / In order to understand the global functioning principals of biological systems, system bio- logy approach aims to integrate the methodologies used in the conception and the analysis of complex technological systems, within the biology. This PhD thesis fits into the system biology framework and in particular the extension of the already existing method Resource Balance Analysis (RBA). We aim in this PhD thesis to improve the predictive power of this method by introducing more complex model. However, this new model should respect a good trade-off between the representativity of the model and its efficient numerical computation. This PhD thesis is decomposed into two major parts. The first part aims the integration of the metabolic network inherent thermodynamical and kinetic aspects. The second part aims the comprehension of the impact of enzyme production stochastic aspect on the bacteria growth. Numerical methods are elaborated to solve the obtained models in both deterministic and stochastic cases.
34

Analyse post-Pareto en optimisation vectorielle stochastique et déterministe : étude théorique et algorithmes. / Post-Pareto Analysis in Stochastic Multi-Objective Optimization : Theoretical Results and Algorithms

Collonge, Julien 12 November 2014 (has links)
Cette thèse relate certains aspects liés à l'analyse post-Pareto issue de Problèmes d'Optimisation Vectorielle Stochastique. Un problème d'optimisation Vectorielle Stochastique consiste à optimiser l'espérance d'une fonction vectorielle aléatoire définie sur un ensemble arbitraire et à valeurs dans un espace sectoriel ordonné. L'ensemble des solutions de ce problème (appelé ensemble de Pareto) est composé des solutions admissibles qui assurent un certain équilibre entre les objectifs : il est impossible d'améliorer la valeur d'un objectif sans détériorer celle d'un autre. D'un point de vue technique, chaque solution de Pareto est acceptable. Nous nous posons alors le problème de la sélection de l'une d'entre elles : en supposant l'existence d'un décideur qui aurait son propre critère de décision, nous considérons le problème post-Pareto Stochastique qui vise à minimiser cette fonctionnelle sur l'ensemble de Pareto associé à un Problème d'Optimisation Vectorielle Stochastique. / This thesis explore related aspects to post-Pareto analysis arising from Stochastic Vector Optimization Problem. A Stochastic Vector Optimization Problem is to optimize a random vector objective function defined on an arbitrary set, and taking values in a partially ordered set. Its solution set (called Pareto set) consists of the feasible solutions which ensure some sort of equilibrium amongst the objectives. That is to say, Pareto solutions are such that noneof the objectives values can be improved further without deterioring another. Technically speaking, each Pareto solution is acceptable. The natural question that arises is : how to choose one solution ? One possible answer is to optimize an other objective over the Pareto set. Considering the existence of a decision-maker with its own criteria, we deal with the post-Pareto Stochastic Optimization Problem of minimizing its real-valued criteria over the Pareto set.
35

Gestion et dimensionnement d'une flotte de véhicules électriques associée à une centrale photovoltaïque : co-optimisation stochastique et distribuée / Management and Sizing of an Electric Vehicle Fleet Associated with a Photovoltaic Plant : Stochastic and Distributed Co-optimizationStationary Valorisation of Electric Vehicle Batteries taking into account their aging and availibility

Le Goff Latimier, Roman 26 September 2016 (has links)
La généralisation concomitante de consommateurs d'électricité flexibles et de producteurs imparfaitement contrôlables invite à utiliser les complémentarités de ces acteurs afin d'améliorer leur intégration dans les systèmes d'énergie. Dans le cadre de ces travaux de doctorat, la collaboration entre une flotte de véhicules électriques et une centrale photovoltaïque est étudiée. Un problème générique est tout d'abord défini afin d'augmenter la prévisibilité des échanges entre un réseau électrique et le système collaboratif ainsi créé qui devra respecter un profil d'engagement de puissance échangée. La gestion de ce système est traduite en un problème d'optimisation dans lequel on cherche à compenser les erreurs de prévision de la production photovoltaïque à l'aide de la flexibilité des recharges. Ce problème est multi-temporel du fait de la présence de batteries, stochastique à cause de la disponibilité des véhicules et des erreurs de prévision, et enfin de grande dimension puisqu'à l'échelle d'une flotte entière.Pour le résoudre, la modélisation du comportement et du vieillissement des batteries Li-ion est discutée afin d'établir des compromis entre justesse du modèle, impact sur la décision finale et coût de calcul. Par ailleurs, un modèle de Markov caché original est spécifiquement développé afin de capturer les structures temporelles de l'erreur de prévision de production photovoltaïque. Cette étude est fondée sur des données réelles de production d'une centrale et des données de prévision correspondantes.Le problème de recharge optimale d'une flotte de véhicules agrégée en une batterie équivalente est résolu par la méthode de la programmation dynamique stochastique. La sensibilité des lois de gestion obtenues est discutée vis à vis des modèles utilisés pour décrire l'erreur de prévision ou le comportement des batteries. Le vieillissement des batteries est traduit par plusieurs modèles, dont on examine les conséquences sur le dimensionnement optimal de la flotte de véhicules par rapport à la puissance crête de la centrale photovoltaïque.Enfin la puissance de recharge optimale pour chacun des véhicules de la flotte est déduite à l'aide d'un problème de partage qui est résolu par optimisation distribuée --- Alternating Direction Method of Multipliers --- et programmation dynamique. Une attention particulière est prêtée à la manière dont les préférences individuelles de chaque utilisateur peuvent être prises en compte au sein d'une flotte. Le cas d'une limitation des échanges d'information possibles entre les véhicules est investigué. Le dimensionnement optimal entre une flotte et une centrale photovoltaïque est finalement analysé pour plusieurs modèles économiques envisageables. L'interaction entre dimensionnement et gestion est traitée à l'aide d'une co-optimisation. / Simultaneous development of flexible electricity consumers and of intermittent renewable producers calls for using their complementarities. It could foster their overall integration in power systems. For the purpose of this doctoral thesis, the collaboration between an electric vehicle fleet and a photovoltaic plant is studied. First of all, a generic problem is set up to improve the predictability of the power exchange between the power grid and the so called collaboratif system. It should therefore fulfill a commitment profile constraint. The intraday management of this system consists in an optimisation problem which objective is to mitigate the production forecast errors by charging power flexibility. This is a multitime step problem, because of the battery intertia. The random availibility of vehicles and the forecast errors also make it stochastic. Finally there is a huge number of variables as it is spread other an entiere fleet.Upstream of the problem resolution, the modeling of the dynamic behaviour and of the aging of Lithium Ion batteries is discussed. It results in a range of compromises between precision, impact on the final decision and computational cost. Furthermore, a hidden Markov model is proposed and developped so as to handle temporal structures of the forecast error of the photovoltaic production. This analysis is based on production data of a real plant and on associated forecasts.An electric vehicle fleet is considered as an equivalent agregated battery. Its optimal charging power is sorted out using stochastic dynamic programming. The sensitivity of the resulting management strategies is assessed against the models which describe the production forecast error or battery behaviour. The battery aging is rendered by several models which we discuss the consequences over the optimal sizing of an electric vehicle fleet regarding to the plant power.Then the optimal charing power for each one of the vehicles among a fleet is deduced using a sharing problem. The resolution is carried out using distributed optimisation --- Alternating Direction Method of Multipliers --- and dynamic programming. A specific attention is devoted to the individual mobility priorities of the vehicles users. The vehicle charging power is thus differenticiated according to each one preferences. We also investigate a situation where information exchanges are limited. The optimal sizing of an electric vehicle fleet associated with a photovoltaic plant is finaly considered under several possibilities of economic model. The coupling between sizing and daily management is tackled thanks to a co-optimization.
36

Modèles déterministes et stochastiques pour la résolution numérique du problème de maintien de séparation entre aéronefs / Deterministic and stochastic models for the numerical resolution of the aircraft separation problem

Omer, Jérémy, Jean, Guy 27 February 2013 (has links)
Cette thèse s’inscrit dans le domaine de la programmation mathématique appliquée à la séparation d’aéronefs stabilisés en altitude. L’objectif est le développement d’algorithmes de résolution de conflits aériens ; l’enjeu étant d’augmenter la capacité de l’espace aérien afin de diminuer les retards et d’autoriser un plus grand nombre d’aéronefs à suivre leur trajectoire optimale. En outre, du fait de l’imprécision des prédictions relatives à la météo ou à l’état des aéronefs, l’incertitude sur les données est une caractéristique importante du problème. La démarche suivie dans ce mémoire s’attache d’abord au problème déterministe dont l’étude est nettement plus simple. Pour cela, quatre modèles basés sur la programmation non linéaire et sur la programmation linéaire à variables mixtes sont développés en intégrant notamment un critère reflétant la consommation de carburant et la durée de vol. Leur comparaison sur un ensemble de scénarios de test met en évidence l’intérêt d’utiliser un modèle linéaire approché pour l’étude du problème avec incertitudes. Un champ de vent aléatoire, corrélé en temps et en espace, ainsi qu’une erreur gaussienne sur la mesure de la vitesse sont ensuite pris en compte.Dans un premier temps, le problème déterministe est adapté en ajoutant une marge sur la norme de séparation grâce au calcul d’une approximation des probabilités de conflits. Finalement, une formulation stochastique avec recours est développée. Ainsi, les erreurs aléatoires sont explicitement incluses dans le modèle afin de tenir compte de la possibilité d’ordonner des manoeuvres de recours lorsque les erreurs observées engendrent de nouveaux conflits. / This thesis belongs to the field of mathematical programming, applied to the separation of aircraft stabilised on the same altitude. The primary objective is to develop algorithms for the resolution of air conflicts. The expected benefit of such algorithm is to increase the capacity of the airspace in order to reduce the number of late flights and let more aircraft follow their optimal trajectory. Moreover, meteorological forecast and trajectory predictions being inexact,the uncertainty on the data is an important issue. The approach that is followed focuses on the deterministic problem in the first place because it is much simpler. To do this, four nonlinear and mixed integer linear programming models, including a criterion based on fuel consumption and flight duration, are developed. Their comparison on a benchmark of scenarios shows the relevance of using an approximate linear model for the study of the problem with uncertainties.A random wind field, correlated in space and time, as well as speed measures with Gaussianerrors are then taken into account. As a first step, the deterministic problem is adapted by computinga margin from an approximate calculation of conflict probabilities and by adding it tothe reference separation distance. Finally, a stochastic formulation with recourse is developed.In this model, the random errors are explicitly included in order to consider the possibility of ordering recourse actions if the observed errors cause new conflicts.
37

Conception des structures de soins à domicile / Design of healthcare at home structures

Rodriguez Verjan, Carlos 26 February 2013 (has links)
La question de l'accès au soin est cruciale dans notre société moderne. Un effet évident de la demande accrue de services de santé est l'augmentation du taux d'occupation dans les hôpitaux. La principale différence entre la dispensation de soins à l'hôpital et au domicile est la suivante: le patient doit se déplacer et toutes les ressources nécessaires à son traitement se trouvent dans le même endroit, tandis que dans les soins délivrés au domicile, les ressources doivent être déplacées au chevet du patient. Il existe plusieurs défis afin de pouvoir réaliser ce changement. Dans cette thèse nous traitons trois problèmes importants dans la conception des structures de soins à domicile. D’abord, la localisation des structures en minimisant les coûts logistiques, où nous développons trois modèles incluant différentes caractéristiques comme du système de santé comme les coûts liés aux déplacements des ressources, la variation de la demande dans le temps et l’existence et évolution des ressource libérales. Ces modèles nous permettent de proposer des localisations robustes dans le temps tout en assurant une couverture maximale et en minimisant les coûts. La deuxième problématique consiste au choix des activités et couverture épidémiologique et spatiale en tenant compte différentes activités et types de ressources, les autorisations pour réaliser les pathologies et la couverture. Deux modèles développés nous ont permis montrer les effets sur l’affectation de la demande et le dimensionnement de ressources induits par changements dans les coûts des libéraux, salaires et d’autorisation de servir la demande. Le troisième problème et celui du dimensionnement de ressources avec incertitudes de demande (volume, épidémiologique et géographique) et le modèle proposé tient compte du problème sous-jacent de déplacement des ressources à l’aide d’une estimation de la tournée réalisée. / The issue of access to heamthcare is crucial in our modern society. One obvious effect of the augmentation of healthcare services demand is the increasing occupancy rates in hospitals. The main difference between the provision of care at the hospital and at home is as follows: the patient is at hospital and all the resources necessary for its treatment are in the same place, while in the care delivered at home, resources must be moved to the bedside. There are several challenges in order to achieve this change. In this thesis we address three important issues in the design of structures of home care. First, the location of structures minimizing logistics costs, where we develop three models with different features such as traveling costs of resources, changes in demand over time and evolution of freelance resources. These models allow us to provide robust location over time while ensuring maximum coverage and minimizing costs. The second issue is the choice of activities, epidemiological and spatial coverage, taking into account different types of activities and resources, permissions to serve some pathologies and coverage. Two models developed allow us to show the effects on the demand allocation and resources planning induced by changes in the costs of freelance professionals and authorization to serve some pathologies. The third problem is the dimensioning of resources with demand uncertainty (volume, epidemiological and geographical) and the proposed model takes into account the underlying problem of moving resources using an estimate of the routes performed.
38

Optimisation spatio-temporelle d’efforts de recherche pour cibles manoeuvrantes et intelligentes / Spatio-temporal optimisation of search efforts for smart and reactive moving targets

Chouchane, Mathieu 17 October 2013 (has links)
Dans cette thèse, nous cherchons à répondre à une problématique formulée par la DGA Techniques navales pour surveiller une zone stratégique : planifier le déploiement spatial et temporel optimal d’un ensemble de capteurs de façon à maximiser les chances de détecter une cible mobile et intelligente. La cible est dite intelligente car elle est capable de détecter sous certaines conditions les menaces que représentent les capteurs et ainsi de réagir en adaptant son comportement. Les déploiements générés pouvant aussi avoir un coût élevé nous devons tenir compte de ce critère lorsque nous résolvons notre problématique. Il est important de noter que la résolution d’un problème de ce type requiert, selon les besoins, l’application d’une méthode d’optimisation mono-objectif voire multiobjectif. Jusqu’à présent, les travaux existants n’abordent pas la question du coût des déploiements proposés. De plus la plupart d’entre eux ne se concentrent que sur un seul aspect à la fois. Enfin, pour des raisons algorithmiques, les contraintes sont généralement discrétisées.Dans une première partie, nous présentons un algorithme qui permet de déterminer le déploiement spatio-temporel de capteurs le plus efficace sans tenir compte de son coût. Cette méthode est une application à l’optimisation de la méthode multiniveau généralisée.Dans la seconde partie, nous montrons d’abord que l’utilisation de la somme pondérée des deux critères permet d’obtenir des solutions sans augmenter le temps de calcul. Pour notre seconde approche, nous nous inspirons des algorithmes évolutionnaires d’optimisation multiobjectif et adaptons la méthode multiniveau généralisée à l’optimisation multiobjectif. / In this work, we propose a solution to a problem issued by the DGA Techniques navales in order to survey a strategic area: determining the optimal spatio-temporal deployment of sensors that will maximize the detection probability of a mobile and smart target. The target is said to be smart because it is capable of detecting the threat of the sensors under certain conditions and then of adapting its behaviour to avoid it. The cost of a deployment is known to be very expensive and therefore it has to be taken into account. It is important to note that the wide spectrum of applications within this field of research also reflects the need for a highly complex theoretical framework based on stochastic mono or multi-objective optimisation. Until now, none of the existing works have dealt with the cost of the deployments. Moreover, the majority only treat one type of constraint at a time. Current works mostly rely on operational research algorithms which commonly model the constraints in both discrete space and time.In the first part, we present an algorithm which computes the most efficient spatio-temporal deployment of sensors, but without taking its cost into account. This optimisation method is based on an application of the generalised splitting method.In the second part, we first use a linear combination of the two criteria. For our second approach, we use the evolutionary multiobjective optimisation framework to adapt the generalised splitting method to multiobjective optimisation. Finally, we compare our results with the results of the NSGA-II algorithm.
39

Arbitrer coût et flexibilité dans la Supply Chain / Balancing cost and flexibility in Supply Chain

Gaillard de Saint Germain, Etienne 17 December 2018 (has links)
Cette thèse développe des méthodes d'optimisation pour la gestion de la Supply Chain et a pour thème central la flexibilité définie comme la capacité à fournir un service ou un produit au consommateur dans un environnement incertain. La recherche a été menée dans le cadre d'un partenariat entre Argon Consulting, une société indépendante de conseil en Supply Chain et l'École des Ponts ParisTech. Dans cette thèse, nous développons trois sujets rencontrés par Argon Consulting et ses clients et qui correspondent à trois différents niveaux de décision (long terme, moyen terme et court terme).Lorsque les entreprises élargissent leur portefeuille de produits, elles doivent décider dans quelles usines produire chaque article. Il s'agit d'une décision à long terme, car une fois qu'elle est prise, elle ne peut être facilement modifiée. Plus qu'un problème d'affectation où un article est produit par une seule usine, ce problème consiste à décider si certains articles doivent être produits par plusieurs usines et par lesquelles. Cette interrogation est motivée par la grande incertitude de la demande. En effet, pour satisfaire la demande, l'affectation doit pouvoir équilibrer la charge de travail entre les usines. Nous appelons ce problème le multi-sourcing de la production. Comme il ne s'agit pas d'un problème récurrent, il est essentiel de tenir compte du risque au moment de décider le niveau de multi-sourcing. Nous proposons un modèle générique qui inclut les contraintes techniques du problème et une contrainte d'aversion au risque basée sur des mesures de risque issues de la théorie financière. Nous développons un algorithme et une heuristique basés sur les outils standards de la Recherche Opérationnelle et de l'Optimisation Stochastique pour résoudre le problème du multi-sourcing et nous testons leur efficacité sur des données réelles.Avant de planifier la production, certains indicateurs macroscopiques doivent être décidés à horizon moyen terme tels la quantité de matières premières à commander ou la taille des lots produits. Certaines entreprises utilisent des modèles de stock en temps continu, mais ces modèles reposent souvent sur un compromis entre les coûts de stock et les coûts de lancement. Ces derniers sont des coûts fixes payés au lancement de la production et sont difficiles à estimer en pratique. En revanche, à horizon moyen terme, la flexibilité des moyens de production est déjà fixée et les entreprises estiment facilement le nombre maximal de lancements. Poussés par cette observation, nous proposons des extensions de certains modèles classiques de stock en temps continu, sans coût de lancement et avec une limite sur le nombre d'installations. Nous avons utilisé les outils standard de l'Optimisation Continue pour calculer les indicateurs macroscopiques optimaux.Enfin, la planification de la production est une décision à court terme qui consiste à décider quels articles doivent être produits par la ligne de production pendant la période en cours. Ce problème appartient à la classe bien étudiée des problèmes de Lot-Sizing. Comme pour les décisions à moyen terme, ces problèmes reposent souvent sur un compromis entre les coûts de stock et les coûts de lancement. Fondant notre modèle sur ces considérations industrielles, nous gardons le même point de vue (aucun coût de lancement et une borne supérieure sur le nombre de lancement) et proposons un nouveau modèle.Bien qu'il s'agisse de décisions à court terme, les décisions de production doivent tenir compte de la demande future, qui demeure incertaine. Nous résolvons notre problème de planification de la production à l'aide d'outils standard de Recherche Opérationnelle et d'Optimisation Stochastique, nous testons l'efficacité sur des données réelles et nous la comparons aux heuristiques utilisées par les clients d'Argon Consulting / This thesis develops optimization methods for Supply Chain Management and is focused on the flexibility defined as the ability to deliver a service or a product to a costumer in an uncertain environment. The research was conducted throughout a partnership between Argon Consulting, which is an independent consulting firm in Supply Chain Operations and the École des Ponts ParisTech. In this thesis, we explore three topics that are encountered by Argon Consulting and its clients and that correspond to three different levels of decision (long-term, mid-term and short-term).When companies expand their product portfolio, they must decide in which plants to produce each item. This is a long-term decision since once it is decided, it cannot be easily changed. More than a assignment problem where one item is produced by a single plant, this problem consists in deciding if some items should be produced on several plants and by which plants. This is motivated by a highly uncertain demand. So, in order to satisfy the demand, the assignment must be able to balance the workload between plants. We call this problem the multi-sourcing of production. Since it is not a repeated problem, it is essential to take into account the risk when making the multi-sourcing decision. We propose a generic model that includes the technical constraints of the assignment and a risk-averse constraint based on risk measures from financial theory. We develop an algorithm and a heuristic based on standard tools from Operations Research and Stochastic Optimization to solve the multi-sourcing problem and we test their efficiency on real datasets.Before planning the production, some macroscopic indicators must be decided at mid-term level such as the quantity of raw materials to order or the size of produced lots. Continuous-time inventory models are used by some companies but these models often rely on a trade-off between holding costs and setups costs. These latters are fixed costs paid when production is launched and are hard to estimate in practice. On the other hand, at mid-term level, flexibility of the means of production is already fixed and companies easily estimate the maximal number of setups. Motivated by this observation, we propose extensions of some classical continuous-time inventory models with no setup costs and with a bound on the number of setups. We used standard tools from Continuous Optimization to compute the optimal macroscopic indicators.Finally, planning the production is a short-term decision consisting in deciding which items must be produced by the assembly line during the current period. This problem belongs to the well-studied class of Lot-Sizing Problems. As for mid-term decisions, these problems often rely on a trade-off between holding and setup costs. Basing our model on industrial considerations, we keep the same point of view (no setup cost and a bound on the number of setups) and propose a new model. Although these are short-term decisions, production decisions must take future demand into account, which remains uncertain. We solve our production planning problem using standard tools from Operations Research and Stochastic Optimization, test the efficiency on real datasets, and compare it to heuristics used by Argon Consulting's clients
40

Intégration des incertitudes liées aux prévisions de consommation et production à la gestion prévisionnelle d'un réseau de distribution / Management of a distribution network considering uncertain consumption and production forecasts

Buire, Jérôme 14 December 2018 (has links)
La gestion prévisionnelle des réseaux de distribution imposée par les codes de réseaux européens nécessite une connaissance approfondie de leur comportement et implique de prendre en compte la volatilité des énergies renouvelables et les capacités de prévision à l’horizon J-1 de la consommation et de la production. En effet, les valeurs déterministes les plus probables des prévisions ne sont plus suffisantes pour pouvoir prédire et gérer à l’avance un réseau. Une modélisation et une optimisation stochastiques permettent un choix, au plus juste, de paramètres de contrôle.La thèse se concentre la prise en compte, dans la modélisation et l’optimisation, des incertitudes des réseaux de distribution. Une modélisation stochastique de réseau est proposée, elle intègre les incertitudes liées au régleur en charge et aux prévisions de consommation et de production. Les contrôleurs des générateurs, le régleur en charge et les gradins de condensateurs permettent de limiter les fluctuations des tensions des nœuds et de la puissance réactive à l’interface et de respecter les exigences contractuelles. Industriellement, les contrôleurs des générateurs sont caractérisés par des lois de commande linéaires ou linéaires par morceaux. En effectuant des hypothèses sur la nature stochastique des données, on peut montrer que les tensions aux nœuds sont des variables gaussiennes ou des sommes de variables gaussiennes par morceaux. Une optimisation stochastique basée sur ces modèles permet de choisir les paramètres des contrôleurs qui minimisent les risques de surtension et des efforts de générateurs, sans avoir à mettre en œuvre des méthodes coûteuses en temps de calcul de type Monte Carlo / The voltage profiles inside the network and power flows at the transport-distribution interface are modified under the massive insertion of renewable sources in distribution grids. The system’s uncertainties cannot be handled by local controllers which parameters are tuned at the actuator installation stage. A solution, widely accepted in the literature, consists of achieving a centralized optimization of the actuators references (distributed generators reactive powers, reference voltage of the On Load Tap Changer, capacitor banks reactive power). Within this framework, a supervisor computes all references at the same time and delivers the references to each actuators, which requires an efficient and reliable communication system.The main contribution of the thesis is to design an alternative approach which keeps the local control structures which settings will be updated on an hourly basis. The optimization relies on a stochastic representation of the grid that accounts for the On Load Tap Changer uncertainties and day ahead forecasts of the productions and consumptions. It is shown that every variable of the system can be represented by Gaussian or sum of truncated Gaussian variables. A stochastic optimization allows to select the controllers settings that minimize overvoltages and control efforts, without using time-consuming algorithms such as Monte-Carlo methods. This work will demonstrate that an appropriate management of uncertainties spares unnecessary and costly oversizing

Page generated in 0.1439 seconds