• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 10
  • 3
  • Tagged with
  • 26
  • 26
  • 14
  • 10
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Study on optimization of hazardous material transportation via lane reservation / Etude sur l'optimisation du transport de matières dangereuses par la réservation de voies

Zhou, Zhen 29 October 2014 (has links)
Le transport de matières dangereuses est connu pour son haut risque potentiel pour le réseau routier. Un accident peut avoir de graves conséquences pour la santé publique et l’environnement sur une longue période. L’optimisation du transport de matières dangereuses est une problématique importante. Cette thèse propose, pour la première fois dans la littérature, une stratégie de réservation de voies pour le transport de matières dangereuses. L’objectif est de proposer des itinéraires pour le transport de matières dangereuses qui minimisent à la fois le risque potentiel et l’impact négatif sur le trafic dans un réseau de transport dû à la réservation de voies. Dans cette thèse, nous nous focalisons sur deux nouveaux problèmes : l’optimisation de transport de matières dangereuses grâce à la stratégie de réservation de voies dans un réseau de transport selon si le risque dépend de l’instant de passage (appelé LRPTDR) ou pas (appelé LRPTIR). Pour chaque problème étudié, nous proposons un nouveau modèle d’optimisation multi-critères. Pour le LRPTIR, nous développons d’abord une méthode combinant la méthode de ε-contrainte et la logique floue pour obtenir des solutions Pareto-optimales et une solution préférée en fonction des critères du gestionnaire. Ensuite,une méthode qui combine le « cut-and-solve » and le « cutting plane» est proposée pour réduire le temps de calcul. Pour le LRPTDR, une méthode de « cut-and-solve » est appliquée, dans laquelle une nouvelle technique de « piecing cut » et une stratégie de relaxation partielle sont développées pour améliorer la performance. Les performances des algorithmes proposés sont évaluées à l’aide d’instances générées aléatoirement. Les résultats numériques montrent que les algorithmes proposés sont plus performants que le logiciel commercial CPLEX pour les problèmes étudiés. / Hazardous material transportation is well-known for its high potential risk. An accident may cause very serious economic damage and negative impacts on the public health and the environment over the long term. Optimization for hazardous material transportation is an important issue. For the first time in the literature, this thesis introduces the lane reservation strategy into the hazardous material transportation problem. The goal is to obtain a best compromise between the impact on normal traffic due to lane reservation and the transportation risk.In this thesis, we focus on two novel problems: hazardous material transportation problem via lane reservation in networks with time-invariant and time-dependent risk, called LRPTIR and LRPTDR, respectively. For these problems, multi-objective integer programming and multi-objective mixed integer programming models are formulated, respectively. For the LRPTIR, we first develop an ε-constraint and fuzzy-logic based method to obtain Pareto optimal solutions and a preferred solution. Then a cut-and-solve and cutting plane combined method is proposed to reduce the computational time. For the LRPTDR, an improved cut-and-solve based ε-constraint method is proposed, in which a new technique of generating piercing cuts is developed and a partial integral relaxation strategy is applied. The performance of the proposed algorithms is evaluated by randomly generated instances. Computational results demonstrate that for the considered problems, the cut-and-solve method outperforms software package CPLEX.
2

Reacting and adapting to the environment : designing autonomous methods for multi-objective combinatorial optimisation / Réagir et s'adapter à son environnement : concevoir des méthodes autonomes pour l'optimisation combinatoire à plusieurs objectifs

Blot, Aymeric 21 September 2018 (has links)
Les problèmes d'optimisation à grande échelle sont généralement difficiles à résoudre de façon optimale.Des algorithmes d'approximation tels que les métaheuristiques, capables de trouver rapidement des solutions sous-optimales, sont souvent préférés. Cette thèse porte sur les algorithmes de recherche locale multi-objectif (MOLS), des métaheuristiques capables de traiter l'optimisation simultanée de plusieurs critères. Comme de nombreux algorithmes, les MOLS exposent de nombreux paramètres qui ont un impact important sur leurs performances. Ces paramètres peuvent être soit prédits et définis avant l'exécution de l'algorithme, soit ensuite modifiés dynamiquement. Alors que de nombreux progrès ont récemment été réalisés pour la conception automatique d'algorithmes, la grande majorité d'entre eux ne traitent que d'algorithmes mono-objectif et l'optimisation d'un unique indicateur de performance. Dans cette thèse, nous étudions les relations entre la conception automatique d'algorithmes et l'optimisation multi-objective. Nous passons d'abord en revue les stratégies MOLS possibles et présentons un framework MOLS général et hautement configurable. Nous proposons également MO-ParamILS, un configurateur automatique spécialement conçu pour gérer plusieurs indicateurs de performance. Nous menons ensuite plusieurs études sur la conception automatique de MOLS sur de multiples problèmes combinatoires bi-objectifs. Enfin, nous discutons deux extensions de la configuration d'algorithme classique : d'abord l'intégration des mécanismes de contrôle de paramètres, pour bénéficier de multiples prédictions de configuration; puis l'utilisation séquentielle de plusieurs configurations. / Large-scale optimisation problems are usually hard to solve optimally.Approximation algorithms such as metaheuristics, able to quickly find sub-optimal solutions, are often preferred.This thesis focuses on multi-objective local search (MOLS) algorithms, metaheuristics able to deal with the simultaneous optimisation of multiple criteria. As many algorithms, metaheuristics expose many parameters that significantly impact their performance. These parameters can be either predicted and set before the execution of the algorithm, or dynamically modified during the execution itself. While in the last decade many advances have been made on the automatic design of algorithms, the great majority of them only deal with single-objective algorithms and the optimisation of a single performance indicator such as the algorithm running time or the final solution quality. In this thesis, we investigate the relations between automatic algorithm design and multi-objective optimisation, with an application on MOLS algorithms. We first review possible MOLS strategies ans parameters and present a general, highly configurable, MOLS framework. We also propose MO-ParamILS, an automatic configurator specifically designed to deal with multiple performance indicators. Then, we conduct several studies on the automatic offline design of MOLS algorithms on multiple combinatorial bi-objective problems. Finally, we discuss two online extensions of classical algorithm configuration: first the integration of parameter control mechanisms, to benefit from having multiple configuration predictions; then the use of configuration schedules, to sequentially use multiple configurations.
3

MyHouse : un système de négociation multi-critères dans le commerce électronique, appliqué au domaine du courtage immobilier

Erfani, Maryam January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
4

Adaptation aux risques liés aux stratégies d'externalisation : cas des entreprises industrielles tunisiennes

Bellaaj, Salma 18 December 2009 (has links) (PDF)
Chaque organisation a son propre mode de gestion qui mène au succès ou à l'échec. Ces organisations sont guidées par des objectifs et des spécialisations. Parallèlement, la nécessité de réduire les coûts et de se recentrer sur le cœur du métier se développe incessamment au sein du secteur industriel. A cet effet, une nouvelle forme d'organisation nommée "l'externalisation" est apparue. Au delà des avantages inéluctables de l'externalisation sur le niveau stratégique, financier, organisationnel et opérationnel, bon nombres de risques significatifs existent. Ainsi, notre présent travail cherche une réponse fondée sur l'utilisation de la gestion des risques associée à un processus d'externalisation. Selon nous, anticiper les problèmes et les opportunités à venir peut rendre le processus de prise de décisions associé au déroulement des projets plus agile. Dans ce cadre, notre but consiste à proposer des modes et des démarches d'adaptation aux risques liés aux stratégies d'externalisation et à accommoder celles-ci au sein d'un échantillon d'entreprises externalisatrices Tunisiennes. A cet effet, des méthodes multicritères d'aide à la décision et des techniques de développement des systèmes à base de connaissances ont été adapté aux besoins de l'application. L'assistance proposée à ces dernières a consisté à développer un système interactif d'aide à la décision techniquement adapté, économiquement viable, socialement acceptable et écologiquement durable
5

Allocation de ressources et ordonnancement multi-utilisateurs : une approche basée sur l'équité / Resource allocation and multi-user scheduling

Medernach, Emmanuel 06 May 2011 (has links)
Les grilles de calcul et le “cloud computing” permettent de distribuer un ensemble de ressources informatiques, telles que du stockage ou du temps de calcul, à un ensemble d’utilisateurs en fonction de leurs demandes en donnant l’illusion de ressources infinies. Cependant, lorsque l’ensemble de ces ressources est insuffisant pour satisfaire les exigences des utilisateurs, des conflits d’intérêts surgissent. Ainsi, un libre accès à des ressources limitées peut entraîner une utilisation inefficace qui pénalise l’ensemble des participants. Dans de tels environnements, il devient nécessaire d’établir des procédures d’arbitrage afin de résoudre ces conflits en garantissant une distribution équitable aux différents utilisateurs. Nous présentons une nouvelle classe de problèmes : celle des ordonnancements multi-utilisateurs. Cette thèse aborde la notion d’équité au travers de problèmes d’allocation de ressources sous incertitudes et d’ordonnancement de tâches périodiques. / Grid and Cloud computing make possible the sharing of computer system resources, such as storage or computation time, among a set of users, according to their requests, thereby creating an illusion of infinite resources. However, as soon as those resources are insufficient to meet users’s expectations, conflicts of interest arise. Therefore, unlimited access to limited resources may lead to inefficient usage which penalizes the whole set of users. In such environments, arbitration becomes necessary in order to settle those conflicts and ensure a fair allocation to all users. We present two classes of problems : multi-user resource allocation under uncertainty and multi-user periodic task scheduling. We tackle these problems from the point of view of fairness.
6

Load Balancing of Multi-physics Simulation by Multi-criteria Graph Partitioning / Equilibrage de charge pour des simulations multi-physiques par partitionnement multcritères de graphes

Barat, Remi 18 December 2017 (has links)
Les simulations dites multi-physiques couplent plusieurs phases de calcul. Lorsqu’elles sont exécutées en parallèle sur des architectures à mémoire distribuée, la minimisation du temps de restitution nécessite dans la plupart des cas d’équilibrer la charge entre les unités de traitement, pour chaque phase de calcul. En outre, la distribution des données doit minimiser les communications qu’elle induit. Ce problème peut être modélisé comme un problème de partitionnement de graphe multi-critères. On associe à chaque sommet du graphe un vecteur de poids, dont les composantes, appelées « critères », modélisent la charge de calcul porté par le sommet pour chaque phase de calcul. Les arêtes entre les sommets, indiquent des dépendances de données, et peuvent être munies d’un poids reflétant le volume de communication transitant entre les deux sommets. L’objectif est de trouver une partition des sommets équilibrant le poids de chaque partie pour chaque critère, tout en minimisant la somme des poids des arêtes coupées, appelée « coupe ». Le déséquilibre maximum toléré entre les parties est prescrit par l’utilisateur. On cherche alors une partition minimisant la coupe, parmi toutes celles dont le déséquilibre pour chaque critère est inférieur à cette tolérance. Ce problème étant NP-Dur dans le cas général, l’objet de cette thèse est de concevoir et d’implanter des heuristiques permettant de calculer efficacement de tels partitionnements. En effet, les outils actuels renvoient souvent des partitions dont le déséquilibre dépasse la tolérance prescrite. Notre étude de l’espace des solutions, c’est-à-dire l’ensemble des partitions respectant les contraintes d’équilibre, révèle qu’en pratique, cet espace est immense. En outre, nous prouvons dans le cas mono-critère qu’une borne sur les poids normalisés des sommets garantit que l’espace des solutions est non-vide et connexe. Nous fondant sur ces résultats théoriques, nous proposons des améliorations de la méthode multi-niveaux. Les outils existants mettent en oeuvre de nombreuses variations de cette méthode. Par l’étude de leurs codes sources, nous mettons en évidence ces variations et leurs conséquences à la lumière de notre analyse sur l’espace des solutions. Par ailleurs, nous définissons et implantons deux algorithmes de partitionnement initial, se focalisant sur l’obtention d’une solution à partir d’une partition potentiellement déséquilibrée, au moyen de déplacements successifs de sommets. Le premier algorithme effectue un mouvement dès que celui-ci améliore l’équilibre, alors que le second effectue le mouvement réduisant le plus le déséquilibre. Nous présentons une structure de données originale, permettant d’optimiser le choix des sommets à déplacer, et conduisant à des partitions de déséquilibre inférieur en moyenne aux méthodes existantes. Nous décrivons la plate-forme d’expérimentation, appelée Crack, que nous avons conçue afin de comparer les différents algorithmes étudiés. Ces comparaisons sont effectuées en partitionnant un ensembles d’instances comprenant un cas industriel et plusieurs cas fictifs. Nous proposons une méthode de génération de cas réalistes de simulations de type « transport de particules ». Nos résultats démontrent la nécessité de restreindre les poids des sommets lors de la phase de contraction de la méthode multi-niveaux. En outre, nous mettons en évidence l’influence de la stratégie d’ordonnancement des sommets, dépendante de la topologie du graphe, sur l’efficacité de l’algorithme d’appariement « Heavy-Edge Matching » dans cette même phase. Les différents algorithmes que nous étudions sont implantés dans un outil de partitionnement libre appelé Scotch. Au cours de nos expériences, Scotch et Crack renvoient une partition équilibrée à chaque exécution, là où MeTiS, l’outil le plus utilisé actuellement, échoue une grande partie du temps. Qui plus est, la coupe des solutions renvoyées par Scotch et Crack est équivalente ou meilleure que celle renvoyée par MeTiS. / Multiphysics simulation couple several computation phases. When they are run in parallel on memory-distributed architectures, minimizing the simulation time requires in most cases to balance the workload across computation units, for each computation phase. Moreover, the data distribution must minimize the induced communication. This problem can be modeled as a multi-criteria graph partitioning problem. We associate with each vertex of the graph a vector of weights, whose components, called “criteria”, model the workload of the vertex for each computation phase. The edges between vertices indicate data dependencies, and can be given a weight representing the communication volume transferred between the two vertices. The goal is to find a partition of the vertices that both balances the weights of each part for each criterion, and minimizes the “edgecut”, that is, the sum of the weights of the edges cut by the partition. The maximum allowed imbalance is provided by the user, and we search for a partition that minimizes the edgecut, among all the partitions whose imbalance for each criterion is smaller than this threshold. This problem being NP-Hard in the general case, this thesis aims at devising and implementing heuristics that allow us to compute efficiently such partitions. Indeed, existing tools often return partitions whose imbalance is higher than the prescribed tolerance. Our study of the solution space, that is, the set of all the partitions respecting the balance constraints, reveals that, in practice, this space is extremely large. Moreover, we prove in the mono-criterion case that a bound on the normalized vertex weights guarantees the existence of a solution, and the connectivity of the solution space. Based on these theoretical results, we propose improvements of the multilevel algorithm. Existing tools implement many variations of this algorithm. By studying their source code, we emphasize these variations and their consequences, in light of our analysis of the solution space. Furthermore, we define and implement two initial partitioning algorithms, focusing on returning a solution. From a potentially imbalanced partition, they successively move vertices from one part to another. The first algorithm performs any move that reduces the imbalance, while the second performs at each step the move reducing the most the imbalance. We present an original data structure that allows us to optimize the choice of the vertex to move, and leads to partitions of imbalance smaller on average than existing methods. We describe the experimentation framework, named Crack, that we implemented in order to compare the various algorithms at stake. This comparison is performed by partitioning a set of instances including an industrial test case, and several fictitious cases. We define a method for generating realistic weight distributions corresponding to “Particles-in-Cells”-like simulations. Our results demonstrate the necessity to coerce the vertex weights during the coarsening phase of the multilevel algorithm. Moreover, we evidence the impact of the vertex ordering, which should depend on the graph topology, on the efficiency of the “Heavy-Edge” matching scheme. The various algorithms that we consider are implemented in an open- source graph partitioning software called Scotch. In our experiments, Scotch and Crack returned a balanced partition for each execution, whereas MeTiS, the current most used partitioning tool, fails regularly. Additionally, the edgecut of the solutions returned by Scotch and Crack is equivalent or better than the edgecut of the solutions returned by MeTiS.
7

Allocation de ressources et ordonnancement multi-utilisateurs : une approche basée sur l'équité.

Medernach, Emmanuel 06 May 2011 (has links) (PDF)
Les grilles de calcul et le "cloud computing" permettent de distribuer un ensemble de ressources informatiques, telles que du stockage ou du temps de calcul, à un ensemble d'utilisateurs en fonction de leurs demandes en donnant l'illusion de ressources infinies. Cependant, lorsque l'ensemble de ces ressources est insuffisant pour satisfaire les exigences des utilisateurs, des conflits d'intérêts surgissent. Ainsi, un libre accès à des ressources limitées peut entraîner une utilisation inefficace qui pénalise l'ensemble des participants. Dans de tels environnements, il devient nécessaire d'établir des procédures d'arbitrage afin de résoudre ces conflits en garantissant une distribution équitable aux différents utilisateurs. Nous présentons une nouvelle classe de problèmes : celle des ordonnancements multi-utilisateurs. Cette thèse aborde la notion d'équité au travers de problèmes d'allocation de ressources sous incertitudes et d'ordonnancement de tâches périodiques.
8

Co-développement d'un modèle d'aide à la décision pour la gestion intégrée de la flore adventice. Méta-modélisation et analyse de sensibilité d'un modèle mécaniste complexe (FLORSYS) des effets des systèmes de culture sur les services et disservices écosystémiques de la flore adventice / Co-design of a decision support system for integrated weed management. Meta-modelling and sensitivity analysis of a complex mechanistic model (FLORSYS) of cropping system effects on ecosystem services and disservices of weeds

Colas, Floriane 26 March 2018 (has links)
Les adventices sont la principale menace pour les cultures, pour les gérer le moyen le plus utilisé est l’application d’herbicides. Leur emploi doit être réduit en raison de problèmes de santé et d'environnement. Pour les remplacer, il faut mettre en place des combinaisons de pratiques culturales. Cette complexification de la gestion des adventices, la nécessité de la raisonner sur le long terme et la multiplicité des impacts du système de culture font que les outils de modélisation sont d'une grande aide pour concevoir des systèmes de culture innovants. L'objectif de la thèse est de développer un outil d'aide à la décision (OAD) pour des conseillers agricoles afin d'assister la reconception de systèmes de culture moins consommateurs en herbicides. Notre approche consiste à déterminer la structure de ce nouvel OAD en interaction avec les futurs utilisateurs et son contenu biophysique à partir du fonctionnement de l'agroécosystème d'un modèle de recherche. Ce modèle est FLORSYS, un modèle mécaniste de « parcelle virtuelle » qui simule la dynamique de la flore adventice et du couvert cultivé en fonction des systèmes de culture et du pédoclimat et qui en déduit des indicateurs d'impact de la flore adventice sur la production agricole et les services écosystémiques. La thèse comprend trois étapes : (1) accélération de FLORSYS en méta-modélisant, par polynômes du chaos, son module le plus lent, le module d'interception du rayonnement lumineux individu-centrée du couvert culture:adventices avec transfert et interception de la lumière simulée au niveau du voxel (pixel 3D); (2) identification des pratiques culturales ayant le plus d'effet sur les indicateurs d'impact de la flore adventice, par fouille de données sur un très grand nombre de systèmes de culture réels simulés avec FLORSYS. Pour élargir la gamme des combinaisons d'entrées explorées, des systèmes de culture aléatoires ont été ajoutés à l'analyse. Des forêts aléatoires ont permis d'établir des grilles des techniques culturales les plus influentes en fonction des objectifs visés ; les arbres de régression identifient les combinaisons de pratiques culturales permettant d'atteindre ces mêmes objectifs; (3) en parallèle, le co-développement de la structure de l'OAD avec les futurs utilisateurs s’est fait via enquêtes et ateliers de co-conception de systèmes de culture, en termes de questions traitées, choix et formats des entrées et sorties etc. Dans l'étape (1), la comparaison entre la version voxelisée et la version méta-modélisée au niveau de la plante entière a mis en lumière le compromis précision/rapidité du modèle. Le métamodèle est plus rapide pour tester des stratégies d'agriculture de précision nécessitant de connaître précisément la position et le volume des plantes. Dans les autres cas, diminuer la précision en utilisant la version voxelisée avec un grand voxel est plus rapide. L'étape (2) montre que pour réduire l'impact des adventices sur la production, le travail du sol, principalement en été, et l’utilisation d’herbicides sont les pratiques les plus influentes. L'étape (3) a identifié deux cas d'utilisation pour le futur OAD : la reconception de systèmes de culture nécessite un OAD synthétique basé sur des méta-règles de décision; le réajustement de système de culture nécessite un OAD plus détaillé en termes de description du système de culture et des effets de la flore. L'OAD synthétique est composé de grilles de conseil, d'arbres de décision et d’un simulateur rapide basé sur des forêts aléatoires; sa facilité et sa capacité à prédire à la fois des éléments connus mais aussi surprenants pour les conseillers, en font un intéressant support lors d'ateliers de conception de systèmes de culture pour proposer les grandes lignes de reconception des systèmes de culture multiperformants. L’OAD détaillé sera une version de FLORSYS pré-paramétrée pour différentes régions pour ajuster finement des systèmes de culture candidats à chaque type de situation d'agriculteur. / The main threat to agricultural crops are weeds with herbicides being the primary cropping management practice. Due to the negative impact of herbicides on health and environment, their use must be reduced. To replace herbicides, numerous cropping practices need to be implemented. This makes weed management more complicated and, together with necessity of scheduling operations at long-term and the multiplicity of cropping system impacts, explains why models are so useful for designing innovative cropping systems. The aim of this thesis was to develop a Decision Support System (DSS) intended for crop advisors to help design cropping systems that are less dependent on herbicides. Our approach consisted in identifying the structure of the DSS in interaction with future users while using an existing research model for the biophysical content of the tool. The research model, FLORSYS, is a mechanistic model of a “virtual field” simulating the weed flora dynamics from both cropping systems and pedoclimatic conditions. As output, it provides weed impact indicators, both for crop production and ecosystem services. This work was achieved via three steps: (1) increasing the speed of FLORSYS simulations by metamodelling, via polynomial chaos extension, the slowest submodel, i.e. the radiation interception. This submodel is based on a 3D representation of each plant of the crop:weed canopy where the transfer and interception of the radiation is computed at a voxel (3D pixel) scale. (2) The identification of the most influential cropping practices on weed impacts indicators via datamining on a wide range of simulated cropping systems with FLORSYS. To widen the range of cropping systems, random cropping systems were added to the study. Random forest allowed the construction of charts of the most important cropping practices contingent on different objectives; classification and regression trees gave the optimal combinations of practices leading to those objectives. (3) Simultaneously, the co-development of the structure of the DSS with future users was done via surveys and workshops to design cropping systems. These interactions aimed at defining which questions should be answered with the DSS, which inputs and outputs, and with which format, should be used. In step (1), the simulation time of the voxelised FLORSYS and the FLORSYS metamodelled at the scale of the plant highlighted the precision/speed trade-off of the model. The metamodel is faster for agricultural practices requiring precise knowledge of the position and volume of plants. In other cases, decreasing the precision by using the voxelized FLORSYS with an increased voxel size is much faster. Step (2) shows no general conflict between crop protection and ecosystem service indicators. The conservation of both crop protection and ecosystem services is thus possible, except for bee food offer. To reduce weed impacts on production, tillage, especially in summer, and herbicide use are the main cropping techniques. In step (3) two use cases were identified: (1st) the redesign of a cropping system requires a synthetic tool, based on meta-decision rules (e.g. rotating winter and spring crops, ploughing once every three years); (2nd) adjusting cropping practices requires a detailed tool, with detailed inputs on the cropping system. The synthetic DSS is composed of charts of the most important cropping system practices, of decision trees, and an emulator of FLORSYS based on random forests. Its capacity to predict known facts makes it an essential discussion medium for cropping system design workshops, particularly to suggest the outlines of multi-performant cropping systems. The detailed DSS consists of a pre-parameterized version of FLORSYS for different regions, to allow the fine tuning of cropping systems to constraints and objectives of farmers.
9

Creation of a Biodiversity Severity Index to evaluate the risks of accidental pollutions in the industry : a multi-criteria sorting approach / Création d'un indice de gravité sur la biodiversité pour évaluer les risques de pollutions accidentelles dans l'industrie : une approche de tri multi-critères

Denat, Tom 05 July 2017 (has links)
Cette thèse s'appuie sur deux axes. L'un appliqué traite de la création d'un indicateur dont le but est d'évaluer la gravité attendue des conséquences d'un scénario de pollution accidentelle. J'ai choisi d'utiliser des outils méthodologiques appartenant au domaine de l'aide multi-critères à la décision pour traiter ce premier sujet. Ce problème impliquant plusieurs disciplines scientifiques, j'ai choisi de le diviser en plusieurs sous-problèmes à travers une arborescence de critères. J'ai également impliqué plusieurs experts, notamment en toxicologie et en écologie afin de mieux prendre en compte les aspects liés à ces deux disciplines dans la création de cet indicateur.L'étude des méthodes de tri multicritère effectuée lors des recherches sur le premier axe m'a amené à en proposer une nouvelle que j'ai nommé algorithme du Dominance Based Monte Carlo (DBMC). Cet algorithme a comme particularités de n'être pas fondé sur un modèle et de fonctionner de manière stochastique. Nous avons étudié ses propriétés théoriques, en particulier nous avons démontré qu'en dépit de sa nature stochastique, le résultat de l'algorithme Dominance Based Monte Carlo converge presque sûrement. Nous avons également étudié son comportement et ses performances pratiques à travers un test nommé k-fold cross validation et les avons comparés aux performances d'autres algorithmes d'élicitation des préférences pour le tri multi-critères. / This thesis is based on two main axes. The first one deals with the creation of an indicator that aims at evaluating the expected severity of the consequences of a scenario of accidental pollution. In order to create this methodology ofevaluation, I chose to use methodological tools from multi-criteria decision aiding. So as to deal with the complexity of this problem, i decided to split it into several sub-problems using a hierarchy of criteria, being mainly inspired by the "value focused thinking approach". In this work, I interacted with several experts in toxicology and in ecology in order to betterdeal with every aspect of this problem.While studying several elicitation methods for the multi-criteria sorting problem, I proposed a new one that I named Dominance Based Monte Carlo algorithm (DBMC), which brings me to the secons axis of this thesis. This elicitation algorithm has two main specificities: being model free and a stochastic functionning. In this thesis, we study its theoretical properties. In particular, we prove that despite its stochastic nature, the result of the Dominance Based Monte Carlo algorithm converges almost surely. We also study its practical performances through a test named k-fold validation and we compared these performances to those of other elicitation algorithms for the sorting problem.
10

Gouvernance d'échelle transversale utilisant les méthodes d'évaluation multi-critères, multi-acteurs pour arbitrer les conflits environnementaux : Le cas des centrales nucléaires en Turquie / Cross-scale governance using multi-criteria, multi-stakeholder evaluation methods to mediate environmental conflicts : The case of nuclear power plants in Turkey

Aydin, Cem iskender 07 December 2017 (has links)
Les conflits de distribution écologiques résultant du métabolisme social croissant du monde et l'expansion des frontières des marchandises qui en résulte, sont confrontés à des défis importants pour la gouvernance, en particulier lorsqu'il existe des interactions multiples, entre la nature et les individus qui possèdent de systèmes de valeurs différents, à travers différentes échelles (du local au global). L'interaction actuelle entre les échelles semble être définie par le pouvoir juridictionnel - une manière qui favorise les échelles internationales et / ou nationales, qui négligent les processus en cours qui se déroulent à d'autres échelles. Il existe une disparité entre les échelles où les décisions sont prises et les actions sont effectuées. Par conséquent, un mécanisme de gouvernance, avec non seulement des propriétés participatives prenant compte des différents systèmes de valeurs, mais avec des mécanismes de coordination entre plusieurs échelles, devient nécessaire. À cette arrière-plan, cette thèse maintient que les méthodes d'évaluation multicritères délibératives et participatives pourraient ouvrir de nouvelles voies pour les mécanismes de gouvernance environnementale pour les conflits avec des interactions transversales et vise à montrer l'importance d'une perspective multi-échelle dans un cadre multicritère. Dans une tentative d'opérationnaliser cet objectif, elle utilise le cas conflictuel de la production d'énergie nucléaire en Turquie et l'évalue aux échelles nationales et locales dans le contexte national et mondial des mouvements de justice environnementale. Elle démontre que l'élaboration d'un problème de décision conflictuel par une méthode multicritère / multi-échelle est utile pour i) identifier les défis résultant des interactions entre les parties prenantes et ii) les présenter de manière transparente et compréhensible. / The ecological distribution conflicts arising from the growing social metabolism of the world and the resulting expansion of the commodity frontiers pose important challenges for governance, especially when there are multiple interactions between the nature and people holding different value systems, across different scales (from local to global). The current interaction between scales seems to be defined by the jurisdictional power – a manner that is inclined to favour the international and/or national scales, which overlook the ongoing processes taking place in other scales. Such a discrepancy gives rise to a mismatch between the scales where the decisions are made and actions are undertaken, calling for a governance mechanism – one with participatory properties taking into account the different value systems and coordination mechanisms across multiple scales.At this background, this thesis argues that deliberative and participatory multi-criteria evaluation methods might open new avenues for environmental governance mechanisms for the conflicts with cross-scale interactions and aims to show the importance of a multi-scale perspective within multi-criteria framework. In an attempt to operationalize this aim, it uses the conflicted case of nuclear energy production in Turkey and assesses it at national and local scales within the context of national and global environmental justice movements. It is shown that framing a conflicted decision-making problem through multi-scale/multi-stakeholder method is helpful: i) in identifying the challenges resulting from the cross-scale interactions between stakeholders and ii) in presenting them in a transparent and comprehensible manner.

Page generated in 0.4223 seconds