• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 2
  • Tagged with
  • 7
  • 5
  • 5
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Collaboration inter-organisationnelle pour l'optimisation des chaînes d'approvisionnement en textile / Inter-organizational collaboration for optimizing textile supply chains

Ma, Ke 19 June 2018 (has links)
Dans cette recherche doctorale, une enquête approfondie et une revue de la littérature concernant la collaboration de la chaîne d'approvisionnement ont été menées. Plusieurs paradigmes et stratégies émergents de collaboration dans la chaîne d'approvisionnement ont été identifiés, ce qui a fourni une base théorique et une direction de recherche pour mes recherches ultérieures. En conséquence, trois modèles innovants de chaîne d'approvisionnement avec des stratégies d'optimisation correspondantes ont été développés: (1) un nouveau mécanisme de partage des ressources pour optimiser la fabrication des vêtements dans la chaîne d'approvisionnement textile; (2) un système central de traitement des commandes pour l'optimisation de la chaîne d'approvisionnement textile axée sur la demande, et (3) une plate-forme collaborative de services cloud pour l'optimisation de la chaîne d'approvisionnement textile da la fabrication à la commande. Stratégies de collaboration identifiées pour la chaîne d'approvisionnement, à savoir, le partage des ressources, le partage de l'information, la prise de décision conjointe, le partage des bénéfices, ont été utilisés pour développer les trois modèles de collaboration. Des heuristiques d'optimisation ont également été conçues pour différents objectifs dans trois modèles respectivement. Les trois stratégies collaboratives de la chaîne d'approvisionnement proposées ont été réalisées dans trois modèles de simulation en utilisant la technologie de simulation à événements discrets ou la technologie de simulation multi-agents. Plusieurs expériences ont été menées pour démontrer les avantages d'une telle structure collaborative dans différentes conditions. / In this PhD research, a thorough investigation and literature review regarding supply chain collaboration was conducted. Several emerging supply chain collaboration paradigms and strategies were identified, which provided a theoretical foundation and research direction for my subsequent research. Consequently, three innovative supply chain models with corresponding optimization strategies were developed: (1) a novel resource sharing mechanism for optimizing garment manufacturing echelon in textile supply chain, (2) a central order processing system for optimizing demand-driven textile supply chain, and (3) a collaborative cloud service platform for optimizing make-to-order textile supply chain. Identified supply chain collaboration strategies, viz. resource sharing, information sharing, joint decision-making, profit sharing, were employed for developing the three collaborative models. Optimization heuristics were also designed for different objectives in three models respectively. The three proposed supply chain collaboration strategies were realized in three simulation models by employing discrete-event simulation technology or multi-agent simulation technology. Several experiments were conducted to demonstrate the advantages of such collaborative structure under different conditions.
2

Statistical modeling and detection for digital image forensics / Modélisation et déctection statistiques pour la criminalistique des images numériques

Thai, Thanh Hai 28 August 2014 (has links)
Le XXIème siècle étant le siècle du passage au tout numérique, les médias digitaux jouent maintenant un rôle de plus en plus important dans la vie de tous les jours. De la même manière, les logiciels sophistiqués de retouche d’images se sont démocratisés et permettent aujourd’hui de diffuser facilement des images falsifiées. Ceci pose un problème sociétal puisqu’il s’agit de savoir si ce que l’on voit a été manipulé. Cette thèse s'inscrit dans le cadre de la criminalistique des images numériques. Deux problèmes importants sont abordés : l'identification de l'origine d'une image et la détection d'informations cachées dans une image. Ces travaux s'inscrivent dans le cadre de la théorie de la décision statistique et proposent la construction de détecteurs permettant de respecter une contrainte sur la probabilité de fausse alarme. Afin d'atteindre une performance de détection élevée, il est proposé d'exploiter les propriétés des images naturelles en modélisant les principales étapes de la chaîne d'acquisition d'un appareil photographique. La méthodologie, tout au long de ce manuscrit, consiste à étudier le détecteur optimal donné par le test du rapport de vraisemblance dans le contexte idéal où tous les paramètres du modèle sont connus. Lorsque des paramètres du modèle sont inconnus, ces derniers sont estimés afin de construire le test du rapport de vraisemblance généralisé dont les performances statistiques sont analytiquement établies. De nombreuses expérimentations sur des images simulées et réelles permettent de souligner la pertinence de l'approche proposée / The twenty-first century witnesses the digital revolution that allows digital media to become ubiquitous. They play a more and more important role in our everyday life. Similarly, sophisticated image editing software has been more accessible, resulting in the fact that falsified images are appearing with a growing frequency and sophistication. The credibility and trustworthiness of digital images have been eroded. To restore the trust to digital images, the field of digital image forensics was born. This thesis is part of the field of digital image forensics. Two important problems are addressed: image origin identification and hidden data detection. These problems are cast into the framework of hypothesis testing theory. The approach proposes to design a statistical test that allows us to guarantee a prescribed false alarm probability. In order to achieve a high detection performance, it is proposed to exploit statistical properties of natural images by modeling the main steps of image processing pipeline of a digital camera. The methodology throughout this manuscript consists of studying an optimal test given by the Likelihood Ratio Test in the ideal context where all model parameters are known in advance. When the model parameters are unknown, a method is proposed for parameter estimation in order to design a Generalized Likelihood Ratio Test whose statistical performances are analytically established. Numerical experiments on simulated and real images highlight the relevance of the proposed approach
3

Creation of a Biodiversity Severity Index to evaluate the risks of accidental pollutions in the industry : a multi-criteria sorting approach / Création d'un indice de gravité sur la biodiversité pour évaluer les risques de pollutions accidentelles dans l'industrie : une approche de tri multi-critères

Denat, Tom 05 July 2017 (has links)
Cette thèse s'appuie sur deux axes. L'un appliqué traite de la création d'un indicateur dont le but est d'évaluer la gravité attendue des conséquences d'un scénario de pollution accidentelle. J'ai choisi d'utiliser des outils méthodologiques appartenant au domaine de l'aide multi-critères à la décision pour traiter ce premier sujet. Ce problème impliquant plusieurs disciplines scientifiques, j'ai choisi de le diviser en plusieurs sous-problèmes à travers une arborescence de critères. J'ai également impliqué plusieurs experts, notamment en toxicologie et en écologie afin de mieux prendre en compte les aspects liés à ces deux disciplines dans la création de cet indicateur.L'étude des méthodes de tri multicritère effectuée lors des recherches sur le premier axe m'a amené à en proposer une nouvelle que j'ai nommé algorithme du Dominance Based Monte Carlo (DBMC). Cet algorithme a comme particularités de n'être pas fondé sur un modèle et de fonctionner de manière stochastique. Nous avons étudié ses propriétés théoriques, en particulier nous avons démontré qu'en dépit de sa nature stochastique, le résultat de l'algorithme Dominance Based Monte Carlo converge presque sûrement. Nous avons également étudié son comportement et ses performances pratiques à travers un test nommé k-fold cross validation et les avons comparés aux performances d'autres algorithmes d'élicitation des préférences pour le tri multi-critères. / This thesis is based on two main axes. The first one deals with the creation of an indicator that aims at evaluating the expected severity of the consequences of a scenario of accidental pollution. In order to create this methodology ofevaluation, I chose to use methodological tools from multi-criteria decision aiding. So as to deal with the complexity of this problem, i decided to split it into several sub-problems using a hierarchy of criteria, being mainly inspired by the "value focused thinking approach". In this work, I interacted with several experts in toxicology and in ecology in order to betterdeal with every aspect of this problem.While studying several elicitation methods for the multi-criteria sorting problem, I proposed a new one that I named Dominance Based Monte Carlo algorithm (DBMC), which brings me to the secons axis of this thesis. This elicitation algorithm has two main specificities: being model free and a stochastic functionning. In this thesis, we study its theoretical properties. In particular, we prove that despite its stochastic nature, the result of the Dominance Based Monte Carlo algorithm converges almost surely. We also study its practical performances through a test named k-fold validation and we compared these performances to those of other elicitation algorithms for the sorting problem.
4

Essays on decision theory and economic efficiency / Essais sur la théorie de la décision et l'efficacité économique

Charpin, Ariane 01 February 2019 (has links)
Cette thèse de doctorat s’intéresse à deux thèmes distincts : la prise de décision en situation de risque et l’efficacité économique. Ces deux questions sont traitées dans un cadre empirique en utilisant des bases de données uniques. Le premier chapitre teste les modèles théoriques de décision en situation de risque sur des données réelles de paris hippiques pour identifier la théorie qui permet la meilleure description des choix des individus. Ce chapitre montre que les théories comportementales de la décision en situation de risque (théorie des perspectives cumulées et modèle de l’utilité dépendante du rang) sont mieux adaptées pour expliquer le comportement des parieurs observé dans les données que la théorie de l’utilité espérée. Le second chapitre estime l’effet d’une concentration entre deux grandes entreprises du secteur des transports urbains en France sur leurs coûts. Les résultats obtenus mettent en évidence que la fusion n’a pas entraîné de gains d’efficacité pour les parties à la fusion. Ce résultat s’explique notamment par le contexte dans lequel la fusion a été menée, en particulier les raisons du choix de la cible, la perception des clients et des employés de la fusion, les différences de culture entre les entreprises et la préparation opérationnelle de l’opération. Le troisième chapitre examine l’impact d’une plus grande discrétion dans les procédures d’appels d’offres sur la sélection des opérateurs, en particulier leur productivité. Le résultat principal est que la procédure qui accroît potentiellement le pouvoir discrétionnaire des acheteurs publics conduit à la sélection d’entreprises moins efficaces qu’une procédure n’impliquant pas ou peu de discrétion. Nos analyses complémentaires suggèrent que le résultat s’explique par l’effet d’une plus grande discrétion à l’étape de sélection des entreprises. / This doctoral thesis focuses on two distinct themes: decision-making in situations of risk and economic efficiency. These two questions are treated in an empirical framework using unique databases. The first chapter tests the theoretical models of decision under risk on bets on horseraces to identify the theory that allows the best description of individuals’ choices. This chapter shows that behavioral theories of decision under risk (cumulative prospect theory and rank-dependent utility) are better suited to explain the behavior of bettors observed in the data than the expected utility theory. The second chapter estimates the effect of a merger between two large companies in the urban transport sector in France on their costs. The results show that the merger did not result in efficiency gains for the merging parties. This result can be understood in light of the context in which the merger was conducted, in particular the reasons for the choice of the target, the perception of customers and employees of the merger, the differences in culture between the companies and the operational preparation of the merger. The third chapter examines the impact of greater discretion in tendering procedures on the selection of operators, particularly their productivity. The main result is that the procedure that potentially increases the discretion of public purchasers leads to the selection of less efficient companies than a procedure involving little or no discretion. Further analyzes suggest that the result is due to the effect of greater discretion at the screening stage.
5

Oracle-based algorithms for optimizing sophisticated decision criteria in sequential, robust and fair decision problems / Algorithmes à base d'oracles pour optimiser des critères décisionnels sophistiqués pour les problèmes de décision séquentielle, robuste et équitable

Gilbert, Hugo 11 December 2017 (has links)
Cette thèse s'inscrit dans le cadre de la théorie de la décision algorithmique, qui est une discipline au croisement de la théorie de la décision, la recherche opérationnelle et l'intelligence artificielle. Dans cette thèse, nous étudions l'utilisation de plusieurs modèles décisionnels pour résoudre des problèmes de décision séquentielle dans l'incertain, d'optimisation robuste, et d'optimisation multi-agents équitable. Pour résoudre efficacement ces problèmes, nous utilisons des méthodes de type maître-esclaves, dites à base d'oracles dans la thèse. Ces méthodes permettent de résoudre des problèmes de grande taille en procédant de manière incrémentale. Une attention particulière est portée au modèle de l'espérance d'utilité antisymétrique et bilinéaire, au modèle de l'espérance d'utilité pondérée et à leurs pendants en décision multicritère. L'intérêt de ces modèles est multiple. En effet, ils étendent les modèles standards (e.g., modèle de l'espérance d'utilité) et permettent de représenter un spectre étendu de préférences tout en conservant leurs bonnes propriétés théoriques et algorithmiques. La thèse apporte des réponses sur des aspects théoriques (e.g., résultats de complexité algorithmique) et sur des aspects opérationnels (e.g., conception de méthodes de résolution efficaces) aux problèmes soulevés par l'emploi de ces critères dans les contextes susmentionnés. / This thesis falls within the area of algorithmic decision theory, which is at the crossroads between decision theory, operational research and artificial intelligence. In this thesis, we study several decision models to solve problems in different domains: sequential decision problems under risk, robust optimization problems, and fair multi-agent optimization problems. To solve these problems efficiently, we use master-slave algorithms which solve the problem through an incremental process. These procedures, referred to as oracle methods in the thesis, make it possible to solve problems of large size. A particular attention is given to the skew-symmetric bilinear utility model, the weighted expected utility model and their counterparts in multicriteria decision making. These models are interesting at several respects. They extend the standard models (e.g., the expected utility model) and allow to represent a broader class of preferences while retaining their good theoretical and algorithmic properties. The thesis focuses both on theoretic (e.g., complexity results) and operational (e.g., design of practically efficient solution methods) aspects of the problems raised by the use of these criteria in the domains aforementioned.
6

Optimisation et aide à la décision pour la programmation des opérations électives et urgentes / Optimization and decision support for the scheduling of elective and non-elective surgeries

Bouguerra, Afef 07 July 2017 (has links)
Au sein d’un établissement hospitalier, le bloc opératoire représente un des secteurs les plus emblématiques et les plus coûteux. Le fonctionnement du bloc opératoire est orchestré par un programme opératoire qui consiste à construire un planning prévisionnel des interventions chirurgicales à réaliser pendant un horizon donné. La littérature abondante sur le sujet est unanime sur le fait que la construction du programme opératoire est une tâche complexe, car il s’agit non seulement de planifier et d’ordonnancer les interventions, mais aussi de satisfaire des exigences souvent antagonistes. Ce projet est le fruit d’une collaboration entre la Communauté d’Agglomération de Sarreguemines Confluences et la Région Lorraine, des membres du secteur hospitalier (Hôpital Robert Pax de Sarreguemines) et l’équipe Gestion Industrielle et Logistique (GIL) du Laboratoire de Génie Industriel, de Production et de Maintenance (LGIPM). L’objectif de cette recherche est d’apporter une aide aux gestionnaires du bloc opératoire, qui ont besoin de plus en plus des méthodes et des outils d’aide à la décision en vue d’optimiser leur fonctionnement. Pour répondre à ce besoin nous nous intéressons dans la première partie de cette thèse à la gestion des opérations électives en prenant en compte différentes contraintes et en particulier la disponibilité des chirurgiens. Nous nous plaçons dans le contexte d’une stratégie « open scheduling » et nous proposons deux modèles mathématiques permettant d’élaborer le programme opératoire. La complexité des modèles mathématiques et leur explosion combinatoire rendent difficile la recherche de l’optimum pour des tailles réalistes. Ceci nous a donc amené à proposer une heuristique constructive utilisant le modèle proposé et permettant d’obtenir des solutions là où la méthode exacte ne nous le permettait pas. Dans la seconde partie de cette thèse, nous considérons l’intégralité du processus opératoire (brancardage vers le bloc opératoire, préparation et anesthésie, acte chirurgicale et réveil). Nous modélisons ce processus comme un flow shop hybride à 4 étages avec contrainte de blocage de type RSb, et nous le résolvons à l’aide d’un algorithme génétique dont l’objectif est de synchroniser toutes les ressources nécessaires, en respectant au mieux le programme opératoire prévisionnel. Outre les opérations électives, nous nous intéressons dans la dernière partie aux opérations urgentes. Nous proposons un outil d’aide à la décision pour la gestion des opérations urgentes. En prenant en considération la pathologie et la gravité de l’état du patient, nous distinguons principalement 3 degrés d’urgences et proposons pour chacune un algorithme permettant d’intégrer en temps réel ces opérations dans le programme prévisionnel, tout en minimisant différents critères (temps d’attente avant affectation, heures supplémentaires, décalage par rapport aux anciennes dates de débuts) / The operating theater is one of the most critical and expensive hospital resources. Indeed, a high percentage of hospital admissions are due to surgical interventions. Rising expenditures spur health care organizations to organize their processes more efficiently and effectively. This thesis is supported by the urban community of Sarreguemines-France and the region of Lorraine-France, and is carried out in collaboration with the Centre Hospitalier de Sarreguemines - Hôpital Robert Pax. In the first part of this work, we propose two mathematical programming models to help operating theater managers in developing an optimal operating rooms scheduling. We also propose a constructive heuristic to obtain near optimal results for realistic sizes of the problem. In the second part of our work, the whole scheduling process is modeled as a hybrid four-stage flow shop problem with RSb blocking constraint, and is solved by a genetic algorithm. The objective is to synchronize all the needed resources around the optimal daily schedule obtained with the proposed mathematical model. The last part of our work is dedicated to non-elective surgeries. We propose a decision support tool, guiding the operating room manager, to handle this unpredictable flow of patients. Non-elective patients are classified according to their medical priority. The main contribution of the proposed decision support tool is to provide online assignment strategies to treat each non elective patient category. Proposed assignments are riskless on patient’s health. According to non-elective surgery classes, the proposed adjusted schedule minimizes different criteria such as patient’s waiting time, deviation from the firstly scheduled starting time of a surgery and the amount of resulting overtime
7

Management de portefeuilles de projets : modèles multicritère d'évaluation, de sélection et d'argumentation / Project portfolio management : multicriteria models for evaluation, selection and argumentation

Dehouche, Nassim 14 May 2014 (has links)
Cette thèse traite du processus d’évaluation et de sélection de projets sur la base de critères multiples. Outre la capacité du modèle à permettre une identification efficace des meilleurs projets et leur intégration à un portefeuille, l’équité et la transparence sont des considérations importantes dans la conception de modèles d’appui à ce processus. Nous proposons un cadre de travail général pour l’évaluation de projets, Il reprend les codes de l’analyse SWOT, dont de nombreuses organisations orientées projets sont familières. Nos contributions apportent des éléments de réponse à la question de « l’après SWOT », à laquelle ces organisations peuvent éprouver des difficultés à répondre. Dans ce cadre de travail, nous introduisons et discutons un modèle de préférences permettant de mesurer l’importance des critères sur deux dimensions, représentant de manière indépendante leurs capacités de conviction et d’opposition. Suivant l’évaluation et en préalable à la sélection, le filtrage consiste à écarter les projets trop inadéquats. Nous proposons un mécanisme basé sur la dominance pour effectuer cette opération. Nous proposons, enfin, deux méthodes de sélection de projets, chacune étant basée sur une procédure d’agrégation multicritère originale. La première méthode, SPADE (pour Structure de Préférence pour l’Aide à la Décision) est une approche de surclassement, destinée à des contextes où les préférences exprimées concernent essentiellement les projets individuels, et dans lesquels les décisions concernant un projet peuvent être argumentées en référence à des projets tiers. Nous garantissons la validité théorique de SPADE, en amont, ce qui permet un temps de mise en œuvre réduit et une utilisation en temps réel. En pratique, nous illustrons l’application de SPADE, en la comparant à deux autres approches d’aide multicritères à la décision, MAUT et ELECTRE, en mettant en exergue ses spécificités. La seconde méthode, RADAR (Règles d’Aide à la Décision et à l’ARgumentation) est une approche à base de règles logiques. Elle est destinée à des contextes plus contraints dans lesquels les préférences exprimées concernent à la fois les projets individuels, mais aussi le portefeuille de projets (degré de diversification, budget total, etc.). De plus, l'argumentation des décisions est ici basée exclusivement sur la qualité intrinsèque des projets en référence à une norme fixe. RADAR permet également la construction automatique de tels arguments. Nous proposons un programme linéaire en variable mixtes permettant de valider théoriquement cette approche. Cependant, sa résolution est nécessaire à chaque mise en œuvre de RADAR, ce qui limite l’application de cette approche au temps différé. Nous illustrons une telle application sur un jeu de données représentant des évaluations de projets financés par le Fond des Nations Unies pour la Démocratie (UNDEF). / Project portfolio management (PPM) involves the use of methods and tools, allowing an organization to plan, evaluate, analyze and screen the execution of a set of projects or project proposals, sharing common resources or aiming at the attainment of common objectives. Multicriteria decision aid models are useful tools to support this process, given their ability to accurately model preferences, and rationally agregate points of view. However, existing models present some lacks that limit their use outside of academic circles : (i) They neglect the non-symetrical nature of the importance of some criteria that are relevant in PPM. (ii) The black box effect makes it hard to use them for the argumentation of decisions and to gain their acceptance by users (iii) They are implicitly fitted for private/for-profit projects, which limits their use in public organizations. In this thesis, our contribution consists in proposing two multicriteria methods for supporting the activities of evaluating, selecting and arguing decision, for project portfolio management. We propose: (i) An analysis of the specific features of public and private projects and their consequences for decision support (ii) A framework that allows an independent modeling of the abilities of a criterion to oppose and convince (iii) Two transparent multicriteria agregation procedures, fitted for different decision contexts. We ensure the theoretical validity of our approaches and illustrate their applicability on real data, with satisfying results.

Page generated in 0.0188 seconds