• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 4
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 49
  • 49
  • 25
  • 10
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Waiting Lines and System Selection in Constrained Service Systems with Applications in Election Resource Allocation

Huang, Shijie January 2016 (has links)
No description available.
42

Dynamic Resampling for Preference-based Evolutionary Multi-objective Optimization of Stochastic Systems : Improving the efficiency of time-constrained optimization

Siegmund, Florian January 2016 (has links)
In preference-based Evolutionary Multi-objective Optimization (EMO), the decision maker is looking for a diverse, but locally focused non-dominated front in a preferred area of the objective space, as close as possible to the true Pareto-front. Since solutions found outside the area of interest are considered less important or even irrelevant, the optimization can focus its efforts on the preferred area and find the solutions that the decision maker is looking for more quickly, i.e., with fewer simulation runs. This is particularly important if the available time for optimization is limited, as is the case in many real-world applications. Although previous studies in using this kind of guided-search with preference information, for example, withthe R-NSGA-II algorithm, have shown positive results, only very few of them considered the stochastic outputs of simulated systems. In the literature, this phenomenon of stochastic evaluation functions is sometimes called noisy optimization. If an EMO algorithm is run without any countermeasure to noisy evaluation functions, the performance will deteriorate, compared to the case if the true mean objective values are known. While, in general, static resampling of solutions to reduce the uncertainty of all evaluated design solutions can allow EMO algorithms to avoid this problem, it will significantly increase the required simulation time/budget, as many samples will be wasted on candidate solutions which are inferior. In comparison, a Dynamic Resampling (DR) strategy can allow the exploration and exploitation trade-off to be optimized, since the required accuracy about objective values varies between solutions. In a dense, converged population, itis important to know the accurate objective values, whereas noisy objective values are less harmful when an algorithm is exploring the objective space, especially early in the optimization process. Therefore, a well-designed Dynamic Resampling strategy which resamples the solution carefully, according to the resampling need, can help an EMO algorithm achieve better results than a static resampling allocation. While there are abundant studies in Simulation-based Optimization that considered Dynamic Resampling, the survey done in this study has found that there is no related work that considered how combinations of Dynamic Resampling and preference-based guided search can further enhance the performance of EMO algorithms, especially if the problems under study involve computationally expensive evaluations, like production systems simulation. The aim of this thesis is therefore to study, design and then to compare new combinations of preference-based EMO algorithms with various DR strategies, in order to improve the solution quality found by simulation-based multi-objective optimization with stochastic outputs, under a limited function evaluation or simulation budget. Specifically, based on the advantages and flexibility offered by interactive, reference point-based approaches, studies of the performance enhancements of R-NSGA-II when augmented with various DR strategies, with increasing degrees of statistical sophistication, as well as several adaptive features in terms of optimization parameters, have been made. The research results have clearly shown that optimization results can be improved, if a hybrid DR strategy is used and adaptive algorithm parameters are chosen according to the noise level and problem complexity. In the case of a limited simulation budget, the results allow the conclusions that both decision maker preferences and DR should be used at the same time to achieve the best results in simulation-based multi-objective optimization. / Vid preferensbaserad evolutionär flermålsoptimering försöker beslutsfattaren hitta lösningar som är fokuserade kring ett valt preferensområde i målrymden och som ligger så nära den optimala Pareto-fronten som möjligt. Eftersom lösningar utanför preferensområdet anses som mindre intressanta, eller till och med oviktiga, kan optimeringen fokusera på den intressanta delen av målrymden och hitta relevanta lösningar snabbare, vilket betyder att färre lösningar behöver utvärderas. Detta är en stor fördel vid simuleringsbaserad flermålsoptimering med långa simuleringstider eftersom antalet olika konfigurationer som kan simuleras och utvärderas är mycket begränsat. Även tidigare studier som använt fokuserad flermålsoptimering styrd av användarpreferenser, t.ex. med algoritmen R-NSGA-II, har visat positiva resultat men enbart få av dessa har tagit hänsyn till det stokastiska beteendet hos de simulerade systemen. I litteraturen kallas optimering med stokastiska utvärderingsfunktioner ibland "noisy optimization". Om en optimeringsalgoritm inte tar hänsyn till att de utvärderade målvärdena är stokastiska kommer prestandan vara lägre jämfört med om optimeringsalgoritmen har tillgång till de verkliga målvärdena. Statisk upprepad utvärdering av lösningar med syftet att reducera osäkerheten hos alla evaluerade lösningar hjälper optimeringsalgoritmer att undvika problemet, men leder samtidigt till en betydande ökning av antalet nödvändiga simuleringar och därigenom en ökning av optimeringstiden. Detta är problematiskt eftersom det innebär att många simuleringar utförs i onödan på undermåliga lösningar, där exakta målvärden inte bidrar till att förbättra optimeringens resultat. Upprepad utvärdering reducerar ovissheten och hjälper till att förbättra optimeringen, men har också ett pris. Om flera simuleringar används för varje lösning så minskar antalet olika lösningar som kan simuleras och sökrymden kan inte utforskas lika mycket, givet att det totala antalet simuleringar är begränsat. Dynamisk upprepad utvärdering kan däremot effektivisera flermålsoptimeringens avvägning mellan utforskning och exploatering av sökrymden baserat på det faktum att den nödvändiga precisionen i målvärdena varierar mellan de olika lösningarna i målrymden. I en tät och konvergerad population av lösningar är det viktigt att känna till de exakta målvärdena, medan osäkra målvärden är mindre skadliga i ett tidigt stadium i optimeringsprocessen när algoritmen utforskar målrymden. En dynamisk strategi för upprepad utvärdering med en noggrann allokering av utvärderingarna kan därför uppnå bättre resultat än en allokering som är statisk. Trots att finns ett rikligt antal studier inom simuleringsbaserad optimering som använder sig av dynamisk upprepad utvärdering så har inga relaterade studier hittats som undersöker hur kombinationer av dynamisk upprepad utvärdering och preferensbaserad styrning kan förbättra prestandan hos algoritmer för flermålsoptimering ytterligare. Speciell avsaknad finns det av studier om optimering av problem med långa simuleringstider, som t.ex. simulering av produktionssystem. Avhandlingens mål är därför att studera, konstruera och jämföra nya kombinationer av preferensbaserade optimeringsalgoritmer och dynamiska strategier för upprepad utvärdering. Syftet är att förbättra resultatet av simuleringsbaserad flermålsoptimering som har stokastiska målvärden när antalet utvärderingar eller optimeringstiden är begränsade. Avhandlingen har speciellt fokuserat på att undersöka prestandahöjande åtgärder hos algoritmen R-NSGA-II i kombination med dynamisk upprepad utvärdering, baserad på fördelarna och flexibiliteten som interaktiva referenspunktbaserade algoritmer erbjuder. Exempel på förbättringsåtgärder är dynamiska algoritmer för upprepad utvärdering med förbättrad statistisk osäkerhetshantering och adaptiva optimeringsparametrar. Resultaten från avhandlingen visar tydligt att optimeringsresultaten kan förbättras om hybrida dynamiska algoritmer för upprepad utvärdering används och adaptiva optimeringsparametrar väljs beroende på osäkerhetsnivån och komplexiteten i optimeringsproblemet. För de fall där simuleringstiden är begränsad är slutsatsen från avhandlingen att både användarpreferenser och dynamisk upprepad utvärdering bör användas samtidigt för att uppnå de bästa resultaten i simuleringsbaserad flermålsoptimering.
43

Effiziente parallele Sortier- und Datenumverteilungsverfahren für Partikelsimulationen auf Parallelrechnern mit verteiltem Speicher

Hofmann, Michael 09 March 2012 (has links)
Partikelsimulationen repräsentieren eine Klasse von daten- und rechenintensiven Simulationsanwendungen, die in unterschiedlichen Bereichen der Wissenschaft und der industriellen Forschung zum Einsatz kommen. Der hohe Berechnungsaufwand der eingesetzten Lösungsmethoden und die großen Datenmengen, die zur Modellierung realistischer Probleme benötigt werden, machen die Nutzung paralleler Rechentechnik hierfür unverzichtbar. Parallelrechner mit verteiltem Speicher stellen dabei eine weit verbreitete Architektur dar, bei der eine Vielzahl an parallel arbeitenden Rechenknoten über ein Verbindungsnetzwerk miteinander Daten austauschen können. Die Berechnung von Wechselwirkungen zwischen Partikeln stellt oft den Hauptaufwand einer Partikelsimulation dar und wird mit Hilfe schneller Lösungsmethoden, wie dem Barnes-Hut-Algorithmus oder der Schnellen Multipolmethode, durchgeführt. Effiziente parallele Implementierungen dieser Algorithmen benötigen dabei eine Sortierung der Partikel nach ihren räumlichen Positionen. Die Sortierung ist sowohl notwendig, um einen effizienten Zugriff auf die Partikeldaten zu erhalten, als auch Teil von Optimierungen zur Erhöhung der Lokalität von Speicherzugriffen, zur Minimierung der Kommunikation und zur Verbesserung der Lastbalancierung paralleler Berechnungen. Die vorliegende Dissertation beschäftigt sich mit der Entwicklung eines effizienten parallelen Sortierverfahrens und der dafür benötigten Kommunikationsoperationen zur Datenumverteilung in Partikelsimulationen. Hierzu werden eine Vielzahl existierender paralleler Sortierverfahren für verteilten Speicher analysiert und mit den Anforderungen von Seiten der Partikelsimulationsanwendungen verglichen. Besondere Herausforderungen ergeben sich dabei hinsichtlich der Aufteilung der Partikeldaten auf verteilten Speicher, der Gewichtung zu sortierender Daten zur verbesserten Lastbalancierung, dem Umgang mit doppelten Schlüsselwerten sowie der Verfügbarkeit und Nutzung speichereffizienter Kommunikationsoperationen. Um diese Anforderungen zu erfüllen, wird ein neues paralleles Sortierverfahren entwickelt und in die betrachteten Anwendungsprogramme integriert. Darüber hinaus wird ein neuer In-place-Algorithmus für der MPI_Alltoallv-Kommunikationsoperation vorgestellt, mit dem der Speicherverbrauch für die notwendige Datenumverteilung innerhalb der parallelen Sortierung deutlich reduziert werden kann. Das Verhalten aller entwickelten Verfahren wird jeweils isoliert und im praxisrelevanten Einsatz innerhalb verschiedener Anwendungsprogramme und unter Verwendung unterschiedlicher, insbesondere auch hochskalierbarer Parallelrechner untersucht.
44

SIMULATION-BASED OPTIMIZATION FOR COMPLEX SYSTEMS WITH SUPPLY AND DEMAND UNCERTAINTY

Fageehi, Yahya 20 September 2018 (has links)
No description available.
45

Optimization of blood collection systems : Balancing service quality given to the donor and the efficiency in the collection planning. / Optimisation de la collecte de sang : concilier la qualité de service au donneur de sang et l'efficience de l'organisation de la collecte

Alfonso Lizarazo, Edgar 04 July 2013 (has links)
Les rapports d’activité de l’Établissement Français du Sang (EFS) font état d’une demande croissante de produits sanguins labiles (PSL) tels les concentrés globules rouges (CGR), les plaquettes, et le plasma. Afin d’assurer la demande vitale en PSL, il est primordial d’optimiser la logistique liée aux activités de collecte du sang et de ses composants. Pour faire face à cette situation, l’EFS Auvergne-Loire mène une réflexion dans le but d’utiliser de manière plus efficiente les dispositifs de collecte en sites fixes et mobiles pour améliorer (i) la qualité de service rendue au donneur, et (ii) l’efficience de l’utilisation des ressources humaines. Dans ce contexte nous avons développé dans cette thèse des outils opérationnels pour (i) la modélisation des dispositifs de collecte, (ii) la régulation des flux de donneurs, et (iii) la planification de collectes mobiles.La méthode d'analyse des dispositifs de collecte est basée sur des techniques de simulation à événements discrets. Une modélisation préalable des flux de donneurs dans les systèmes de collecte en sites fixes et mobiles à l’aide de réseaux de Petri a été proposée. Pour la régulation de flux de donneurs, notamment pour la planification optimale des rendez-vous des donneurs et la planification de la capacité dans les systèmes de collecte au site fixe, deux approches ont été abordées: (a) Construction d'un algorithme basée sur techniques d'optimisation stochastique via simulation ; (b) Programmation mathématique: Modèle de programmation en nombres entiers non-linéaire (MINLP) basée sur réseaux de files d'attente et représentation et évaluation des systèmes à événements discrets à travers de programmation mathématique. Pour la planification de collectes mobiles. Deux types de modèles ont été développés : (a) Au niveau tactique : Modèles de programmation en nombres entiers linéaire (MIP) pour planifier les semaines de collectes pour chaque ensemble disponible sur un horizon de temps pour garantir l'autosuffisance à niveau régional des CGR. (b) Au niveau opérationnel : Modèle de programmation en nombres entiers linéaire (MIP) pour l’organisation du travail des équipes en charge de la collecte. / Activity reports of the French Blood Establishment (EFS) indicate a growing demand for Labile Blood Products (LBP) as red blood cells (RBC), platelets and plasma. To ensure the vital demand of labile blood products (LBP), it’s essential to optimize the logistics related with the collection of blood components. To deal with this situation, the EFS Auvergne-Loire carry out a reflection in order to use more efficiently the collection devices in fixed and mobile sites, to improve the quality of service offered to the donor and the efficiency of human resources. In this context we have developed in this thesis operational tools for (i) modeling of blood collection devices (ii) The regulation of flows donors (iii) Planning of bloodmobile collections.The method analysis of collection devices is based on techniques of discrete event simulation. A preliminary modeling of donors’ flow in fixed and mobile collection systems using Petri nets was conducted. For the regulation of flow of donors, i.e. the optimal capacity planning and appointment scheduling of blood collections, two approaches were considered: (a) Simulation based-optimization.(b) Mathematical Programming: Mixed integer nonlinear programming (MINLP) based on queuing networks and mathematical programming representation of discrete event systems. For planning of bloodmobile collections. Two models have been developed: (a) At the tactical level: Mixed integer linear programming (MIP) to determine the weeks in which the mobile collection must be organized in order to ensure the regional self-sufficiency of RBC. (b) At the operational level: Mixed integer linear programming (MIP) for the planning of human resources in charge of blood collections.
46

Eine neue Strategie zur multikriteriellen simulationsbasierten Bewirtschaftungsoptimierung von Mehrzweck-Talsperrenverbundsystemen / A new strategy for simulation-based multi-objective optimization of multi-purpose multi-reservoir systems

Müller, Ruben 11 February 2015 (has links) (PDF)
Wasserwirtschaftliche Speichersysteme sind unverzichtbar, um weltweit die Trinkwasserversorgung, Nahrungsmittelproduktion und Energieversorgung sicherzustellen. Die multikriterielle simulationsbasierte Optimierung (MK-SBO) ist eine leistungsfähige Methodik, um für Mehrzweck-Talsperrenverbundsysteme (MZ-TVS) eine Pareto-optimale Menge an Kompromisslösungen zwischen konträren Zielen bereitzustellen. Der rechentechnische Aufwand steigt jedoch linear mit der Länge des Simulationszeitraums der Talsperrenbewirtschaftung an. Folglich begrenzen sich MK-SBO-Studien bisher auf Simulationszeiträume von wenigen Jahrzehnten. Diese Zeiträume sind i.d.R. unzureichend, um Unsicherheiten, die aus der stochastischen Natur der Zuflüsse resultieren, adäquat zu beschreiben. Bewirtschaftungsoptimierungen von MZ-TVS hinsichtlich ihrer Zuverlässigkeit, z.B. durch die Maximierung von Versorgungssicherheiten, können sich als wenig belastbar und ermittelte Steuerungsstrategien als wenig robust erweisen. Um diesen Herausforderungen zu begegnen, wird ein neues modulares Framework zur multikriteriellen simulationsbasierten Bewirtschaftungsoptimierung von MZ-TVS (Frams-BoT) entwickelt. Eine Informationserweiterung zu stochastischen Zuflussprozessen erfolgt über ein weiterentwickeltes Zeitreihenmodell mittels generierter Zeitreihen von mehreren Tausend Jahren Länge. Eine neue Methode zur Monte-Carlo-Rekombination von Zeitreihen ermöglicht dann die Nutzung dieser Informationen in der MK-SBO in wesentlich kürzeren Simulationszeiträumen. Weitere Rechenzeit wird durch Parallelisierung und eine fortgeschrittene Kodierung von Entscheidungsvariablen eingespart. Die Simulation von Zuflussdargeboten für multikriterielle Klimafolgenanalysen erfolgt durch ein prozessorientiertes Wasserhaushaltsmodell. Level-Diagramme (Blasco et al., 2008) unterstützten den komplexen Prozess der Entscheidungsfindung. Die Wirksamkeit und Flexibilität des Frameworks wurden in zwei Fallstudien gezeigt. In einer ersten Fallstudie konnten in einer Klimafolgenanalyse Versorgungssicherheiten von über 99% als ein Ziel eines multikriteriellen Optimierungsproblems maximiert werden, um die Verlässlichkeit der Bewirtschaftung eines MZ-TVS in Sachsen (Deutschland) zu steigern. Eine zweite Fallstudie befasste sich mit der Maximierung der Leistungsfähigkeit eines MZ-TVS in Äthiopien unter verschiedenen Problemformulierungen. In beiden Fallstudien erwiesen sich die erzielten Pareto-Fronten und Steuerungsstrategien gegenüber 10 000-jährigen Zeiträumen als robust. Die benötigten Rechenzeiten der MK-SBO ließen sich durch das Framework massiv senken. / Water resources systems are worldwide essential for a secure supply of potable water, food and energy production. Simulation-based multi-objective optimization (SB-MOO) is a powerful method to provide a set of Pareto-optimal compromise solutions between various contrary goals of multi-purpose multi-reservoir systems (MP-MRS). However, the computational costs increases with the length of the time period in which the reservoir management is simulated. Consequently, MK-SBO studies are currently restricted to simulation periods of several decades. These time periods are normally insufficient to describe the stochastic nature of the inflows and the consequent hydrological uncertainties. Therefore, an optimization of the reliability of management of MP-MRS, e.g. through the maximization of the security of supply, may not be resilient. Obtained management strategies may not prove robust. To address these challenges, a new modular framework for simulation-based multiobjective optimization of the reservoir management of multi-purpose multi-reservoir systems (Frams-BoT) is developed. A refined time series model provides time series of several thousand years to extend the available information about the stochastic inflow processes. Then, a new Monte-Carlo recombination method allows for the exploitation of the extended information in the SB-MOO on significantly shorter time periods. Further computational time is saved by parallelization and an advanced coding of decision variables. A processoriented water balance model is used to simulate inflows for multi-objective climate impact analysis. Level-Diagrams [Blasco et al., 2008] are used to support the complex process of decision-making. The effectiveness and flexibility of the framework is presented in two case studies. In the first case study about a MP-MRS in Germany, high securities of supply over 99% where maximized as part of a multi-objective optimization problem in order to improve the reliability of the reservoir management. A second case study addressed the maximization of the performance of a MP-MRS in Ethiopia under different formulations of the optimization problem. In both case studies, the obtained Pareto-Fronts and management strategies proved robust compared to 10 000 year time periods. The required computational times of the SB-MOO could be reduced considerably.
47

Graphene-Based Conductor Materials: Assessment of the Electrical Conductivity

Rizzi, Leo 05 August 2021 (has links)
In the application as conductor materials, metals such as copper or aluminum represent the state of the art. This applies for example to high-voltage lines, motor windings or the infrastructure in cities. However, metals, and especially copper, are expensive and heavy. Graphene-based conductor materials (GCMs) represent a cost-competitive and highly conductive alternative to metallic conductors. GCMs are mechanically flexible, lightweight and corrosion-resistant. But in order to fully exploit the potential of their electrical conductivity, a systematic material optimization is required. In this thesis, the electrical conductivity of GCMs is investigated in simulations and experiments. Using a simplified model of a GCM, the theoretical maximum value of the conductivity is derived mathematically. Furthermore, the dependence of the conductivity on microscopic material parameters is quantified. For a deeper insight, finite element simulations are used to study more realistic as well as defective geometries. The meaningful modeling of physical parameters as statistical distributions requires structures with tens of thousands of graphene flakes. To this end, an efficient network model is designed and implemented. The network model is further used to compare results with the literature, to consider surface contacts and to perform an exemplary material evaluation. From the simulation results, specific guidelines for the production of highly conductive GCMs are derived. In order to validate the simulations and to evaluate the potential of GCMs experimentally, a process chain for the preparation of graphene films is set up. Liquid graphene or graphene oxide dispersions are chosen as the starting materials, since large amounts of graphene can be processed in this way. The sizes of the graphene flakes are varied via centrifugation. Hydriodic acid is employed and evaluated as a reducing agent, as is thermal treatment. Scanning electron microscopy, Raman microscopy and an eddy current measurement of the conductivity are used for material characterization. Two studies on the dependence of the electrical conductivity on microscopic parameters are experimentally realized. The results show good agreement with the prediction by the network model and thus support the previously established theoretical description. / In der Anwendung als Leitermaterialien werden nach dem Stand der Technik Metalle wie Kupfer oder Aluminium eingesetzt. Dies betrifft beispielsweise Hochspannungsleitungen, Motorwicklungen oder die Infrastruktur in Städten. Insbesondere im Fall von Kupfer handelt es sich um ein teures und schweres Material. Graphen-basierte Leitermaterialien (GCMs, engl. graphene-based conductor materials) stellen eine potentiell günstige und hoch leitfähige Alternative dar, die metallische Leiter ersetzen kann. GCMs sind mechanisch flexibel, wesentlich leichter als Metalle und korrosionsbeständig. Um das Potential ihrer elektrischen Leitfähigkeit voll auszuschöpfen bedarf es jedoch einer gezielten Materialoptimierung. In der vorliegenden Arbeit wird die elektrische Leitfähigkeit von GCMs systematisch in Simulationen und Experimenten untersucht. Mit einem vereinfachten Modell eines GCMs wird der theoretische Maximalwert der Leitfähigkeit mathematisch hergeleitet. Weiterhin wird die Abhängigkeit der Leitfähigkeit von mikroskopischen Materialparametern quantifiziert. In Finite Elemente Simulationen werden realistischere sowie defektbehaftete Geometrien betrachtet und die Erkenntnisse aus dem analytischen Modell erweitert. Die sinnvolle Modellierung von physikalischen Eingangsgrößen als statistische Verteilungen erfordert Strukturen mit mehreren Zehntausend Graphenplättchen. Zu diesem Zweck wird ein effizientes Netzwerkmodell konzeptioniert und implementiert. Mit dem Modell werden darüberhinaus Ergebnisse mit der Literatur verglichen, Oberflächenkontakte betrachtet und eine beispielhafte Materialbewertung durchgeführt. Weiterhin werden konkrete Richtlinien zur Herstellung von hochleitfähigen GCMs abgeleitet. Um die Simulationen zu validieren und das Potential von GCMs experimentell zu bewerten, wird eine Prozesskette zur Herstellung von Graphenfilmen aufgebaut. Dabei werden flüssige Graphen- oder Graphenoxiddispersionen als Ausgangsmaterial gewählt, da in dieser Art große Mengen Graphen verarbeitet werden können. Mittels Zentrifugierung werden die Größen der Graphenplättchen variiert. Iodwasserstoffsäure wird als Reduktionsmittel eingesetzt und bewertet, ebenso wie eine thermische Materialbehandlung. Zur Materialcharakterisierung werden Rasterelektronenmikroskopie, Raman-Mikroskopie und eine Wirbelstrommessung der Leitfähigkeit eingesetzt. Zwei Studien zur Abhängigkeit der Leitfähigkeit von mikroskopischen Parametern werden experimentell realisiert. Die Ergebnisse zeigen gute Übereinstimmung zur Vorhersage durch das Netzwerkmodell und untermauern so die zuvor beschriebenen Wirkzusammenhänge.
48

Eine neue Strategie zur multikriteriellen simulationsbasierten Bewirtschaftungsoptimierung von Mehrzweck-Talsperrenverbundsystemen

Müller, Ruben 19 September 2014 (has links)
Wasserwirtschaftliche Speichersysteme sind unverzichtbar, um weltweit die Trinkwasserversorgung, Nahrungsmittelproduktion und Energieversorgung sicherzustellen. Die multikriterielle simulationsbasierte Optimierung (MK-SBO) ist eine leistungsfähige Methodik, um für Mehrzweck-Talsperrenverbundsysteme (MZ-TVS) eine Pareto-optimale Menge an Kompromisslösungen zwischen konträren Zielen bereitzustellen. Der rechentechnische Aufwand steigt jedoch linear mit der Länge des Simulationszeitraums der Talsperrenbewirtschaftung an. Folglich begrenzen sich MK-SBO-Studien bisher auf Simulationszeiträume von wenigen Jahrzehnten. Diese Zeiträume sind i.d.R. unzureichend, um Unsicherheiten, die aus der stochastischen Natur der Zuflüsse resultieren, adäquat zu beschreiben. Bewirtschaftungsoptimierungen von MZ-TVS hinsichtlich ihrer Zuverlässigkeit, z.B. durch die Maximierung von Versorgungssicherheiten, können sich als wenig belastbar und ermittelte Steuerungsstrategien als wenig robust erweisen. Um diesen Herausforderungen zu begegnen, wird ein neues modulares Framework zur multikriteriellen simulationsbasierten Bewirtschaftungsoptimierung von MZ-TVS (Frams-BoT) entwickelt. Eine Informationserweiterung zu stochastischen Zuflussprozessen erfolgt über ein weiterentwickeltes Zeitreihenmodell mittels generierter Zeitreihen von mehreren Tausend Jahren Länge. Eine neue Methode zur Monte-Carlo-Rekombination von Zeitreihen ermöglicht dann die Nutzung dieser Informationen in der MK-SBO in wesentlich kürzeren Simulationszeiträumen. Weitere Rechenzeit wird durch Parallelisierung und eine fortgeschrittene Kodierung von Entscheidungsvariablen eingespart. Die Simulation von Zuflussdargeboten für multikriterielle Klimafolgenanalysen erfolgt durch ein prozessorientiertes Wasserhaushaltsmodell. Level-Diagramme (Blasco et al., 2008) unterstützten den komplexen Prozess der Entscheidungsfindung. Die Wirksamkeit und Flexibilität des Frameworks wurden in zwei Fallstudien gezeigt. In einer ersten Fallstudie konnten in einer Klimafolgenanalyse Versorgungssicherheiten von über 99% als ein Ziel eines multikriteriellen Optimierungsproblems maximiert werden, um die Verlässlichkeit der Bewirtschaftung eines MZ-TVS in Sachsen (Deutschland) zu steigern. Eine zweite Fallstudie befasste sich mit der Maximierung der Leistungsfähigkeit eines MZ-TVS in Äthiopien unter verschiedenen Problemformulierungen. In beiden Fallstudien erwiesen sich die erzielten Pareto-Fronten und Steuerungsstrategien gegenüber 10 000-jährigen Zeiträumen als robust. Die benötigten Rechenzeiten der MK-SBO ließen sich durch das Framework massiv senken. / Water resources systems are worldwide essential for a secure supply of potable water, food and energy production. Simulation-based multi-objective optimization (SB-MOO) is a powerful method to provide a set of Pareto-optimal compromise solutions between various contrary goals of multi-purpose multi-reservoir systems (MP-MRS). However, the computational costs increases with the length of the time period in which the reservoir management is simulated. Consequently, MK-SBO studies are currently restricted to simulation periods of several decades. These time periods are normally insufficient to describe the stochastic nature of the inflows and the consequent hydrological uncertainties. Therefore, an optimization of the reliability of management of MP-MRS, e.g. through the maximization of the security of supply, may not be resilient. Obtained management strategies may not prove robust. To address these challenges, a new modular framework for simulation-based multiobjective optimization of the reservoir management of multi-purpose multi-reservoir systems (Frams-BoT) is developed. A refined time series model provides time series of several thousand years to extend the available information about the stochastic inflow processes. Then, a new Monte-Carlo recombination method allows for the exploitation of the extended information in the SB-MOO on significantly shorter time periods. Further computational time is saved by parallelization and an advanced coding of decision variables. A processoriented water balance model is used to simulate inflows for multi-objective climate impact analysis. Level-Diagrams [Blasco et al., 2008] are used to support the complex process of decision-making. The effectiveness and flexibility of the framework is presented in two case studies. In the first case study about a MP-MRS in Germany, high securities of supply over 99% where maximized as part of a multi-objective optimization problem in order to improve the reliability of the reservoir management. A second case study addressed the maximization of the performance of a MP-MRS in Ethiopia under different formulations of the optimization problem. In both case studies, the obtained Pareto-Fronts and management strategies proved robust compared to 10 000 year time periods. The required computational times of the SB-MOO could be reduced considerably.
49

Risk-averse periodic preventive maintenance optimization

Singh, Inderjeet,1978- 21 December 2011 (has links)
We consider a class of periodic preventive maintenance (PM) optimization problems, for a single piece of equipment that deteriorates with time or use, and can be repaired upon failure, through corrective maintenance (CM). We develop analytical and simulation-based optimization models that seek an optimal periodic PM policy, which minimizes the sum of the expected total cost of PMs and the risk-averse cost of CMs, over a finite planning horizon. In the simulation-based models, we assume that both types of maintenance actions are imperfect, whereas our analytical models consider imperfect PMs with minimal CMs. The effectiveness of maintenance actions is modeled using age reduction factors. For a repairable unit of equipment, its virtual age, and not its calendar age, determines the associated failure rate. Therefore, two sets of parameters, one describing the effectiveness of maintenance actions, and the other that defines the underlying failure rate of a piece of equipment, are critical to our models. Under a given maintenance policy, the two sets of parameters and a virtual-age-based age-reduction model, completely define the failure process of a piece of equipment. In practice, the true failure rate, and exact quality of the maintenance actions, cannot be determined, and are often estimated from the equipment failure history. We use a Bayesian approach to parameter estimation, under which a random-walk-based Gibbs sampler provides posterior estimates for the parameters of interest. Our posterior estimates for a few datasets from the literature, are consistent with published results. Furthermore, our computational results successfully demonstrate that our Gibbs sampler is arguably the obvious choice over a general rejection sampling-based parameter estimation method, for this class of problems. We present a general simulation-based periodic PM optimization model, which uses the posterior estimates to simulate the number of operational equipment failures, under a given periodic PM policy. Optimal periodic PM policies, under the classical maximum likelihood (ML) and Bayesian estimates are obtained for a few datasets. Limitations of the ML approach are revealed for a dataset from the literature, in which the use of ML estimates of the parameters, in the maintenance optimization model, fails to capture a trivial optimal PM policy. Finally, we introduce a single-stage and a two-stage formulation of the risk-averse periodic PM optimization model, with imperfect PMs and minimal CMs. Such models apply to a class of complex equipment with many parts, operational failures of which are addressed by replacing or repairing a few parts, thereby not affecting the failure rate of the equipment under consideration. For general values of PM age reduction factors, we provide sufficient conditions to establish the convexity of the first and second moments of the number of failures, and the risk-averse expected total maintenance cost, over a finite planning horizon. For increasing Weibull rates and a general class of increasing and convex failure rates, we show that these convexity results are independent of the PM age reduction factors. In general, the optimal periodic PM policy under the single-stage model is no better than the optimal two-stage policy. But if PMs are assumed perfect, then we establish that the single-stage and the two-stage optimization models are equivalent. / text

Page generated in 0.1653 seconds