Spelling suggestions: "subject:"expected emprovement"" "subject:"expected 9improvement""
1 |
Parallelisierung Ersatzmodell-gestützter OptimierungsverfahrenSchmidt, Hansjörg 05 March 2009 (has links) (PDF)
Bei der Entwicklung neuer Produkte nehmen numerische Simulationen eine immer größere Rolle ein. Dadurch
entsteht die Möglichkeit, relativ kostengünstig das neue Produkt zu testen, noch bevor ein teurer
Prototyp angefertigt werden muss. Diese Möglichkeit weckt das Verlangen, Teile des Designprozesses zu
automatisieren. Aber selbst mit den modernsten Algorithmen und Rechnern sind einige dieser Simulationen
sehr zeitaufwändig, d.h. im Bereich von Minuten bis Stunden. Beispiele aus dem Automobilbereich
dafür sind Kettentriebssimulationen, Strömungssimulationen oder Crashsimulationen. Mathematisch stehen
dafür das Lösen von Differential-Algebraischen Gleichungen und partiellen Differentialgleichungen.
Ziele des teilweise automatischen Designprozesses sind die Funktionsfähigkeit und möglichst optimale
weitere Eigenschaften wie beispielsweise Leistung oder Kosten. In dieser Arbeit werden Optimierungsprobleme
betrachtet, bei denen die Auswertung der Zielfunktion eine numerische Simulation erfordert.
Um solche Probleme in annehmbarer Zeit lösen zu können, braucht man also Optimierungsverfahren,
die mit wenigen Funktionsauswertungen schon gute Näherungen des globalen Optimums finden können.
In dieser Arbeit werden Ersatzmodell-gestützte Optimierungsverfahren, die eine Kriging-Approximation
benutzen, betrachtet. Diese Verfahren besitzen die oben genannten Anforderungen, sind aber nur eingeschränkt parallelisierbar.
Die Arbeit gliedert sich wie folgt. Die für diese Arbeit benötigten Grundlagen der Optimierung werden
im zweiten Kapitel vorgestellt. Das dritte Kapitel beschäftigt sich mit der Theorie der Kriging-
Approximation. Die Verwendung eines Ersatzmodells zur Optimierung und die Parallelisierung der entstehenden
Verfahren sind das Thema des vierten Kapitels. Im fünften Kapitel werden die vorgestellten
Verfahren numerisch verifiziert und es werden Vorschläge für die Anwendung gegeben. Das sechste
Kapitel gibt einen Überblick über die Kettentriebskonstruktion und die Verwendung der vorgestellten
Algorithmen. Das letzte Kapitel fasst die erreichten Ziele zusammen und gibt Vorschläge für weitere
Verbesserungen und Forschungsthemen.
|
2 |
Parallelisierung Ersatzmodell-gestützter OptimierungsverfahrenSchmidt, Hansjörg 12 February 2009 (has links)
Bei der Entwicklung neuer Produkte nehmen numerische Simulationen eine immer größere Rolle ein. Dadurch
entsteht die Möglichkeit, relativ kostengünstig das neue Produkt zu testen, noch bevor ein teurer
Prototyp angefertigt werden muss. Diese Möglichkeit weckt das Verlangen, Teile des Designprozesses zu
automatisieren. Aber selbst mit den modernsten Algorithmen und Rechnern sind einige dieser Simulationen
sehr zeitaufwändig, d.h. im Bereich von Minuten bis Stunden. Beispiele aus dem Automobilbereich
dafür sind Kettentriebssimulationen, Strömungssimulationen oder Crashsimulationen. Mathematisch stehen
dafür das Lösen von Differential-Algebraischen Gleichungen und partiellen Differentialgleichungen.
Ziele des teilweise automatischen Designprozesses sind die Funktionsfähigkeit und möglichst optimale
weitere Eigenschaften wie beispielsweise Leistung oder Kosten. In dieser Arbeit werden Optimierungsprobleme
betrachtet, bei denen die Auswertung der Zielfunktion eine numerische Simulation erfordert.
Um solche Probleme in annehmbarer Zeit lösen zu können, braucht man also Optimierungsverfahren,
die mit wenigen Funktionsauswertungen schon gute Näherungen des globalen Optimums finden können.
In dieser Arbeit werden Ersatzmodell-gestützte Optimierungsverfahren, die eine Kriging-Approximation
benutzen, betrachtet. Diese Verfahren besitzen die oben genannten Anforderungen, sind aber nur eingeschränkt parallelisierbar.
Die Arbeit gliedert sich wie folgt. Die für diese Arbeit benötigten Grundlagen der Optimierung werden
im zweiten Kapitel vorgestellt. Das dritte Kapitel beschäftigt sich mit der Theorie der Kriging-
Approximation. Die Verwendung eines Ersatzmodells zur Optimierung und die Parallelisierung der entstehenden
Verfahren sind das Thema des vierten Kapitels. Im fünften Kapitel werden die vorgestellten
Verfahren numerisch verifiziert und es werden Vorschläge für die Anwendung gegeben. Das sechste
Kapitel gibt einen Überblick über die Kettentriebskonstruktion und die Verwendung der vorgestellten
Algorithmen. Das letzte Kapitel fasst die erreichten Ziele zusammen und gibt Vorschläge für weitere
Verbesserungen und Forschungsthemen.
|
3 |
Maximum Likelihood Estimation for Stochastic Differential Equations Using Sequential Kriging-Based OptimizationSchneider, Grant W. January 2014 (has links)
No description available.
|
4 |
Adaptive Design for Global Fit of Non-stationary SurfacesFrazier, Marian L. 03 September 2013 (has links)
No description available.
|
5 |
Sequential Design of Computer Experiments for Robust Parameter DesignLehman, Jeffrey S. 11 September 2002 (has links)
No description available.
|
6 |
A Sequential Design for Approximating the Pareto Front using the Expected Pareto Improvement FunctionBautista, Dianne Carrol Tan 26 June 2009 (has links)
No description available.
|
7 |
Nouvel algorithme d'optimisation bayésien utilisant une approche Monte-Carlo séquentielle. / New Bayesian optimization algorithm using a sequential Monte-Carlo approachBenassi, Romain 19 June 2013 (has links)
Ce travail de thèse s'intéresse au problème de l'optimisation globale d'une fonction coûteuse dans un cadre bayésien. Nous disons qu'une fonction est coûteuse lorsque son évaluation nécessite l’utilisation de ressources importantes (simulations numériques très longues, notamment). Dans ce contexte, il est important d'utiliser des algorithmes d'optimisation utilisant un faible nombre d'évaluations de cette dernière. Nous considérons ici une approche bayésienne consistant à affecter à la fonction à optimiser un a priori sous la forme d'un processus aléatoire gaussien, ce qui permet ensuite de choisir les points d'évaluation de la fonction en maximisant un critère probabiliste indiquant, conditionnellement aux évaluations précédentes, les zones les plus intéressantes du domaine de recherche de l'optimum. Deux difficultés dans le cadre de cette approche peuvent être identifiées : le choix de la valeur des paramètres du processus gaussien et la maximisation efficace du critère. La première difficulté est généralement résolue en substituant aux paramètres l'estimateur du maximum de vraisemblance, ce qui est une méthode peu robuste à laquelle nous préférons une approche dite complètement bayésienne. La contribution de cette thèse est de présenter un nouvel algorithme d'optimisation bayésien, maximisant à chaque étape le critère dit de l'espérance de l'amélioration, et apportant une réponse conjointe aux deux difficultés énoncées à l'aide d'une approche Sequential Monte Carlo. Des résultats numériques, obtenus à partir de cas tests et d'applications industrielles, montrent que les performances de notre algorithme sont bonnes par rapport à celles d’algorithmes concurrents. / This thesis deals with the problem of global optimization of expensive-to-evaluate functions in a Bayesian framework. We say that a function is expensive-to-evaluate when its evaluation requires a significant amount of resources (e.g., very long numerical simulations).In this context, it is important to use optimization algorithms that can deal with a limited number of function evaluations. We consider here a Bayesian approach which consists in assigning a prior to the function, under the form of a Gaussian random process. The idea is then to choose the next evaluation points using a probabilistic criterion that indicates, conditional on the previous evaluations, the most interesting regions of the research domain for the optimizer. Two difficulties in this approach can be identified: the choice of the Gaussian process prior and the maximization of the criterion. The first problem is usually solved by using a maximum likelihood approach, which turns out to be a poorly robust method, and to which we prefer a fully Bayesian approach. The contribution of this work is the introduction of a new Bayesian optimization algorithm, which maximizes the Expected Improvement (EI) criterion, and provides an answer to both problems thanks to a Sequential Monte Carlo approach. Numerical results on benchmark tests show good performances of our algorithm compared to those of several other methods of the literature.
|
8 |
A robust multi-objective statistical improvement approach to electric power portfolio selectionMurphy, Jonathan Rodgers 13 November 2012 (has links)
Motivated by an electric power portfolio selection problem, a sampling method is developed for simulation-based robust design that builds on existing multi-objective statistical improvement methods. It uses a Bayesian surrogate model regressed on both design and noise variables, and makes use of methods for estimating epistemic model uncertainty in environmental uncertainty metrics. Regions of the design space are sequentially sampled in a manner that balances exploration of unknown designs and exploitation of designs thought to be Pareto optimal, while regions of the noise space are sampled to improve knowledge of the environmental uncertainty.
A scalable test problem is used to compare the method with design of experiments (DoE) and crossed array methods, and the method is found to be more efficient for restrictive sample budgets. Experiments with the same test problem are used to study the sensitivity of the methods to numbers of design and noise variables. Lastly, the method is demonstrated on an electric power portfolio simulation code.
|
9 |
A pareto frontier intersection-based approach for efficient multiobjective optimization of competing concept alternativesRousis, Damon 01 July 2011 (has links)
The expected growth of civil aviation over the next twenty years places significant emphasis on revolutionary technology development aimed at mitigating the environmental impact of commercial aircraft. As the number of technology alternatives grows along with model complexity, current methods for Pareto finding and multiobjective optimization quickly become computationally infeasible. Coupled with the large uncertainty in the early stages of design, optimal designs are sought while avoiding the computational burden of excessive function calls when a single design change or technology assumption could alter the results. This motivates the need for a robust and efficient evaluation methodology for quantitative assessment of competing concepts.
This research presents a novel approach that combines Bayesian adaptive sampling with surrogate-based optimization to efficiently place designs near Pareto frontier intersections of competing concepts. Efficiency is increased over sequential multiobjective optimization by focusing computational resources specifically on the location in the design space where optimality shifts between concepts. At the intersection of Pareto frontiers, the selection decisions are most sensitive to preferences place on the objectives, and small perturbations can lead to vastly different final designs. These concepts are incorporated into an evaluation methodology that ultimately reduces the number of failed cases, infeasible designs, and Pareto dominated solutions across all concepts.
A set of algebraic samples along with a truss design problem are presented as canonical examples for the proposed approach. The methodology is applied to the design of ultra-high bypass ratio turbofans to guide NASA's technology development efforts for future aircraft. Geared-drive and variable geometry bypass nozzle concepts are explored as enablers for increased bypass ratio and potential alternatives over traditional configurations. The method is shown to improve sampling efficiency and provide clusters of feasible designs that motivate a shift towards revolutionary technologies that reduce fuel burn, emissions, and noise on future aircraft.
|
10 |
Uncertainty quantification on pareto fronts and high-dimensional strategies in bayesian optimization, with applications in multi-objective automotive design / Quantification d’incertitude sur fronts de Pareto et stratégies pour l’optimisation bayésienne en grande dimension, avec applications en conception automobileBinois, Mickaël 03 December 2015 (has links)
Cette thèse traite de l’optimisation multiobjectif de fonctions coûteuses, aboutissant à laconstruction d’un front de Pareto représentant l’ensemble des compromis optimaux. En conception automobile, le budget d’évaluations est fortement limité par les temps de simulation numérique des phénomènes physiques considérés. Dans ce contexte, il est courant d’avoir recours à des « métamodèles » (ou modèles de modèles) des simulateurs numériques, en se basant notamment sur des processus gaussiens. Ils permettent d’ajouter séquentiellement des observations en conciliant recherche locale et exploration. En complément des critères d’optimisation existants tels que des versions multiobjectifs du critère d’amélioration espérée, nous proposons d’estimer la position de l’ensemble du front de Pareto avec une quantification de l’incertitude associée, à partir de simulations conditionnelles de processus gaussiens. Une deuxième contribution reprend ce problème à partir de copules. Pour pouvoir traiter le cas d’un grand nombre de variables d’entrées, nous nous basons sur l’algorithme REMBO. Par un tirage aléatoire directionnel, défini par une matrice, il permet de trouver un optimum rapidement lorsque seules quelques variables sont réellement influentes (mais inconnues). Plusieurs améliorations sont proposées, elles comprennent un noyau de covariance dédié, une sélection du domaine de petite dimension et des directions aléatoires mais aussi l’extension au casmultiobjectif. Enfin, un cas d’application industriel en crash a permis d’obtenir des gainssignificatifs en performance et en nombre de calculs requis, ainsi que de tester le package R GPareto développé dans le cadre de cette thèse. / This dissertation deals with optimizing expensive or time-consuming black-box functionsto obtain the set of all optimal compromise solutions, i.e. the Pareto front. In automotivedesign, the evaluation budget is severely limited by numerical simulation times of the considered physical phenomena. In this context, it is common to resort to “metamodels” (models of models) of the numerical simulators, especially using Gaussian processes. They enable adding sequentially new observations while balancing local search and exploration. Complementing existing multi-objective Expected Improvement criteria, we propose to estimate the position of the whole Pareto front along with a quantification of the associated uncertainty, from conditional simulations of Gaussian processes. A second contribution addresses this problem from a different angle, using copulas to model the multi-variate cumulative distribution function. To cope with a possibly high number of variables, we adopt the REMBO algorithm. From a randomly selected direction, defined by a matrix, it allows a fast optimization when only a few number of variables are actually influential, but unknown. Several improvements are proposed, such as a dedicated covariance kernel, a selection procedure for the low dimensional domain and of the random directions, as well as an extension to the multi-objective setup. Finally, an industrial application in car crash-worthiness demonstrates significant benefits in terms of performance and number of simulations required. It has also been used to test the R package GPareto developed during this thesis.
|
Page generated in 0.0966 seconds