• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • Tagged with
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthodes de décomposition de domaine robustes pour les problèmes symétriques définis positifs / Robust domain decomposition methods for symmetric positive definite problems

Spillane, Nicole 22 January 2014 (has links)
L'objectif de cette thèse est de concevoir des méthodes de décomposition de domaine qui sont robustes même pour les problèmes difficiles auxquels on est confronté lorsqu'on simule des objets industriels ou qui existent dans la nature. Par exemple une difficulté à laquelle est confronté Michelin et que les pneus sont constitués de matériaux avec des lois de comportement très différentes (caoutchouc et acier). Ceci induit un ralentissement de la convergence des méthodes de décomposition de domaine classiques dès que la partition en sous domaines ne tient pas compte des hétérogénéités. Pour trois méthodes de décomposition de domaine (Schwarz Additif, BDD et FETI) nous avons prouvé qu¿en résolvant des problèmes aux valeurs propres généralisés dans chacun des sous domaines on peut identifier automatiquement quels sont les modes responsables de la convergence lente. En d¿autres termes on divise le problème de départ en deux : une partie où on peut montrer que la méthode de décomposition de domaine va converger et une seconde où on ne peut pas. L¿idée finale est d¿appliquer des projections pour résoudre ces deux problèmes indépendemment (c¿est la déflation) : au premier on applique la méthode de décomposition de domaine et sur le second (qu¿on appelle le problème grossier) on utilise un solveur direct qu¿on sait être robuste. Nous garantissons théorétiquement que le solveur à deux niveaux qui résulte de ces choix est robuste. Un autre atout de nos algorithmes est qu¿il peuvent être implémentés en boite noire ce qui veut dire que les matériaux hétérogènes ne sont qu¿un exemple des difficultés qu¿ils peuvent contourner / The objective of this thesis is to design domain decomposition methods which are robust even for hard problems that arise when simulating industrial or real life objects. For instance one particular challenge which the company Michelin is faced with is the fact that tires are made of rubber and steel which are two materials with very different behavior laws. With classical domain decomposition methods, as soon as the partition into subdomains does not accommodate the discontinuities between the different materials convergence deteriorates. For three popular domain decomposition methods (Ad- ditive Schwarz, FETI and BDD) we have proved that by solving a generalized eigenvalue problem in each of the subdomains we can identify automatically which are the modes responsible for slow convergence. In other words we can divide the original problem into two problems : the first one where we can guarantee that the domain decomposition method will converge quickly and the second where we cannot. The final idea is to apply projections to solve these two problems independently (this is also known as deflation) : on the first we apply the domain decomposition method and on the second (we call it the coarse space) we use a direct solver which we know will be robust. We guarantee theoretically that the resulting two level solver is robust. The other main feature of our algorithms is that they can be implemented as black box solvers meaning that heterogeneous materials is only one type of difficulty that they can identify and circumvent.
2

Méthodes de décomposition de domaine robustes pour les problèmes symétriques définis positifs

Spillane, Nicole 22 January 2014 (has links) (PDF)
L'objectif de cette thèse est de concevoir des méthodes de décomposition de domaine qui sont robustes même pour les problèmes difficiles auxquels on est confronté lorsqu'on simule des objets industriels ou qui existent dans la nature. Par exemple une difficulté à laquelle est confronté Michelin et que les pneus sont constitués de matériaux avec des lois de comportement très différentes (caoutchouc et acier). Ceci induit un ralentissement de la convergence des méthodes de décomposition de domaine classiques dès que la partition en sous domaines ne tient pas compte des hétérogénéités. Pour trois méthodes de décomposition de domaine (Schwarz Additif, BDD et FETI) nous avons prouvé qu¿en résolvant des problèmes aux valeurs propres généralisés dans chacun des sous domaines on peut identifier automatiquement quels sont les modes responsables de la convergence lente. En d¿autres termes on divise le problème de départ en deux : une partie où on peut montrer que la méthode de décomposition de domaine va converger et une seconde où on ne peut pas. L¿idée finale est d¿appliquer des projections pour résoudre ces deux problèmes indépendemment (c¿est la déflation) : au premier on applique la méthode de décomposition de domaine et sur le second (qu¿on appelle le problème grossier) on utilise un solveur direct qu¿on sait être robuste. Nous garantissons théorétiquement que le solveur à deux niveaux qui résulte de ces choix est robuste. Un autre atout de nos algorithmes est qu¿il peuvent être implémentés en boite noire ce qui veut dire que les matériaux hétérogènes ne sont qu¿un exemple des difficultés qu¿ils peuvent contourner
3

Markov chain Analysis of Evolution Strategies / Analyse Markovienne des Stratégies d'Evolution

Chotard, Alexandre 24 September 2015 (has links)
Cette thèse contient des preuves de convergence ou de divergence d'algorithmes d'optimisation appelés stratégies d'évolution (ESs), ainsi que le développement d'outils mathématiques permettant ces preuves.Les ESs sont des algorithmes d'optimisation stochastiques dits ``boîte noire'', i.e. où les informations sur la fonction optimisée se réduisent aux valeurs qu'elle associe à des points. En particulier, le gradient de la fonction est inconnu. Des preuves de convergence ou de divergence de ces algorithmes peuvent être obtenues via l'analyse de chaînes de Markov sous-jacentes à ces algorithmes. Les preuves de convergence et de divergence obtenues dans cette thèse permettent d'établir le comportement asymptotique des ESs dans le cadre de l'optimisation d'une fonction linéaire avec ou sans contrainte, qui est un cas clé pour des preuves de convergence d'ESs sur de larges classes de fonctions.Cette thèse présente tout d'abord une introduction aux chaînes de Markov puis un état de l'art sur les ESs et leur contexte parmi les algorithmes d'optimisation continue boîte noire, ainsi que les liens établis entre ESs et chaînes de Markov. Les contributions de cette thèse sont ensuite présentées:o Premièrement des outils mathématiques généraux applicables dans d'autres problèmes sont développés. L'utilisation de ces outils permet d'établir aisément certaines propriétés (à savoir l'irreducibilité, l'apériodicité et le fait que les compacts sont des small sets pour la chaîne de Markov) sur les chaînes de Markov étudiées. Sans ces outils, établir ces propriétés était un processus ad hoc et technique, pouvant se montrer très difficile.o Ensuite différents ESs sont analysés dans différents problèmes. Un (1,\lambda)-ES utilisant cumulative step-size adaptation est étudié dans le cadre de l'optimisation d'une fonction linéaire. Il est démontré que pour \lambda > 2 l'algorithme diverge log-linéairement, optimisant la fonction avec succès. La vitesse de divergence de l'algorithme est donnée explicitement, ce qui peut être utilisé pour calculer une valeur optimale pour \lambda dans le cadre de la fonction linéaire. De plus, la variance du step-size de l'algorithme est calculée, ce qui permet de déduire une condition sur l'adaptation du paramètre de cumulation avec la dimension du problème afin d'obtenir une stabilité de l'algorithme. Ensuite, un (1,\lambda)-ES avec un step-size constant et un (1,\lambda)-ES avec cumulative step-size adaptation sont étudiés dans le cadre de l'optimisation d'une fonction linéaire avec une contrainte linéaire. Avec un step-size constant, l'algorithme résout le problème en divergeant lentement. Sous quelques conditions simples, ce résultat tient aussi lorsque l'algorithme utilise des distributions non Gaussiennes pour générer de nouvelles solutions. En adaptant le step-size avec cumulative step-size adaptation, le succès de l'algorithme dépend de l'angle entre les gradients de la contrainte et de la fonction optimisée. Si celui ci est trop faible, l'algorithme convergence prématurément. Autrement, celui ci diverge log-linéairement.Enfin, les résultats sont résumés, discutés, et des perspectives sur des travaux futurs sont présentées. / In this dissertation an analysis of Evolution Strategies (ESs) using the theory of Markov chains is conducted. Proofs of divergence or convergence of these algorithms are obtained, and tools to achieve such proofs are developed.ESs are so called "black-box" stochastic optimization algorithms, i.e. information on the function to be optimized are limited to the values it associates to points. In particular, gradients are unavailable. Proofs of convergence or divergence of these algorithms can be obtained through the analysis of Markov chains underlying these algorithms. The proofs of log-linear convergence and of divergence obtained in this thesis in the context of a linear function with or without constraint are essential components for the proofs of convergence of ESs on wide classes of functions.This dissertation first gives an introduction to Markov chain theory, then a state of the art on ESs and on black-box continuous optimization, and present already established links between ESs and Markov chains.The contributions of this thesis are then presented:o General mathematical tools that can be applied to a wider range of problems are developed. These tools allow to easily prove specific Markov chain properties (irreducibility, aperiodicity and the fact that compact sets are small sets for the Markov chain) on the Markov chains studied. Obtaining these properties without these tools is a ad hoc, tedious and technical process, that can be of very high difficulty.o Then different ESs are analyzed on different problems. We study a (1,\lambda)-ES using cumulative step-size adaptation on a linear function and prove the log-linear divergence of the step-size; we also study the variation of the logarithm of the step-size, from which we establish a necessary condition for the stability of the algorithm with respect to the dimension of the search space. Then we study an ES with constant step-size and with cumulative step-size adaptation on a linear function with a linear constraint, using resampling to handle unfeasible solutions. We prove that with constant step-size the algorithm diverges, while with cumulative step-size adaptation, depending on parameters of the problem and of the ES, the algorithm converges or diverges log-linearly. We then investigate the dependence of the convergence or divergence rate of the algorithm with parameters of the problem and of the ES. Finally we study an ES with a sampling distribution that can be non-Gaussian and with constant step-size on a linear function with a linear constraint. We give sufficient conditions on the sampling distribution for the algorithm to diverge. We also show that different covariance matrices for the sampling distribution correspond to a change of norm of the search space, and that this implies that adapting the covariance matrix of the sampling distribution may allow an ES with cumulative step-size adaptation to successfully diverge on a linear function with any linear constraint.Finally, these results are summed-up, discussed, and perspectives for future work are explored.

Page generated in 0.0962 seconds