• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 27
  • 5
  • Tagged with
  • 97
  • 51
  • 25
  • 23
  • 21
  • 18
  • 16
  • 16
  • 15
  • 15
  • 14
  • 14
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Correspondance entre régression par processus Gaussien et splines d'interpolation sous contraintes linéaires de type inégalité. Théorie et applications. / Correspondence between Gaussian process regression and interpolation splines under linear inequality constraints. Theory and applications

Maatouk, Hassan 01 October 2015 (has links)
On s'intéresse au problème d'interpolation d'une fonction numérique d'une ou plusieurs variables réelles lorsque qu'elle est connue pour satisfaire certaines propriétés comme, par exemple, la positivité, monotonie ou convexité. Deux méthodes d'interpolation sont étudiées. D'une part, une approche déterministe conduit à un problème d'interpolation optimale sous contraintes linéaires inégalité dans un Espace de Hilbert à Noyau Reproduisant (RKHS). D'autre part, une approche probabiliste considère le même problème comme un problème d'estimation d'une fonction dans un cadre bayésien. Plus précisément, on considère la Régression par Processus Gaussien ou Krigeage pour estimer la fonction à interpoler sous les contraintes linéaires de type inégalité en question. Cette deuxième approche permet également de construire des intervalles de confiance autour de la fonction estimée. Pour cela, on propose une méthode d'approximation qui consiste à approcher un processus gaussien quelconque par un processus gaussien fini-dimensionnel. Le problème de krigeage se ramène ainsi à la simulation d'un vecteur gaussien tronqué à un espace convexe. L'analyse asymptotique permet d'établir la convergence de la méthode et la correspondance entre les deux approches déterministeet probabiliste, c'est le résultat théorique de la thèse. Ce dernier est vu comme unegénéralisation de la correspondance établie par [Kimeldorf and Wahba, 1971] entre estimateur bayésien et spline d'interpolation. Enfin, une application réelle dans le domainede l'assurance (actuariat) pour estimer une courbe d'actualisation et des probabilités dedéfaut a été développée. / This thesis is dedicated to interpolation problems when the numerical function is known to satisfy some properties such as positivity, monotonicity or convexity. Two methods of interpolation are studied. The first one is deterministic and is based on convex optimization in a Reproducing Kernel Hilbert Space (RKHS). The second one is a Bayesian approach based on Gaussian Process Regression (GPR) or Kriging. By using a finite linear functional decomposition, we propose to approximate the original Gaussian process by a finite-dimensional Gaussian process such that conditional simulations satisfy all the inequality constraints. As a consequence, GPR is equivalent to the simulation of a truncated Gaussian vector to a convex set. The mode or Maximum A Posteriori is defined as a Bayesian estimator and prediction intervals are quantified by simulation. Convergence of the method is proved and the correspondence between the two methods is done. This can be seen as an extension of the correspondence established by [Kimeldorf and Wahba, 1971] between Bayesian estimation on stochastic process and smoothing by splines. Finally, a real application in insurance and finance is given to estimate a term-structure curve and default probabilities.
72

MODÈLES DE SUBSTITUTION POUR L'OPTIMISATION GLOBALE DE FORME EN AÉRODYNAMIQUE ET MÉTHODE LOCALE SANS PARAMÉTRISATION

Bompard, Manuel 06 December 2011 (has links) (PDF)
L'optimisation aérodynamique de forme est un domaine de recherche très actif ces dernières années, en raison notamment de l'importance de ses applications industrielles. Avec le développement de la méthode adjointe, il est aujourd'hui possible de calculer rapidement, et indépendamment du nombre de paramètres de forme, le gradient des fonctions d'intérêt par rapport à ces paramètres. Cette étude concerne l'utilisation des dérivées ainsi obtenues pour perfectionner les algorithmes d'optimisation locale et globale. Dans une première partie, il s'agit d'utiliser ces gradients pour la construction de modèles de substitution, et de profiter de ces modèles pour réduire le coût des méthodes d'optimisation globale. Plusieurs types de modèles sont présentés et combinés à un algorithme de type " évolution différentielle " en utilisant la méthode EGO (Efficient Global Optimization). Cette procédure est appliquée à l'optimisation de fonctions mathématiques, puis à des cas test d'optimisation aérodynamique autour de profils d'aile. Les résultats sont concluants : l'utilisation d'un modèle de substitution permet de réduire sensiblement le nombre d'évaluations nécessaire du modèle physique, et la prise en compte des gradients accentue ce résultat. Dans la seconde partie de ce travail, la méthode adjointe est utilisée pour calculer le gradient des fonctions d'intérêt par rapport aux coordonnées des noeuds de la surface du profil. Un algorithme d'optimisation locale est alors appliqué en utilisant ces points comme paramètres de l'optimisation et le champ de gradient lissé comme direction de descente. Si l'étude est encore à approfondir, les résultats sont encourageants.
73

Diagnostic des systèmes aéronautiques et réglage automatique pour la comparaison de méthodes / Fault diagnosis of aeronautical systems and automatic tuning for method comparison

Marzat, Julien 04 November 2011 (has links)
Les travaux présentés dans ce mémoire contribuent à la définition de méthodes pour la détection et le diagnostic de défauts affectant les systèmes aéronautiques. Un système représentatif sert de support d'étude, constitué du modèle non linéaire à six degrés de liberté d'un missile intercepteur, de ses capteurs et actionneurs ainsi que d'une boucle de guidage-pilotage. La première partie est consacrée au développement de deux méthodes de diagnostic exploitant l'information de commande en boucle fermée et les caractéristiques des modèles aéronautiques. La première méthode utilise les objectifs de commande induits par les lois de guidage-pilotage pour générer des résidus indiquant la présence de défauts. Ceci permet la détection des défauts sur les actionneurs et les capteurs, ainsi que leur localisation pour ces derniers. La deuxième méthode exploite la mesure de dérivées des variables d'état (via une centrale inertielle) pour estimer la valeur de la commande réalisée par les actionneurs, sans intégration du modèle non linéaire du système. Le diagnostic est alors effectué en comparant cette estimée avec la valeur désirée, ce qui permet la détection, la localisation et l'identification de défauts multiples sur les actionneurs.La seconde partie propose une méthodologie de réglage automatique des paramètres internes (les hyperparamètres) de méthodes de diagnostic. Ceci permet une comparaison plus objective entre les méthodes en évaluant la meilleure performance de chacune. Le réglage est vu comme un problème d'optimisation globale, la fonction à optimiser étant calculée via la simulation numérique (potentiellement coûteuse) de cas test. La méthodologie proposée est fondée sur un métamodèle de krigeage et une procédure itérative d’optimisation bayésienne, qui permettent d’aborder ce problème à faible coût de calcul. Un nouvel algorithme est proposé afin d'optimiser les hyperparamètres d'une façon robuste vis à vis de la variabilité des cas test pertinents.Mots clés : détection et diagnostic de défauts, guidage-pilotage, krigeage, minimax continu, optimisation globale, redondance analytique, réglage automatique, systèmes aéronautiques. / This manuscript reports contributions to the development of methods for fault detection and diagnosis applied to aeronautical systems. A representative system is considered, composed of the six-degree-of-freedom nonlinear model of a surface-to-air missile, its sensors, actuators and the associated GNC scheme. The first part is devoted to the development of two fault diagnosis approaches that take advantage of closed-loop control information, along with the characteristics of aeronautical models. The first method uses control objectives resulting from guidance laws to generate residuals indicative of the presence of faults. This enables the detection of both actuator and sensor faults, and the isolation of sensor faults. The second method exploits the measurement of derivatives of state variables (as provided by an IMU) to estimate the control input as achieved by actuators, without the need to integrate the nonlinear model. Detection, isolation and identification of actuator faults can then be performed by comparing this estimate with the desired control input.The second part presents a new automatic-tuning methodology for the internal parameters (the hyperparameters) of fault diagnosis methods. This allows a fair comparison between methods by evaluating their best performance. Tuning is formalised as the global optimization of a black-box function that is obtained through the (costly) numerical simulation of a set of test cases. The methodology proposed here is based on Kriging and Bayesian optimization, which make it possible to tackle this problem at a very reduced computational cost. A new algorithm is developed to address the optimization of hyperparameters in a way that is robust to the variability of the test cases of interest.
74

Prédiction des instabilités de frottement par méta-modélisation et approches fréquentielles : Application au crissement de frein automobile

Denimal, Enora 04 December 2018 (has links)
Le crissement de frein est une nuisance sonore qui représente des coûts importants pour l'industrie automobile. Il tire son origine dans des phénomènes complexes à l'interface frottante entre les plaquettes de frein et le disque. L'analyse de stabilité reste aujourd'hui la méthode privilégiée dans l'industrie pour prédire la stabilité d'un système de frein malgré ses aspects sur- et sous-prédictifs.Afin de construire un système de frein robuste, il est nécessaire de trouver la technologie qui permette de limiter les instabilités malgré certains paramètres incertains présents dans le système. Ainsi, l'un des objectifs de la thèse est de développer une méthode permettant de traiter et de propager l'incertitude et la variabilité de certains paramètres dans le modèle éléments finis de frein avec des coûts numériques abordables.Dans un premier temps, l'influence d'un premier groupe de paramètres correspondant à des contacts internes au système a été étudiée afin de mieux comprendre les phénomènes physiques mis en jeu et leurs impacts sur le phénomène de crissement. Une approche basée sur l'utilisation d'un algorithme génétique a été également mise en place afin d'identifier le jeu de paramètres le plus défavorable en terme de propension au crissement sur le système.Dans un second temps, différentes méthodes de méta-modélisation ont été proposées afin de prédire la stabilité du système de frein en fonction de différents paramètres qui peuvent être des paramètres de conception ou des paramètres incertains liés à l'environnement du système.Dans un troisième temps, une méthode d'analyse non-linéaire complémentaire de l'analyse de stabilité a été proposée et développée. Elle se base sur le suivi de la stabilité d'une solution vibratoire approchée et permet d'identifier les modes instables présents dans la réponse dynamique du système. Cette méthode a été appliquée sur un modèle simple avant d'illustrer sa faisabilité sur le modèle éléments finis de frein complet. / Brake squeal is a noise nuisance that represents significant costs for the automotive industry. It originates from complex phenomena at the frictional interface between the brake pads and the disc. The stability analysis remains the preferred method in the industry today to predict the stability of a brake system despite its over- and under-predictive aspects.In order to build a robust brake system, it is necessary to find the technology that limits instabilities despite some uncertain parameters present in the system. Thus, one of the main objectives of the PhD thesis is to develop a method to treat and propagate the uncertainty and variability of some parameters in the finite element brake model with reasonable numerical costs.First, the influence of a first group of parameters corresponding to contacts within the system was studied in order to better understand the physical phenomena involved and their impacts on the squealing phenomenon. An approach based on the use of a genetic algorithm has also been implemented to identify the most unfavourable set of parameters in terms of squeal propensity on the brake system.In a second step, different meta-modelling methods were proposed to predict the stability of the brake system with respect to different parameters that may be design parameters or uncertain parameters related to the environment of the brake system.In a third step, a non-linear analysis method complementary to the stability analysis was proposed and developed. It is based on the tracking of the stability of an approximate vibrational solution and allows the identification of unstable modes present in the dynamic response of the system. This method was applied to a simple academic model before demonstrating its feasibility on the complete industrial brake finite element model under study.
75

Plans prédictifs à taille fixe et séquentiels pour le krigeage / Fixed-size and sequential designs for kriging

Abtini, Mona 30 August 2018 (has links)
La simulation numérique est devenue une alternative à l’expérimentation réelle pour étudier des phénomènes physiques. Cependant, les phénomènes complexes requièrent en général un nombre important de simulations, chaque simulation étant très coûteuse en temps de calcul. Une approche basée sur la théorie des plans d’expériences est souvent utilisée en vue de réduire ce coût de calcul. Elle consiste à partir d’un nombre réduit de simulations, organisées selon un plan d’expériences numériques, à construire un modèle d’approximation souvent appelé métamodèle, alors beaucoup plus rapide à évaluer que le code lui-même. Traditionnellement, les plans utilisés sont des plans de type Space-Filling Design (SFD). La première partie de la thèse concerne la construction de plans d’expériences SFD à taille fixe adaptés à l’identification d’un modèle de krigeage car le krigeage est un des métamodèles les plus populaires. Nous étudions l’impact de la contrainte Hypercube Latin (qui est le type de plans les plus utilisés en pratique avec le modèle de krigeage) sur des plans maximin-optimaux. Nous montrons que cette contrainte largement utilisée en pratique est bénéfique quand le nombre de points est peu élevé car elle atténue les défauts de la configuration maximin-optimal (majorité des points du plan aux bords du domaine). Un critère d’uniformité appelé discrépance radiale est proposé dans le but d’étudier l’uniformité des points selon leur position par rapport aux bords du domaine. Ensuite, nous introduisons un proxy pour le plan minimax-optimal qui est le plan le plus proche du plan IMSE (plan adapté à la prédiction par krigeage) et qui est coûteux en temps de calcul, ce proxy est basé sur les plans maximin-optimaux. Enfin, nous présentons une procédure bien réglée de l’optimisation par recuit simulé pour trouver les plans maximin-optimaux. Il s’agit ici de réduire au plus la probabilité de tomber dans un optimum local. La deuxième partie de la thèse porte sur un problème légèrement différent. Si un plan est construit de sorte à être SFD pour N points, il n’y a aucune garantie qu’un sous-plan à n points (n 6 N) soit SFD. Or en pratique le plan peut être arrêté avant sa réalisation complète. La deuxième partie est donc dédiée au développement de méthodes de planification séquentielle pour bâtir un ensemble d’expériences de type SFD pour tout n compris entre 1 et N qui soient toutes adaptées à la prédiction par krigeage. Nous proposons une méthode pour générer des plans séquentiellement ou encore emboités (l’un est inclus dans l’autre) basée sur des critères d’information, notamment le critère d’Information Mutuelle qui mesure la réduction de l’incertitude de la prédiction en tout point du domaine entre avant et après l’observation de la réponse aux points du plan. Cette approche assure la qualité des plans obtenus pour toutes les valeurs de n, 1 6 n 6 N. La difficulté est le calcul du critère et notamment la génération de plans en grande dimension. Pour pallier ce problème une solution a été présentée. Cette solution propose une implémentation astucieuse de la méthode basée sur le découpage par blocs des matrices de covariances ce qui la rend numériquement efficace. / In recent years, computer simulation models are increasingly used to study complex phenomena. Such problems usually rely on very large sophisticated simulation codes that are very expensive in computing time. The exploitation of these codes becomes a problem, especially when the objective requires a significant number of evaluations of the code. In practice, the code is replaced by global approximation models, often called metamodels, most commonly a Gaussian Process (kriging) adjusted to a design of experiments, i.e. on observations of the model output obtained on a small number of simulations. Space-Filling-Designs which have the design points evenly spread over the entire feasible input region, are the most used designs. This thesis consists of two parts. The main focus of both parts is on construction of designs of experiments that are adapted to kriging, which is one of the most popular metamodels. Part I considers the construction of space-fillingdesigns of fixed size which are adapted to kriging prediction. This part was started by studying the effect of Latin Hypercube constraint (the most used design in practice with the kriging) on maximin-optimal designs. This study shows that when the design has a small number of points, the addition of the Latin Hypercube constraint will be useful because it mitigates the drawbacks of maximin-optimal configurations (the position of the majority of points at the boundary of the input space). Following this study, an uniformity criterion called Radial discrepancy has been proposed in order to measure the uniformity of the points of the design according to their distance to the boundary of the input space. Then we show that the minimax-optimal design is the closest design to IMSE design (design which is adapted to prediction by kriging) but is also very difficult to evaluate. We then introduce a proxy for the minimax-optimal design based on the maximin-optimal design. Finally, we present an optimised implementation of the simulated annealing algorithm in order to find maximin-optimal designs. Our aim here is to minimize the probability of falling in a local minimum configuration of the simulated annealing. The second part of the thesis concerns a slightly different problem. If XN is space-filling-design of N points, there is no guarantee that any n points of XN (1 6 n 6 N) constitute a space-filling-design. In practice, however, we may have to stop the simulations before the full realization of design. The aim of this part is therefore to propose a new methodology to construct sequential of space-filling-designs (nested designs) of experiments Xn for any n between 1 and N that are all adapted to kriging prediction. We introduce a method to generate nested designs based on information criteria, particularly the Mutual Information criterion. This method ensures a good quality forall the designs generated, 1 6 n 6 N. A key difficulty of this method is that the time needed to generate a MI-sequential design in the highdimension case is very larg. To address this issue a particular implementation, which calculates the determinant of a given matrix by partitioning it into blocks. This implementation allows a significant reduction of the computational cost of MI-sequential designs, has been proposed.
76

Développement des méthodes AK pour l'analyse de fiabilité. Focus sur les évènements rares et la grande dimension / Development of AK-based method for reliability analyses. Focus on rare events and high dimension

Lelièvre, Nicolas 13 December 2018 (has links)
Les ingénieurs utilisent de plus en plus de modèles numériques leur permettant de diminuer les expérimentations physiques nécessaires à la conception de nouveaux produits. Avec l’augmentation des performances informatiques et numériques, ces modèles sont de plus en plus complexes et coûteux en temps de calcul pour une meilleure représentation de la réalité. Les problèmes réels de mécanique sont sujets en pratique à des incertitudes qui peuvent impliquer des difficultés lorsque des solutions de conception admissibles et/ou optimales sont recherchées. La fiabilité est une mesure intéressante des risques de défaillance du produit conçu dus aux incertitudes. L’estimation de la mesure de fiabilité, la probabilité de défaillance, nécessite un grand nombre d’appels aux modèles coûteux et deviennent donc inutilisable en pratique. Pour pallier ce problème, la métamodélisation est utilisée ici, et plus particulièrement les méthodes AK qui permettent la construction d’un modèle mathématique représentatif du modèle coûteux avec un temps d’évaluation beaucoup plus faible. Le premier objectif de ces travaux de thèses est de discuter des formulations mathématiques des problèmes de conception sous incertitudes. Cette formulation est un point crucial de la conception de nouveaux produits puisqu’elle permet de comprendre les résultats obtenus. Une définition des deux concepts de fiabilité et de robustesse est aussi proposée. Ces travaux ont abouti à une publication dans la revue internationale Structural and Multidisciplinary Optimization (Lelièvre, et al. 2016). Le second objectif est de proposer une nouvelle méthode AK pour l’estimation de probabilités de défaillance associées à des évènements rares. Cette nouvelle méthode, nommée AK-MCSi, présente trois améliorations de la méthode AK-MCS : des simulations séquentielles de Monte Carlo pour diminuer le temps d’évaluation du métamodèle, un nouveau critère d’arrêt sur l’apprentissage plus stricte permettant d’assurer le bon classement de la population de Monte Carlo et un enrichissement multipoints permettant la parallélisation des calculs du modèle coûteux. Ce travail a été publié dans la revue Structural Safety (Lelièvre, et al. 2018). Le dernier objectif est de proposer de nouvelles méthodes pour l’estimation de probabilités de défaillance en grande dimension, c’est-à-dire un problème défini à la fois par un modèle coûteux et un très grand nombre de variables aléatoires d’entrée. Deux nouvelles méthodes, AK-HDMR1 et AK-PCA, sont proposées pour faire face à ce problème et sont basées respectivement sur une décomposition fonctionnelle et une technique de réduction de dimension. La méthode AK-HDMR1 fait l’objet d’une publication soumise à la revue Reliability Engineering and Structural Safety le 1er octobre 2018. / Engineers increasingly use numerical model to replace the experimentations during the design of new products. With the increase of computer performance and numerical power, these models are more and more complex and time-consuming for a better representation of reality. In practice, optimization is very challenging when considering real mechanical problems since they exhibit uncertainties. Reliability is an interesting metric of the failure risks of design products due to uncertainties. The estimation of this metric, the failure probability, requires a high number of evaluations of the time-consuming model and thus becomes intractable in practice. To deal with this problem, surrogate modeling is used here and more specifically AK-based methods to enable the approximation of the physical model with much fewer time-consuming evaluations. The first objective of this thesis work is to discuss the mathematical formulations of design problems under uncertainties. This formulation has a considerable impact on the solution identified by the optimization during design process of new products. A definition of both concepts of reliability and robustness is also proposed. These works are presented in a publication in the international journal: Structural and Multidisciplinary Optimization (Lelièvre, et al. 2016). The second objective of this thesis is to propose a new AK-based method to estimate failure probabilities associated with rare events. This new method, named AK-MCSi, presents three enhancements of AK-MCS: (i) sequential Monte Carlo simulations to reduce the time associated with the evaluation of the surrogate model, (ii) a new stricter stopping criterion on learning evaluations to ensure the good classification of the Monte Carlo population and (iii) a multipoints enrichment permitting the parallelization of the evaluation of the time-consuming model. This work has been published in Structural Safety (Lelièvre, et al. 2018). The last objective of this thesis is to propose new AK-based methods to estimate the failure probability of a high-dimensional reliability problem, i.e. a problem defined by both a time-consuming model and a high number of input random variables. Two new methods, AK-HDMR1 and AK-PCA, are proposed to deal with this problem based on respectively a functional decomposition and a dimensional reduction technique. AK-HDMR1 has been submitted to Reliability Enginnering and Structural Safety on 1st October 2018.
77

Interpolation sur les variétés grassmanniennes et applications à la réduction de modèles en mécanique / Interpolation on Grassmann manifolds and applications to reduced order methods in mechanics

Mosquera Meza, Rolando 26 June 2018 (has links)
Ce mémoire de thèse concerne l'interpolation sur les variétés de Grassmann et ses applications à la réduction de modèles en mécanique et plus généralement aux systèmes d'équations aux dérivées partielles d'évolution. Après une description de la méthode POD, nous introduisons les fondements théoriques en géométrie des variétés de Grassmann, qui seront utilisés dans le reste de la thèse. Ce chapitre donne à ce mémoire à la fois une rigueur mathématique au niveau des algorithmes mis au point, leur domaine de validité ainsi qu'une estimation de l'erreur en distance grassmannienne, mais également un caractère auto-contenu "self-contained" du manuscrit. Ensuite, on présente la méthode d'interpolation sur les variétés de Grassmann introduite par David Amsallem et Charbel Farhat. Cette méthode sera le point de départ des méthodes d'interpolation que nous développerons dans les chapitres suivants. La méthode de Amsallem-Farhat consiste à choisir un point d'interpolation de référence, envoyer l'ensemble des points d'interpolation sur l'espace tangent en ce point de référence via l'application logarithme géodésique, effectuer une interpolation classique sur cet espace tangent, puis revenir à la variété de Grassmann via l'application exponentielle géodésique. On met en évidence par des essais numériques l'influence du point de référence sur la qualité des résultats. Dans notre premier travail, nous présentons une version grassmannienne d'un algorithme connu dans la littérature sous le nom de Pondération par Distance Inverse (IDW). Dans cette méthode, l'interpolé en un point donné est considéré comme le barycentre des points d'interpolation où les coefficients de pondération utilisés sont inversement "proportionnels" à la distance entre le point considéré et les points d'interpolation. Dans notre méthode, notée IDW-G, la distance géodésique sur la variété de Grassmann remplace la distance euclidienne dans le cadre standard des espaces euclidiens. L'avantage de notre algorithme, dont on a montré la convergence sous certaines conditions assez générales, est qu'il ne requiert pas de point de référence contrairement à la méthode de Amsallem-Farhat. Pour remédier au caractère itératif (point fixe) de notre première méthode, nous proposons une version directe via la notion de barycentre généralisé. Notons enfin que notre algorithme IDW-G dépend nécessairement du choix des coefficients de pondération utilisés. Dans notre second travail, nous proposons une méthode qui permet un choix optimal des coefficients de pondération, tenant compte de l'auto-corrélation spatiale de l'ensemble des points d'interpolation. Ainsi, chaque coefficient de pondération dépend de tous les points d'interpolation et non pas seulement de la distance entre le point considéré et un point d'interpolation. Il s'agit d'une version grassmannienne de la méthode de Krigeage, très utilisée en géostatique. La méthode de Krigeage grassmannienne utilise également le point de référence. Dans notre dernier travail, nous proposons une version grassmannienne de l'algorithme de Neville qui permet de calculer le polynôme d'interpolation de Lagrange de manière récursive via l'interpolation linéaire entre deux points. La généralisation de cet algorithme sur une variété grassmannienne est basée sur l'extension de l'interpolation entre deux points (géodésique/droite) que l'on sait faire de manière explicite. Cet algorithme ne requiert pas le choix d'un point de référence, il est facile d'implémentation et très rapide. De plus, les résultats numériques obtenus sont remarquables et nettement meilleurs que tous les algorithmes décrits dans ce mémoire. / This dissertation deals with interpolation on Grassmann manifolds and its applications to reduced order methods in mechanics and more generally for systems of evolution partial differential systems. After a description of the POD method, we introduce the theoretical tools of grassmannian geometry which will be used in the rest of the thesis. This chapter gives this dissertation a mathematical rigor in the performed algorithms, their validity domain, the error estimate with respect to the grassmannian distance on one hand and also a self-contained character to the manuscript. The interpolation on Grassmann manifolds method introduced by David Amsallem and Charbel Farhat is afterward presented. This method is the starting point of the interpolation methods that we will develop in this thesis. The method of Amsallem-Farhat consists in chosing a reference interpolation point, mapping forward all interpolation points on the tangent space of this reference point via the geodesic logarithm, performing a classical interpolation on this tangent space and mapping backward the interpolated point to the Grassmann manifold by the geodesic exponential function. We carry out the influence of the reference point on the quality of the results through numerical simulations. In our first work, we present a grassmannian version of the well-known Inverse Distance Weighting (IDW) algorithm. In this method, the interpolation on a point can be considered as the barycenter of the interpolation points where the used weights are inversely proportional to the distance between the considered point and the given interpolation points. In our method, denoted by IDW-G, the geodesic distance on the Grassmann manifold replaces the euclidean distance in the standard framework of euclidean spaces. The advantage of our algorithm that we show the convergence undersome general assumptions, does not require a reference point unlike the method of Amsallem-Farhat. Moreover, to carry out this, we finally proposed a direct method, thanks to the notion of generalized barycenter instead of an earlier iterative method. However, our IDW-G algorithm depends on the choice of the used weighting coefficients. The second work deals with an optimal choice of the weighting coefficients, which take into account of the spatial autocorrelation of all interpolation points. Thus, each weighting coefficient depends of all interpolation points an not only on the distance between the considered point and the interpolation point. It is a grassmannian version of the Kriging method, widely used in Geographic Information System (GIS). Our grassmannian Kriging method require also the choice of a reference point. In our last work, we develop a grassmannian version of Neville's method which allow the computation of the Lagrange interpolation polynomial in a recursive way via the linear interpolation of two points. The generalization of this algorithm to grassmannian manifolds is based on the extension of interpolation of two points (geodesic/straightline) that we can do explicitly. This algorithm does not require the choice of a reference point, it is easy to implement and very quick. Furthermore, the obtained numerical results are notable and better than all the algorithms described in this dissertation.
78

Conception multi-physique et multi-objectif des cœurs de RNR-Na hétérogènes : développement d’une méthode d’optimisation sous incertitudes / Multi-physics and multi-objective design of heterogeneous SFR core : development of an optimization method under uncertainty

Ammar, Karim 09 December 2014 (has links)
Depuis la fermeture de Phénix en 2010 le CEA ne possède plus de réacteur au sodium. Vus les enjeux énergétiques et le potentiel de la filière, le CEA a lancé un programme de démonstrateur industriel appelé ASTRID (Advanced Sodium Technological Reactor for Industrial Demonstration), réacteur d’une puissance de 600MW électriques (1500 MW thermiques). L’objectif du prototype est double, être une réponse aux contraintes environnementales et démontrer la viabilité industrielle :• De la filière RNR-Na, avec un niveau de sureté au moins équivalent aux réacteurs de 3ème génération, du type de l’EPR. ASTRID intégrera dès la conception le retour d’expérience de Fukushima ;• Du retraitement des déchets (transmutation d’actinide mineur) et de la filière qui lui serait liée.La sûreté de l’installation est prioritaire, aucun radioélément ne doit être rejeté dans l’environnement, et ce dans toutes les situations. Pour atteindre cet objectif, il est impératif d’anticiper l’impact des nombreuses sources d’incertitudes sur le comportement du réacteur et ce dès la phase de conception. C’est dans ce contexte que s’inscrit cette thèse dont l’ambition est le développement de nouvelles méthodes d’optimisation des cœurs des RNR-Na. L’objectif est d’améliorer la robustesse et la fiabilité des réacteurs en réponse à des incertitudes existantes. Une illustration sera proposée à partir des incertitudes associées à certains régimes transitoires dimensionnant. Nous utiliserons le modèle ASTRID comme référence pour évaluer l’intérêt des nouvelles méthodes et outils développés.L’impact des incertitudes multi-Physiques sur le calcul des performances d’un cœur de RNR-Na et l’utilisation de méthodes d’optimisation introduisent de nouvelles problématiques :• Comment optimiser des cœurs « complexes » (i.e associés à des espaces de conception de dimensions élevée avec plus de 20 paramètres variables) en prenant en compte les incertitudes ?• Comment se comportent les incertitudes sur les cœurs optimisés par rapport au cœur de référence ?• En prenant en compte les incertitudes, les réacteurs sont-Ils toujours considérés comme performants ?• Les gains des optimisations obtenus à l’issue d’optimisations complexes sont-Ils supérieurs aux marges d’incertitudes (qui elles-Mêmes dépendent de l’espace paramétrique) ?La thèse contribue au développement et à la mise en place des méthodes nécessaires à la prise en compte des incertitudes dans les outils de simulation de nouvelle génération. Des méthodes statistiques pour garantir la cohérence des schémas de calculs multi-Physiques complexes sont également détaillées.En proposant de premières images de cœur de RNR-Na innovants, cette thèse présente des méthodes et des outils permettant de réduire les incertitudes sur certaines performances des réacteurs tout en les optimisant. Ces gains sont obtenus grâce à l’utilisation d’algorithmes d’optimisation multi-Objectifs. Ces méthodes permettent d’obtenir tous les compromis possibles entre les différents critères d’optimisations comme, par exemple, les compromis entre performance économique et sûreté. / Since Phenix shutting down in 2010, CEA does not have Sodium Fast Reactor (SFR) in operating condition. According to global energetic challenge and fast reactor abilities, CEA launched a program of industrial demonstrator called ASTRID (Advanced Sodium Technological Reactor for Industrial Demonstration), a reactor with electric power capacity equal to 600MW. Objective of the prototype is, in first to be a response to environmental constraints, in second demonstrates the industrial viability of:• SFR reactor. The goal is to have a safety level at least equal to 3rd generation reactors. ASTRID design integrates Fukushima feedback;• Waste reprocessing (with minor actinide transmutation) and it linked industry.Installation safety is the priority. In all cases, no radionuclide should be released into environment. To achieve this objective, it is imperative to predict the impact of uncertainty sources on reactor behaviour. In this context, this thesis aims to develop new optimization methods for SFR cores. The goal is to improve the robustness and reliability of reactors in response to existing uncertainties. We will use ASTRID core as reference to estimate interest of new methods and tools developed.The impact of multi-Physics uncertainties in the calculation of the core performance and the use of optimization methods introduce new problems:• How to optimize “complex” cores (i.e. associated with design spaces of high dimensions with more than 20 variable parameters), taking into account the uncertainties?• What is uncertainties behaviour for optimization core compare to reference core?• Taking into account uncertainties, optimization core are they still competitive? Optimizations improvements are higher than uncertainty margins?The thesis helps to develop and implement methods necessary to take into account uncertainties in the new generation of simulation tools. Statistical methods to ensure consistency of complex multi-Physics simulation results are also detailed.By providing first images of innovative SFR core, this thesis presents methods and tools to reduce the uncertainties on some performance while optimizing them. These gains are achieved through the use of multi-Objective optimization algorithms. These methods provide all possible compromise between the different optimization criteria, such as the balance between economic performance and safety.
79

Inversion probabiliste bayésienne en analyse d'incertitude

Fu, Shuai 14 December 2012 (has links) (PDF)
Ce travail de recherche propose une solution aux problèmes inverses probabilistes avec des outils de la statistique bayésienne. Le problème inverse considéré est d'estimer la distribution d'une variable aléatoire non observée X a partir d'observations bruitées Y suivant un modèle physique coûteux H. En général, de tels problèmes inverses sont rencontrés dans le traitement des incertitudes. Le cadre bayésien nous permet de prendre en compte les connaissances préalables d'experts surtout avec peu de données disponibles. Un algorithme de Metropolis-Hastings-within-Gibbs est proposé pour approcher la distribution a posteriori des paramètres de X avec un processus d'augmentation des données. A cause d'un nombre élevé d'appels, la fonction coûteuse H est remplacée par un émulateur de krigeage (méta-modèle) H chapeau. Cette approche implique plusieurs erreurs de nature différente et, dans ce travail, nous nous attachons a estimer et réduire l'impact de ces erreurs. Le critère DAC a été proposé pour évaluer la pertinence du plan d'expérience (design) et le choix de la loi a priori, en tenant compte des observations. Une autre contribution est la construction du design adaptatif adapté a notre objectif particulier dans le cadre bayésien. La principale méthodologie présentée dans ce travail a été appliquée a un cas d' étude d'ingénierie hydraulique.
80

Impact des changements d'usage sur la viabilité d'une population menacée dans un espace multi-protégé : le Crave à bec rouge (Pyrrhocorax pyrrhocorax) sur l'île d'Ouessant

Kerbiriou, Christian 04 December 2006 (has links) (PDF)
L'objectif de cette étude a été d'évaluer la viabilité d'une population de Crave à bec rouge (Pyrrhocorax pyrrhocorax), dans un contexte d'espaces protégés confrontés à de profonds changements d'usages des sols. Cet oiseau, espèce emblématique, est en effet susceptible d'être affecté par les modifications des relations société-nature, telles l'abandon des pratiques agricoles et le développement touristique.<br />L'étude s'est dans un premier temps focalisée sur l'identification des facteurs susceptibles d'influencer les paramètres démographiques de cette espèce. Le nombre de sites de reproduction apparaît comme un facteur très probablement limitant. Le succès reproducteur est quant à lui influencé par la superficie d'habitats favorables à proximité des sites de reproduction ainsi que par l'abondance des ressources alimentaires au printemps. Enfin la limitation de l'accès aux zones d'alimentation et la réduction du temps d'alimentation des oiseaux, occasionnées par la fréquentation touristique estivale du littoral, affectent la survie des jeunes Craves. <br />Dans un second temps, la viabilité démographique de cette population a été évaluée à l'aide de différents modèles et au travers de comparaisons de différents scénarios plausibles d'évolution et d'impacts des activités humaines. Dans l'éventualité d'une stabilisation de la fréquentation touristique et du processus d'enfrichement aux niveaux actuels, la population semble viable. Mais comparativement au contexte passé particulièrement favorable, la population semble désormais sur "le fil du rasoir", une diminution même légère d'un des paramètres démographiques conduirait à une extinction inéluctable. Compte-tenu des dynamiques actuelles, le dérangement touristique estival semble impacter le plus la population à court terme. Différents scénarios de gestion ont donc été envisagés, via notamment un modèle démographique spatialement explicite, développé au sein d'un Système Multi-Agents.

Page generated in 0.0778 seconds