• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 129
  • 23
  • 16
  • 8
  • 1
  • Tagged with
  • 248
  • 248
  • 64
  • 58
  • 53
  • 37
  • 37
  • 36
  • 34
  • 29
  • 28
  • 26
  • 25
  • 25
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Stochastic finite element method with simple random elements

Starkloff, Hans-Jörg 19 May 2008 (has links)
We propose a variant of the stochastic finite element method, where the random elements occuring in the problem formulation are approximated by simple random elements, i.e. random elements with only a finite number of possible values.
182

Towards multifidelity uncertainty quantification for multiobjective structural design

Lebon, Jérémy 12 December 2013 (has links)
This thesis aims at Multi-Objective Optimization under Uncertainty in structural design. We investigate Polynomial Chaos Expansion (PCE) surrogates which require extensive training sets. We then face two issues: high computational costs of an individual Finite Element simulation and its limited precision. From numerical point of view and in order to limit the computational expense of the PCE construction we particularly focus on sparse PCE schemes. We also develop a custom Latin Hypercube Sampling scheme taking into account the finite precision of the simulation. From the modeling point of view, we propose a multifidelity approach involving a hierarchy of models ranging from full scale simulations through reduced order physics up to response surfaces. Finally, we investigate multiobjective optimization of structures under uncertainty. We extend the PCE model of design objectives by taking into account the design variables. We illustrate our work with examples in sheet metal forming and optimal design of truss structures. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
183

Advances on Uncertainty Quantification Techniques for Dynamical Systems: Theory and Modelling

Burgos Simón, Clara 17 May 2021 (has links)
[ES] La cuantificación de la incertidumbre está compuesta por una serie de métodos y técnicas computacionales cuyo objetivo principal es describir la aleatoriedad presente en problemas de diversa índole. Estos métodos son de utilidad en la modelización de procesos biológicos, físicos, naturales o sociales, ya que en ellos aparecen ciertos aspectos que no pueden ser determinados de manera exacta. Por ejemplo, la tasa de contagio de una enfermedad epidemiológica o el factor de crecimiento de un volumen tumoral dependen de factores genéticos, ambientales o conductuales. Estos no siempre pueden definirse en su totalidad y por tanto conllevan una aleatoriedad intrínseca que afecta en el desarrollo final. El objetivo principal de esta tesis es extender técnicas para cuantificar la incertidumbre en dos áreas de las matemáticas: el cálculo de ecuaciones diferenciales fraccionarias y la modelización matemática. Las derivadas de orden fraccionario permiten modelizar comportamientos que las derivadas clásicas no pueden, como por ejemplo los efectos de memoria o la viscoelasticidad en algunos materiales. En esta tesis, desde un punto de vista teórico, se extenderá el cálculo fraccionario a un ambiente de incertidumbre, concretamente en el sentido de la media cuadrática. Se presentarán problemas de valores iniciales fraccionarios aleatorios. El cálculo de la solución, la obtención de las aproximaciones de la media y varianza de la solución y la aproximación de la primera función de densidad de probabilidad de la solución son conceptos que se abordarán en los próximos capítulos. Sin embargo, no siempre es sencillo obtener la solución exacta de un problema de valores iniciales fraccionario aleatorio. Por ello en esta tesis también se dedicará un capítulo para describir un procedimiento numérico que aproxime su solución. Por otro lado, desde un punto de vista más aplicado, se desarrollan técnicas computacionales para cuantificar la incertidumbre en modelos matemáticos. Combinando estas técnicas junto con modelos matemáticos apropiados, se estudiarán problemas de dinámica biológica. En primer lugar, se determinará la cantidad de portadores de meningococo en España con un modelo de competencia de Lotka-Volterra fraccionario aleatorio. A continuación, el volumen de un tumor mamario se modelizará mediante un modelo logístico con incertidumbre. Finalmente ayudándonos de un modelo matemático que describe el nivel de glucosa en sangre de un paciente diabético, se pretende dar una recomendación de carbohidratos e insulina que se debe de ingerir para que el nivel de glucosa del paciente esté dentro de una banda de confianza saludable. Es importante subrayar que para poder realizar estos estudios se requieren datos reales, los cuales pueden estar alterados debido a los errores de medición o proceso que se han cometido para obtenerlos. Por este motivo, modelizar correctamente el problema junto con la incertidumbre en los datos es de vital importancia. / [CA] La quantificació de la incertesa està composada per una sèrie de mètodes i tècniques computacionals, l'objectiu principal de les quals és descriure l'aleatorietat present en problemes de diversa índole. Aquests mètodes són d'utilitat en la modelització de processos biològics, físics, naturals o socials, ja que en ells apareixen certs aspectes que no poden ser determinats de manera exacta. Per exemple, la taxa de contagi d'una malaltia epidemiològica o el factor de creixement d'un volum tumoral depenen de factors genètics, ambientals o conductuals. Aquests no sempre poden definir-se íntegrament i per tant, comporten una aleatorietat intrínseca que afecta en el desenvolupament final. L'objectiu principal d'aquesta tesi doctoral és estendre tècniques per a quantificar la incertesa en dues àrees de les matemàtiques: el càlcul d'equacions diferencials fraccionàries i la modelització matemàtica. Les derivades d'ordre fraccionari permeten modelitzar comportaments que les derivades clàssiques no poden, com per exemple, els efectes de memòria o la viscoelasticitat en alguns materials. En aquesta tesi, des d'un punt de vista teòric, s'estendrà el càlcul fraccionari a un ambient d'incertesa, concretament en el sentit de la mitjana quadràtica. Es presentaran problemes de valors inicials fraccionaris aleatoris. El càlcul de la solució, l'obtenció de les aproximacions de la mitjana i, la variància de la solució i l'aproximació de la primera funció de densitat de probabilitat de la solució són conceptes que s'abordaran en els pròxims capítols. No obstant això, no sempre és senzill obtindre la solució exacta d'un problema de valors inicials fraccionari aleatori. Per això en aquesta tesi també es dedicarà un capítol per a descriure un procediment numèric que aproxime la seua solució. D'altra banda, des d'un punt de vista més aplicat, es desenvolupen tècniques computacionals per a quantificar la incertesa en models matemàtics. Combinant aquestes tècniques juntament amb models matemàtics apropiats, s'estudiaran problemes de dinàmica biològica. En primer lloc, es determinarà la quantitat de portadors de meningococ a Espanya amb un model de competència de Lotka-Volterra fraccionari aleatori. A continuació, el volum d'un tumor mamari es modelitzará mitjançant un model logístic amb incertesa. Finalment ajudant-nos d'un model matemàtic que descriu el nivell de glucosa en sang d'un pacient diabètic, es pretén donar una recomanació de carbohidrats i insulina que s'ha d'ingerir perquè el nivell de glucosa del pacient estiga dins d'una banda de confiança saludable. És important subratllar que per a poder realitzar aquests estudis es requereixen dades reals, els quals poden estar alterats a causa dels errors de mesurament o per la forma en que s'han obtés. Per aquest motiu, modelitzar correctament el problema juntament amb la incertesa en les dades és de vital importància. / [EN] Uncertainty quantification collects different methods and computational techniques aimed at describing the randomness in real phenomena. These methods are useful in the modelling of different processes as biological, physical, natural or social, since they present some aspects that can not be determined exactly. For example, the contagious rate of a epidemiological disease or the growth factor of a tumour volume depend on genetic, environmental or behavioural factors. They may not always be fully described and therefore involve uncertainties that affects on the final result. The main objective of this PhD thesis is to extend techniques to quantify the uncertainty in two mathematical areas: fractional calculus and mathematical modelling. Fractional derivatives allow us to model some behaviours that classical derivatives cannot, such as memory effects or the viscoelasticity of some materials. In this PhD thesis, from a theoretical point of view, fractional calculus is extended into the random framework, concretely in the mean square sense. Initial value problems will be studied. The calculus of the analytic solution, approximations for the mean and for the variance and the computation of the first probability density function are concepts we deal with them thought the following chapters. Nevertheless, it is not always possible to obtain the analytic solution of an initial value problem. Therefore, in this dissertation a chapter is addressed to describe a numerical procedure to approximate the solution for an initial value problem. On the other hand, from a modelling point of view, computational techniques to quantify the uncertainty in mathematical models are developed. Merging these techniques with appropriate mathematical models, problems of biological dynamics are studied. Firstly, the carriers of meningococcus in Spain are determined using a competition Lotka-Volterra random fractional model. Then, the volume of breast tumours is modelled by a random logistic model. Finally, taking advantage of a mathematical model which describes the glucose level of a diabetic patient, a recommendation of insulin shots and carbohydrate intakes is proposed to a patient in order to maintain her/his glucose level in a healthy confidence range. An important observation is that to carry out these studies real data is required and they may include uncertainties contained in the measurements on the process to perform the corresponding study. This it is the reason why it is crucial to properly model the problem taking also into account the randomness of the data. / Burgos Simón, C. (2021). Advances on Uncertainty Quantification Techniques for Dynamical Systems: Theory and Modelling [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/166442 / TESIS
184

Efficient Spectral-Chaos Methods for Uncertainty Quantification in Long-Time Response of Stochastic Dynamical Systems

Hugo Esquivel (10702248) 06 May 2021 (has links)
<div>Uncertainty quantification techniques based on the spectral approach have been studied extensively in the literature to characterize and quantify, at low computational cost, the impact that uncertainties may have on large-scale engineering problems. One such technique is the <i>generalized polynomial chaos</i> (gPC) which utilizes a time-independent orthogonal basis to expand a stochastic process in the space of random functions. The method uses a specific Askey-chaos system that is concordant with the measure defined in the probability space in order to ensure exponential convergence to the solution. For nearly two decades, this technique has been used widely by several researchers in the area of uncertainty quantification to solve stochastic problems using the spectral approach. However, a major drawback of the gPC method is that it cannot be used in the resolution of problems that feature strong nonlinear dependencies over the probability space as time progresses. Such downside arises due to the time-independent nature of the random basis, which has the undesirable property to lose unavoidably its optimality as soon as the probability distribution of the system's state starts to evolve dynamically in time.</div><div><br></div><div>Another technique is the <i>time-dependent generalized polynomial chaos</i> (TD-gPC) which utilizes a time-dependent orthogonal basis to better represent the stochastic part of the solution space (aka random function space or RFS) in time. The development of this technique was motivated by the fact that the probability distribution of the solution changes with time, which in turn requires that the random basis is frequently updated during the simulation to ensure that the mean-square error is kept orthogonal to the discretized RFS. Though this technique works well for problems that feature strong nonlinear dependencies over the probability space, the TD-gPC method possesses a serious issue: it suffers from the curse of dimensionality at the RFS level. This is because in all gPC-based methods the RFS is constructed using a tensor product of vector spaces with each of these representing a single RFS over one of the dimensions of the probability space. As a result, the higher the dimensionality of the probability space, the more vector spaces needed in the construction of a suitable RFS. To reduce the dimensionality of the RFS (and thus, its associated computational cost), gPC-based methods require the use of versatile sparse tensor products within their numerical schemes to alleviate to some extent the curse of dimensionality at the RFS level. Therefore, this curse of dimensionality in the TD-gPC method alludes to the need of developing a more compelling spectral method that can quantify uncertainties in long-time response of dynamical systems at much lower computational cost.</div><div><br></div><div>In this work, a novel numerical method based on the spectral approach is proposed to resolve the curse-of-dimensionality issue mentioned above. The method has been called the <i>flow-driven spectral chaos</i> (FSC) because it uses a novel concept called <i>enriched stochastic flow maps</i> to track the evolution of a finite-dimensional RFS efficiently in time. The enriched stochastic flow map does not only push the system's state forward in time (as would a traditional stochastic flow map) but also its first few time derivatives. The push is performed this way to allow the random basis to be constructed using the system's enriched state as a germ during the simulation and so as to guarantee exponential convergence to the solution. It is worth noting that this exponential convergence is achieved in the FSC method by using only a few number of random basis vectors, even when the dimensionality of the probability space is considerably high. This is for two reasons: (1) the cardinality of the random basis does not depend upon the dimensionality of the probability space, and (2) the cardinality is bounded from above by <i>M+n+1</i>, where <i>M</i> is the order of the stochastic flow map and <i>n</i> is the order of the governing stochastic ODE. The boundedness of the random basis from above is what makes the FSC method be curse-of-dimensionality free at the RFS level. For instance, for a dynamical system that is governed by a second-order stochastic ODE (<i>n=2</i>) and driven by a stochastic flow map of fourth-order (<i>M=4</i>), the maximum number of random basis vectors to consider within the FSC scheme is just 7, independent whether the dimensionality of the probability space is as low as 1 or as high as 10,000.</div><div><br></div><div>With the aim of reducing the complexity of the presentation, this dissertation includes three levels of abstraction for the FSC method, namely: a <i>specialized version</i> of the FSC method for dealing with structural dynamical systems subjected to uncertainties (Chapter 2), a <i>generalized version</i> of the FSC method for dealing with dynamical systems governed by (nonlinear) stochastic ODEs of arbitrary order (Chapter 3), and a <i>multi-element version</i> of the FSC method for dealing with dynamical systems that exhibit discontinuities over the probability space (Chapter 4). This dissertation also includes an implementation of the FSC method to address the dynamics of large-scale stochastic structural systems more effectively (Chapter 5). The implementation is done via a modal decomposition of the spatial function space as a means to reduce the number of degrees of freedom in the system substantially, and thus, save computational runtime.</div>
185

Inversion cinématique progressive linéaire de la source sismique et ses perspectives dans la quantification des incertitudes associées / Progressive linear kinematic source inversion method and its perspectives towards the uncertainty quantification.

Sanchez Reyes, Hugo Samuel 28 October 2019 (has links)
La caractérisation des tremblements de terre est un domaine de recherche primordial en sismologie, où l'objectif final est de fournir des estimations précises d'attributs de la source sismique. Dans ce domaine, certaines questions émergent, par exemple : quand un tremblement de terre s’est-il produit? quelle était sa taille? ou quelle était son évolution dans le temps et l'espace? On pourrait se poser d'autres questions plus complexes comme: pourquoi le tremblement s'est produit? quand sera le prochain dans une certaine région? Afin de répondre aux premières questions, une représentation physique du phénomène est nécessaire. La construction de ce modèle est l'objectif scientifique de ce travail doctoral qui est réalisé dans le cadre de la modélisation cinématique. Pour effectuer cette caractérisation, les modèles cinématiques de la source sismique sont un des outils utilisés par les sismologues. Il s’agit de comprendre la source sismique comme une dislocation en propagation sur la géométrie d’une faille active. Les modèles de sources cinématiques sont une représentation physique de l’histoire temporelle et spatiale d’une telle rupture en propagation. Cette modélisation est dite approche cinématique car les histoires de la rupture inférées par ce type de technique sont obtenues sans tenir compte des forces qui causent l'origine du séisme.Dans cette thèse, je présente une nouvelle méthode d'inversion cinématique capable d'assimiler, hiérarchiquement en temps, les traces de données à travers des fenêtres de temps évolutives. Cette formulation relie la fonction de taux de glissement et les sismogrammes observés, en préservant la positivité de cette fonction et la causalité quand on parcourt l'espace de modèles. Cette approche, profite de la structure creuse de l’histoire spatio-temporelle de la rupture sismique ainsi que de la causalité entre la rupture et chaque enregistrement différé par l'opérateur. Cet opérateur de propagation des ondes connu, est différent pour chaque station. Cette formulation progressive, à la fois sur l’espace de données et sur l’espace de modèle, requiert des hypothèses modérées sur les fonctions de taux de glissement attendues, ainsi que des stratégies de préconditionnement sur le gradient local estimé pour chaque paramètre du taux de glissement. Ces hypothèses sont basées sur de simples modèles physiques de rupture attendus. Les applications réussies de cette méthode aux cas synthétiques (Source Inversion Validation Exercise project) et aux données réelles du séisme de Kumamoto 2016 (Mw=7.0), ont permis d’illustrer les avantages de cette approche alternative d’une inversion cinématique linéaire de la source sismique.L’objectif sous-jacent de cette nouvelle formulation sera la quantification des incertitudes d’un tel modèle. Afin de mettre en évidence les propriétés clés prises en compte dans cette approche linéaire, dans ce travail, j'explore l'application de la stratégie bayésienne connue comme Hamiltonian Monte Carlo (HMC). Cette méthode semble être l’une des possibles stratégies qui peut être appliquée à ce problème linéaire sur-paramétré. Les résultats montrent qu’elle est compatible avec la stratégie linéaire dans le domaine temporel présentée ici. Grâce à une estimation efficace du gradient local de la fonction coût, on peut explorer rapidement l'espace de grande dimension des solutions possibles, tandis que la linéarité est préservée. Dans ce travail, j'explore la performance de la stratégie HMC traitant des cas synthétiques simples, afin de permettre une meilleure compréhension de tous les concepts et ajustements nécessaires pour une exploration correcte de l'espace de modèles probables. Les résultats de cette investigation préliminaire sont encourageants et ouvrent une nouvelle façon d'aborder le problème de la modélisation de la reconstruction cinématique de la source sismique, ainsi, que de l’évaluation des incertitudes associées. / The earthquake characterization is a fundamental research field in seismology, which final goal is to provide accurate estimations of earthquake attributes. In this study field, various questions may rise such as the following ones: when and where did an earthquake happen? How large was it? What is its evolution in space and time? In addition, more challenging questions can be addressed such as the following ones: why did it occur? What is the next one in a given area? In order to progress in the first list of questions, a physical description, or model, of the event is necessary. The investigation of such model (or image) is the scientific topic I investigate during my PhD in the framework of kinematic source models. Understanding the seismic source as a propagating dislocation that occurs across a given geometry of an active fault, the kinematic source models are the physical representations of the time and space history of such rupture propagation. Such physical representation is said to be a kinematic approach because the inferred rupture histories are obtained without taking into account the forces that might cause the origin of the dislocation.In this PhD dissertation, I present a new hierarchical time kinematic source inversion method able to assimilate data traces through evolutive time windows. A linear time-domain formulation relates the slip-rate function and seismograms, preserving the positivity of this function and the causality when spanning the model space: taking benefit of the time-space sparsity of the rupture model evolution is as essential as considering the causality between rupture and each record delayed by the known propagator operator different for each station. This progressive approach, both on the data space and on the model space, does require mild assumptions on prior slip-rate functions or preconditioning strategies on the slip-rate local gradient estimations. These assumptions are based on simple physical expected rupture models. Successful applications of this method to a well-known benchmark (Source Inversion Validation Exercise 1) and to the recorded data of the 2016 Kumamoto mainshock (Mw=7.0) illustrate the advantages of this alternative approach of a linear kinematic source inversion.The underlying target of this new formulation will be the future uncertainty quantification of such model reconstruction. In order to achieve this goal, as well as to highlight key properties considered in this linear time-domain approach, I explore the Hamiltonian Monte Carlo (HMC) stochastic Bayesian framework, which appears to be one of the possible and very promising strategies that can be applied to this stabilized over-parametrized optimization of a linear forward problem to assess the uncertainties on kinematic source inversions. The HMC technique shows to be compatible with the linear time-domain strategy here presented. This technique, thanks to an efficient estimation of the local gradient of the misfit function, appears to be able to rapidly explore the high-dimensional space of probable solutions, while the linearity between unknowns and observables is preserved. In this work, I investigate the performance of the HMC strategy dealing with simple synthetic cases with almost perfect illumination, in order to provide a better understanding of all the concepts and required tunning to achieve a correct exploration of the model space. The results from this preliminary investigation are promising and open a new way of tackling the kinematic source reconstruction problem and the assessment of the associated uncertainties.
186

Discrétisation de processus à des temps d’arrêt et Quantification d'incertitude pour des algorithmes stochastiques / Discretization of processes at stopping times and Uncertainty quantification of stochastic approximation limits

Stazhynski, Uladzislau 12 December 2018 (has links)
Cette thèse contient deux parties qui étudient deux sujets différents. Les Chapitres 1-4 sont consacrés aux problèmes de discrétisation de processus à des temps d’arrêt. Dans le Chapitre 1 on étudie l'erreur de discrétisation optimale pour des intégrales stochastiques par rapport à une semimartingale brownienne multidimensionnelle continue. Dans ce cadre on établit une borne inférieure trajectorielle pour la variation quadratique renormalisée de l'erreur. On fournit une suite de temps d’arrêt qui donne une discrétisation asymptotiquement optimale. Cette suite est définie comme temps de sortie d'ellipsoïdes aléatoires par la semimartingale. Par rapport aux résultats précédents on permet une classe de semimartingales assez large. On démontre qui la borne inférieure est exacte. Dans le Chapitre 2 on étudie la version adaptative au modèle de la discrétisation optimale d’intégrales stochastique. Dans le Chapitre 1 la construction de la stratégie optimale utilise la connaissance du coefficient de diffusion de la semimartingale considérée. Dans ce travail on établit une stratégie de discrétisation asymptotiquement optimale qui est adaptative au modèle et n'utilise pas aucune information sur le modèle. On démontre l'optimalité pour une classe de grilles de discrétisation assez générale basée sur les technique de noyau pour l'estimation adaptative. Dans le Chapitre 3 on étudie la convergence en loi des erreurs de discrétisation renormalisées de processus d’Itô pour une classe concrète et assez générale de grilles de discrétisation données par des temps d’arrêt. Les travaux précédents sur le sujet considèrent seulement le cas de dimension 1. En plus ils concentrent sur des cas particuliers des grilles, ou démontrent des résultats sous des hypothèses abstraites. Dans notre travail on donne explicitement la distribution limite sous une forme claire et simple, les résultats sont démontré dans le cas multidimensionnel pour le processus et pour l'erreur de discrétisation. Dans le Chapitre 4 on étudie le problème d'estimation paramétrique pour des processus de diffusion basée sur des observations à temps d’arrêt. Les travaux précédents sur le sujet considèrent que des temps d'observation déterministes, fortement prévisibles ou aléatoires indépendants du processus. Sous des hypothèses faibles on construit une suite d'estimateurs consistante pour une classe large de grilles d'observation données par des temps d’arrêt. On effectue une analyse asymptotique de l'erreur d'estimation. En outre, dans le cas du paramètre de dimension 1, pour toute suite d'estimateurs qui vérifie un TCL sans biais, on démontre une borne inférieure uniforme pour la variance asymptotique; on montre que cette borne est exacte. Les Chapitres 5-6 sont consacrés au problème de quantification d'incertitude pour des limites d'approximation stochastique. Dans le Chapitre 5 on analyse la quantification d'incertitude pour des limites d'approximation stochastique (SA). Dans notre cadre la limite est définie comme un zéro d'une fonction donnée par une espérance. Cette espérance est prise par rapport à une variable aléatoire pour laquelle le modèle est supposé de dépendre d'un paramètre incertain. On considère la limite de SA comme une fonction de cette paramètre. On introduit un algorithme qui s'appelle USA (Uncertainty for SA). C'est une procédure en dimension croissante pour calculer les coefficients de base d'expansion de chaos de cette fonction dans une base d'un espace de Hilbert bien choisi. La convergence de USA dans cet espace de Hilbert est démontré. Dans le Chapitre 6 on analyse le taux de convergence dans L2 de l'algorithme USA développé dans le Chapitre 5. L'analyse est non trivial à cause de la dimension infinie de la procédure. Le taux obtenu dépend du modèle et des paramètres utilisés dans l'algorithme USA. Sa connaissance permet d'optimiser la vitesse de croissance de la dimension dans USA. / This thesis consists of two parts which study two separate subjects. Chapters 1-4 are devoted to the problem of processes discretization at stopping times. In Chapter 1 we study the optimal discretization error of stochastic integrals, driven by a multidimensional continuous Brownian semimartingale. In this setting we establish a path wise lower bound for the renormalized quadratic variation of the error and we provide a sequence of discretization stopping times, which is asymptotically optimal. The latter is defined as hitting times of random ellipsoids by the semimartingale at hand. In comparison with previous available results, we allow a quite large class of semimartingales and we prove that the asymptotic lower bound is attainable. In Chapter 2 we study the model-adaptive optimal discretization error of stochastic integrals. In Chapter 1 the construction of the optimal strategy involved the knowledge about the diffusion coefficient of the semimartingale under study. In this work we provide a model-adaptive asymptotically optimal discretization strategy that does not require any prior knowledge about the model. In Chapter 3 we study the convergence in distribution of renormalized discretization errors of Ito processes for a concrete general class of random discretization grids given by stopping times. Previous works on the subject only treat the case of dimension 1. Moreover they either focus on particular cases of grids, or provide results under quite abstract assumptions with implicitly specified limit distribution. At the contrast we provide explicitly the limit distribution in a tractable form in terms of the underlying model. The results hold both for multidimensional processes and general multidimensional error terms. In Chapter 4 we study the problem of parametric inference for diffusions based on observations at random stopping times. We work in the asymptotic framework of high frequency data over a fixed horizon. Previous works on the subject consider only deterministic, strongly predictable or random, independent of the process, observation times, and do not cover our setting. Under mild assumptions we construct a consistent sequence of estimators, for a large class of stopping time observation grids. Further we carry out the asymptotic analysis of the estimation error and establish a Central Limit Theorem (CLT) with a mixed Gaussian limit. In addition, in the case of a 1-dimensional parameter, for any sequence of estimators verifying CLT conditions without bias, we prove a uniform a.s. lower bound on the asymptotic variance, and show that this bound is sharp. In Chapters 5-6 we study the problem of uncertainty quantification for stochastic approximation limits. In Chapter 5 we analyze the uncertainty quantification for the limit of a Stochastic Approximation (SA) algorithm. In our setup, this limit is defined as the zero of a function given by an expectation. The expectation is taken w.r.t. a random variable for which the model is assumed to depend on an uncertain parameter. We consider the SA limit as a function of this parameter. We introduce the so-called Uncertainty for SA (USA) algorithm, an SA algorithm in increasing dimension for computing the basis coefficients of a chaos expansion of this function on an orthogonal basis of a suitable Hilbert space. The almost-sure and Lp convergences of USA, in the Hilbert space, are established under mild, tractable conditions. In Chapter 6 we analyse the L2-convergence rate of the USA algorithm designed in Chapter 5.The analysis is non-trivial due to infinite dimensionality of the procedure. Moreover, our setting is not covered by the previous works on infinite dimensional SA. The obtained rate depends non-trivially on the model and the design parameters of the algorithm. Its knowledge enables optimization of the dimension growth speed in the USA algorithm, which is the key factor of its efficient performance.
187

Propagation d’incertitudes à travers des modèles dynamiques d’assemblages de structures mécaniques / Uncertainty propagation through dynamic models of assemblies of mechanical structures

Daouk, Sami 15 November 2016 (has links)
Lors de l'étude du comportement des systèmes mécaniques, les modèles mathématiques et les paramètres structuraux sont généralement considérés déterministes. Néanmoins, le retour d'expérience montre que ces éléments sont souvent incertains, dû à une variabilité naturelle ou manque de connaissance. La quantification de la qualité et la fiabilité du modèle numérique d'un assemblage industriel reste alors une question majeure en dynamique basse-fréquence. L'objectif de cette thèse est d'améliorer le dimensionnement vibratoire des assemblages boulonnés par la mise en place d'un modèle dynamique de connecteur prenant en compte différents types et sources d'incertitudes sur des paramètres de raideur, de manière simple, efficace et exploitable dans un contexte industriel. Ces travaux s'inscrivent dans le cadre du projet SICODYN, piloté par EDF R&D, visant à caractériser et quantifier les incertitudes sur le comportement dynamique des assemblages industriels boulonnés sous les aspects numérique et expérimental. Des études comparatives de plusieurs méthodes numériques de propagation d'incertitudes montrent l'avantage de l'utilisation de la théorie des méconnaissances. Une caractérisation expérimentale des incertitudes dans les structures boulonnées est réalisée sur un banc d'essai dynamique et sur un assemblage industriel. La propagation de plusieurs faibles et fortes incertitudes à travers différents modèles dynamiques d’assemblages mécaniques permet d'aboutir à l’évaluation de l'efficacité de la théorie des méconnaissances et son applicabilité en milieu industriel. / When studying the behaviour of mechanical systems, mathematical models and structural parameters are usually considered deterministic. Return on experience shows however that these elements are uncertain in most cases, due to natural variability or lack of knowledge. Therefore, quantifying the quality and reliability of the numerical model of an industrial assembly remains a major question in low-frequency dynamics. The purpose of this thesis is to improve the vibratory design of bolted assemblies through setting up a dynamic connector model that takes account of different types and sources of uncertainty on stiffness parameters, in a simple, efficient and exploitable in industrial context. This work has been carried out in the framework of the SICODYN project, led by EDF R&D, that aims to characterise and quantify, numerically and experimentally, the uncertainties in the dynamic behaviour of bolted industrial assemblies. Comparative studies of several numerical methods of uncertainty propagation demonstrate the advantage of using the Lack-Of-Knowledge theory. An experimental characterisation of uncertainties in bolted structures is performed on a dynamic test rig and on an industrial assembly. The propagation of many small and large uncertainties through different dynamic models of mechanical assemblies leads to the assessment of the efficiency of the Lack-Of-Knowledge theory and its applicability in an industrial environment.
188

Stratégies numériques innovantes pour l’assimilation de données par inférence bayésienne / Development of innovative numerical strategies for Bayesian data assimilation

Rubio, Paul-Baptiste 15 October 2019 (has links)
Ce travail se place dans le cadre de l'assimilation de données en mécanique des structures. Il vise à développer de nouveaux outils numériques pour l'assimilation de données robuste et en temps réel afin d'être utilisés dans diverses activités d'ingénierie. Une activité cible est la mise en œuvre d'applications DDDAS (Dynamic Data Driven Application System) dans lesquelles un échange continu entre les outils de simulation et les mesures expérimentales est requis dans le but de créer une boucle de contrôle rétroactive sur des systèmes mécaniques connectés. Dans ce contexte, et afin de prendre en compte les différentes sources d'incertitude (erreur de modélisation, bruit de mesure,...), une méthodologie stochastique puissante est considérée dans le cadre général de l’inférence bayésienne. Cependant, un inconvénient bien connu d'une telle approche est la complexité informatique qu’elle engendre et qui rend les simulations en temps réel et l'assimilation séquentielle des données difficiles.Le travail de thèse propose donc de coupler l'inférence bayésienne avec des techniques numériques attrayantes et avancées afin d'envisager l’assimilation stochastique de données de façon séquentielle et en temps réel. Premièrement, la réduction de modèle PGD est introduite pour faciliter le calcul de la fonction de vraisemblance, la propagation des incertitudes dans des modèles complexes et l'échantillonnage de la densité a posteriori. Ensuite, l'échantillonnage par la méthode des Transport Maps est étudiée comme un substitut aux procédures classiques MCMC pour l'échantillonnage de la densité a posteriori. Il est démontré que cette technique conduit à des calculs déterministes, avec des critères de convergence clairs, et qu'elle est particulièrement adaptée à l'assimilation séquentielle de données. Là encore, l'utilisation de la réduction de modèle PGD facilite grandement le processus en utilisant les informations des gradients et hessiens d'une manière simple. Enfin, et pour accroître la robustesse, la correction à la volée du biais du modèle est abordée à l'aide de termes d'enrichissement fondés sur les données. Aussi, la sélection des données les plus pertinentes pour l’objectif d’assimilation est abordée.Cette méthodologie globale est appliquée et illustrée sur plusieurs applications académiques et réelles, comprenant par exemple le recalage en temps réel de modèles pour le contrôle des procédés de soudage, ou l’étude d'essais mécaniques impliquant des structures endommageables en béton instrumentées par mesures de champs. / The work is placed into the framework of data assimilation in structural mechanics. It aims at developing new numerical tools in order to permit real-time and robust data assimilation that could then be used in various engineering activities. A specific targeted activity is the implementation of DDDAS (Dynamic Data Driven Application System) applications in which a continuous exchange between simulation tools and experimental measurements is envisioned to the end of creating retroactive control loops on mechanical systems. In this context, and in order to take various uncertainty sources (modeling error, measurement noise,..) into account, a powerful and general stochastic methodology with Bayesian inference is considered. However, a well-known drawback of such an approach is the computational complexity which makes real-time simulations and sequential assimilation some difficult tasks.The PhD work thus proposes to couple Bayesian inference with attractive and advanced numerical techniques so that real-time and sequential assimilation can be envisioned. First, PGD model reduction is introduced to facilitate the computation of the likelihood function, uncertainty propagation through complex models, and the sampling of the posterior density. Then, Transport Map sampling is investigated as a substitute to classical MCMC procedures for posterior sampling. It is shown that this technique leads to deterministic computations, with clear convergence criteria, and that it is particularly suited to sequential data assimilation. Here again, the use of PGD model reduction highly facilitates the process by recovering gradient and Hessian information in a straightforward manner. Eventually, and to increase robustness, on-the-fly correction of model bias is addressed using data-based enrichment terms.The overall cost-effective methodology is applied and illustrated on several academic and real-life test cases, including for instance the real-time updating of models for the control of welding processes, or that of mechanical tests involving damageable concrete structures with full-field measurements.
189

Correspondance entre régression par processus Gaussien et splines d'interpolation sous contraintes linéaires de type inégalité. Théorie et applications. / Correspondence between Gaussian process regression and interpolation splines under linear inequality constraints. Theory and applications

Maatouk, Hassan 01 October 2015 (has links)
On s'intéresse au problème d'interpolation d'une fonction numérique d'une ou plusieurs variables réelles lorsque qu'elle est connue pour satisfaire certaines propriétés comme, par exemple, la positivité, monotonie ou convexité. Deux méthodes d'interpolation sont étudiées. D'une part, une approche déterministe conduit à un problème d'interpolation optimale sous contraintes linéaires inégalité dans un Espace de Hilbert à Noyau Reproduisant (RKHS). D'autre part, une approche probabiliste considère le même problème comme un problème d'estimation d'une fonction dans un cadre bayésien. Plus précisément, on considère la Régression par Processus Gaussien ou Krigeage pour estimer la fonction à interpoler sous les contraintes linéaires de type inégalité en question. Cette deuxième approche permet également de construire des intervalles de confiance autour de la fonction estimée. Pour cela, on propose une méthode d'approximation qui consiste à approcher un processus gaussien quelconque par un processus gaussien fini-dimensionnel. Le problème de krigeage se ramène ainsi à la simulation d'un vecteur gaussien tronqué à un espace convexe. L'analyse asymptotique permet d'établir la convergence de la méthode et la correspondance entre les deux approches déterministeet probabiliste, c'est le résultat théorique de la thèse. Ce dernier est vu comme unegénéralisation de la correspondance établie par [Kimeldorf and Wahba, 1971] entre estimateur bayésien et spline d'interpolation. Enfin, une application réelle dans le domainede l'assurance (actuariat) pour estimer une courbe d'actualisation et des probabilités dedéfaut a été développée. / This thesis is dedicated to interpolation problems when the numerical function is known to satisfy some properties such as positivity, monotonicity or convexity. Two methods of interpolation are studied. The first one is deterministic and is based on convex optimization in a Reproducing Kernel Hilbert Space (RKHS). The second one is a Bayesian approach based on Gaussian Process Regression (GPR) or Kriging. By using a finite linear functional decomposition, we propose to approximate the original Gaussian process by a finite-dimensional Gaussian process such that conditional simulations satisfy all the inequality constraints. As a consequence, GPR is equivalent to the simulation of a truncated Gaussian vector to a convex set. The mode or Maximum A Posteriori is defined as a Bayesian estimator and prediction intervals are quantified by simulation. Convergence of the method is proved and the correspondence between the two methods is done. This can be seen as an extension of the correspondence established by [Kimeldorf and Wahba, 1971] between Bayesian estimation on stochastic process and smoothing by splines. Finally, a real application in insurance and finance is given to estimate a term-structure curve and default probabilities.
190

Machine Learning-Based Reduced-Order Modeling and Uncertainty Quantification for "Structure-Property" Relations for ICME Applications

Yuan, Mengfei 11 July 2019 (has links)
No description available.

Page generated in 0.196 seconds