• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 10
  • 2
  • 1
  • Tagged with
  • 46
  • 46
  • 15
  • 12
  • 9
  • 9
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Mathematical modelling and numerical simulation in materials science / Modélisation mathématique et simulation numérique en science des matériaux

Boyaval, Sébastien 16 December 2009 (has links)
Dans une première partie, nous étudions des schémas numériques utilisant la méthode des éléments finis pour discrétiser le système d'équations Oldroyd-B modélisant un fluide viscolélastique avec conditions de collement dans un domaine borné, en dimension deux ou trois. Le but est d'obtenir des schémas stables au sens où ils dissipent une énergie libre, imitant ainsi des propriétés thermodynamiques de dissipation similaires à celles identifiées pour des solutions régulières du modèle continu. Cette étude s'ajoute a de nombreux travaux antérieurs sur les instabilités observées dans les simulations numériques d'équations viscoélastiques (dont celles connues comme étant des Problèmes à Grand Nombre de Weissenberg). A notre connaissance, c'est la première étude qui considère rigoureusement la stabilité numérique au sens de la dissipation d'une énergie pour des discrétisations de type Galerkin. Dans une seconde partie, nous adaptons et utilisons les idées d'une méthode numérique initialement développée dans des travaux de Y. Maday, A. T. Patera et al., la méthode des bases réduites, pour simuler efficacement divers modèles multi-échelles. Le principe est d'approcher numériquement chaque élément d'une collection paramétrée d'objets complexes dans un espace de Hilbert par la plus proche combinaison linéaire dans le meilleur sous-espace vectoriel engendré par quelques éléments bien choisis au sein de la même collection paramétrée. Nous appliquons ce principe pour des problèmes numériques liés : à l'homogénéisation numérique d'équations elliptiques scalaires du second-ordre, avec coefficients de diffusion oscillant à deux échelles, puis ; à la propagation d'incertitudes (calculs de moyenne et de variance) dans un problème elliptique avec coefficients stochastiques (un champ aléatoire borné dans une condition de bord du troisième type), enfin ; au calcul Monte-Carlo de l'espérance de nombreuses variables aléatoires paramétrées, en particulier des fonctionnelles de processus stochastiques d'Itô paramétrés proches de ce qu'on rencontre dans les modèles micro-macro de fluides polymériques, avec une variable de contrôle pour en réduire la variance. Dans chaque application, le but de l'approche bases-réduites est d'accélérer les calculs sans perte de précision / In a first part, we study numerical schemes using the finite-element method to discretize the Oldroyd-B system of equations, modelling a viscoelastic fluid under no flow boundary condition in a 2- or 3- dimensional bounded domain. The goal is to get schemes which are stable in the sense that they dissipate a free-energy, mimicking that way thermodynamical properties of dissipation similar to those actually identified for smooth solutions of the continuous model. This study adds to numerous previous ones about the instabilities observed in the numerical simulations of viscoelastic fluids (in particular those known as High Weissenberg Number Problems). To our knowledge, this is the first study that rigorously considers the numerical stability in the sense of an energy dissipation for Galerkin discretizations. In a second part, we adapt and use ideas of a numerical method initially developped in the works of Y. Maday, A.T. Patera et al., the reduced-basis method, in order to efficiently simulate some multiscale models. The principle is to numerically approximate each element of a parametrized family of complicate objects in a Hilbert space through the closest linear combination within the best linear subspace spanned by a few elementswell chosen inside the same parametrized family. We apply this principle to numerical problems linked : to the numerical homogenization of second-order elliptic equations, with two-scale oscillating diffusion coefficients, then ; to the propagation of uncertainty (computations of the mean and the variance) in an elliptic problem with stochastic coefficients (a bounded stochastic field in a boundary condition of third type), last ; to the Monte-Carlo computation of the expectations of numerous parametrized random variables, in particular functionals of parametrized Itô stochastic processes close to what is encountered in micro-macro models of polymeric fluids, with a control variate to reduce its variance. In each application, the goal of the reduced-basis approach is to speed up the computations without any loss of precision
42

Filtering and uncertainty propagation methods for model-based prognosis / Méthodes de filtrage et de propagation d'incertitudes pour le pronostic à base de modèles

Robinson, Elinirina Iréna 10 October 2018 (has links)
Les travaux présentés dans ce mémoire concernent le développement de méthodes de pronostic à base de modèles. Le pronostic à base de modèles a pour but d'estimer le temps qu'il reste avant qu'un système ne soit défaillant, à partir d'un modèle physique de la dégradation du système. Ce temps de vie restant est appelé durée de résiduelle (RUL) du système.Le pronostic à base de modèle est composé de deux étapes principales : (i) estimation de l'état actuel de la dégradation et (ii) prédiction de l'état futur de la dégradation. La première étape, qui est une étape de filtrage, est réalisée à partir du modèle et des mesures disponibles. La seconde étape consiste à faire de la propagation d'incertitudes. Le principal enjeu du pronostic concerne la prise en compte des différentes sources d'incertitude pour obtenir une mesure de l'incertitude associée à la RUL prédite. Les principales sources d'incertitude sont les incertitudes de modèle, les incertitudes de mesures et les incertitudes liées aux futures conditions d'opération du système. Afin de gérer ces incertitudes et les intégrer au pronostic, des méthodes probabilistes ainsi que des méthodes ensemblistes ont été développées dans cette thèse.Dans un premier temps, un filtre de Kalman étendu ainsi qu'un filtre particulaire sont appliqués au pronostic de propagation de fissure, en utilisant la loi de Paris et des données synthétiques. Puis, une méthode combinant un filtre particulaire et un algorithme de détection (algorithme des sommes cumulatives) a été développée puis appliquée au pronostic de propagation de fissure dans un matériau composite soumis à un chargement variable. Cette fois, en plus des incertitudes de modèle et de mesures, les incertitudes liées aux futures conditions d'opération du système ont aussi été considérées. De plus, des données réelles ont été utilisées. Ensuite, deux méthodes de pronostic sont développées dans un cadre ensembliste où les erreurs sont considérées comme étant bornées. Elles utilisent notamment des méthodes d'inversion ensembliste et un observateur par intervalles pour des systèmes linéaires à temps discret. Enfin, l'application d'une méthode issue du domaine de l'analyse de fiabilité des systèmes au pronostic à base de modèles est présentée. Il s'agit de la méthode Inverse First-Order Reliability Method (Inverse FORM).Pour chaque méthode développée, des métriques d'évaluation de performance sont calculées dans le but de comparer leur efficacité. Il s'agit de l'exactitude, la précision et l'opportunité. / In this manuscript, contributions to the development of methods for on-line model-based prognosis are presented. Model-based prognosis aims at predicting the time before the monitored system reaches a failure state, using a physics-based model of the degradation. This time before failure is called the remaining useful life (RUL) of the system.Model-based prognosis is divided in two main steps: (i) current degradation state estimation and (ii) future degradation state prediction to predict the RUL. The first step, which consists in estimating the current degradation state using the measurements, is performed with filtering techniques. The second step is realized with uncertainty propagation methods. The main challenge in prognosis is to take the different uncertainty sources into account in order to obtain a measure of the RUL uncertainty. There are mainly model uncertainty, measurement uncertainty and future uncertainty (loading, operating conditions, etc.). Thus, probabilistic and set-membership methods for model-based prognosis are investigated in this thesis to tackle these uncertainties.The ability of an extended Kalman filter and a particle filter to perform RUL prognosis in presence of model and measurement uncertainty is first studied using a nonlinear fatigue crack growth model based on the Paris' law and synthetic data. Then, the particle filter combined to a detection algorithm (cumulative sum algorithm) is applied to a more realistic case study, which is fatigue crack growth prognosis in composite materials under variable amplitude loading. This time, model uncertainty, measurement uncertainty and future loading uncertainty are taken into account, and real data are used. Then, two set-membership model-based prognosis methods based on constraint satisfaction and unknown input interval observer for linear discete-time systems are presented. Finally, an extension of a reliability analysis method to model-based prognosis, namely the inverse first-order reliability method (Inverse FORM), is presented.In each case study, performance evaluation metrics (accuracy, precision and timeliness) are calculated in order to make a comparison between the proposed methods.
43

Integration of uncertainty and definition of critical thresholds for CO2 storage risk assessment / Insertion de l'incertitude et définition de seuils critiques pour l'analyse de risques du stockage du CO2

Okhulkova, Tatiana 15 December 2015 (has links)
L'objectif principal de la thèse est de définir comment l'incertitude peut être prise en compte dans leprocessus d'évaluation des risques pour le stockage de CO2 et de quantifier, à l'aide de modèles numériques,les scénarios de fuite par migration latérale et à travers la couverture. Les scénarios choisis sont quantifiéspar l'approche de modélisation de système pour laquelle des modèles numériques prédictifs ad-hoc sontdéveloppés. Une étude probabiliste de propagation d'incertitude paramétrique par un méta-modèle depolynômes de chaos est réalisée. La problématique de la prise en compte de la variabilité spatiale comme unesource d'incertitude est éclairée et une étude comparative entre représentations homogène et hétérogène de laperméabilité est fournie. / The main goal of the thesis is to define how the uncertainty can be accounted for in the process of riskassessment for CO2 storage and to quantify by means of numerical models the scenarii of leakage by lateralmigration and through the caprock. The chosen scenarii are quantified using the system modeling approachfor which ad-hoc predictive numerical models are developed. A probabilistic parametric uncertaintypropagation study using polynomial chaos expansion is performed. Matters of spatial variability are alsodiscussed and a comparison between homogeneous and heterogeneous representations of permeability isprovided.
44

Fusion de données géoréférencées et développement de services interopérables pour l’estimation des besoins en eau à l’échelle des bassins versants / Geospatial data fusion and development of interoperable services to assess water needs at watershed scale

Beaufils, Mickaël 04 December 2012 (has links)
De nos jours, la préservation de l’environnement constitue un enjeu prioritaire. La compréhension des phénomènes environnementaux passe par l’étude et la combinaison d’un nombre croissant de données hétérogènes. De nombreuses initiatives internationales (INSPIRE, GEOSS) visent à encourager le partage et l’échange de ces données. Dans ce sujet de recherche, nous traitons de l’intérêt de mettre à disposition des modèles scientifiques sur le web. Nous montrons l’intérêt d’utiliser des applications s’appuyant sur des données géoréférencées et présentons des méthodes et des moyens répondant aux exigences d’interopérabilité. Nous illustrons notre approche par l’implémentation de modèles d’estimation des besoins en eau agricoles et domestiques fonctionnant à diverses échelles spatiales et temporelles. Un prototype basé sur une architecture entièrement orientée services web a été développé. L’outil s’appuie sur les standards Web Feature Service (WFS), Sensor Observation Service (SOS) et Web Processing Service (WPS) de l’OGC. Enfin, la prise en compte des imperfections des données est également abordée avec l’intégration de méthodes d’analyse de sensibilité et de propagation de l’incertitude. / Nowadays, preservation of the environment is a main priority. Understanding of environmental phenomena requires the study and the combination of an increasing number of heterogeneous data. Several international initiatives (INSPIRE, GEOSS) aims to encourage the sharing and exchange of those data.In this thesis, the interest of making scientific models available on the web is discussed. The value of using applications based on geospatial data is demonstrated. Several methods and means that satisfy the requirements of interoperability are also purposed.Our approach is illustrated by the implementation of models for estimating agricultural and domestic water requirements. Those models can be used at different spatial scales and temporal granularities. A prototype based on a complete web service oriented architecture was developed. The tool is based on the OGC standards Web Feature Service (WFS), Sensor Observation Service (SOS) and Web Processing Service (WPS).Finally, taking into account the imperfections of the data is also discussed with the integration of methods for sensitivity analysis and uncertainty propagation.
45

Structural Modeling and Damage Detection in a Non-Deterministic Framework

Chandrashekhar, M January 2014 (has links) (PDF)
Composite structures are extremely useful for aerospace, automotive, marine and civil applications due to their very high specific structural properties. These structures are subjected to severe dynamic loading in their service life. Repeated exposure to these severe loading conditions can induce structural damage which ultimately may precipitate a catastrophic failure. Therefore, an interest in the continuous inspection and maintenance of engineering structures has grown tremendously in recent years. Sensitive aerospace applications can have small design margins and any inadequacy in knowledge of the system may cause design failure. Structures made from composite materials posses complicated failure mechanism as compared to those made from conventional metallic materials. In composite structural design, it is hence very important to properly model geometric intricacies and various imperfections such as delaminations and cracks. Two important issues are addressed in this thesis: (1) structural modeling of nonlinear delamination and uncertainty propagation in nonlinear characteristics of composite plate structures and (2) development of a model based damage detection system to handle uncertainty issues. An earlier proposed shear deformable C0 composite plate finite element is modified to alleviate modeling uncertainty issues associated with a damage detection problem. Parabolic variation of transverse shear stresses across the plate thickness is incorporated into the modified formulation using mixed shear interpolation technique. Validity of the proposed modification is established through available literature. Correction of the transverse shear stress term in the formulation results in about 2 percent higher solution accuracy than the earlier model. It is found that the transverse shear effect increases with higher modes of the plate deformation. Transverse shear effects are more prominent in sandwich plates. This refined composite plate finite element is used for large deformation dynamic analysis of delaminated composite plates. The inter-laminar contact at the delaminated region in composite plates is modeled with the augmented Lagrangian approach. Numerical simulations are carried out to investigate the effect of delamination on the nonlinear transient behavior of composite plates. Results obtained from these studies show that widely used unconditionally stable β-Newmark method presents numerical instability problems in the transient simulation of delaminated composite plate structures with large deformation. To overcome this instability issue, an energy and momentum conserving composite implicit time integration scheme presented by Bathe and Baig is used for the nonlinear dynamic analysis. It is also found that a proper selection of the penalty parameter is very crucial in the simulation of contact condition. It is shown that an improper selection of penalty parameter in the augmented Lagrangian formulation may lead to erroneous prediction of dynamic response of composite delaminated plates. Uncertainties associated with the mathematical characterization of a structure can lead to unreliable damage detection. Composite structures also show considerable scatter in their structural response due to large uncertainties associated with their material properties. Probabilistic analysis is carried out to estimate material uncertainty effects in the nonlinear frequencies of composite plates. Monte Carlo Simulation with Latin Hypercube Sampling technique is used to obtain the variance of linear and nonlinear natural frequencies of the plate due to randomness in its material properties. Numerical results are obtained for composite plates with different aspect ratio, stacking sequence and oscillation amplitude ratio. It is found that the nonlinear frequencies show increasing non-Gaussian probability density function with increasing amplitude of vibration and show dual peaks at high amplitude ratios. This chaotic nature of the dispersion of nonlinear eigenvalues is also revealed in eigenvalue sensitivity analysis. For fault isolation, variations in natural frequencies, modal curvatures and curvature damage factors due to damage are investigated. Effects of various physical uncertainties like, material and geometric uncertainties on the success of damage detection is studied. A robust structural damage detection system is developed based on the statistical information available from the probabilistic analysis carried out on beam type structures. A new fault isolation technique called sliding window defuzzifier is proposed to maximize the success rate of a Fuzzy Logic System (FLS) in damage detection. Using the changes in structural measurements between the damaged and undamaged state, a fuzzy system is generated and the rule-base and membership functions are generated using probabilistic informations. The FLS is demonstrated using frequency and mode shape based measurements for various beam type structures such as uniform cantilever beam, tapered beam in single as well as in multiple damage conditions. The robustness of the FLS is demonstrated with respect to the highly uncertain input information called measurement deltas (MDs). It is said, if uncertainty level is larger than or close to the changes in damage indicator due to damage, the true information would be submerged in the noise. Then the actual damaged members may not be identified accurately and/or the healthy members may be wrongly detected as damaged giving false warning. However, this being the case, the proposed FLS with new fault isolation technique tested with these noisy data having large variation and overlaps shows excellent robustness. It is observed that the FLS accurately predicts and isolates the damage levels up-to considerable uncertainty and noise levels in single as well as multiple damage conditions. The robustness of the FLS is also demonstrated for delamination detection in composite plates having very high material property uncertainty. Effects of epistemic uncertainty on damage detection in composite plates is addressed. The effectiveness of the proposed refined Reddy type shear deformable composite plate element is demonstrated for reducing the modeling or epistemic uncertainty in delamination detection.
46

Analyse de connectivité et techniques de partitionnement de données appliquées à la caractérisation et la modélisation d'écoulement au sein des réservoirs très hétérogènes / Connectivity analysis and clustering techniques applied for the characterisation and modelling of flow in highly heterogeneous reservoirs

Darishchev, Alexander 10 December 2015 (has links)
Les techniques informatiques ont gagné un rôle primordial dans le développement et l'exploitation des ressources d'hydrocarbures naturelles ainsi que dans d'autres opérations liées à des réservoirs souterrains. L'un des problèmes cruciaux de la modélisation de réservoir et les prévisions de production réside dans la présélection des modèles de réservoir appropriés à la quantification d'incertitude et au le calage robuste des résultats de simulation d'écoulement aux réelles mesures et observations acquises du gisement. La présente thèse s'adresse à ces problématiques et à certains autres sujets connexes.Nous avons élaboré une stratégie pour faciliter et accélérer l'ajustement de tels modèles numériques aux données de production de champ disponibles. En premier lieu, la recherche s'était concentrée sur la conceptualisation et l'implémentation des modèles de proxy reposant sur l'analyse de la connectivité, comme une propriété physique intégrante et significative du réservoir, et des techniques avancées du partitionnement de données et de l'analyse de clusters. La méthodologie développée comprend aussi plusieurs approches originales de type probabiliste orientées vers les problèmes d'échantillonnage d'incertitude et de détermination du nombre de réalisations et de l'espérance de la valeur d'information d'échantillon. Afin de cibler et donner la priorité aux modèles pertinents, nous avons agrégé les réalisations géostatistiques en formant des classes distinctes avec une mesure de distance généralisée. Ensuite, afin d'améliorer la classification, nous avons élargi la technique graphique de silhouettes, désormais appelée la "séquence entière des silhouettes multiples" dans le partitionnement de données et l'analyse de clusters. Cette approche a permis de recueillir une information claire et compréhensive à propos des dissimilarités intra- et intre-cluster, particulièrement utile dans le cas des structures faibles, voire artificielles. Finalement, la séparation spatiale et la différence de forme ont été visualisées graphiquement et quantifiées grâce à la mesure de distance probabiliste.Il apparaît que les relations obtenues justifient et valident l'applicabilité des approches proposées pour améliorer la caractérisation et la modélisation d'écoulement. Des corrélations fiables ont été obtenues entre les chemins de connectivité les plus courts "injecteur-producteur" et les temps de percée d'eau pour des configurations différentes de placement de puits, niveaux d'hétérogénéité et rapports de mobilité de fluides variés. Les modèles de connectivité proposés ont produit des résultats suffisamment précis et une performance compétitive au méta-niveau. Leur usage comme des précurseurs et prédicateurs ad hoc est bénéfique en étape du traitement préalable de la méthodologie. Avant le calage d'historique, un nombre approprié et gérable des modèles pertinents peut être identifié grâce à la comparaison des données de production disponibles avec les résultats de... / Computer-based workflows have gained a paramount role in development and exploitation of natural hydrocarbon resources and other subsurface operations. One of the crucial problems of reservoir modelling and production forecasting is in pre-selecting appropriate models for quantifying uncertainty and robustly matching results of flow simulation to real field measurements and observations. This thesis addresses these and other related issues. We have explored a strategy to facilitate and speed up the adjustment of such numerical models to available field production data. Originally, the focus of this research was on conceptualising, developing and implementing fast proxy models related to the analysis of connectivity, as a physically meaningful property of the reservoir, with advanced cluster analysis techniques. The developed methodology includes also several original probability-oriented approaches towards the problems of sampling uncertainty and determining the sample size and the expected value of sample information. For targeting and prioritising relevant reservoir models, we aggregated geostatistical realisations into distinct classes with a generalised distance measure. Then, to improve the classification, we extended the silhouette-based graphical technique, called hereafter the "entire sequence of multiple silhouettes" in cluster analysis. This approach provided clear and comprehensive information about the intra- and inter-cluster dissimilarities, especially helpful in the case of weak, or even artificial, structures. Finally, the spatial separation and form-difference of clusters were graphically visualised and quantified with a scale-invariant probabilistic distance measure. The obtained relationships appeared to justify and validate the applicability of the proposed approaches to enhance the characterisation and modelling of flow. Reliable correlations were found between the shortest "injector-producer" pathways and water breakthrough times for different configurations of well placement, various heterogeneity levels and mobility ratios of fluids. The proposed graph-based connectivity proxies provided sufficiently accurate results and competitive performance at the meta-level. The use of them like precursors and ad hoc predictors is beneficial at the pre-processing stage of the workflow. Prior to history matching, a suitable and manageable number of appropriate reservoir models can be identified from the comparison of the available production data with the selected centrotype-models regarded as the class representatives, only for which the full fluid flow simulation is pre-requisite. The findings of this research work can easily be generalised and considered in a wider scope. Possible extensions, further improvements and implementation of them may also be expected in other fields of science and technology.

Page generated in 0.1124 seconds