• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 8
  • 2
  • Tagged with
  • 33
  • 33
  • 30
  • 14
  • 14
  • 14
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Sensitivity analysis and evolutionary optimization for building design

Wang, Mengchao January 2014 (has links)
In order to achieve global carbon reduction targets, buildings must be designed to be energy efficient. Building performance simulation methods, together with sensitivity analysis and evolutionary optimization methods, can be used to generate design solution and performance information that can be used in identifying energy and cost efficient design solutions. Sensitivity analysis is used to identify the design variables that have the greatest impacts on the design objectives and constraints. Multi-objective evolutionary optimization is used to find a Pareto set of design solutions that optimize the conflicting design objectives while satisfying the design constraints; building design being an inherently multi-objective process. For instance, there is commonly a desire to minimise both the building energy demand and capital cost while maintaining thermal comfort. Sensitivity analysis has previously been coupled with a model-based optimization in order to reduce the computational effort of running a robust optimization and in order to provide an insight into the solution sensitivities in the neighbourhood of each optimum solution. However, there has been little research conducted to explore the extent to which the solutions found from a building design optimization can be used for a global or local sensitivity analysis, or the extent to which the local sensitivities differ from the global sensitivities. It has also been common for the sensitivity analysis to be conducted using continuous variables, whereas building optimization problems are more typically formulated using a mixture of discretized-continuous variables (with physical meaning) and categorical variables (without physical meaning). This thesis investigates three main questions; the form of global sensitivity analysis most appropriate for use with problems having mixed discretised-continuous and categorical variables; the extent to which samples taken from an optimization run can be used in a global sensitivity analysis, the optimization process causing these solutions to be biased; and the extent to which global and local sensitivities are different. The experiments conducted in this research are based on the mid-floor of a commercial office building having 5 zones, and which is located in Birmingham, UK. The optimization and sensitivity analysis problems are formulated with 16 design variables, including orientation, heating and cooling setpoints, window-to-wall ratios, start and stop time, and construction types. The design objectives are the minimisation of both energy demand and capital cost, with solution infeasibility being a function of occupant thermal comfort. It is concluded that a robust global sensitivity analysis can be achieved using stepwise regression with the use of bidirectional elimination, rank transformation of the variables and BIC (Bayesian information criterion). It is concluded that, when the optimization is based on a genetic algorithm, that solutions taken from the start of the optimization process can be reliably used in a global sensitivity analysis, and therefore, there is no need to generate a separate set of random samples for use in the sensitivity analysis. The extent to which the convergence of the variables during the optimization can be used as a proxy for the variable sensitivities has also been investigated. It is concluded that it is not possible to identify the relative importance of variables through the optimization, even though the most important variable exhibited fast and stable convergence. Finally, it is concluded that differences exist in the variable rankings resulting from the global and local sensitivity methods, although the top-ranked solutions from each approach tend to be the same. It also concluded that the sensitivity of the objectives and constraints to all variables is obtainable through a local sensitivity analysis, but that a global sensitivity analysis is only likely to identify the most important variables. The repeatability of these conclusions has been investigated and confirmed by applying the methods to the example design problem with the building being located in four different climates (Birmingham, UK; San Francisco, US; and Chicago, US).
12

Analyse de sensibilité globale pour les modèles de simulation imbriqués et multiéchelles / Global sensitivity analysis for nested and multiscale modelling

Caniou, Yann 29 November 2012 (has links)
Cette thèse est une contribution à la modélisation imbriquée de systèmes complexes. Elle propose une méthodologie globale pour quantifier les incertitudes et leurs origines dans une chaîne de calcul formée par plusieurs modèles pouvant être reliés les uns aux autres de façon complexe. Ce travail est organisé selon trois axes. D’abord, la structure dedépendance des paramètres du modèle, induite par la modélisation imbriquée, est modélisée de façon rigoureuse grâce à la théorie des copules. Puis, deux méthodes d’analyse de sensibilité adaptées aux modèles à paramètres d’entrée corrélés sont présentées : l’une est basée sur l’analyse de la distribution de la réponse du modèle, l’autre sur la décomposition de la covariance. Enfin, un cadre de travail inspiré de la théorie des graphes est proposé pour la description de l’imbrication des modèles. La méthodologie proposée est appliquée à des exemples industriels d’envergure : un modèle multiéchelles de calcul des propriétés mécaniques du béton par une méthode d’homogénéisation et un modèle multiphysique de calcul de dommage sur la culasse d’un moteur diesel. Les résultats obtenus fournissent des indications importantes pour une amélioration significative de la performance d’une structure. / This thesis is a contribution to the nested modelling of complex systems. A global methodology to quantify uncertainties and their origins in a workflow composed of several models that can be intricately linked is proposed. This work is organized along three axes. First, the dependence structure of the model parameters induced by the nested modelling is rigorously described thanks to the copula theory. Then, two sensitivity analysis methods for models with correlated inputs are presented : one is based on the analysis of the model response distribution and the other one is based on the decomposition of the covariance. Finally, a framework inspired by the graph theory is proposed for the description of the imbrication of the models. The proposed methodology is applied to different industrial applications : a multiscale modelling of the mechanical properties of concrete by homogenization method and a multiphysics approach of the damage on the cylinder head of a diesel engine. The obtained results provide the practitioner with essential informations for a significant improvement of the performance of the structure.
13

Analyses de sensibilité et d'identifiabilité globales : application à l'estimation de paramètres photophysiques en thérapie photodynamique / Global sensitivity and identifiability analyses : application to the estimation of the photophysical parameters in photodynamic therapy

Dobre, Simona 22 June 2010 (has links)
La thérapie photodynamique (PDT) est un traitement médical destiné à certains types de cancer. Elle utilise un agent photosensibilisant qui se concentre dans les tissus pathologiques est qui sera. Cet agent est ensuite activé par une lumière d'une longueur d'onde précise produisant, après une cascade de réactions, des espèces réactives de l'oxygène qui endommagent les cellules cancéreuses.Cette thèse aborde les analyses d'identifiabilité et de sensibilité des paramètres du modèle dynamique non linéaire retenu.Après avoir précisé différents cadres d'analyse d'identifiabilité, nous nous intéressons plus particulièrement à l'identifiabilité a posteriori, pour des conditions expérimentales fixées, puis à l'identifiabilité pratique, prenant en plus en compte les bruits de mesure. Pour ce dernier cadre, nous proposons une méthodologie d'analyse locale autour de valeurs particulières des paramètres. En ce qui concerne l'identifiabilité des paramètres du modèle dynamique de la phase photocytotoxique de la PDT, nous montrons que parmi les dix paramètres localement identifiables a posteriori, seulement l'un d'entre eux l'est en pratique. Néanmoins, ces résultats locaux demeurent insuffisants en raison des larges plages de variation possibles des paramètres du modèle et nécessitent d'être complétés par une analyse globale.Le manque de méthode visant à tester l'identifiabilité globale a posteriori ou pratique, nous a orientés vers l'analyse de sensibilité globale de la sortie du modèle par rapport à ses paramètres. Une méthode d'analyse de sensibilité globale fondée sur l'étude de la variance a permis de mettre en évidence trois paramètres sensibilisants.Nous abordons ensuite les liens entre les analyses globales d'identifiabilité et de sensibilité des paramètres, en employant une décomposition de Sobol'. Nous montrons alors que les liens suivants existent : une fonction de sensibilité totale nulle implique un paramètre non-identifiable; deux fonctions de sensibilité colinéaires impliquent la non-identifiabilité mutuelle des paramètres en question ; la non-injectivité de la sortie par rapport à un de ses paramètres peut aussi entrainer la non-identifiabilité du paramètre en question mais ce dernier point ne peut être détecté en analysant les fonctions de sensibilité uniquement. En somme, la détection des paramètres non globalement identifiables dans un cadre expérimental donné à partir de résultats d'analyse de sensibilité globale ne peut être que partielle. Elle permet d'observer deux (sensibilité nulle ou négligeable et sensibilités corrélées) des trois causes de la non-identifiabilité / Photodynamic therapy (PDT) is a treatment of dysplastic tissues such as cancers. Mainly, it involves the selective uptake and retention of the photosensitizing drug (photosensitizer, PS) in the tumor, followed by its illumination with light of appropriate wavelength. The PS activation is thought to produce, after multiple intermediate reactions, singlet oxygen at high doses (in the presence of molecular oxygen) and thereby to initiate apoptotic and necrotic death of tumor. The PDT efficiency stems from the optimal interaction between these three factors: photosensitizing agent (its chemical and photobiological properties), light (illumination conditions) and oxygen (its availability in the target tissue). The relative contribution of each of these factors has an impact on the effectiveness of treatment. It is a dynamic process and the objective of the thesis is to characterize it by a mathematical model. The points raised relate primarily to the determination of a dynamic model of the photodynamic phase (production of singulet oxygen), to the global analyses of identifiability and sensitivity of the parameters of the model thus built. The main difficulties of this work are the nonlinearity structure of the photophysical model, the large range of possible values (up to four decades) of the unknown parameters, the lack of information (only one measured variable over six state variables), the limited degrees-of-freedom for the choice of the laser light stimulus (input variable).Another issue concerns the links between the non-identifiability of parameters and the properties of global sensitivity functions. Two relationships between these two concepts are presented. We stress the need to remain cautious about the parameter identifiability conclusions based on the sensitivity study. In perspective, these results could lead to the development of new approaches to test the non-identifiability of parameters in an experimental framework
14

Uncertainty quantification in the simulation of road traffic and associated atmospheric emissions in a metropolitan area / Quantification d'incertitude en simulation du trafic routier et de ses émissions atmosphériques à l'échelle métropolitaine

Chen, Ruiwei 25 May 2018 (has links)
Ce travail porte sur la quantification d'incertitude dans la modélisation des émissions de polluants atmosphériques dues au trafic routier d'une aire urbaine. Une chaîne de modélisations des émissions de polluants atmosphériques est construite, en couplant un modèle d’affectation dynamique du trafic (ADT) avec un modèle de facteurs d’émission. Cette chaîne est appliquée à l’agglomération de Clermont-Ferrand (France) à la résolution de la rue. Un métamodèle de l’ADT est construit pour réduire le temps d’évaluation du modèle. Une analyse de sensibilité globale est ensuite effectuée sur cette chaîne, afin d’identifier les entrées les plus influentes sur les sorties. Enfin, pour la quantification d’incertitude, deux ensembles sont construits avec l’approche de Monte Carlo, l’un pour l’ADT et l’autre pour les émissions. L’ensemble d’ADT est évalué et amélioré grâce à la comparaison avec les débits du trafic observés, afin de mieux échantillonner les incertitudes / This work focuses on the uncertainty quantification in the modeling of road traffic emissions in a metropolitan area. The first step is to estimate the time-dependent traffic flow at street-resolution for a full agglomeration area, using a dynamic traffic assignment (DTA) model. Then, a metamodel is built for the DTA model set up for the agglomeration, in order to reduce the computational cost of the DTA simulation. Then the road traffic emissions of atmospheric pollutants are estimated at street resolution, based on a modeling chain that couples the DTA metamodel with an emission factor model. This modeling chain is then used to conduct a global sensitivity analysis to identify the most influential inputs in computed traffic flows, speeds and emissions. At last, the uncertainty quantification is carried out based on ensemble simulations using Monte Carlo approach. The ensemble is evaluated with observations in order to check and optimize its reliability
15

Design of highly distributed biofuel production systems

Luo, Dexin 01 November 2011 (has links)
This thesis develops quantitative methods for evaluation and design of large-scale biofuel production systems with a particular focus on bioreactor-based fuel systems. In Chapter 2, a lifecycle assessment (LCA) method is integrated with chemical process modeling to select from different process designs the one that maximizes the energy efficiency and minimizes the environmental impact of a production system. An algae-based ethanol production technology, which is in the process of commercialization, is used as a case study. Motivated by this case study, Chapter 3 studies the selection of process designs and production capacity of highly distributed bioreactor-based fuel system from an economic perspective. Nonlinear optimization models based on net present value maximization are developed that aim at selecting the optimal capacities of production equipment for both integrated and distributed-centralized process designs on symmetric production layouts. Global sensitivity analysis based on Monte Carlo estimates is performed to show the impact of different parameters on the optimal capacity decision and the corresponding net present value. Conditional Value at Risk optimization is used to compare the optimal capacity for a risk-neutral planner versus a risk-averse decision maker. Chapter 4 studies mobile distributed processing in biofuel industry as vehicle routing problem and production equipment location with an underlying pipeline network as facility location problem with a focus on general production costs. Formulations and algorithms are developed to explore how fixed cost and concavity in the production cost increases the theoretical complexity of these problems.
16

Life cycle assessment of enhanced geothermal systems : from specific case studies to generic parameterized models / Analyse du cycle de vie des systèmes géothermiques stimulés : de l’étude de cas à la caractérisation de la filière

Lacirignola, Martino 26 April 2017 (has links)
Cette recherche vise à étudier les impacts environnementaux d'une technologie émergente de production d’électricité basée sur une source renouvelable, les systèmes géothermiques stimulés (EGS), par l’analyse de leur cycle de vie (ACV).Après avoir analysé plusieurs études de cas, nous avons développé un modèle ACV paramétré capable de caractériser les performances environnementales de la filière EGS. Nos résultats montrent que les émissions de gaz à effet de serre des EGS sur leur cycle de vie sont bien inférieures à celles des centrales utilisant des combustibles fossiles.Dans un deuxième temps, nous avons mis au point un cadre méthodologique pour appliquer l'analyse de sensibilité globale (GSA) à l’ACV des technologies émergentes comme les EGS, prenant en compte les incertitudes élevées liées à leur caractère innovant. Nous avons appliqué notre nouvelle approche GSA pour développer un modèle ACV simplifié, à destination des décideurs, permettant une estimation rapide des impacts des EGS à partir de seulement cinq paramètres clefs: capacité installée, profondeur de forage, nombre de puits, débit géothermal et durée de vie.L'approche méthodologique développée dans cette thèse est applicable à d'autres technologies et ouvre de larges perspectives de recherche dans le domaine de l'évaluation environnementale. / This thesis investigates the environmental impacts of an emerging renewable energy technology, the enhanced geothermal systems (EGS), using a life cycle assessment (LCA) approach.Following the analysis of several EGS case studies, we developed a parameterized LCA model able to provide a global overview of the life cycle impacts of the EGS technology. The greenhouse gas emissions of EGS are found comparable with other renewable energy systems and far better than those of power plants based on fossil fuels.In a second stage, we developed a methodological framework for the application of global sensitivity analysis (GSA) to the LCA of emerging technologies like the EGS, taking into account the high uncertainties related to their description. We applied our new GSA approach to generate a simplified LCA model, aimed at decision makers, allowing a rapid estimation of the life cycle impacts of EGS from only five key parameters: installed capacity, drilling depth, number of wells, flow rate and lifetime.The methodological approach developed in this thesis is applicable to other technologies and opens large research perspectives in the field of environmental assessment.
17

Modélisation hydraulique à surface libre haute-résolution : utilisation de données topographiques haute-résolution pour la caractérisation du risque inondation en milieux urbains et industriels / High-resolution modelling with bi-dimensional shallow water equations based codes : high-resolution topographic data use for flood hazard assessment over urban and industrial environments

Abily, Morgan 11 December 2015 (has links)
Pour l'évaluation du risque inondation, l’emploi de modèles numériques 2D d’hydraulique à surface libre reposant sur la résolution des équations de Saint-Venant est courant. Ces modèles nécessitent entre autre la description de la topographie de la zone d’étude. Sur des secteurs urbains denses ou des sites industriels, cette topographie complexe peut être appréhendée de plus en plus finement via des technologies dédiées telles que le LiDAR et la photogrammétrie. Les Modèles Numériques d'Elévation Haute Résolution (HR MNE) générés à partir de ces technologies, deviennent employés dans les études d’évaluation du risque inondation. Cette thèse étudie les possibilités, les avantages et les limites, liées à l'intégration des données topographiques HR en modélisation 2D du risque inondation en milieux urbains et industriels. Des modélisations HR de scénarios d'inondation d'origines pluviale ou fluviale sont testés en utilisant des HR MNE crées à partir de données LiDAR et photo-interprétées. Des codes de calculs (Mike 21, Mike 21 FM, TELEMAC-2D, FullSWOF_2D) offrant des moyens différent d'intégration de la donnée HR et basés sur des méthodes numériques variées sont utilisés. La valeur ajoutée de l'intégration des éléments fins du sur-sol impactant les écoulements est démontrée. Des outils pour appréhender les incertitudes liées à l'emploi de ces données HR sont développés et une analyse globale de sensibilité est effectuée. Les cartes d'indices de sensibilité (Sobol) produites soulignent et quantifient l'importance des choix du modélisateur dans la variance des résultats des modèles d'inondation HR ainsi que la variabilité spatiale de l'impact des paramètres incertains testés. / High Resolution (infra-metric) topographic data, including LiDAR photo-interpreted datasets, are becoming commonly available at large range of spatial extent, such as municipality or industrial site scale. These datasets are promising for High-Resolution (HR) Digital Elevation Model (DEM) generation, allowing inclusion of fine aboveground structures that influence overland flow hydrodynamic in urban environment. DEMs are one key input data in Hydroinformatics to perform free surface hydraulic modelling using standard 2D Shallow Water Equations (SWEs) based numerical codes. Nonetheless, several categories of technical and numerical challenges arise from this type of data use with standard 2D SWEs numerical codes. Objective of this thesis is to tackle possibilities, advantages and limits of High-Resolution (HR) topographic data use within standard categories of 2D hydraulic numerical modelling tools for flood hazard assessment purpose. Concepts of HR topographic data and 2D SWE based numerical modelling are recalled. HR modelling is performed for : (i) intense runoff and (ii) river flood event using LiDAR and photo-interpreted datasets. Tests to encompass HR surface elevation data in standard modelling tools ranges from industrial site scale to a megacity district scale (Nice, France). Several standard 2D SWEs based codes are tested (Mike 21, Mike 21 FM, TELEMAC-2D, FullSWOF_2D). Tools and methods for assessing uncertainties aspects with 2D SWE based models are developed to perform a spatial Global Sensitivity Analysis related to HR topographic data use. Results show the importance of modeller choices regarding ways to integrate the HR topographic information in models.
18

Global sensitivity analysis on vibro-acoustic composite materials with parametric dependency / L'analyse de sensibilité globale sur matériaux composites vibroacoustiques avec la dépendance paramétrique

Chai, Wenqi 30 November 2018 (has links)
Avec le développement rapide des modèles mathématiques et des outils de simulation, le besoin des processus de quantification des incertitudes a été bien augmenté. L'incertitude paramétrique et la groupe des nombreux décisions sont aujourd’hui les deux barrières principales dans la résolution des grandes problèmes systématiques.Capable de proportionner l'incertitude de la sortie sur celle des entrées, l’Analyse de Sensibilité Globale (GSA) est une solution fiable pour la quantification de l’incertitude. Parmi plusieurs algorithmes de GSA, Fourier Amplitude Sensitivity Analysis (FAST) est l’un des choix les plus populaires des chercheurs. Basé sur ANOVA-HDMR (ANalysis Of VAriance - High Dimensional Model Representation), il est solide en mathématique est efficace en calcul.Malheureusement, la décomposition unique d’ANOVA-HDMR se dépend sur l’indépendance des entrées. À cause de cela, il y a pas mal de cas industriels qui ne peut pas se traiter par FAST, particulièrement pour ceux qui donnent uniquement les échantillons mais sans lois de distribution. Sous cette demande, deux méthode extensifs de FAST avec design de corrélation sont proposées et étudiées dans la recherche. Parmi les deux méthodes, FAST-c s’est basé sur les distributions et FAST-orig s’est basé sur les échantillons.Comme applications et validations, multiples problèmes vibroacoustiques se sont traités dans la recherche. Les matériaux acoustiques avec soustructures, sont des candidats parfaits pour tester FAST-c et FAST-orig. Deux application sont présentées dans la première partie de la thèse, après l’état de l’arts. Les modèles choisis sont matérial poroélastique et structures composite sandwich, dont les propriétés mécaniques sont tous fortement influencées par les paramètres géométriques microscopique ou mesoscopique. D’avoir la méthode de FAST originale comparée avec les deux nouvelles, on trouve bien plus d’information sur la performance vibroacoustique de ces matériaux.Déjà répondu à la demande de GSA sur les modèles avecs les variables dépendantes, la deuxième partie de la thèse contient plus de recherches reliées avec FAST. D’abord FAST est pris en comparaison avec Random Forest, une algorithme bien connu de data-mining. Leurs erreurs potentiels et la possibilité de fonctioner ensemble sont discutés. Et dans les chapitres suivies, plus d’application de FAST sont présentées. Les méthodes sont appliquées sous plusieurs différente conditions. Une modèle de structure périodique qui contient des corrélation parmi les unités nous a en plus forcé à développer une nouvelle FAST-pe méthode. Dans ces applications, les designs des processus préliminaires et les stratégies d’échantillonages sont des essences à présenter. / With rapid development of mathematical models and simulation tools, the need of uncertainty quantification process has grown higher than ever before. Parametric uncertainties and overall decision stacks are nowadays the two main barriers in solving large scale systematic problem.Global Sensitivity Analysis (GSA) is one reliable solution for uncertainty quantification which is capable to assess the uncertainty of model output on its inputs’. Among several GSA algorithms, Fourier Amplitude Sensitivity Test (FAST) is one of the most popular choices of researchers. Based on ANOVA-HDMR (ANalysis Of VAriance - High Dimensional Model Representation), it is both mathematically solid and computationally efficient.One unfortunate fact is that the uniqueness of ANOVA-HDMR relies on the independency of input variables. It makes FAST unable to treat many industrial cases especially for those with only datasets but not distribution functions to be found. To answer the needs, two extended FAST methods with correlation design are proposed and further studied in this research. Among them FAST-c is distribution-based and FAST-orig is data-based.As a frame of validation and application, a number of vibroacoustic problems are dealt with in this research. Vibroacoustic materials with substructures, are perfect test candidates for FAST-c and FAST-orig. Two application cases are presented in the first part of this thesis, following the literature review. The models chosen here are poroelastic material and sandwich composite structures, both having their mechanical properties hugely influenced by their microscopic and mesoscopic geometric parameters. Getting the original FAST method compared to the two with correlation design, many different features on materials’ vibroacoustic performance are latter discovered.Having got an answer for GSA on models with dependent variables, the second part of this thesis contains more extended researches related to FAST. It is taken into comparison with Random Forest, a well-known data-mining algorithm. The potential error of both algorithms are analyzed and the possibility of joint application is discussed. In the following chapters, more applications of FAST-series methods are reported. They are applied under various conditions where another improved version named FAST-pe is developed to treat a model of periodic structures with correlation among each units. Upon these FAST application cases, the design of preliminary process and the sampling strategies is the core part to be introduced.
19

Modélisation de la dynamique du transfert hydrique vers les aquifières : application à la détermination de la recharge par inversion dans un système hydrogéologique complexe / Modeling of water transfer to aquifers : application to the determination of groundwater recharge by inversion in a complex hydrogeological system

Hassane Mamadou Maina, Fadji Zaouna 29 September 2016 (has links)
Les eaux souterraines constituent une réserve d’eau potable non négligeable, leur alimentation se fait en majeure partie par les précipitations, appelée recharge des nappes. Du fait de leur grande importance, la compréhension du fonctionnement de ces ressources en eau est plus que jamais indispensable. Celle-ci passe par l’élaboration de modèles mathématiques. Ces outils nous offrent une meilleure appréhension et une bonne prévision des phénomènes physiques. Les systèmes hydrogéologiques sont généralement très complexes et caractérisés par des dynamiques hydriques très variables dans le temps et dans l’espace. Cette complexité a attiré l’attention de nombreux hydrogéologues et un grand nombre de modèles très sophistiqués a été développé afin de décrire ces systèmes avec précision. Cependant, la prise en compte de la recharge de ces réservoirs reste toujours un défi dans la modélisation hydrogéologique. En effet, le plus souvent, les modèles hydrogéologiques simulent l’écoulement dans la nappe tout en considérant la recharge comme une constante sur le domaine et indépendante du système. De plus, elle est souvent calculée de façon simplifiée. Or, la recharge traduisant la quantité des précipitations atteignant les nappes est une composante hydrologique complexe et variable car elle interagit avec les nappes et dépend des conditions climatiques, du couvert végétal et du transfert de l’eau dans le sol. Ce présent travail vise à intégrer cette recharge variable et complexe aux modèles hydrogéologiques. À cet effet, un modèle couplé a été développé. Une première partie de ce modèle permet de calculer la recharge des nappes en modélisant les interactions précipitations-sol et l’hydrodynamique dans le sol. Cette modélisation a été effectuée en utilisant des modèles conceptuels simples basés sur des lois empiriques (Gardénia, Nash) et des modèles physiques résolvant l’équation de Richards. La recharge ainsi calculée est intégrée à la deuxième partie du modèle simulant l’hydrodynamique dans les nappes décrite par l’équation de diffusivité. Des méthodes numériques précises et robustes ont été utilisées pour résoudre les équations du modèle mathématique : les éléments finis non conformes ont été utilisés pour résoudre l’équation de diffusivité et l’équation de Richards est résolue sous sa forme mixte par une méthode itérative en temps. En somme, ce modèle couplé permet de décrire les variations de niveaux de nappe à partir des données météorologiques connaissant les paramètres caractéristiques de cet aquifère. [...] / Groundwater is the main available water resource for many countries; they are mainly replenished by water from precipitation, called groundwater recharge. Due to its great importance, management of groundwater resources is more essential than ever, and is achieved through mathematical models which offer us a better understanding of physical phenomena as well as their prediction. Hydrogeological systems are generally complex thus characterized by a highly variable dynamic over time and space. These complexities have attracted the attention of many hydrogeologists and many sophisticated models that can handle these issues and describe these systems accurately were developed. Unfortunately, modeling groundwater recharge is still a challenge in groundwater resource management. Generally, groundwater models are used to simulate aquifers flow without a good estimation of recharge and its spatial-temporal distribution. As groundwater recharge rates show spatial-temporal variability due to climatic conditions, land use, and hydrogeological heterogeneity, these methods have limitations in dealing with these characteristics. To overcome these limitations, a coupled model which simulates flow in the unsaturated zone and recharge as well as groundwater flow was developed. The flow in the unsaturated zone is solved either with resolution of Richards equation or with empirical models while the diffusivity equation governs flow in the saturated zone. Robust numerical methods were used to solve these equations: we apply non-conforming finite element to solve the diffusivity equation and we used an accurate and efficient method for solving the Richards equation. [...]
20

Reliability-Based Sensitivity Analysis of the Dynamic Response of Railway Bridges

Al-Zubaidi, Hasan January 2022 (has links)
In response to the planned increase in operational speeds and axle loads of passengertrains that may lead to resonance-induced excessive vibrations in railway bridges,recent studies examined the reliability of bridges concerning train running safety andpassenger comfort limit states. In this respect, valuable information regarding theimportance of input variables can be obtained by conducting Sensitivity Analysis (SA).For instance, the determination of unimportant variables (where they can be treated asconstant) reduces the computational time, which is usually very high for probabilisticsimulations. In some of the previous studies, only deterministic SA has beenperformed. This thesis follows a stochastic approach using Global Sensitivity Analysis(GSA) methods. The considered performance functions are vertical acceleration anddeflection of single track ballasted simply supported reinforced concrete bridges.To reduce the computational time, available semi-analytical solution of a planarbeam under the passage of a series of moving loads is employed. To simulatethe bridge behaviour realistically, simplified methods to account for rail irregularityamplification, train-bridge interactions, and axle load redistribution were adopted.The considered random variables are train modal properties, number of train coaches,bogie spacing, axle spacing and loads, bridge mass, flexural stiffness and damping,and rail amplification factor. The analyses were carried out for a selected set of bridgelengths [10-30]m and a range of train speeds [100-400] km/hr. The study findingsshow that, in both acceleration and displacement, the dynamic response of the bridgeis sensitive to randomness in bridge mass, moment of inertia, coach length, and axleloads. Furthermore, the rail amplification factor and Young’s modulus are primarilyimportant for acceleration and displacement, respectively.

Page generated in 0.0695 seconds