121 |
Contributions à l'analyse de fiabilité structurale : prise en compte de contraintes de monotonie pour les modèles numériques / Contributions to structural reliability analysis : accounting for monotonicity constraints in numerical modelsMoutoussamy, Vincent 13 November 2015 (has links)
Cette thèse se place dans le contexte de la fiabilité structurale associée à des modèles numériques représentant un phénomène physique. On considère que la fiabilité est représentée par des indicateurs qui prennent la forme d'une probabilité et d'un quantile. Les modèles numériques étudiés sont considérés déterministes et de type boîte-noire. La connaissance du phénomène physique modélisé permet néanmoins de faire des hypothèses de forme sur ce modèle. La prise en compte des propriétés de monotonie dans l'établissement des indicateurs de risques constitue l'originalité de ce travail de thèse. Le principal intérêt de cette hypothèse est de pouvoir contrôler de façon certaine ces indicateurs. Ce contrôle prend la forme de bornes obtenues par le choix d'un plan d'expériences approprié. Les travaux de cette thèse se concentrent sur deux thématiques associées à cette hypothèse de monotonie. La première est l'étude de ces bornes pour l'estimation de probabilité. L'influence de la dimension et du plan d'expériences utilisé sur la qualité de l'encadrement pouvant mener à la dégradation d'un composant ou d'une structure industrielle sont étudiées. La seconde est de tirer parti de l'information de ces bornes pour estimer au mieux une probabilité ou un quantile. Pour l'estimation de probabilité, l'objectif est d'améliorer les méthodes existantes spécifiques à l'estimation de probabilité sous des contraintes de monotonie. Les principales étapes d'estimation de probabilité ont ensuite été adaptées à l'encadrement et l'estimation d'un quantile. Ces méthodes ont ensuite été mises en pratique sur un cas industriel. / This thesis takes place in a structural reliability context which involves numerical model implementing a physical phenomenon. The reliability of an industrial component is summarised by two indicators of failure,a probability and a quantile. The studied numerical models are considered deterministic and black-box. Nonetheless, the knowledge of the studied physical phenomenon allows to make some hypothesis on this model. The original work of this thesis comes from considering monotonicity properties of the phenomenon for computing these indicators. The main interest of this hypothesis is to provide a sure control on these indicators. This control takes the form of bounds obtained by an appropriate design of numerical experiments. This thesis focuses on two themes associated to this monotonicity hypothesis. The first one is the study of these bounds for probability estimation. The influence of the dimension and the chosen design of experiments on the bounds are studied. The second one takes into account the information provided by these bounds to estimate as best as possible a probability or a quantile. For probability estimation, the aim is to improve the existing methods devoted to probability estimation under monotonicity constraints. The main steps built for probability estimation are then adapted to bound and estimate a quantile. These methods have then been applied on an industrial case.
|
122 |
Imagerie 2-D/3-D de la teneur en eau en milieu hétérogène par méthode RMP : biais et incertitudes / SNMR 2-D/3-D water content imagery in heterogeneous media : bias and uncertaintiesChevalier, Antoine 02 July 2014 (has links)
La caractérisation non-destructive de la variabilité spatiale et temporelle de la teneur en eau pour des milieux hétérogènes superficiels est un enjeu de taille pour la compréhension du fonctionnement hydrogéologique de certaines zones critiques.Pour répondre à ces besoins, une candidate potentielle est la méthode de Résonance Magnétique des Protons (RMP), technique géophysique récente qui permet d'imager la teneur en eau de la subsurface de façon directe. Ses déclinaisons opérationnelles en 2-D et en 3-D sont émergentes et nécessitent une étude exhaustive afin d'en comprendre les possibilités et les limitations.Le caractère intégrateur de la mesure RMP, en conjonction avec l'erreur expérimentale qui la contamine, limite la résolution de la méthode. Conséquence : la traduction d'un jeu de mesures sous la forme d'une distribution spatiale de teneur en eau n'est pas unique. Certaines sont plus désirables que d'autres, aussi des aprioris géométriques sont-ils utilisés pour limiter l'espace des solutions possibles. De ce fait, l'estimation qui est faite de la teneur en eau est biaisée (aprioris) et entachée d'incertitudes (bruit), jamais quantifiées à ce jour à plus d'une dimension.Afin de mettre à jour les processus qui vont influencer la résolution spatiale et l'estimation du volume d'eau, les propriétés du problème direct de l'imagerie RMP sont analysées au moyen d'outils non-biaisés telles que les corrélations.Le problème d'imagerie RMP inverse étant non-linéaire, ce travail de thèse propose une méthodologie de reconstruction d'images de la teneur en eau qui offre l'accès aux analyses des incertitudes, axée sur un algorithme d'échantillonnage inverse de Monte-Carlo (Metropolis-Hastings). Une étude intensive des biais introduits par l'apriori sur la reconstruction de différents volumes 3D est effectuée.Enfin, les possibilités d'imageries RMP sont illustrées sur deux cas d'applications réels en milieux hétérogènes karstiques ou thermo-karstiques, validés par comparaison avec d'autres sources d'informations. Le premier cas est une imagerie 2-D du conduit karstique de Poumeyssens, dont la cartographie est connue.Le deuxième cas est l'imagerie 3-D d'une poche d'eau sous-glaciaire dans le glacier de Têre-Rousse laquelle est explorée par de nombreux forages et d'autres méthodes géophysiques. / The non-destructive observation of the ground water content's variaiblity in time and space is a major issue to understand the hydrodynamical functioning of heterogeneous media.Although many geophysical methods derive the water content of the subsurface from intermediate physical parameters, the method of surface nuclear magnetic resonance (SNMR) provide a direct estimate of ground water content. For this method, 2-D or 3-D SNMR tomography applications are only emerging and an in-depth analysis is required to assess their possibilities and limitations.The general resolution of the method is limited because the measurement characterize an important volume and is contaminated by electromagnetic noise. Consequently, the translation of measurement into an image of water content admit many solutions. Among them, several are more desirable than others from a structural/geometrical stand point. Geometrical prior knowledge are used to limit the infinite solution space. The resulting water content estimate is necessarily biased (prior knowledge) and affected by uncertainties (noise). To date, those aspects have never been quantified for 2-D and 3-D SNMR data sets.The processes that are controlling the geometrical rendering and the estimated water volume, properties of the SNMR imaging problem are analyzed using correlations and linear regressions as they are unbiased tools for the data space analysis.As the MRS inverse problem is non-linear, this thesis proposes a monte carlo based methodology (Metropolis- Hastings) to provide water content and uncertainty estimates. As the geometrical prior expectations control the estimates, the resulting bias is explored and discussed for different water content configuration.Finally, the possibilities of MRS imaging are illustrated by means of two highly heterogeneous environments: thermo-karstic and karstic. The results of the MRS imagery are compared and validated with other types of knowledge. The first case is a 2-D imaging of the conduit Poumeyssens karst. The latter geometry is precisely known. The second case is the 3-D imaging of a internal cavity inside the french alp glacier Tete-Rousse, explored by multiple other destructive and non-destructive methods.
|
123 |
Contribution à la quantification des incertitudes portées par la variabilité spatiale des déchets radioactifs enterrés à Tchernobyl / Contribution to spatial variability uncertainty quantification of radioactive waste in ChernobylNguyen, Huong Liên 14 December 2017 (has links)
Après l’accident de la centrale de Tchernobyl, environ 800 tranchées peu profondes ont été creusées dans la zone d’exclusion afin d’y enfouir des déchets radioactifs. Cependant, ces tranchées, construites dans des sables éoliens, ne constituent pas une barrière efficace contre la migration des radionucléides dans l’aquifère superficiel. La tranchée T22 sert de support pour étudier des questions générales : quelles sont les incertitudes sur le volume et l’activité des déchets contaminés, et sur la qualité des eaux en aval ?Les estimations antérieures de l’inventaire de la tranchée supposent linéaire la corrélation entre l’activité spécifique mesurée sur des échantillons de sol et le taux de comptage gamma in situ. Des simulations géostatistiques sont utilisées pour étudier cette corrélation, et sa sensibilité à la variabilité spatiale de l'activité ainsi qu'au milieu environnant. Si la corrélation peut effectivement être supposée linéaire, l'étude des données d’une campagne de terrain menée en septembre 2015 montre qu'il est préférable de cokriger l'activité par le comptage radiométrique plutôt que de transformer les données de comptage.L’inventaire en 137Cs présent dans la tranchée en 1999 est révisé ici puis comparé à une estimation antérieure. La profondeur de la tranchée est interpolée en utilisant conjointement les résultats de profils géoradar, et des données de sondages radiométriques forés dans la tranchée. Les résultats de cette nouvelle analyse géostatistique, complétée par des simulations, ont permis de quantifier l’incertitude sur le stock de 137Cs dans la tranchée.Enfin, un modèle hydrogéologique 2D non saturé est construit afin d’évaluer l’effet de la variabilité spatiale du terme source sur le panache de 90Sr généré par la tranchée T22. Ce modèle simule par ailleurs le battement de la nappe qui pourrait expliquer les différences observées entre les modèles antérieurs et les observations. Une analyse de sensibilité est conduite en dernier lieu afin d’évaluer l’influence des différents paramètres d’écoulement et de transport sur les chroniques de concentrations en 90Sr simulées au cours du temps. / Following the explosion at the Chernobyl nuclear power plant, about 800 shallow trenches were dug to bury radioactive waste in the exclusion zone. However, these trenches were built in permeable aeolian sand and do not prevent the migration of radionuclides in the superficial aquifer. Trench T22 allows us to explore general research problems such as the uncertainty linked to the volume and the activity of radioactive waste, and to the water quality in groundwater downstream the trench.Previous estimations of the trench inventory assume that the correlation between specific activity measured in soil samples and in situ count rate is linear. Geostatistical simulations are used to analyze this correlation and its sensitivity to the activity spatial variability and to its surrounding environment. If the correlation can be considered as linear, the study of field measurements undertaken in 2015 demonstrates that it is better to apply cokriging to estimate the activity by the count rate rather than transforming the count rate data.The inventory of 137Cs calculated for 1999 is then compared to a previous estimation. The trench boundaries are interpolated using the results of ground penetrating radar profiles and gamma logging carried on boreholes drilled into the trench. The new estimation is completed by geostatistical simulations and enables us to quantify the uncertainty of 137Cs trench inventory.Finally, the effect of the source term spatial variability is explored with the 90Sr migration modeling. The previous 90Sr transport model did not take into account the water table fluctuations which may cause some discrepancies between model predictions and field observations. They are thus reproduced in a 2D non saturated model. A sensitivity analysis on the flow and transport parameters as well as the source term variability is undertaken.
|
124 |
La décomposition en polynôme du chaos pour l'amélioration de l'assimilation de données ensembliste en hydraulique fluviale / Polynomial chaos expansion in fluvial hydraulics in Ensemble data assimilation frameworkEl Moçayd, Nabil 01 March 2017 (has links)
Ce travail porte sur la construction d'un modèle réduit en hydraulique fluviale avec une méthode de décomposition en polynôme du chaos. Ce modèle réduit remplace le modèle direct afin de réduire le coût de calcul lié aux méthodes ensemblistes en quantification d'incertitudes et assimilation de données. Le contexte de l'étude est la prévision des crues et la gestion de la ressource en eau. Ce manuscrit est composé de cinq parties, chacune divisée en chapitres. La première partie présente un état de l'art des travaux en quantification des incertitudes et en assimilation de données dans le domaine de l'hydraulique ainsi que les objectifs de la thèse. On présente le cadre de la prévision des crues, ses enjeux et les outils dont on dispose pour prévoir la dynamique des rivières. On présente notamment la future mission SWOT qui a pour but de mesurer les hauteurs d'eau dans les rivières avec un couverture globale à haute résolution. On précise notamment l'apport de ces mesures et leur complémentarité avec les mesures in-situ. La deuxième partie présente les équations de Saint-Venant, qui décrivent les écoulements dans les rivières, ainsi qu'une discrétisation numérique de ces équations, telle qu'implémentée dans le logiciel Mascaret-1D. Le dernier chapitre de cette partie propose des simplifications des équations de Saint-Venant. La troisième partie de ce manuscrit présente les méthodes de quantification et de réduction des incertitudes. On présente notamment le contexte probabiliste de la quantification d'incertitudes et d'analyse de sensibilité. On propose ensuite de réduire la dimension d'un problème stochastique quand on traite de champs aléatoires. Les méthodes de décomposition en polynômes du chaos sont ensuite présentées. Cette partie dédiée à la méthodologie s'achève par un chapitre consacré à l'assimilation de données ensemblistes et à l'utilisation des modèles réduits dans ce cadre. La quatrième partie de ce manuscrit est dédiée aux résultats. On commence par identifier les sources d'incertitudes en hydraulique que l'on s'attache à quantifier et réduire par la suite. Un article en cours de révision détaille la validation d'un modèle réduit pour les équations de Saint-Venant en régime stationnaire lorsque l'incertitude est majoritairement portée par les coefficients de frottement et le débit à l'amont. On montre que les moments statistiques, la densité de probabilité et la matrice de covariances spatiales pour la hauteur d'eau sont efficacement et précisément estimés à l'aide du modèle réduit dont la construction ne nécessite que quelques dizaines d'intégrations du modèle direct. On met à profit l'utilisation du modèle réduit pour réduire le coût de calcul du filtre de Kalman d'Ensemble dans le cadre d'un exercice d'assimilation de données synthétiques de type SWOT. On s'intéresse précisément à la représentation spatiale de la donnée telle que vue par SWOT: couverture globale du réseau, moyennage spatial entre les pixels observés. On montre notamment qu'à budget de calcul donné les résultats de l'analyse d'assimilation de données qui repose sur l'utilisation du modèle réduit sont meilleurs que ceux obtenus avec le filtre classique. On s'intéresse enfin à la construction du modèle réduit en régime instationnaire. On suppose ici que l'incertitude est liée aux coefficients de frottement. Il s'agit à présent de juger de la nécessité du recalcul des coefficients polynomiaux au fil du temps et des cycles d'assimilation de données. Pour ce travail seul des données in-situ ont été considérées. On suppose dans un deuxième temps que l'incertitude est portée par le débit en amont du réseau, qui est un vecteur temporel. On procède à une décomposition de type Karhunen-Loève pour réduire la taille de l'espace incertain aux trois premiers modes. Nous sommes ainsi en mesure de mener à bien un exercice d'assimilation de données. Pour finir, les conclusions et les perspectives de ce travail sont présentées en cinquième partie. / This work deals with the formulation of a surrogate model for the shallow water equations in fluvial hydraulics with a chaos polynomial expansion. This reduced model is used instead of the direct model to reduce the computational cost of the ensemble methods in uncertainty quantification and data assimilation. The context of the study is the flood forecasting and the management of water resources. This manuscript is composed of five parts, each divided into chapters. The first part presents a state of art of uncertainty quantification and data assimilation in the field of hydraulics as well as the objectives of this thesis. We present the framework of flood forecasting, its stakes and the tools available (numerical and observation) to predict the dynamics of rivers. In particular, we present the SWOT2 mission, which aims to measure the height of water in rivers with global coverage at high resolution. We highlight particularty their contribution and their complementarity with the in-situ measurements. The second part presents the shallow water equations, which describe the flows in the rivers. We are particularly interested in a 1D representation of the equations.We formulate a numerical discretization of these equations, as implemented in the Mascaret software. The last chapter of this part proposes some simplifications of the shallow-water equations. The third part of this manuscript presents the uncertainty quantification and reduced order methods. We present particularly the probabilistic context which makes it possible to define well-defined problem of uncertainty quantification and sensitivity analysis. It is then proposed to reduce the size of a stochastic problem when dealing with random fields in the context of geophysical models. The methods of chaos polynomial expansion are then presented ; we present in particular the different strategies for the computation of the polynomial coefficients. This section devoted to methodology concludes with a chapter devoted to Ensemble based data assimilation (specially the Ensemble Kalman filter) and the use of surrogate models in this framework. The fourth part of this manuscript is dedicated to the results. The first step is to identify the sources of uncertainty in hydraulics that should be quantified and subsequently reduced. An article, in the review state, details the method and the validation of a polynomial surrogate model for shallow water equations in steady state when the uncertainty is mainly carried by the friction coefficients and upstream inflow. The study is conducted on the river Garonne. It is shown that the statistical moments, the probability density and the spatial covariance matrice for the water height are efficiently and precisely estimated using the reduced model whose construction requires only a few tens of integrations of the direct model. The use of the surrogate model is used to reduce the computational cost of the Ensemble Kalman filter in the context of a synthetic SWOT like data assimilation exercise. The aim is to reconstruct the spatialized friction coefficients and the upstream inflow. We are interested precisely in the spatial representation of the data as seen by SWOT : global coverage of the network, spatial averaging between the observed pixels. We show in particular that at the given calculation budget (2500 simulations of the direct model) the results of the data assimilation analysis based on the use of the polynomial surrogate model are better than those obtained with the classical Ensemble Kalman filter. We are then interested in the construction of the reduced model in unsteady conditions. It is assumed initially that the uncertainty is carried with the friction coefficients. It is now necessary to judge the need for the recalculation of polynomial coefficients over time and data assimilation cycles. For this work only ponctual and in-situ data were considered. It is assumed in a second step that the uncertainty is carried by the upstr
|
125 |
Adaptive control of deterministic and stochastic approximation errors in simulations of compressible flow / Contrôle adaptatif des erreurs d'approximation stochastique et déterministe dans la simulation des écoulements compressibleVan Langenhove, Jan Willem 25 October 2017 (has links)
La simulation de systèmes d'ingénierie non linéaire complexes tels que les écoulements de fluide compressibles peut être ciblée pour rendre plus efficace et précise l'approximation d'une quantité spécifique (scalaire) d'intérêt du système. En mettant de côté l'erreur de modélisation et l'incertitude paramétrique, on peut y parvenir en combinant des estimations d'erreurs axées sur des objectifs et des raffinements adaptatifs de maillage spatial anisotrope. A cette fin, un cadre élégant et efficace est celui de l'adaptation dite basé-métrique où une estimation d'erreur a priori est utilisée comme indicateur d’adaptation de maillage. Dans cette thèse on propose une nouvelle extension de cette approche au cas des approximations de système portant une composante stochastique. Dans ce cas, un problème d'optimisation est formulé et résolu pour un meilleur contrôle des sources d'erreurs. Ce problème est posé dans le cadre continu de l'espace de métrique riemannien. Des développements algorithmiques sont également proposés afin de déterminer les sources dominates d’erreur et effectuer l’adaptation dans les espaces physique ou des paramètres incertains. L’approche proposé est testée sur divers problèmes comprenant une entrée de scramjet supersonique soumise à des incertitudes paramétriques géométriques et opérationnelles. Il est démontré que cette approche est capable de bien capturé les singularités dans l’escape stochastique, tout en équilibrant le budget de calcul et les raffinements de maillage dans les deux espaces. / The simulation of complex nonlinear engineering systems such as compressible fluid flows may be targeted to make more efficient and accurate the approximation of a specific (scalar) quantity of interest of the system. Putting aside modeling error and parametric uncertainty, this may be achieved by combining goal-oriented error estimates and adaptive anisotropic spatial mesh refinements. To this end, an elegant and efficient framework is the one of (Riemannian) metric-based adaptation where a goal-based a priori error estimation is used as indicator for adaptivity. This thesis proposes a novel extension of this approach to the case of aforementioned system approximations bearing a stochastic component. In this case, an optimisation problem leading to the best control of the distinct sources of errors is formulated in the continuous framework of the Riemannian metric space. Algorithmic developments are also presented in order to quantify and adaptively adjust the error components in the deterministic and stochastic approximation spaces. The capability of the proposed method is tested on various problems including a supersonic scramjet inlet subject to geometrical and operational parametric uncertainties. It is demonstrated to accurately capture discontinuous features of stochastic compressible flows impacting pressure-related quantities of interest, while balancing computational budget and refinements in both spaces.
|
126 |
Conception robuste de structure spatiale en présence de méconnaissances de modèle / Robust design of a spacecraft structure under lack of knowledgeMaugan, Fabien 19 January 2017 (has links)
Les travaux présentés dans cette thèse visent à apporter des outils d’aide à la décision à partir de modèles prenant en compte une représentation Info-Gap des différentes sources de méconnaissance du système. Il est en effet possible en utilisant des simulations numériques de développer des indicateurs de support à la décision sous un certain niveau d’incertitude aléatoire ou épistémique. Le principe de conception est ici utilisé au sens large, et peut entrer sans le cadre du dimensionnement structural de composants, de la définition de l’amplitude d’excitation maximum d’un essai, ou encore de la mise en place d’une distribution de capteurs. Ces différentes méthodologies sont ici développées puis appliquées sur des systèmes académiques et industriels / The work presented in this PhD thesis aims at propose new decision making tools in order to take into account a Info-Gap modelling of the different sources of lack of knowledge. Indeed, numerical simulation allow to develop useful indicators for decision making under a given level of random or epistemic uncertainty. The design principle is hereby used in its very large sense, and can stand for structural component design, maximum load definition fir vibrating test or sensor placement design. In this manuscript, these different methodologies are developed and applied to academic and industrial structures.
|
127 |
Étude des interférences entre injections multiples de CO2 dans un aquifère salin profond à l'échelle industrielle / Interferences between multiple industrial-scale CO2 injections in a deep saline aquiferBouquet, Sarah 17 December 2013 (has links)
Les injections de CO2 à l'échelle industrielle, dans les aquifères salins profonds, vont affecter le système naturel en induisant des perturbations des gradients de pression à court et à moyen terme.Des études prévisionnelles sont nécessaires pour évaluer les risques de contamination (fuites de CO2, déplacement des fluides natifs) et les risques d'interférences entre projets d'injection ou entre utilisations du sous-sol.Les aquifères salins étant généralement peu caractérisés, les incertitudes géologiques sont à considérer lors de l'étude de faisabilité du stockage et des risques associés puisque les paramètres géologiques influencent la réponse du système à l'injection.Nous nous sommes intéressés aux incertitudes résultantes en termes de prévisions de perturbations de pression et de migration de CO2 et à leurs conséquences sur la faisabilité des projets de stockage.Dans un premier temps, les incertitudes de modélisation (changement d'échelle, résolution de la variabilité spatiale des propriétés pétrophysiques) et géologiques (propriétés pétrophysiques de la formation d'injection et de la couverture) ont été étudiées sur des modèles 2D conceptuels. L'objectif étant de balayer les champ d'incertitudes pour des modèles peu coûteux en temps de calcul, pour ensuite, réduire les évaluations à effectuer dans le cadre de la modélisation 3D régionale du système souterrain et y appliquer des méthodes simplifiées, validées en deux dimensions.Des centaines de réalisations stochastiques sont utilisées pour évaluer l'influence de la variabilité spatiale de la perméabilité. Pour limiter le nombre de simulations d'écoulement à effectuer, des méthodes de sélection de réalisations, à partir de "proxy-response" (i.e. approximation de la réponse par une méthode de calcul simplifiée) ont été testées et validées.Ensuite, les modèles 3D sont construits à partir des données d'un modèle hydrogéologique du bassin parisien. Différents scénarios d'injection sont envisagés. La sensibilité de la réponse est étudiée principalement par rapport à la variabilité spatiale de la perméabilité et à la compressibilité des pores. Cette dernière étape permet de mieux appréhender les risques d'interférences en fonction des incertitudes majeures, d'une part des paramètres géologiques, et d'autre part des paramètres physiques liés à l'injection. / This thesis studies the regional-scale response of an aquifer system to a massive CO$_2$ injection. Industrial-scale CO$_2$ injections into deep saline aquifers affect natural groundwater systems by generating short-term to medium-term pressure gradient perturbations. To evaluate contamination risks and interference risks between injection projects or other uses of underground space, modelling studies become necessary. The geological parameters of underground formations are also to be taken into consideration as they certainly influence the injection reponse. But, saline aquifers are generally poorly-characterized which adds uncertainties to an already complex system. This thesis aims to explore uncertainties in pressure perturbations and CO$_2$ migration predictions, and their consequences in terms of CO$_2$ storage feasibility studies. Firstly, modelling and geological uncertainties have been tested on 2D conceptual models. This step, based on simpler models than 3D ones, allows a fast uncertainties discrimination and save computational time. Hundreds of stochastic realizations are generated to define the influence of permeability spatial variability. To limit the number of flow simulations, selection procedures of realizations are applied and tested. Selections are derived from fast-calculations methods called "`proxy-response"'. Secondly, once these methods have been 2D tested and validated, and once a number of uncertainties have been eliminated, these methods and related ones are applied to the underground system 3D modelling. The 3D models have been built based on available data from an existing Paris Basin hydrogeological model. Several injection scenarios have been considered and tested. Permeability spatial variability and pore compressibility are the two main parameters chosen to evaluate the injection response. This last step allows a better definition of interference risks between the major uncertainties from geological parameters and injection-related physical parameters.
|
128 |
Procédés de traitement biologiques in situ : la modélisation numérique comme outil d'aide à la décision / Biological treatment processes in situ : Numerical modelling as decision support toolVerardo, Elicia 22 March 2016 (has links)
La bio-remédiation in situ est une technique de réhabilitation couramment utilisée pour le traitement des sols et des nappes contaminés, notamment par les hydrocarbures pétroliers. Si démontrer la pertinence de ce type de traitement constitue un préalable incontournable pour chacun des sites où il est mis en œuvre, l’efficacité du traitement dépend de ses conditions de mise en œuvre dans le contexte spécifique d’un site. Le suivi et le contrôle des différents processus qui gouvernent les phénomènes de biodégradation est complexe, et leur optimisation constitue un élément clé de la réussite du traitement tant au plan technique qu’économique. La démarche générale du travail de thèse porte sur le développement d’une méthodologie permettant d’employer la modélisation dans une démarche de gestion (au sens des textes de 2007) d’un site contaminé par des hydrocarbures pétroliers traité par biodégradation in situ. L’originalité du travail de thèse porte sur l’utilisation de la modélisation comme outil de compréhension des mécanismes et d’aide à la décision à chaque étape du traitement : (i) Dimensionnement de l’installation : définir la meilleure option envisageable, (ii) suivi de l’efficacité du traitement : optimiser le procédé et (iii) prédiction et justification de l’arrêt du traitement : sécuriser en termes de garantie de résultat. Les données d’un site d’étude servent de support dans la définition de l’approche méthodologique de modélisation. A chaque étape d’un projet de bio-remédiation in situ peut être associée une étape de modélisation qui fera appel à des moyens plus ou moins sophistiqués avec des exigences de précision variables. Le premier outil développé concerne l’estimation des incertitudes prédictives dans les modèles mis en œuvre. Cet aspect est fondamental, dès lors que l’on souhaite utiliser la modélisation dans un processus d’aide à la décision. Les processus de bio-remédiation in situ impliquent des relations complexes et incertaines entre la biomasse, les contaminants et les mesures de contrôle appropriées. Prévoir la performance du traitement (en termes de réduction du flux et/ou de la masse) constitue un défi en raison des incertitudes liées aux propriétés du milieu, de la source et aux incertitudes liées aux mécanismes de bio-remédiation. L’étude de la contribution des incertitudes paramétriques dans la prédiction de la performance du traitement est réalisée avec la méthode du « Null Space Monte Carlo » (NSMC) implémentée dans l’outil PEST. Le second outil utilisé concerne l’optimisation du design et/ou du monitoring d’un procédé de bio-traitement in situ. Dans ce contexte, deux objectifs peuvent être envisagés à savoir la réduction du flux de contaminants d’une part, et l’élimination de la masse à la zone source d’autre part. L’outil utilisé est un algorithme d’optimisation mathématique dénommé “Particle Swarm Optimisation” (PSO). Le choix de la fonction objectif à optimiser est particulièrement important et s’avère lié au comportement spécifique hydrogéochimique du site considéré. Cette étude montre que les outils NSMC et PSO s’avèrent appropriés dans l'utilisation de modèles de transport réactif dans la gestion environnementale. Les temps de calcul de ces modèles hautement paramétrés et non linéaires limitent encore l'utilisation de la modélisation comme outil d’aide à la décision. Malgré ces limites, l’approche proposée pour gérer la bio-remédiation in situ des eaux souterraines sur site réel peut être efficace pour fournir un soutien dans la gestion du traitement d’une pollution, étendant ainsi le domaine d’application de la modélisation numérique. Cette approche permet aussi de mettre en évidence des difficultés dues aux spécificités du site ou à la technique même de traitement choisie, permettant d’alerter à temps les gestionnaires. / In-situ bioremediation is a commonly used remediation technology to clean up the subsurface of petroleum-contaminated sites. Although demonstrating the relevance of this type of treatment is an essential prerequisite for each site where it is implemented, the effectiveness of the treatment depends on its implementation conditions in the site-specific context. The monitoring and control of different processes that govern biodegradation phenomena is complex, and optimization is a key element of successful treatment both technically and economically. The general approach of the thesis is the development of a methodology for using modelling in a management approach (as defined in the French regulatory text) of petroleum-contaminated site treated by in situ biodegradation. The work focuses on the use of modelling as a tool for understanding mechanisms and for decision support at every stage of treatment: • System design: defining the best possible option.• Monitoring the effectiveness of treatment: process optimization.• Prediction and justification of stopping treatment: analysis of the uncertainty on the treatment result. Data from two study sites are used to define the modelling methodology. At each stage of the bio-remediation project (design, conception, monitoring and optimization) may be associated a modelling stage that will be more or less sophisticated depending on accuracy requirements. The first tool developed involved predictive uncertainty analysis, which is crucial when modelling is used as a decision support tool, and can be used at the design process step or for predicting the effectiveness of treatment. The process of in-situ bioremediation involves complex and uncertain relationships among biomass, contaminants and appropriate control actions. Forecasting remedial performance (in terms of flux and mass reduction) is a challenge due to uncertainties associated with (i) the medium and source properties and (ii) the efficiency of concentration reducing mechanisms. Parametric uncertainty contributions involved in forecasting treatment performance is carried out with the “Null-Space Monte Carlo” (NSMC) method implemented in the PEST tool. The second tool relates design and / or monitoring optimization of the bio-treatment method. In this context, two purposes can be considered: the reduction of contaminants flux or mass in the source zone. The tool used is a mathematical optimization algorithm called "Particle Swarm Optimization" (PSO). The choice of the objective function to be optimized is particularly important and appears to be related to hydrogeochemical site-specific behavior. This study showed that the NSMC and PSO methods are suitable tools for an efficient use reactive transport models in environmental management. The computation time of these highly parameterized and nonlinear models still limit the use of modelling as a decision support tool. Despite these limitations, the proposed approach for managing the bioremediation in-situ groundwater on actual site can be effective to provide support in managing the treatment of pollution, extending the field of application of numerical modelling. This approach also allows to highlight difficulties due to site-specific behavior or to the treatment technique applied, and to inform decision support managers in consequence.
|
129 |
Les incertitudes lors de l'évaluation de l'aléa de départ des éboulements rocheux / Uncertainties on rockfall assessmentDelonca, Adeline 05 December 2014 (has links)
De nombreuses incertitudes interviennent lors de l’évaluation de l’aléa de départ des éboulements rocheux. Ce mémoire se propose de les étudier, en suivant la typologie de Baecher & Christian (2005) qui identifie (1) l’incertitude de décision, (2) l’incertitude de connaissance et (3) l’incertitude aléatoire. L’incertitude de décision intervient au travers de l’évaluation de l’aléa par expertise. Nous avons mis au point une expérimentation visant à étudier l’influence du niveau d’expertise de la personne en charge de l’étude et de la méthode utilisée (qualitative et quantitative) sur l’évaluation de l’aléa. Nous avons montré que l’utilisation d’une méthode qualitative permet de guider la pensée et de réduire la dispersion des niveaux d’aléas finaux, ce qui n’est pas le cas d’une méthode quantitative. Nous montrons également que dans des cas spectaculaires, l’expérience de l’ingénieur lui permet de ne pas surévaluer l’aléa, et que pour des cas plus classiques, il n’y a pas d’influence du niveau d’expertise dès lors que la méthode est suffisamment détaillée. L’incertitude aléatoire se manifeste par la variabilité temporelle des éboulements rocheux. Un travail sur des bases de données a été entrepris. Il a permis de mettre en évidence une corrélation statistique entre les éboulements rocheux et certains facteurs météorologiques (pluies et températures). Une méthode évaluant la probabilité d’occurrence des éboulements en fonction de l’intensité des pluies ou la valeur des températures a alors été développée. Elle peut être considérée comme un outil d’aide à la décision dans la gestion du risque. Un travail sur ces bases de données a également permis de montrer l’existence d’une composante de bruit de fond aléatoire, ne montrant aucune corrélation statistique, caractérisée par le fait que le temps qui sépare deux chutes de blocs suit une loi de Poisson. L’incertitude de connaissance résulte d’un manque d’informations concernant, en particulier, les facteurs préparatoires. Afin de mieux appréhender ces incertitudes, des modèles numériques (éléments distincts - UDEC) de glissement d’un bloc sur un plan incliné, dépendants de la présence et de la proportion de ponts rocheux, ont été réalisés. Ils ont permis de montrer l’existence de deux phases dans la rupture, contrôlées par les reports des contraintes le long du joint entre le bloc et le plan, à mesure que de la rupture des ponts rocheux se propage. Cependant, ces deux phases ne se retrouvent pas dans l’étude des déplacements du bloc. Nous montrons également l’influence de la position des ponts rocheux sur la vitesse de propagation de la rupture en fonction de la pente. Ces travaux fournissent un outil opérationnel et des indications sur le processus d’évaluation de l’aléa qui pourraient aider l’ingénieur en charge d’une étude d’aléa à justifier et à affiner son estimation / The present dissertation proposes to study uncertainties in rockfall hazard assessment process, on the basis of the Baecher & Christian typology (2005), which identifies (1) decision uncertainties, (2) knowledge uncertainties, and (3) natural variability. Decision uncertainties are due to the subjectivity of experts’ assessment. An experiment has been realized in order to evaluate the influence of the expertise level, and the chosen method (qualitative or quantitative) on the rockfall hazard. The rockfall hazard levels obtained by the qualitative method are quite uniform while the quantitative method produces more disparate results. We have shown that, classically, the expertise level has no influence on the assessment if the method is precisely detailed. In the case of spectacular sites, experts do not overestimate the hazard. The natural variability is associated to the temporal variability of the rockfalls. We have studied the statistical correlation between meteorological and rockfall databases. We have developed a method that takes into account the probability of occurrence of the studied triggering factor (rainfalls and temperatures). This new approach is easy to use, and also helps to determine the conditional probability of rockfall according to a given meteorological factor. This approach will help to optimize risk management in studied areas based on their meteorological conditions. A work on these databases also has allowed the unpredictability of the rockfalls to be highlighted. Indeed, the delay between two rockfalls follows a Poisson distribution. Knowledge uncertainties may concern the preparatory factors. We have studied them with numerical models of a rock block sliding along a planar joint, depending on the proportion and position of rock bridges (distinct elements - UDEC). Two stages of the failure process have been highlighted; they have been controlled by the stress redistribution induced by the failure, and the propagation of the rock bridges. However, these two phases are not identified when studying block displacements. We also have shown the influence of the position of rock bridges on the propagation of failure. This research provides an operational tool, and guidelines on assessment process that may help engineers in charge of a rockfall risk analysis to justify and refine the obtained risk estimations
|
130 |
Three essays on the role of frictions in the economy / Trois essais sur le rôle du désaccord en économieMorteza Pouraghdam, Meradj 25 March 2016 (has links)
Cette thèse se compose de trois études sur le rôle du désaccord en économie. Dans le premier chapitre, j’étudie l’impact des incertitudes judiciaires sur le rôle du désaccord dans le marché financier. J’ai commencé par documenter et définir ces incertitudes judiciaires, de la manière la plus approfondie et détaillée possible. L’incertitude liée à la capacité imparfaite d’observation par des régulateurs est intitulée the monitoring problem, et celle liée à la pénalité et la possibilité de payer des amendes the enforceability problem. J’introduis ces concepts dans un modèle avec frictions financières. La simulation du modèle nous montre que la capacité d’observation des régulateurs détermine la stabilité ou la fragilité du secteur bancaire. Le coût du capital n’augmente pas beaucoup dans une économie avec des incertitudes judiciaires mais le taux de retour de l’économie à l’état stationnaire baisse. Par exemple le taux de retour de l’économie à l’état stationnaire (après avoir subi un choc externe de niveau moyen) dure en moyenne 7 – 12 trimestres. Je donne des arguments que cela est en raison de changement de qualité des actifs en présences des incertitudes judiciaires. Finalement, je regarde si le modèle simulé pourrait reprendre les fluctuations du cycle économique après la crise financière et il le fait bien. En outre je donne des arguments détaillés pour l’analyse des programmes de bien-être social en présence des incertitudes judiciaires. Dans le deuxième chapitre, j’étudie la volatilité due au désaccord dans le marché du travail. J’essaye d’identifier les sources de cette volatilité élevée de manière structurelle. Ainsi, j’utilise un vecteur autorégressif avec volatilité stochastique (Time Varying Parameter SVAR) pour investiguer les propriétés de la création d’emploi aux Etats-Unis et leurs variations dans le temps. Au vu des résultats, un choc technologique semble expliquer moins de 40% des fluctuations observées de la volatilité de la création d’emplois après les années 1980 et ils indiquent que la volatilité dépend largement des chocs de demande et de prix. Les postes vacants (autrement dit, la création d’emploi) réagissaient négativement aux chocs technologiques jusqu’au début des années 90. On retrouve la même tendance pour la période récente. Ce résultat est très important pour les autorités publiques car il remet en question la création d’emplois suite à de nouvelles technologies. Le troisième chapitre est consacré au désaccord sur le marché des prêts où je montre comment le droit des faillites pourrait intensifier le problème d’aléa moral entre une entreprise débitrice et ses créanciers. Ce chapitre essaye de faire un lien entre le droit des faillites et le coût du capital en étudiant le niveau de demande des clauses restrictives dans un contrat. L’hypothèse que je vais essayer de valider empiriquement est celle-ci : si le droit de faillite devient de plus en plus en faveur des entreprises, les créanciers mettent en place de plus en plus de clauses restrictives dans le contrat (c’est-à-dire cherchent à obtenir un contrôle renforcé sur le comportement des débiteurs). Je valide l’hypothèse susmentionnée et je montre qu’une clause restrictive additionnelle baisse le taux de rentabilité par 23 points de base. Ainsi, Je donne une nouvelle interprétation des clauses restrictive par rapport à la littérature. / In this thesis I have investigated three aspects of market frictions. Chapter 1 is about financial frictions, i.e. frictional forces prevailing in the financial lending markets and how monitoring and legal fines imposed on banks affect financial fragility. Chapter 2 explores the frictional labor market, i.e. frictional forces that prevent the smooth matching process between employees and employers in labor markets. In this chapter I investigate the sources of fluctuations in labor market volatility. Chapter 3 investigates the asymmetrical information in lending markets and how bankruptcy law could potentially affect this asymmetrical information between a borrower and its lenders. In Chapter 1, I have investigated the implications of legal fines and partial monitoring in a macro-finance model. This primary motivation of this work was the unprecedented level of fines banks faced in recent years. The research in this field is very sparse and this work is one of the few to fill in the void. I have tried investigating the implications of fines and partial monitoring in static and dynamic frameworks. There is partial monitoring in the sense that dubious behavior of intermediaries is not always observed with certainty. Moreover intermediaries can pay some litigation fees to mitigate the punishment for their conduct should they get caught. Several insights can be drawn from introducing such concepts in static and dynamic frameworks. Partial monitoring and legal fines make the incentive constraint of intermediaries more relaxed, in the sense that bankers are required to pledge less collateral to raise fund. This decrease in the asset pledgeability pushes the corporate spread down. In a dynamic set-up due to changes in asset qualities caused by such possibilities, recovery in output and credit become sluggish in response to an adverse financial shock. The dynamic implications of the model for the post-crisis period are investigated. This paper calls for further research to broaden our understandings in how legal settlements interact with banks' behaviors. In Chapter 2 (joint with Elisa Guglielminetti) I have investigated the time-varying property of job creation in the United States. Despite extensive documentation of the US labor market dynamics, evidence on its time-varying volatility is very hard to find. In this work I contribute to the literature by structurally investigating the time-varying volatility of the U.S. labor market. I address this issue through a time-varying parameter VAR (TVP-VAR) with stochastic volatility by identifying four structural shocks through imposing robust restrictions based on a New Keynesian DSGE model with frictional labor markets and a large set of shocks. The main findings are as follows. First, at business cycle frequencies, the lion share of the variance of job creation is explained by cost-push and demand shocks, thus challenging the conventional practice of addressing the labor market volatility puzzle à la Shimer under the assumption that technology shocks are the main driver of fluctuations in hiring. Second, technology shocks had a negative impact on job creation until the beginning of the '90s. This result is reminiscent of the “hours puzzle” à la Gali. In Chapter 3 (joint with Garence Staraci) I provide an additional rationale why creditors include covenants in their contracts. The central claim is that covenants are not only included as a means of shifting the governance from debtors to creditors, but also to potentially address the concerns creditors might have about how the bankruptcy law is practiced. To investigate this claim, I take advantage of the fact that covenants are nullified inside bankruptcy. This fact permits us to show that any change to the bankruptcy law affects the spread through changes that it brings to the contractual structure...
|
Page generated in 0.0803 seconds