• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 4
  • 1
  • Tagged with
  • 13
  • 13
  • 9
  • 9
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Approche probabiliste d'aide au diagnostic des voûtes en maçonnerie / Probabilistic approach for masonry vault diagnosis

Zanaz, Abdelmounaim 20 September 2016 (has links)
Les structures en voûte sont présentes dans la plupart des anciens ouvrages maçonnés : tunnels, ponts, palais, cathédrales ou autres. Arches et voutes sont avec les murs les structures porteuses utilisées en maçonnerie. Leur bon état est alors la clef du bon fonctionnement d’un ouvrage. Les ouvrages maçonnés constituent à présent une proportion importante du patrimoine culturel. Toutefois, la plupart de ces ouvrages sont centenaires et le processus de dégradation s’est déjà enclenché depuis des décennies. Aujourd’hui, leur maintenance et réparation présentent des problèmes importants à leurs gestionnaires. Parfois des réparations ont été entreprises sans pour autant assurer la durabilité souhaitée. La fréquence des interventions se trouve augmentée et les coûts induits deviennent rapidement insupportables. Une situation qui a poussé certains gestionnaires à abandonner complètement leurs ouvrages, malgré leur valeur et leur importance patrimoniales. En effet, l’une des causes majeures d’abandon d’ouvrage est le coût excessif des inspections et des réparations. La question qui se pose dans de telles circonstances est de savoir comment mettre au point une stratégie à la fois efficace et surtout économique de maintenance de ces ouvrages, capable de prolonger leurs durées de vie ? Deux problèmes particuliers d’inspection sous incertitude sont traités : La présence localisée de perte de matière et la perte de matière généralisée. Pour traiter ces deux cas un programme a été développé. Le modèle, sur lequel il s’appuie, permet l’analyse globale de la voûte tout en minimisant au maximum le temps de calcul. Ce modèle constitue un compromis intéressant entre précision et temps de calcul. Les simulations de Monte Carlo ont été couplées à la méthode des éléments finis et implémentées dans un nouvel outil numérique, baptisé ArcProg_Z, afin de proposer une méthodologie cohérente pour l’évaluation probabiliste de la capacité portante des voûtes et de prévision de son mécanisme de ruine.Enfin, une étude de fiabilité de la voûte étudiée précédemment a été menée. La performance de la voûte a été évaluée à travers le calcul de sa probabilité de défaillance « instantanée et dépendante du temps » en fonction du coefficient de variation du module d’Young des différents segments. Les résultats obtenus pour chaque cas sont présentés et discutés. / The vault structures are present in most of the old masonry structures: tunnels, bridges, palaces, cathedrals or other civil infrastructures. Arches and vaults as well as walls are the supporting structures used in masonry. Their condition is then the key of the proper functioning of a structure. Masonry construction works are now a significant proportion of the cultural heritage. Most of them are century old and the degradation process is already running since several decades. Actually, the maintenance and repair continue to represent serious issues for their managers. Sometimes repairs have been undertaken without ensuring the aimed durability. The frequency of interventions is increased and the resulting costs are rapidly becoming unbearable. A situation has led some managers to completely abandon their buildings, despite their heritage value and national significance. Indeed, one of the major reasons for building abandonment is the excessive cost of inspections and repairs. The question that arises in such circumstances is how to develop a maintenance strategy that is both effective and most economical of these structures, capable to prolong their lifespan?Two particular inspection issues under uncertainty are discussed: The localized presence of material loss and generalized loss of material. To deal both cases, a program was developed. The model on which it is based, provides the overall analysis of the vault while minimizing the computation time. This model presents an interesting compromise between accuracy and computation time. Monte Carlo simulations are coupled with the finite element method and implemented in a software package named ArcProg_Z, in order to propose a consistent methodology for probabilistic assessment of the load bearing capacity of the vaults and predicting its failure mechanism.Finally, reliability study of the vault is carried out. The performance of the vault is assessed by calculating the probability of failure “instantaneous and time-dependent” according to the coefficient of variation of the Young's modulus of several segments.The obtained results for each case are presented and discussed.
2

Modélisation des comportements extrêmes en ingénierie

Piera-Martinez, Miguel 29 September 2008 (has links) (PDF)
La complexité d'un système et les approximations de modélisation qui en résultent, le caractère aléatoire des perturbations externes ainsi que la dispersion des paramètres de conception autour de leur valeur nominale sont autant de raisons qui amènent à remettre en cause les approches déterministes qui supposent une connaissance parfaite du système et de son environnement. La n´ecessité de concevoir des systèmes robustes nous conduit à élaborer des modèles statistiques qui permettent de gérer les incertitudes, et en particulier l'apparition de valeurs extrêmes à la sortie des systèmes. La modélisation des valeurs extrêmes et la protection d'un système vis-à-vis de ces évènements revêt un intérêt particulier, puisque ces valeurs extrêmes peuvent correspondre à des violations du cahier des charges, voire à des destructions du système. L'objectif de ce mémoire est de mettre en place des outils pour étudier les performances d'un dispositif lorsqu'il est sollicité à la limite du fonctionnement normalement prévu. Une valeur extrême est en général un évènement rare qui nécessite a priori de faire un grand nombre d'expériences avant d'être observé. Cependant, de telles expériences, ou les simulations qui sont de plus en plus utilisées pour les remplacer, sont souvent coûteuses. Il est donc souhaitable de caractériser les valeurs extrêmes à partir d'un petit nombre d'expériences ou de simulations. Concrètement, nous étudions la modélisation des queues de probabilité, l'estimation d'une faible probabilité de défaillance et l'estimation du pire cas de fonctionnement d'un système.
3

Introduction de pièces déformables dans l’analyse de tolérances géométriques de mécanismes hyperstatiques / Introduction of flexible parts in tolerance analysis of over-constrained mechanisms

Gouyou, Doriane 04 December 2018 (has links)
Les mécanismes hyperstatiques sont souvent utilisés dans l’industrie pour garantir une bonne tenue mécanique du système et une bonne robustesse aux écarts de fabrication des surfaces. Même si ces assemblages sont très courants, les méthodologies d’analyse de tolérances de ces mécanismes sont difficiles à mettre en oeuvre.En fonction de ses écarts de fabrication, un assemblage hyperstatique peut soit présenter des interférences de montage, soit être assemblé avec jeu. Dans ces travaux de thèse, nous avons appliqué la méthode des polytopes afin de détecter les interférences de montage. Pour un assemblage donné, le polytope résultant du mécanisme est calculé. Si ce polytope est non vide, l’assemblage ne présente pas d’interférence. Si ce polytope est vide, l’assemblage présente des interférences de montage. En fonction du résultat obtenu, deux méthodes d’analyse distinctes sont proposées.Si l’assemblage est réalisable sans interférence le polytope résultant du mécanisme permet de conclure sur sa conformité au regard de l’exigence fonctionnelle. Si l’assemblage présente des interférences de montage, une analyse prenant en compte la raideur des pièces est réalisée. Cette approche est basée sur une réduction de modèle avec des super-éléments. Elle permet de déterminer rapidement l’état d’équilibre du système après assemblage. Un effort de montage est ensuite estimé à partir de ces résultats pour conclure sur la faisabilité de l’assemblage. Si l’assemblage est déclaré réalisable, la propagation des déformations dans les pièces est caractérisée pour vérifier la conformité du système au regard de l’exigence fonctionnelle.La rapidité de mise en oeuvre de ces calculs nous permet de réaliser des analyses de tolérances statistiques par tirage de Monte Carlo pour estimer les probabilités de montage et de respect d’une Condition Fonctionnelle. / Over-constrained mechanisms are often used in industries to ensure a good mechanical strength and a good robustness to manufacturing deviations of parts. The tolerance analysis of such assemblies is difficult to implement.Indeed, depending on the geometrical deviations of parts, over-constrained mechanisms can have assembly interferences. In this work, we used the polytope method to check whether the assembly has interferences or not. For each assembly, the resulting polytope of the mechanism is computed. If it is non empty, the assembly can be performed without interference. If not, there is interferences in the assembly. According to the result, two different methods can be implemented.For an assembly without interference, the resulting polytope enables to check directly its compliance. For an assembly with interferences, a study taking into account the stiffness of the parts is undertaken. This approach uses a model reduction with super elements. It enables to compute quickly the assembly with deformation. Then, an assembly load is computed to conclude on its feasibility. Finally, the spreading of deformation through the parts is calculated to check the compliance of the mechanism.The short computational time enables to perform stochastic tolerance analyses in order to provide the rates of compliant assemblies.
4

Sequential Design of Experiments to Estimate a Probability of Failure. / Planification d'expériences séquentielle pour l'estimation de probabilités de défaillance

Li, Ling 16 May 2012 (has links)
Cette thèse aborde le problème de l'estimation de la probabilité de défaillance d'un système à partir de simulations informatiques. Lorsqu'on dispose seulement d'un modèle du système coûteux à simuler, le budget de simulations est généralement très limité, ce qui est incompatible avec l’utilisation de méthodes Monte Carlo classiques. En fait, l’estimation d’une petite probabilité de défaillance à partir de simulations très coûteuses, comme on peut rencontrer dans certains problèmes industriels complexes, est un sujet particulièrement difficile. Une approche classique consiste à remplacer le modèle coûteux à simuler par un modèle de substitution nécessitant de faibles ressources informatiques. A partir d’un tel modèle de substitution, deux opérations peuvent être réalisées. La première opération consiste à choisir des simulations, en nombre aussi petit que possible, pour apprendre les régions de l’espace des paramètres du système qui construire de bons estimateurs de la probabilité de défaillance. Cette thèse propose deux contributions. Premièrement, nous proposons des stratégies de type SUR (Stepwise Uncertainty Reduction) à partir d’une formulation bayésienne du problème d’estimation d’une probabilité de défaillance. Deuxièmement, nous proposons un nouvel algorithme, appelé Bayesian Subset Simulation, qui prend le meilleur de l’algorithme Subset Simulation et des approches séquentielles bayésiennes utilisant la modélisation du système par processus gaussiens. Ces nouveaux algorithmes sont illustrés par des résultats numériques concernant plusieurs exemples de référence dans la littérature de la fiabilité. Les méthodes proposées montrent de bonnes performances par rapport aux méthodes concurrentes. / This thesis deals with the problem of estimating the probability of failure of a system from computer simulations. When only an expensive-to-simulate model of the system is available, the budget for simulations is usually severely limited, which is incompatible with the use of classical Monte Carlo methods. In fact, estimating a small probability of failure with very few simulations, as required in some complex industrial problems, is a particularly difficult topic. A classical approach consists in replacing the expensive-to-simulate model with a surrogate model that will use little computer resources. Using such a surrogate model, two operations can be achieved. The first operation consists in choosing a number, as small as possible, of simulations to learn the regions in the parameter space of the system that will lead to a failure of the system. The second operation is about constructing good estimators of the probability of failure. The contributions in this thesis consist of two parts. First, we derive SUR (stepwise uncertainty reduction) strategies from a Bayesian-theoretic formulation of the problem of estimating a probability of failure. Second, we propose a new algorithm, called Bayesian Subset Simulation, that takes the best from the Subset Simulation algorithm and from sequential Bayesian methods based on Gaussian process modeling. The new strategies are supported by numerical results from several benchmark examples in reliability analysis. The methods proposed show good performances compared to methods of the literature.
5

Etude expérimentale du comportement d'une poutre en béton armé en flexion trois points réparée par matériaux composites (approche probabiliste).

Croston, Tania 20 June 2006 (has links) (PDF)
Le béton armé (BA) a été largement étudié, surtout à travers son comportement mécanique et ses capacités physico-chimique. Par contre la notion de réparation des ouvrages de génie civil par des solutions composites est plus rarement traitée. Cette recherche porte essentiellement sur : l'analyse de l'influence du degré de fissuration sur la résistance ultime des éprouvettes réparées et l'application des concepts de fiabilité afin d'estimer la probabilité de défaillance. Dans ce but, des poutres en BA ont été pré fissurées par des essais en flexion 3 points jusqu'à 2 niveaux différents d'endommagement puis réparées. L'insertion d'une tige en composite (soit fibre de carbone, soit fibre de verre) et le collage d'une plaque en carbone sur la face tendue de la poutre courte, ont été utilisés comme méthodes de réparation. Lors des essais en flexion de poutres réparées, leur comportement a été évalué à l'aide d'un microscope à longue distance et par la technique d'émission acoustique. A partir des résultats obtenus, nous avons constaté que les deux méthodes de réparation sont très efficaces. En effet, les éprouvettes réparées ont considérablement augmenté leurs résistances ultimes. Une approche probabiliste utilisant les méthodes Monte Carlo et FORM pour déterminer la probabilité de défaillance de l'éprouvette testée en flexion trois points a été utilisée. Ces résultats nous ont permis d'élaborer des abaques qui mettent en relation la force résistante de l'éprouvette, le coefficient de variation et la probabilité de défaillance.
6

L’évaluation du risque de crédit des PME françaises internationalisées / The credit risk assessment of French internationalized SMEs

Modrik, Karima 16 December 2016 (has links)
Acteurs majeurs du tissu économique, les petites et moyennes entreprises (PME) font l’objet d’une attention croissante de la part des économistes depuis plusieurs années. Pour financer leur développement, ces entreprises privilégient le recours à l’endettement bancaire. Or ce mode de financement est générateur d'un risque de crédit, principalement lié à la probabilité de défaillance de l’entreprise. La question de l’évaluation du risque de crédit des entreprises est généralement abordée de manière indifférenciée. Cependant il est possible que les PME internationalisées présentent des caractéristiques spécifiques relatives à leur ouverture sur les marchés internationaux. Nous procédons à une analyse des déterminants du risque de défaillance des PME d’une part, et d'autre part, des risques auxquels elles sont confrontées dans leur processus d’internationalisation. A travers des estimations économétriques sur données de panel, nous montrons notamment que l’augmentation de l’intensité des exportations des PME françaises réduit leur probabilité de défaillance. Une PME internationalisée présente alors un risque de crédit moins important qu'une PME purement domestique. Nous montrons ensuite que cette information doit être intégrée dans la modélisation du risque de crédit, réalisée sur la base de variables financières. Celle-ci est plus performante (dans le sens d'un meilleur pouvoir prédictif)lorsque l’on estime la probabilité de défaillance à l’aide de modèles distincts pour les PME internationalisées et les PME domestiques. Selon ces résultats, l'internationalisation est un facteur important qui devrait être considéré dans la recherche future sur le risque de crédit des PME. / Small and medium-sized enterprises (SMEs) dominate the French business environment making a significant contribution to the national economy. Unsurprisingly, an extensive set of empirical studies explores critical issues that affect SMEs including factors that can reduce the credit risk associated with bank debt. Despite that internationalisation has a number of key characteristics that can influence credit risk, the nexus between internationalisation and credit risks remains underexplored. This thesis aims to address this knowledge gap by examining this nexus for a panel of French SMEs. To do so, the thesis estimates the effect of export intensity of French SMEs on their default probability. Key findings illustrate that internationalisation plays a critical role in decreasing the credit risk. Motivated by these results, the thesis assesses the relationship between internationalisation and modelling credit risk through evaluating the effect of several financial variables on default probability of domestic and international SMEs, separately. Interestingly, the findings reveal that modelling the credit risk of SMEs could be improved by considering domestic and international SMEs separately. According to these findings, internationalisation is one of the most important factors that should be considered in future research in relation to SMEs.
7

Planification d’expériences numériques en multi-fidélité : Application à un simulateur d’incendies / Sequential design of numerical experiments in multi-fidelity : Application to a fire simulator

Stroh, Rémi 26 June 2018 (has links)
Les travaux présentés portent sur l'étude de modèles numériques multi-fidèles, déterministes ou stochastiques. Plus précisément, les modèles considérés disposent d'un paramètre réglant la qualité de la simulation, comme une taille de maille dans un modèle par différences finies, ou un nombre d'échantillons dans un modèle de Monte-Carlo. Dans ce cas, il est possible de lancer des simulations basse fidélité, rapides mais grossières, et des simulations haute fidélité, fiables mais coûteuses. L'intérêt d'une approche multi-fidèle est de combiner les résultats obtenus aux différents niveaux de fidélité afin d'économiser du temps de simulation. La méthode considérée est fondée sur une approche bayésienne. Le simulateur est décrit par un modèle de processus gaussiens multi-niveaux développé dans la littérature que nous adaptons aux cas stochastiques dans une approche complètement bayésienne. Ce méta-modèle du simulateur permet d'obtenir des estimations de quantités d'intérêt, accompagnés d'une mesure de l'incertitude associée. L'objectif est alors de choisir de nouvelles expériences à lancer afin d'améliorer les estimations. En particulier, la planification doit sélectionner le niveau de fidélité réalisant le meilleur compromis entre coût d'observation et gain d'information. Pour cela, nous proposons une stratégie séquentielle adaptée au cas où les coûts d'observation sont variables. Cette stratégie, intitulée "Maximal Rate of Uncertainty Reduction" (MRUR), consiste à choisir le point d'observation maximisant le rapport entre la réduction d'incertitude et le coût. La méthodologie est illustrée en sécurité incendie, où nous cherchons à estimer des probabilités de défaillance d'un système de désenfumage. / The presented works focus on the study of multi-fidelity numerical models, deterministic or stochastic. More precisely, the considered models have a parameter which rules the quality of the simulation, as a mesh size in a finite difference model or a number of samples in a Monte-Carlo model. In that case, the numerical model can run low-fidelity simulations, fast but coarse, or high-fidelity simulations, accurate but expensive. A multi-fidelity approach aims to combine results coming from different levels of fidelity in order to save computational time. The considered method is based on a Bayesian approach. The simulator is described by a state-of-art multilevel Gaussian process model which we adapt to stochastic cases in a fully-Bayesian approach. This meta-model of the simulator allows estimating any quantity of interest with a measure of uncertainty. The goal is to choose new experiments to run in order to improve the estimations. In particular, the design must select the level of fidelity meeting the best trade-off between cost of observation and information gain. To do this, we propose a sequential strategy dedicated to the cases of variable costs, called Maximum Rate of Uncertainty Reduction (MRUR), which consists of choosing the input point maximizing the ratio between the uncertainty reduction and the cost. The methodology is illustrated in fire safety science, where we estimate probabilities of failure of a fire protection system.
8

Méthodes de construction des courbes de fragilité sismique par simulations numériques / Development of seismic fragility curves based on numerical simulations

Dang, Cong-Thuat 28 May 2014 (has links)
Une courbe de fragilité sismique qui présente la probabilité de défaillance d’une structure en fonction d’une intensité sismique, est un outil performant pour l’évaluation de la vulnérabilité sismique des structures en génie nucléaire et génie civil. On se concentre dans cette thèse sur l’approche par simulations numériques pour la construction des courbes de fragilité sismique. Une étude comparative des méthodes paramétriques existantes avec l’hypothèse log-normale est d’abord réalisée. Elle permet ensuite de proposer des améliorations de la méthode du maximum de vraisemblance dans le but d’atténuer l’influence de l’excitation sismique lors de son processus de construction. Une autre amélioration est l’application de la méthode de simulations par subsets pour l’évaluation de la probabilité de défaillance faible. Enfin, en utilisant la méthode de calcul de l’évolution des fonctions de densité de probabilité qui permet d’évaluer la probabilité conjointe entre la réponse structurale et les variables aléatoires du système et de l’excitation, nous proposons également une nouvelle technique non-paramétrique de construction des courbes de fragilité sismique sans utiliser l’hypothèse de la loi log-normale. La validation des améliorations et de la nouvelle technique est réalisée sur des exemples numériques. / A seismic fragility curve that shows the failure probability of a structure in function of a seismic intensity is a powerful tool for the evaluation of the seismic vulnerability of structures in nuclear engineering and civil engineering.We focus in this thesis on the numerical simulations-based approach for the construction of seismic fragility curves. A comparative work between existent parametric methods with the lognormal assumption of the fragility curves is first performed. It then allows proposing improvements to the maximum likelihood method in order to mitigate the influence of seismic excitation during its construction process. Another improvement is the application of the subsets simulation method for the evaluation of the low probability of failure. Finally, using the Probability Density Evolution Method (PDEM) for evaluating the joint probability between a structural response and random variables of a system and/or excitations, a new technique for construction of seismic fragility curves was proposed. The seismic fragility curve can be derived without the assumption of lognormal law. The improvements and the new technique are all validated by numerical examples.
9

Développement des méthodes AK pour l'analyse de fiabilité. Focus sur les évènements rares et la grande dimension / Development of AK-based method for reliability analyses. Focus on rare events and high dimension

Lelièvre, Nicolas 13 December 2018 (has links)
Les ingénieurs utilisent de plus en plus de modèles numériques leur permettant de diminuer les expérimentations physiques nécessaires à la conception de nouveaux produits. Avec l’augmentation des performances informatiques et numériques, ces modèles sont de plus en plus complexes et coûteux en temps de calcul pour une meilleure représentation de la réalité. Les problèmes réels de mécanique sont sujets en pratique à des incertitudes qui peuvent impliquer des difficultés lorsque des solutions de conception admissibles et/ou optimales sont recherchées. La fiabilité est une mesure intéressante des risques de défaillance du produit conçu dus aux incertitudes. L’estimation de la mesure de fiabilité, la probabilité de défaillance, nécessite un grand nombre d’appels aux modèles coûteux et deviennent donc inutilisable en pratique. Pour pallier ce problème, la métamodélisation est utilisée ici, et plus particulièrement les méthodes AK qui permettent la construction d’un modèle mathématique représentatif du modèle coûteux avec un temps d’évaluation beaucoup plus faible. Le premier objectif de ces travaux de thèses est de discuter des formulations mathématiques des problèmes de conception sous incertitudes. Cette formulation est un point crucial de la conception de nouveaux produits puisqu’elle permet de comprendre les résultats obtenus. Une définition des deux concepts de fiabilité et de robustesse est aussi proposée. Ces travaux ont abouti à une publication dans la revue internationale Structural and Multidisciplinary Optimization (Lelièvre, et al. 2016). Le second objectif est de proposer une nouvelle méthode AK pour l’estimation de probabilités de défaillance associées à des évènements rares. Cette nouvelle méthode, nommée AK-MCSi, présente trois améliorations de la méthode AK-MCS : des simulations séquentielles de Monte Carlo pour diminuer le temps d’évaluation du métamodèle, un nouveau critère d’arrêt sur l’apprentissage plus stricte permettant d’assurer le bon classement de la population de Monte Carlo et un enrichissement multipoints permettant la parallélisation des calculs du modèle coûteux. Ce travail a été publié dans la revue Structural Safety (Lelièvre, et al. 2018). Le dernier objectif est de proposer de nouvelles méthodes pour l’estimation de probabilités de défaillance en grande dimension, c’est-à-dire un problème défini à la fois par un modèle coûteux et un très grand nombre de variables aléatoires d’entrée. Deux nouvelles méthodes, AK-HDMR1 et AK-PCA, sont proposées pour faire face à ce problème et sont basées respectivement sur une décomposition fonctionnelle et une technique de réduction de dimension. La méthode AK-HDMR1 fait l’objet d’une publication soumise à la revue Reliability Engineering and Structural Safety le 1er octobre 2018. / Engineers increasingly use numerical model to replace the experimentations during the design of new products. With the increase of computer performance and numerical power, these models are more and more complex and time-consuming for a better representation of reality. In practice, optimization is very challenging when considering real mechanical problems since they exhibit uncertainties. Reliability is an interesting metric of the failure risks of design products due to uncertainties. The estimation of this metric, the failure probability, requires a high number of evaluations of the time-consuming model and thus becomes intractable in practice. To deal with this problem, surrogate modeling is used here and more specifically AK-based methods to enable the approximation of the physical model with much fewer time-consuming evaluations. The first objective of this thesis work is to discuss the mathematical formulations of design problems under uncertainties. This formulation has a considerable impact on the solution identified by the optimization during design process of new products. A definition of both concepts of reliability and robustness is also proposed. These works are presented in a publication in the international journal: Structural and Multidisciplinary Optimization (Lelièvre, et al. 2016). The second objective of this thesis is to propose a new AK-based method to estimate failure probabilities associated with rare events. This new method, named AK-MCSi, presents three enhancements of AK-MCS: (i) sequential Monte Carlo simulations to reduce the time associated with the evaluation of the surrogate model, (ii) a new stricter stopping criterion on learning evaluations to ensure the good classification of the Monte Carlo population and (iii) a multipoints enrichment permitting the parallelization of the evaluation of the time-consuming model. This work has been published in Structural Safety (Lelièvre, et al. 2018). The last objective of this thesis is to propose new AK-based methods to estimate the failure probability of a high-dimensional reliability problem, i.e. a problem defined by both a time-consuming model and a high number of input random variables. Two new methods, AK-HDMR1 and AK-PCA, are proposed to deal with this problem based on respectively a functional decomposition and a dimensional reduction technique. AK-HDMR1 has been submitted to Reliability Enginnering and Structural Safety on 1st October 2018.
10

Méthodes de construction des courbes de fragilité sismique par simulations numériques

Dang, Cong-Thuat 28 May 2014 (has links) (PDF)
Une courbe de fragilité sismique qui présente la probabilité de défaillance d'une structure en fonction d'une intensité sismique, est un outil performant pour l'évaluation de la vulnérabilité sismique des structures en génie nucléaire et génie civil. On se concentre dans cette thèse sur l'approche par simulations numériques pour la construction des courbes de fragilité sismique. Une étude comparative des méthodes paramétriques existantes avec l'hypothèse log-normale est d'abord réalisée. Elle permet ensuite de proposer des améliorations de la méthode du maximum de vraisemblance dans le but d'atténuer l'influence de l'excitation sismique lors de son processus de construction. Une autre amélioration est l'application de la méthode de simulations par subsets pour l'évaluation de la probabilité de défaillance faible. Enfin, en utilisant la méthode de calcul de l'évolution des fonctions de densité de probabilité qui permet d'évaluer la probabilité conjointe entre la réponse structurale et les variables aléatoires du système et de l'excitation, nous proposons également une nouvelle technique non-paramétrique de construction des courbes de fragilité sismique sans utiliser l'hypothèse de la loi log-normale. La validation des améliorations et de la nouvelle technique est réalisée sur des exemples numériques.

Page generated in 0.474 seconds