• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 3
  • 2
  • Tagged with
  • 10
  • 10
  • 9
  • 8
  • 6
  • 5
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Analyse bayésienne de la gerbe d'éclats provoquée pa l'explosion d'une bombe à fragmentation naturelle / Bayesian analysis of the sheaf of fragments caused by the explosion of a natural fragmentation bomb

Gayrard, Emeline 14 November 2019 (has links)
Durant cette thèse, une méthode d'analyse statistique sur la gerbe d'éclats d’une bombe, en particulier sur leurs masses, a été mise au point. Nous avions à disposition trois échantillons partiels de données expérimentales et un modèle mécanique simulant l'explosion d'un anneau. Dans un premier temps, un modèle statistique a été créé à partir du modèle mécanique fourni, pour générer des données pouvant être similaires à celles d'une expérience. Après cela, la distribution des masses a pu être étudiée. Les méthodes d'analyse classiques ne donnant pas de résultats suffisamment précis, une nouvelle méthode a été mise au point. Elle consiste à représenter la masse par une variable aléatoire construite à partir d'une base de polynômes chaos. Cette méthode donne de bons résultats mais ne permet pas de prendre en compte le lien entre les éclats d'une même charge. Il a donc été décidé ensuite de modéliser la masse par un processus stochastique, et non par une variable aléatoire. La portée des éclats, qui dépend en partie de la masse, a elle aussi été modélisée par un processus. Pour finir, une analyse de sensibilité a été effectuée sur cette portée avec les indices de Sobol. Ces derniers s'appliquant aux variables aléatoires, nous les avons adaptés aux processus stochastiques de manière à prendre en compte les liens entre les éclats. Dans la suite, les résultats de cette dernière analyse pourront être améliorés. Notamment, grâce à des indices présentés en dernière partie qui seraient adaptés aux variables dépendantes, et permettraient l'utilisation de processus stochastiques à accroissements non indépendants. / During this thesis, a method of statistical analysis on sheaf of bomb fragments, in particular on their masses, has been developed. Three samples of incomplete experimental data and a mechanical model which simulate the explosion of a ring were availables. First, a statistical model based on the mechanical model has been designed, to generate data similar to those of an experience. Then, the distribution of the masses has been studied. The classical methods of analysis being not accurate enough, a new method has been developed. It consists in representing the mass by a random variable built from a basis of chaos polynomials. This method gives good results however it doesn't allow to take into account the link between slivers. Therefore, we decided to model the masses by a stochastic process, and not a random variable. The range of fragments, which depends of the masses, has also been modeled by a process. Last, a sensibility analysis has been carried out on this range with Sobol indices. Since these indices are applied to random variables, it was necessary to adapt them to stochastic process in a way that take into account the links between the fragments. In the last part, it is shown how the results of this analysis could be improved. Specifically, the indices presented in the last part are adapted to dependent variables and therefore, they could be suitable to processes with non independent increases.
2

Sur la décomposition ANOVA et l'estimation des indices de Sobol'. Application à un modèle d'écosystème marin / On ANOVA decomposition and Sobol' indices estimation. Application to a marine ecosystem model

Tissot, Jean-yves 16 November 2012 (has links)
Dans les domaines de la modélisation et de la simulation numérique, les simulateurs développés prennent parfois en compte de nombreux paramètres dont l'impact sur les sorties n'est pas toujours bien connu. L'objectif principal de l'analyse de sensibilité est d'aider à mieux comprendre comment les sorties d'un modèle sont sensibles aux variations de ces paramètres. L'approche la mieux adaptée pour appréhender ce problème dans le cas de modèles potentiellement complexes et fortement non linéaires repose sur la décomposition ANOVA et les indices de Sobol'. En particulier, ces derniers permettent de quantifier l'influence de chacun des paramètres sur la réponse du modèle. Dans cette thèse, nous nous intéressons au problème de l'estimation des indices de Sobol'. Dans une première partie, nous réintroduisons de manière rigoureuse des méthodes existantes au regard de l'analyse harmonique discrète sur des groupes cycliques et des tableaux orthogonaux randomisés. Cela nous permet d'étudier les propriétés théoriques de ces méthodes et de les généraliser. Dans un second temps, nous considérons la méthode de Monte Carlo spécifique à l'estimation des indices de Sobol' et nous introduisons une nouvelle approche permettant de l'améliorer. Cette amélioration est construite autour des hypercubes latins et permet de réduire le nombre de simulations nécessaires pour estimer les indices de Sobol' par cette méthode. En parallèle, nous mettons en pratique ces différentes méthodes sur un modèle d'écosystème marin. / In the fields of modelization and numerical simulation, simulators generally depend on several input parameters whose impact on the model outputs are not always well known. The main goal of sensitivity analysis is to better understand how the model outputs are sensisitive to the parameters variations. One of the most competitive method to handle this problem when complex and potentially highly non linear models are considered is based on the ANOVA decomposition and the Sobol' indices. More specifically the latter allow to quantify the impact of each parameters on the model response. In this thesis, we are interested in the issue of the estimation of the Sobol' indices. In the first part, we revisit in a rigorous way existing methods in light of discrete harmonic analysis on cyclic groups and randomized orthogonal arrays. It allows to study theoretical properties of this method and to intriduce generalizations. In a second part, we study the Monte Carlo method for the Sobol' indices and we introduce a new approach to reduce the number of simulations of this method. In parallel with this theoretical work, we apply these methods on a marine ecosystem model.
3

Approche géomatique de la variabilité spatio-temporelle de la contamination microbienne des eaux récréatives

Nzang Essono, Francine January 2016 (has links)
L’objectif général de cette thèse est de caractériser la dynamique des transferts des bactéries fécales à l’aide d’une modélisation spatio-temporelle, à l’échelle du bassin versant (BV) dans une région agricole et à l’échelle événementielle. Ce projet vise à mieux comprendre l'influence des processus hydrologiques, les facteurs environnementaux et temporels impliqués dans l’explication des épisodes de contamination microbienne des eaux récréatives. Premièrement, un modèle bayésien hiérarchique a été développé pour quantifier et cartographier les niveaux de probabilité des eaux à être contaminées par des effluents agricoles, sur la base des données spectrales et des variables géomorphologiques. Par cette méthode, nous avons pu calculer les relations pondérées entre les concentrations d’Escherichia coli et la distribution de l’ensemble des paramètres agro-pédo-climatiques qui régissent sa propagation. Les résultats ont montré que le modèle bayésien développé peut être utilisé en mode prédictif de la contamination microbienne des eaux récréatives. Ce modèle avec un taux de succès de 71 % a mis en évidence le rôle significatif joué par la pluie qui est la cause principale du transport des polluants. Deuxièmement, le modèle bayésien a fait l’objet d'une analyse de sensibilité liée aux paramètres spatiaux, en utilisant les indices de Sobol. Cette démarche a permis (i) la quantification des incertitudes sur les variables pédologiques, d’occupation du sol et de la distance et (2) la propagation de ces incertitudes dans le modèle probabiliste c'est-à-dire le calcul de l’erreur induite dans la sortie par les incertitudes des entrées spatiales. Enfin, une analyse de sensibilité des simulations aux différentes sources d’incertitude a été effectuée pour évaluer la contribution de chaque facteur sur l’incertitude globale en prenant en compte leurs interactions. Il apparaît que sur l’ensemble des scénarios, l’incertitude de la contamination microbienne dépend directement de la variabilité des sols argileux. Les indices de premier ordre de l’analyse de Sobol ont montré que parmi les facteurs les plus susceptibles d’influer la contamination microbienne, la superficie des zones agricoles est le premier facteur important dans l'évaluation du taux de coliformes. C’est donc sur ce paramètre que l’attention devra se porter dans le contexte de prévision d'une contamination microbienne. Ensuite, la deuxième variable la plus importante est la zone urbaine avec des parts de sensibilité d’environ 30 %. Par ailleurs, les estimations des indices totaux sont meilleures que celles des indices de premier ordre, ce qui signifie que l’impact des interactions paramétriques est nettement significatif pour la modélisation de la contamination microbienne Enfin, troisièmement, nous proposons de mettre en œuvre une modélisation de la variabilité temporelle de la contamination microbiologique du bassin versant du lac Massawippi, à partir du modèle AVSWAT. Il s'agit d'une modélisation couplant les composantes temporelles et spatiales qui caractérisent la dynamique des coliformes. La synthèse des principaux résultats démontrent que les concentrations de coliformes dans différents sous-bassins versants se révèlent influencées par l’intensité de pluie. La recherche a également permis de conclure que les meilleures performances en calage sont obtenues au niveau de l'optimisation multi-objective. Les résultats de ces travaux ouvrent des perspectives encourageantes sur le plan opérationnel en fournissant une compréhension globale de la dynamique de la contamination microbienne des eaux de surface. / Abstract : The aim of this study was to predict water faecal contamination from a bayesian probabilistic model, on a watershed scale in a farming area and on a factual scale. This project aims to better understand the influence of hydrological, environmental and temporal factors involved in the explanation of microbial contamination episodes of recreational waters. First, a bayesian probabilistic model: Weight of Evidence was developed to identify and map the probability of water levels to be contaminated by agricultural effluents, on the basis of spectrals data and geomorphologic variables. By this method, we were able to calculate weighted relationships between concentrations of Escherichia coli and distribution of key agronomic, pedologic and climatic parameters that influence the spread of these microorganisms. The results showed that the Bayesian model that was developed can be used as a prediction of microbial contamination of recreational waters. This model, with a success rate of 71%, highlighted the significant role played by the rain, which is the main cause of pollution transport. Secondly, the Bayesian probabilistic model has been the subject of a sensitivity analysis related to spatial parameters, using Sobol indications. This allowed (1) quantification of uncertainties on soil variables, land use and distance and (2) the spread of these uncertainties in the probabilistic model that is to say, the calculation of induced error in the output by the uncertainties of spatial inputs. Lastly, simulation sensitivity analysis to the various sources of uncertainty was performed to assess the contribution of each factor on the overall uncertainty taking into account their interactions. It appears that of all the scenarios, the uncertainty of the microbial contamination is directly dependent on the variability of clay soils. Sobol prime indications analysis showed that among the most likely to influence the microbial factors, the area of farmland is the first important factor in assessing the coliforms. Importance must be given on this parameter in the context of preparation for microbial contamination. Then, the second most important variable is the urban area with sensitivity shares of approximately 30%. Furthermore, estimates of the total indications are better than those of the first order, which means that the impact of parametric interaction is clearly significant for the modeling of microbial contamination. Thirdly, we propose to implement a temporal variability model of microbiological contamination on the watershed of Lake Massawippi, based on the AVSWAT model. This is a model that couples the temporal and spatial components that characterize the dynamics of coliforms. The synthesis of the main results shows that concentrations of Escherichia coli in different sub-watersheds are influenced by rain intensity. Research also concluded that best performance is obtained by multi-objective optimization. The results of these studies show the prospective of operationally providing a comprehensive understanding of the dynamics of microbial contamination of surface water.
4

Échantillonnages Monte Carlo et quasi-Monte Carlo pour l'estimation des indices de Sobol' : application à un modèle transport-urbanisme / Monte Carlo and quasi-Monte Carlo sampling methods for the estimation of Sobol' indices : application to a LUTI model

Gilquin, Laurent 17 October 2016 (has links)
Le développement et l'utilisation de modèles intégrés transport-urbanisme sont devenus une norme pour représenter les interactions entre l'usage des sols et le transport de biens et d'individus sur un territoire. Ces modèles sont souvent utilisés comme outils d'aide à la décision pour des politiques de planification urbaine.Les modèles transport-urbanisme, et plus généralement les modèles mathématiques, sont pour la majorité conçus à partir de codes numériques complexes. Ces codes impliquent très souvent des paramètres dont l'incertitude est peu connue et peut potentiellement avoir un impact important sur les variables de sortie du modèle.Les méthodes d'analyse de sensibilité globales sont des outils performants permettant d'étudier l'influence des paramètres d'un modèle sur ses sorties. En particulier, les méthodes basées sur le calcul des indices de sensibilité de Sobol' fournissent la possibilité de quantifier l'influence de chaque paramètre mais également d'identifier l'existence d'interactions entre ces paramètres.Dans cette thèse, nous privilégions la méthode dite à base de plans d'expériences répliqués encore appelée méthode répliquée. Cette méthode a l'avantage de ne requérir qu'un nombre relativement faible d'évaluations du modèle pour calculer les indices de Sobol' d'ordre un et deux.Cette thèse se focalise sur des extensions de la méthode répliquée pour faire face à des contraintes issues de notre application sur le modèle transport-urbanisme Tranus, comme la présence de corrélation entre paramètres et la prise en compte de sorties multivariées.Nos travaux proposent également une approche récursive pour l'estimation séquentielle des indices de Sobol'. L'approche récursive repose à la fois sur la construction itérative d'hypercubes latins et de tableaux orthogonaux stratifiés et sur la définition d'un nouveau critère d'arrêt. Cette approche offre une meilleure précision sur l'estimation des indices tout en permettant de recycler des premiers jeux d'évaluations du modèle. Nous proposons aussi de combiner une telle approche avec un échantillonnage quasi-Monte Carlo.Nous présentons également une application de nos contributions pour le calage du modèle de transport-urbanisme Tranus. / Land Use and Transportation Integrated (LUTI) models have become a norm for representing the interactions between land use and the transportation of goods and people in a territory. These models are mainly used to evaluate alternative planning scenarios, simulating their impact on land cover and travel demand.LUTI models and other mathematical models used in various fields are most of the time based on complex computer codes. These codes often involve poorly-known inputs whose uncertainty can have significant effects on the model outputs.Global sensitivity analysis methods are useful tools to study the influence of the model inputs on its outputs. Among the large number of available approaches, the variance based method introduced by Sobol' allows to calculate sensitivity indices called Sobol' indices. These indices quantify the influence of each model input on the outputs and can detect existing interactions between inputs.In this framework, we favor a particular method based on replicated designs of experiments called replication method. This method appears to be the most suitable for our application and is advantageous as it requires a relatively small number of model evaluations to estimate first-order or second-order Sobol' indices.This thesis focuses on extensions of the replication method to face constraints arising in our application on the LUTI model Tranus, such as the presence of dependency among the model inputs, as far as multivariate outputs.Aside from that, we propose a recursive approach to sequentially estimate Sobol' indices. The recursive approach is based on the iterative construction of stratified designs, latin hypercubes and orthogonal arrays, and on the definition of a new stopping criterion. With this approach, more accurate Sobol' estimates are obtained while recycling previous sets of model evaluations. We also propose to combine such an approach with quasi-Monte Carlo sampling.An application of our contributions on the LUTI model Tranus is presented.
5

Influence de la non-stationnarité du milieu de propagation sur le processus de Retournement Temporel (RT) / Impact of uncertainties in Electromagnetic Time Reversal process

Jannet, Basile 29 January 2014 (has links)
Cette thèse a pour objectif la quantification de l’impact d’incertitudes affectant le processus de Retournement Temporel (RT). Ces aléas, de natures diverses, peuvent avoir une forte influence s’ils se produisent entre les deux étapes du RT. Dans cette optique la méthode de Collocation Stochastique (CS) est utilisée. Les très bons résultats en termes d’efficacité et de précision observés lors de précédentes études en Compatibilité ÉlectroMagnétique (CEM) se confirment ici, pour des problématiques de RT. Cependant, lorsque la dimension du problème à traiter augmente (nombre de variables aléatoires important), la méthode de CS atteint ses limites en termes d’efficacité. Une étude a donc été menée sur les méthodes d’Analyse de Sensibilité (AS) qui permettent de déterminer les parts d’influence respectives des entrées d’un modèle. Parmi les différentes techniques quantitatives et qualitatives, la méthode de Morris et un calcul des indices de Sobol totaux ont été retenus. Ces derniers apportent des résultats qualitatifs à moindre frais, car seule une séparation des variables prépondérantes est recherchée. C’est pourquoi une méthodologie combinant des techniques d’AS avec la méthode de CS a été développée. En réduisant le modèle aux seules variables prédominantes grâce à une première étude faisant intervenir les méthodes d’AS, la CS peut ensuite retrouver toute son efficacité avec une grande précision. Ce processus global a été validé face à la méthode de Monte Carlo sur différentes problématiques mettant en jeu le RT soumis à des aléas de natures variées. / The aim of this thesis is to measure and quantify the impacts of uncertainties in the Time Reversal (TR) process. These random variations, coming from diverse sources, can have a huge influence if they happen between the TR steps. On this perspective, the Stochastique Collocation (SC) method is used. Very good results in terms of effectiveness and accuracy had been noticed in previous studies in ElectroMagnetic Compatibility (EMC). The conclusions are still excellent here on TR problems. Although, when the problem dimension rises (high number of Random Variables (RV)), the SC method reaches its limits and the efficiency decreases. Therefore a study on Sensitivity Analysis (SA) techniques has been carried out. Indeed, these methods emphasize the respective influences of the random variables of a model. Among the various quantitative or qualitative SA techniques the Morris method and the Sobol total sensivity indices have been adopted. Since only a split of the inputs (point out of the predominant RV) is expected, they bring results at a lesser cost. That is why a novel method is built, combining SA techniques and the SC method. In a first step, the model is reduced with SA techniques. Then, the shortened model in which only the prevailing inputs remain, allows the SC method to show once again its efficiency with a high accuracy. This global process has been validated facing Monte Carlo results on several analytical and numerical TR cases subjet to random variations.
6

Modélisation hydraulique à surface libre haute-résolution : utilisation de données topographiques haute-résolution pour la caractérisation du risque inondation en milieux urbains et industriels / High-resolution modelling with bi-dimensional shallow water equations based codes : high-resolution topographic data use for flood hazard assessment over urban and industrial environments

Abily, Morgan 11 December 2015 (has links)
Pour l'évaluation du risque inondation, l’emploi de modèles numériques 2D d’hydraulique à surface libre reposant sur la résolution des équations de Saint-Venant est courant. Ces modèles nécessitent entre autre la description de la topographie de la zone d’étude. Sur des secteurs urbains denses ou des sites industriels, cette topographie complexe peut être appréhendée de plus en plus finement via des technologies dédiées telles que le LiDAR et la photogrammétrie. Les Modèles Numériques d'Elévation Haute Résolution (HR MNE) générés à partir de ces technologies, deviennent employés dans les études d’évaluation du risque inondation. Cette thèse étudie les possibilités, les avantages et les limites, liées à l'intégration des données topographiques HR en modélisation 2D du risque inondation en milieux urbains et industriels. Des modélisations HR de scénarios d'inondation d'origines pluviale ou fluviale sont testés en utilisant des HR MNE crées à partir de données LiDAR et photo-interprétées. Des codes de calculs (Mike 21, Mike 21 FM, TELEMAC-2D, FullSWOF_2D) offrant des moyens différent d'intégration de la donnée HR et basés sur des méthodes numériques variées sont utilisés. La valeur ajoutée de l'intégration des éléments fins du sur-sol impactant les écoulements est démontrée. Des outils pour appréhender les incertitudes liées à l'emploi de ces données HR sont développés et une analyse globale de sensibilité est effectuée. Les cartes d'indices de sensibilité (Sobol) produites soulignent et quantifient l'importance des choix du modélisateur dans la variance des résultats des modèles d'inondation HR ainsi que la variabilité spatiale de l'impact des paramètres incertains testés. / High Resolution (infra-metric) topographic data, including LiDAR photo-interpreted datasets, are becoming commonly available at large range of spatial extent, such as municipality or industrial site scale. These datasets are promising for High-Resolution (HR) Digital Elevation Model (DEM) generation, allowing inclusion of fine aboveground structures that influence overland flow hydrodynamic in urban environment. DEMs are one key input data in Hydroinformatics to perform free surface hydraulic modelling using standard 2D Shallow Water Equations (SWEs) based numerical codes. Nonetheless, several categories of technical and numerical challenges arise from this type of data use with standard 2D SWEs numerical codes. Objective of this thesis is to tackle possibilities, advantages and limits of High-Resolution (HR) topographic data use within standard categories of 2D hydraulic numerical modelling tools for flood hazard assessment purpose. Concepts of HR topographic data and 2D SWE based numerical modelling are recalled. HR modelling is performed for : (i) intense runoff and (ii) river flood event using LiDAR and photo-interpreted datasets. Tests to encompass HR surface elevation data in standard modelling tools ranges from industrial site scale to a megacity district scale (Nice, France). Several standard 2D SWEs based codes are tested (Mike 21, Mike 21 FM, TELEMAC-2D, FullSWOF_2D). Tools and methods for assessing uncertainties aspects with 2D SWE based models are developed to perform a spatial Global Sensitivity Analysis related to HR topographic data use. Results show the importance of modeller choices regarding ways to integrate the HR topographic information in models.
7

Analyse de structures à dimension stochastique élevée : application aux toitures bois sous sollicitation sismique

Riahi, Hassen 08 April 2013 (has links) (PDF)
Le problème de la dimension stochastique élevée est récurrent dans les analyses probabilistes des structures. Il correspond à l'augmentation exponentielle du nombre d'évaluations du modèle mécanique lorsque le nombre de paramètres incertains est élevé. Afin de pallier cette difficulté, nous avons proposé dans cette thèse, une approche à deux étapes. La première consiste à déterminer la dimension stochastique efficace, en se basant sur une hiérarchisation des paramètres incertains en utilisant les méthodes de criblage. Une fois les paramètres prépondérants sur la variabilité de la réponse du modèle identifiés, ils sont modélisés par des variables aléatoires et le reste des paramètres est fixé à leurs valeurs moyennes respectives, dans le calcul stochastique proprement dit. Cette tâche fut la deuxième étape de l'approche proposée, dans laquelle la méthode de décomposition de la dimension est utilisée pour caractériser l'aléa de la réponse du modèle, par l'estimation des moments statistiques et la construction de la densité de probabilité. Cette approche permet d'économiser jusqu'à 90% du temps de calcul demandé par les méthodes de calcul stochastique classiques. Elle est ensuite utilisée dans l'évaluation de l'intégrité d'une toiture à ossature bois d'une habitation individuelle installée sur un site d'aléa sismique fort. Dans ce contexte, l'analyse du comportement de la structure est basée sur un modèle éléments finis, dans lequel les assemblages en bois sont modélisés par une loi anisotrope avec hystérésis et l'action sismique est représentée par huit accélérogrammes naturels fournis par le BRGM. Ces accélérogrammes permettent de représenter différents types de sols selon en se référant à la classification de l'Eurocode 8. La défaillance de la toiture est définie par l'atteinte de l'endommagement, enregistré dans les assemblages situés sur les éléments de contreventement et les éléments d'anti-flambement, d'un niveau critique fixé à l'aide des résultats des essais. Des analyses déterministes du modèle éléments finis ont montré que la toiture résiste à l'aléa sismique de la ville du Moule en Guadeloupe. Les analyses probabilistes ont montré que parmi les 134 variables aléatoires représentant l'aléa dans le comportement non linéaire des assemblages, 15 seulement contribuent effectivement à la variabilité de la réponse mécanique ce qui a permis de réduire la dimension stochastique dans le calcul des moments statistiques. En s'appuyant sur les estimations de la moyenne et de l'écart-type on a montré que la variabilité de l'endommagement dans les assemblages situés dans les éléments de contreventement est plus importante que celle de l'endommagement sur les assemblages situés sur les éléments d'anti-flambement. De plus, elle est plus significative pour les signaux les plus nocifs sur la structure.
8

Sur la décomposition ANOVA et l'estimation des indices de Sobol'. Application à un modèle d'écosystème marin

Tissot, Jean-Yves 16 November 2012 (has links) (PDF)
Dans les domaines de la modélisation et de la simulation numérique, les simulateurs développés prennent parfois en compte de nombreux paramètres dont l'impact sur les sorties n'est pas toujours bien connu. L'objectif principal de l'analyse de sensibilité est d'aider à mieux comprendre comment les sorties d'un modèle sont sensibles aux variations de ces paramètres. L'approche la mieux adaptée pour appréhender ce problème dans le cas de modèles potentiellement complexes et fortement non linéaires repose sur la décomposition ANOVA et les indices de Sobol'. En particulier, ces derniers permettent de quantifier l'influence de chacun des paramètres sur la réponse du modèle. Dans cette thèse, nous nous intéressons au problème de l'estimation des indices de Sobol'. Dans une première partie, nous réintroduisons de manière rigoureuse des méthodes existantes au regard de l'analyse harmonique discrète sur des groupes cycliques et des tableaux orthogonaux randomisés. Cela nous permet d'étudier les propriétés théoriques de ces méthodes et de les généraliser. Dans un second temps, nous considérons la méthode de Monte Carlo spécifique à l'estimation des indices de Sobol' et nous introduisons une nouvelle approche permettant de l'améliorer. Cette amélioration est construite autour des hypercubes latins et permet de réduire le nombre de simulations nécessaires pour estimer les indices de Sobol' par cette méthode. En parallèle, nous mettons en pratique ces différentes méthodes sur un modèle d'écosystème marin.
9

Analyse de structures à dimension stochastique élevée : application aux toitures bois sous sollicitation sismique / Analysis of structures with high stochastic dimension : application to wooden roofs under seismic loading

Riahi, Hassen 08 April 2013 (has links)
Le problème de la dimension stochastique élevée est récurrent dans les analyses probabilistes des structures. Il correspond à l’augmentation exponentielle du nombre d’évaluations du modèle mécanique lorsque le nombre de paramètres incertains est élevé. Afin de pallier cette difficulté, nous avons proposé dans cette thèse, une approche à deux étapes. La première consiste à déterminer la dimension stochastique efficace, en se basant sur une hiérarchisation des paramètres incertains en utilisant les méthodes de criblage. Une fois les paramètres prépondérants sur la variabilité de la réponse du modèle identifiés, ils sont modélisés par des variables aléatoires et le reste des paramètres est fixé à leurs valeurs moyennes respectives, dans le calcul stochastique proprement dit. Cette tâche fut la deuxième étape de l’approche proposée, dans laquelle la méthode de décomposition de la dimension est utilisée pour caractériser l’aléa de la réponse du modèle, par l’estimation des moments statistiques et la construction de la densité de probabilité. Cette approche permet d’économiser jusqu’à 90% du temps de calcul demandé par les méthodes de calcul stochastique classiques. Elle est ensuite utilisée dans l’évaluation de l’intégrité d’une toiture à ossature bois d’une habitation individuelle installée sur un site d’aléa sismique fort. Dans ce contexte, l’analyse du comportement de la structure est basée sur un modèle éléments finis, dans lequel les assemblages en bois sont modélisés par une loi anisotrope avec hystérésis et l’action sismique est représentée par huit accélérogrammes naturels fournis par le BRGM. Ces accélérogrammes permettent de représenter différents types de sols selon en se référant à la classification de l’Eurocode 8. La défaillance de la toiture est définie par l’atteinte de l’endommagement, enregistré dans les assemblages situés sur les éléments de contreventement et les éléments d’anti-flambement, d’un niveau critique fixé à l’aide des résultats des essais. Des analyses déterministes du modèle éléments finis ont montré que la toiture résiste à l’aléa sismique de la ville du Moule en Guadeloupe. Les analyses probabilistes ont montré que parmi les 134 variables aléatoires représentant l’aléa dans le comportement non linéaire des assemblages, 15 seulement contribuent effectivement à la variabilité de la réponse mécanique ce qui a permis de réduire la dimension stochastique dans le calcul des moments statistiques. En s’appuyant sur les estimations de la moyenne et de l’écart-type on a montré que la variabilité de l’endommagement dans les assemblages situés dans les éléments de contreventement est plus importante que celle de l’endommagement sur les assemblages situés sur les éléments d’anti-flambement. De plus, elle est plus significative pour les signaux les plus nocifs sur la structure. / The problem of the curse of dimensionality is frequently encountered in practical applications. It can be defined as the significant increase of the number of mechanical model calls with the number of uncertain parameters. To overcome this difficulty, a two-steps stochastic approach has been developed in this work. The first step of this approach consists in calculating the stochastic effective dimension by the means of Morris screening method. Once the most significant uncertain parameters on the variability of the mechanical responses are identified, they are modeled as random variables and the remaining parameters are fixed to their respective mean values. This allows us to reduce significantly the stochastic dimension of the problem in the second step of the approach where the decomposition method is used to estimate the statistical characteristics of the mechanical responses. The efficiency and the accuracy of this approach are evaluated through an academic problem dealing with the assessment of the integrity of a three-span five-story frame structure subjected to horizontal loads. We have demonstrate that we can reduce about 90% of the computation time required by the classical stochastic methods. Then, the proposed approach is used to the analysis of the integrity of timber roofs under seismic loading. The behaviour of this structure is described through a finite element model where the timber joints are modeled by anisotropic hysteresis law, and the seismic action is represented by eight real earthquake ground motion records. These accelerograms provided by the French institution involved in geosciences BRGM allow us to take into account different soil types according to the classification provided by the europeen design code dealing with seismic events Eurocode 8. The failure of timber roofs is reached when the damage levels in the timbers joints localized on the buckling and bracing members reach the critical value. It is shown, through a deterministic analysis, that the structure resists the seismic hazard representing the city of Le Moule in Guadeloupe. The stochastic analysis has shown that, among the 134 random variables representing the uncertainty in the nonlinear behaviour of the timber joints, only 15 have a significant effect on the variability of the structural response, which allow us to reduce the stochastic dimension in the computation of the statistical moments. According to the estimates of the mean and the standard deviation, we have shown that the variability of bracing members damage is greater than the variability of buckling members damage. Moreover, the variability of the bracing members damage is more significant for the earthquake ground motion records having the lowest collapse PGA.
10

Problèmes inverses pour l'environnement : outils, méthodes et applications

Nodet, Maëlle 28 November 2013 (has links) (PDF)
On proposera un tour d'horizon de quelques problèmes et méthodes inverses pour l'environnement (météo, océano, glacio).

Page generated in 0.4401 seconds