Spelling suggestions: "subject:"probabilistic""
151 |
Exploration des liens formels entre les méthodes statistiques et neuronales en classificationGueye, Ndiouga January 2019 (has links) (PDF)
No description available.
|
152 |
Réseau bayésien dynamique hybride : application à la modélisation de la fiabilité de systèmes à espaces d'états discrets / hybrid dynamic bayesian network : application to reliability modeling of discrete state spaces systemsPetiet, Florence 01 July 2019 (has links)
L'analyse de fiabilité fait partie intégrante de la conception et du fonctionnement du système, en particulier pour les systèmes exécutant des applications critiques. Des travaux récents ont montré l'intérêt d'utiliser les réseaux bayésiens dans le domaine de la fiabilité, pour modélisation la dégradation d'un système. Les modèles graphiques de durée sont un cas particulier des réseaux bayésiens, qui permettent de s'affranchir de la propriété markovienne des réseaux bayésiens dynamiques. Ils s'adaptent aux systèmes dont le temps de séjour dans chaque état n'est pas nécessairement distribué exponentiellement, comme c'est le cas dans la plupart des applications industrielles. Des travaux antérieurs ont toutefois montré des limitations à ces modèles en terme de capacité de stockage et de temps de calcul, en raison du caractère discret de la variable temps de séjour. Une solution pourrait consister à considérer une variable de durée continue. Selon les avis d'experts, les variables de temps de séjour suivent une distribution de Weibull dans de nombreux systèmes. L'objectif de la thèse est d'intégrer des variables de temps de séjour suivant une distribution de Weibull dans un modèle de durée graphique en proposant une nouvelle approche. Après une présentation des réseaux bayésiens, et plus particulièrement des modèles graphiques de durée et leur limitation, ce rapport s'attache à présenter le nouveau modèle permettant la modélisation du processus de dégradation. Ce nouveau modèle est appelé modèle graphique de durée hybride Weibull. Un algorithme original permettant l'inférence dans un tel réseau a été mis en place. L'étape suivante a été la validation de l'approche. Ne disposant pas de données, il a été nécessaire de simuler des séquences d'états du système. Différentes bases de données ainsi construites ont permis d'apprendre d'un part un modèle graphique de durée, et d'autre part un modèle graphique de durée hybride-Weibull, afin de les comparer, que ce soit en terme de qualité d’apprentissage, de qualité d’inférence, de temps de calcul, et de capacité de stockage / Reliability analysis is an integral part of system design and operation, especially for systems running critical applications. Recent works have shown the interest of using Bayesian Networks in the field of reliability, for modeling the degradation of a system. The Graphical Duration Models are a specific case of Bayesian Networks, which make it possible to overcome the Markovian property of dynamic Bayesian Networks. They adapt to systems whose sojourn-time in each state is not necessarily exponentially distributed, which is the case for most industrial applications. Previous works, however, have shown limitations in these models in terms of storage capacity and computing time, due to the discrete nature of the sojourn time variable. A solution might be to allow the sojourn time variable to be continuous. According to expert opinion, sojourn time variables follow a Weibull distribution in many systems. The goal of this thesis is to integrate sojour time variables following a Weibull distribution in a Graphical Duration Model by proposing a new approach. After a presentation of the Bayesian networks, and more particularly graphical duration models, and their limitations, this report focus on presenting the new model allowing the modeling of the degradation process. This new model is called Weibull Hybrid Graphical Duration Model. An original algorithm allowing inference in such a network has been deployed. Various so built databases allowed to learn on one hand a Graphical Duration Model, and on an other hand a Graphical Duration Model Hybrid - Weibull, in order to compare them, in term of learning quality, of inference quality, of compute time, and of storage space
|
153 |
Méthode de simulation appropriée aux systèmes complexes : preuve de concept auto-adaptative et auto-apprenante appliquée aux transferts thermiques / Suitable method for complex systems simulation : self-adaptive and self-learning proof-of-concept applied to coupled heat transferSpiesser, Christophe 20 June 2017 (has links)
L’augmentation de la puissance informatique disponible permet aux ingénieurs et designers d’aborder par simulation des problèmes de plus en plus complexes (multi-physiques, multi-échelles, géométries intriquées ...). Dans ce contexte, les quadratures à base de discrétisation (FDM, FEM, FVM) montrent leur limite : le besoin d’un grand nombre de sous-domaines qui implique des coûts RAM et CPU prohibitifs. La méthode de Monte-Carlo apparaît plus appropriée, mais son utilisation est verrouillée par la difficulté de générer des modèles probabilistes de systèmes complexes. Pour surpasser ceci, une approche systémique est proposée et implémentée pour créer une preuve de concept appliquée à la simulation des transferts thermiques couplés. Après une étape de validation vis-à-vis de solutions analytiques, l’outil est employé; sur des cas d’illustration (transferts thermiques au sein de bâtiments et dans une centrale solaire) pour étudier ses capacités. L’approche mise en œuvre présente un comportement particulièrement avantageux pour la simulation de systèmes complexes : son temps de calcul ne dépend que des parties influentes du problème. De plus, elles sont automatiquement identifiées, même en présence de géométries étendues ou intriquées, ce qui rend les simulations auto-adaptatives. Par ailleurs, ses performances de calcul ne sont pas corrélées avec le rapport d’échelle caractérisant le système simulé. Ceci en fait une approche douée d’une remarquable capacité à traiter les problèmes à la fois multi-physiques et multi-échelles. En parallèle de l’estimation d’une observable par des chemins d’exploration, l’outil analyse également ces derniers de manière statistique. Ceci lui permet de générer un modèle prédictif réduit de l’observable, procurant ainsi une capacité d’auto-apprentissage à la simulation. Son utilisation peut améliorer les processus d’optimisation et de contrôle-commande, ou simplifier les mesures par méthodes inverses. De plus, elle a aussi permis de mener une analyse par propagation d’incertitudes, affectant les conditions aux frontières, vers l’observable. Enfin, une démonstration d’optimisation, utilisant des modèles réduits générés, a été réalisée. / As computing power increases, engineers and designers tackle increasingly complex problems using simulation (multiphysics, multiscale, intricated geometries ...). In this context, discretization-based quadratures (FDM, FEM, FVM) show their limit: the need of a great number of sub-domains which induces prohibitive consumption of RAM and CPU power. The Monte Carlo method appears to be more appropriate, but the difficulty to build probabilistic models of complex systems forms a bottleneck. A systemic approach is proposed to alleviate it and is implemented to create a proof-of-concept dedicated to the coupled heat transfer simulation. After a successful validation step against analytical solutions, this tool is applied to illustrative cases (emulating heat transfer in buildings and in solar heating systems) in order to study its simulation capabilities.This approach presents a major beneficial behavior for complex systems simulation: the computation time only depends on the influential parts of the problem. These parts are automatically identified, even in intricate or extensive geometries, which makes the simulation self-adaptive. In addition, the computational performance and the system scale ratio are completely uncorrelated. Consequently, this approach shows an exceptional capacity to tackle multiphysics and multiscale problems. Each temperature is estimated using exploration paths. By statistically analyzing these paths during the process, the tool is able to generate a reduced predictive model of this physical quantity, which is bringing a self-learning capacity to the simulation. Its use can significantly improve optimization and control of processes, or simplify inverse measurements. Furthermore, based on this model, an uncertainty propagation analysis has been performed. It quantifies the effect of uncertainties affecting boundary conditions on the temperature. Finally a Particle Swarm Optimization (PSO) process, based on simulations done by the framework, is successfully carried out.
|
154 |
Contrôle en temps réel de la précision du suivi indirect de tumeurs mobiles en radiothérapieRemy, Charlotte 08 1900 (has links)
Le but de la radiothérapie est d’irradier les cellules cancéreuses tout en préservant au maximum les tissus sains environnants. Or, dans le cas du cancer du poumon, la respiration du patient engendre des mouvements de la tumeur pendant le traitement. Une solution possible est de repositionner continuellement le faisceau d’irradiation sur la cible tumorale en mouvement. L’e cacité et la sûreté de cette approche reposent sur la localisation précise en temps réel de la tumeur. Le suivi indirect consiste à inférer la position de la cible tumorale à partir de l’observation d’un signal substitut, visible en continu sans nécessiter de rayonnement ionisant. Un modèle de corrélation spatial doit donc être établi. Par ailleurs, pour compenser la latence du système, l’algorithme de suivi doit pouvoir également anticiper la position future de la cible. Parce que la respiration du patient varie dans le temps, les modèles de prédiction et de corrélation peuvent devenir imprécis. La prédiction de la position de la tumeur devrait alors idéalement être complétée par l’estimation des incertitudes associées aux prédictions. Dans la pratique clinique actuelle, ces incertitudes de positionnement en temps réel ne sont pas explicitement prédites.
Cette thèse de doctorat s’intéresse au contrôle en temps réel de la précision du suivi indirect de tumeurs mobiles en radiothérapie. Dans un premier temps, une méthode bayésienne pour le suivi indirect en radiothérapie est développée. Cette approche, basée sur le filtre de Kalman, permet de prédire non seulement la position future de la tumeur à partir d’un signal substitut, mais aussi les incertitudes associées. Ce travail o re une première preuve de concept, et montre également le potentiel du foie comme substitut interne, qui apparait plus robuste et fiable que les marqueurs externes communément utilisés dans la pratique clinique. Dans un deuxième temps, une adaptation de la méthode est proposée afin d’améliorer sa robustesse face aux changements de respiration. Cette innovation permet de prédire des régions de confiance adaptatives, capables de détecter les erreurs de prédiction élevées, en se basant exclusivement sur l’observation du signal substitut. Les résultats révèlent qu’à sensibilité élevée (90%), une spécificité d’environ 50% est obtenue. Un processus de validation innovant basé sur ces régions de confiance adaptatives est ensuite évalué et comparé au processus conventionnel qui consiste en des mesures de la cible à intervalles de temps fixes et prédéterminés. Une version adaptative de la méthode bayésienne est donc développée afin d’intégrer des mesures occasionnelles de la position de la cible. Les résultats confirment que les incertitudes prédites par la méthode bayésienne permettent de détecter les erreurs de prédictions élevées, et démontrent que le processus de validation basé sur ces incertitudes a le potentiel d’être plus e cace que les validations régulières. Ces approches bayésiennes sont validées sur des séquences respiratoires de volontaires, acquises par imagerie par résonance magnétique (IRM) dynamique et interpolées à haute fréquence. Afin de compléter l’évaluation de la méthode bayésienne pour le suivi indirect, une validation expérimentale préliminaire est conduite sur des données cliniques de patients atteints de cancer du poumon. Les travaux de ce projet doctoral promettent une amélioration du contrôle en temps réel de la précision des prédictions lors des traitements de radiothérapie. Finalement, puisque l’imagerie ultrasonore pourrait être employée pour visualiser les substituts internes, une étude préliminaire sur l’évaluation automatique de la qualité des images ultrasonores est présentée. Ces résultats pourront être utilisés ultérieurement pour le suivi indirect en radiothérapie en vue d’optimiser les acquisitions ultrasonores pendant les traitements et faciliter l’extraction automatique du mouvement du substitut. / The goal of radiotherapy is to irradiate cancer cells while maintaining a low dose of radiation to the surrounding healthy tissue. In the case of lung cancer, the patient’s breathing causes the tumor to move during treatment. One possible solution is to continuously reposition the irradiation beam on the moving target. The e ectiveness and safety of this approach rely on accurate real-time localization of the tumor. Indirect strategies derive the target positions from a correlation model with a surrogate signal, which is continuously monitored without the need for radiation-based imaging. In addition, to compensate for system latency, the tracking algorithm must also be able to anticipate the future position of the target. Because the patient’s breathing varies over time, prediction and correlation models can become inaccurate. Ideally, the prediction of the tumor location would also include an estimation of the uncertainty associated with the prediction. However, in current clinical practice, these real-time positioning uncertainties are not explicitly predicted.
This doctoral thesis focuses on real-time control of the accuracy of indirect tracking of mobile tumors in radiotherapy. First, a Bayesian method is developed. This approach, based on Kalman filter theory, allows predicting both future target motion in real-time from a surrogate signal and associated uncertainty. This work o ers a first proof of concept, and also shows the potential of the liver as an internal substitute as it appears more robust and reliable than the external markers commonly used in clinical practice. Second, an adaptation of the method is proposed to improve its robustness against changes in breathing. This innovation enables the prediction of adaptive confidence regions that can be used to detect significant prediction errors, based exclusively on the observation of the surrogate signal. The results show that at high sensitivity (90%), a specificity of about 50% is obtained. A new validation process based on these adaptive confidence regions is then evaluated and compared to the conventional validation process (i.e., target measurements at fixed and predetermined time intervals). An adaptive version of the Bayesian method is therefore developed to valuably incorporate occasional measurements of the target position. The results confirm that the uncertainties predicted by the Bayesian method can detect high prediction errors, and demonstrate that the validation process based on these uncertainties has the potential to be more e cient and e ective than regular validations. For these studies, the proposed Bayesian methods are validated on respiratory sequences of volunteers, acquired by dynamic MRI and interpolated at high frequency. In order to complete the evaluation of the Bayesian method for indirect tracking, experimental validation is conducted on clinical data of patients with lung cancer. The work of this doctoral project promises to improve the real-time control of the accuracy of predictions during radiotherapy treatments. Finally, since ultrasound imaging could be used to visualize internal surrogates, a preliminary study on automatic ultrasound image quality assessment is presented. These results can later be used for indirect tracking in radiotherapy to optimize ultrasound acquisitions during treatments and facilitate the automatic estimation of surrogate motion.
|
155 |
Méta-modèles adaptatifs pour l'analyse de fiabilité et l'optimisation sous contrainte fiabiliste / Adaptive surrogate models for reliability analysis and reliability-based design optimizationDubourg, Vincent 05 December 2011 (has links)
Cette thèse est une contribution à la résolution du problème d’optimisation sous contrainte de fiabilité. Cette méthode de dimensionnement probabiliste vise à prendre en compte les incertitudes inhérentes au système à concevoir, en vue de proposer des solutions optimales et sûres. Le niveau de sûreté est quantifié par une probabilité de défaillance. Le problème d’optimisation consiste alors à s’assurer que cette probabilité reste inférieure à un seuil fixé par les donneurs d’ordres. La résolution de ce problème nécessite un grand nombre d’appels à la fonction d’état-limite caractérisant le problème de fiabilité sous-jacent. Ainsi,cette méthodologie devient complexe à appliquer dès lors que le dimensionnement s’appuie sur un modèle numérique coûteux à évaluer (e.g. un modèle aux éléments finis). Dans ce contexte, ce manuscrit propose une stratégie basée sur la substitution adaptative de la fonction d’état-limite par un méta-modèle par Krigeage. On s’est particulièrement employé à quantifier, réduire et finalement éliminer l’erreur commise par l’utilisation de ce méta-modèle en lieu et place du modèle original. La méthodologie proposée est appliquée au dimensionnement des coques géométriquement imparfaites soumises au flambement. / This thesis is a contribution to the resolution of the reliability-based design optimization problem. This probabilistic design approach is aimed at considering the uncertainty attached to the system of interest in order to provide optimal and safe solutions. The safety level is quantified in the form of a probability of failure. Then, the optimization problem consists in ensuring that this failure probability remains less than a threshold specified by the stakeholders. The resolution of this problem requires a high number of calls to the limit-state design function underlying the reliability analysis. Hence it becomes cumbersome when the limit-state function involves an expensive-to-evaluate numerical model (e.g. a finite element model). In this context, this manuscript proposes a surrogate-based strategy where the limit-state function is progressively replaced by a Kriging meta-model. A special interest has been given to quantifying, reducing and eventually eliminating the error introduced by the use of this meta-model instead of the original model. The proposed methodology is applied to the design of geometrically imperfect shells prone to buckling.
|
156 |
Modèles probabilistes et possibilistes pour la prise en compte de l'incertain dans la sécurité des structuresGao, Yingzhong 02 May 1996 (has links) (PDF)
Cette thèse a pour cadre général l'étude de la sécurité des structures, sous un double aspect - probabiliste et possibiliste - de la modélisation des variabilités et incertitudes des variables de calcul introduites dans les états limites. Après avoir rappelé les expressions classiques de la sécurité des structures (approches semi-probabiliste et probabiliste), l'attention est portée sur la définition de pré-mesures de confiance pour l'évaluation du risque de dépassement d'états limites. Divers concepts relatifs à l'expression et à la modélisation des incertitudes sont rappelés, en accentuant les particularités des mesures de possibilité et leur positionnement vis-à-vis des mesures de probabilité. Les notions essentielles de la théorie probabiliste de la fiabilité sont également rappelées. Une démarche analogue à la théorie probabiliste de la fiabilité est choisie pour développer une nouvelle théorie de la fiabilité. Nommée théorie possibiliste de la fiabilité, elle adopte une démarche possibiliste de la modélisation des variabilités et incertitudes liées aux variables de calcul ; deux définitions importantes sont d'ailleurs données dans cette étude - celle de la possibilité de défaillance et celle de l'indice possibiliste de la fiabilité. Les similitudes théoriques entre les deux théories de la fiabilité sont nombreuses et une comparaison entre les approches est présentée, en illustrant d'exemples numériques. Les formulations théoriques sont données pour des états limites linéaires et non linéaires, n'introduisant que des variables distinctes et non liées modélisées par des intervalles flous. Les développements théoriques mettent en évidence des simplifications de calcul remarquables, puisque la détermination de l'indice possibiliste de fiabilité et de la possibilité de défaillance se limite à la recherche d'un minimum scalaire. Ceci est réalisé grâce à la règle des signes, dont le principe est détaillé et illustré. Un exemple concret concernant le calcul de la durée de vie en fatigue d'assemblages soudés, est enfin proposé pour illustrer la démarche possibiliste de la fiabilité. Un soin particulier a été apporté à la modélisation des incertitudes, en utilisant le concept de la régression floue.
|
157 |
Susceptibilité du bassin de Barcelonnette (Alpes du Sud, France) aux 'mouvements de versant' : cartographie morphodynamique, analyse spatiale et modélisation probabilisteThiery, Yannick 17 December 2007 (has links) (PDF)
Des méthodologies d'analyse spatiale probabiliste fondées sur les SIG ont été développées pour cartographier la susceptibilité et l'aléa aux ‘mouvements de versant' à méso-échelle (1/50 000ème-1/25 000ème), mais peu ou pas à l'échelle du 1/10 000ème, échelle de la cartographie réglementaire des risques. En France, le zonage des PPR est basé sur une approche ‘expert' jugée assez subjective en raison des erreurs d'appréciation de l'expert. Ainsi, cette recherche a pour objectif de tester la validité de méthodes d'analyse spatiale et de modélisations probabilistes à cette échelle du 1/10 000ème. La démarche repose, en complément d'un zonage de type ‘expert', sur la sélection de trois méthodes d'analyse spatiale par SIG fondées sur les Logiques floues, la Théorie de l'évidence et les Régressions logistiques. Ces trois méthodes étant sensibles aux variables à introduire (variables à modéliser et variables prédictives), la procédure comporte trois étapes : acquisition des variables à partir d'une cartographie morphodynamique, choix des variables par une analyse de sensibilité, comparaison des résultats pour déterminer la méthode la plus adaptée. Une néo-variable prédictive ayant un sens ‘géomorphologique' et combinant plusieurs variables augmente la performance de chaque approche. Les meilleurs résultats acquis dans le bassin de Barcelonnette sont transposés sur un site secondaire pour tester leur validité. Un passage vers l'aléa est tenté par des modèles numériques à base physique. Cette thèse montre qu'il est possible d'obtenir des résultats performants à condition d'avoir une procédure de calage rigoureuse et d'introduire une vision experte dans le processus de calcul.
|
158 |
Développement d’un modèle de classification probabiliste pour la cartographie du couvert nival dans les bassins versants d’Hydro-Québec à l’aide de données de micro-ondes passivesTeasdale, Mylène 09 1900 (has links)
Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes.
Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée. / Every day, decisions must be made about the amount of hydroelectricity produced in Quebec. These decisions are based on the prediction of water inflow in watersheds based on hydrological models. These models take into account several factors, including the presence or absence of snow. This information is critical during the spring melt to anticipate future flows, since between 30 and 40 % of the flood volume may come from the melting of the snow cover. It is therefore necessary for forecasters to be able to monitor on a daily basis the snow cover to adjust their expectations about the melting phenomenon. Some methods to map snow on the ground are currently used at the Institut de recherche d'Hydro-Québec (IREQ), but they have some shortcomings.
This master thesis's main goal is to use remote sensing passive microwave data (the vertically polarized brightness temperature gradient ratio (GTV)) with a statistical approach to produce snow maps and to quantify the classification uncertainty. In order to do this, the GTV has been used to calculate a daily probability of snow via a Gaussian mixture model using Bayesian statistics. Subsequently, these probabilities were modeled using linear regression models on logits and snow cover maps were produced. The models results were validated qualitatively and quantitatively, and their integration at Hydro-Québec was discussed.
|
159 |
Reconnaissance de comportements de navires dans une zone portuaire sensible par approches probabiliste et événementielle : application au Grand Port Maritime de Marseille / Ship behavior recognition in a sensitive port area using probabilistic and event-driven approaches : application to the Port of MarseillesZouaoui-Elloumi, Salma 23 July 2012 (has links)
Cette thèse s'est déroulée dans le cadre du projet SECMAR qui visait à sécuriser le Grand Port Maritime de Marseille. Notre objectif était d'aider les personnels du port à identifier les comportements menaçant des navires afin de pouvoir agir efficacement en cas de danger réel. A ce titre, nous avons développé un système d'analyse et de reconnaissance de comportements de navires formé de deux sous-modules complémentaires. Le premier est construit à partir de l'approche probabiliste Modèle de Markov Cachée et traite principalement des comportements nominaux des gros bateaux qui se caractérisent par un déplacement régulier et récurrent dans le port. Le second est construit à partir du langage réactif synchrone Esterel et prend en compte les comportements agressifs et transgressifs de tous types de navires, notamment ceux des petits bateaux qui circulent librement et aléatoirement dans le port. Le système global d'aide à la décision a permis une bonne reconnaissance en temps-réel des différents comportements de navires au cours de leurs évolutions dans le port. Au regard des résultats prometteurs que nous avons obtenu à travers ce module, il est envisageable de le généraliser à d'autres ports mondiaux ainsi qu'à d'autres domaines d'application, notamment le domaine aéroportuaire. / The overall aim of this thesis was to create a decision support system that identifies discrepancies in ship behavior. The thesis was a part of the SECMAR project that aimed to improve security at the Marseilles harbor by the creation of decision support system for port staff. For this purpose, we developed a recognition behavior system consisting of two complementary sub-systems.The first system was based on the probabilistic Hidden Markov model approach and deals with nominal behavior of large to medium size commercial ships showing regular and recurrent behavior. The second system was based on the reactive synchronous language Esterel and concerns aggressive and transgressive behavior of small ships that may navigate freely in the harbor. Real-time evaluations showed that the proposed decision support system efficiently captured and evaluated ship behaviors. The promising results of the system and its diversity in origin makes it suitable for applications in other harbors as well as other environment such as airports.
|
160 |
Influence de la fissuration sur le transfert de fluides dans les structures en béton : stratégies de modélisation probabiliste et étude expérimentale / Fluid transfers in cracking concrete structures : numerical probabilistic modeling strategies and experimental investigationsRastiello, Giuseppe 06 May 2013 (has links)
Une structure en béton doit assurer des fonctions structurales qui vont au delà de la simple résistance. Dans ce cadre, la fissuration du béton armé joue un rôle primordial sur la durabilité, l'étanchéité et même la sûreté des structures. La structure poreuse du béton rend naturellement possible la pénétration au cours du temps d'espèces délétères. En outre, sous l'effet des chargements mécaniques et des conditions environnementales au sens large, le béton se fissure. Les fissures constituent, elles aussi, des voies préférentielles pour la pénétration de fluides ou d'agents agressifs et ajoutent de manière significative leur contribution à la dégradation des performances structurelles. Dans la thèse une stratégie de modélisation macroscopique probabiliste du couplage entre fissuration et transferts de fluides dans les structures en béton est présentée. Le béton est modélisé comme un milieu poreux saturé d'eau tandis que la fissuration (mécanique) est modélisée au travers d'une approche numérique probabiliste tenant compte de l'hétérogénéité naturelle du matériau et des effets d'échelle qu'elle induit. L'hypothèse physique de base du modèle de fissuration est que chaque élément fini peut être considéré comme représentatif d'un volume de matière hétérogène dont le comportement est géré par son degré d'hétérogénéité, défini comme le rapport entre le volume élémentaire et un volume représentatif de l'hétérogénéité du matériau. Dans la formulation développée, les propriétés mécaniques du matériau sont considérées comme des variables aléatoires (non corrélés) distribuées dans les éléments du maillage selon des distributions statistiques validées expérimentalement. Une approche par analyse inverse permet d'accéder aux paramètres de fonctions de distribution qui, selon les hypothèses du modèle, varient en fonction de la dimension des éléments finis. Le couplage fissuration-transfert est traité de manière faible, sous l'hypothèse d'absence d'interaction entre les deux processus (à savoir que la fissuration de l'élément fini, d'origine mécanique, induit une variation locale de sa perméabilité). L'utilisation d'une loi de Poiseuille modifiée et adaptée expérimentalement selon un protocole développé dans le cadre de la thèse permet de mettre en relation une telle variation avec l'ouverture de fissure et de prendre en compte, de manière macroscopique, les principales causes d'écart entre l'écoulement idéalisé, représenté par la loi de Pouiselle, et l'écoulement dans des fissures réelles. Une approche de type Monte-Carlo permet de valider les résultats des simulations mécaniques et hydriques. Les capacités de la stratégie de modélisation proposée en termes de prédiction des débits d'eau en milieu fissuré sont explorées au travers de la simulation d'essais de perméabilité sous charge sur des éprouvettes cylindriques soumises à du fendage. Ces essais sont utilisés dans le cadre du protocole expérimentale. Une première validation à l'échelle d'un élément structurel multifissuré est presentée. Elle consiste en la simulation d'un essai (récemment proposé dans la littérature) developpé pour l'étude de l'impact de la fissuration sur les propriétés de transfert de tirants en béton armé / Concrete durability is strongly affected by the flow of fluids, gas and pollutants in its porous matrix. The presence of cracks weakens the resistance of concrete porous matrix and constitutes preferential flow paths for aggressive components. In the thesis, a probabilistic numerical modeling strategy for modeling fluids transfers in cracked concrete structures is presented. The concrete is modeled in the framework of water saturated porous media. Its (mechanical) cracking is modeled by means of a macroscopic probabilistic approach, explicitly taking into account material heterogeneity as well as size effects. The main assumption of the model, developed in the frame of the the Finite Element Method, is to consider a finite element volume as a volume of heterogeneous material and to assume that physical mechanisms influencing the cracking processes remain the same whatever the scale of observation. At the scale of the finite element, mechanical properties are then functions of its own volume. To describe the heterogeneity of the material, these mechanical properties are consider as uncorrelated random variables distributed over the finite element mesh. Characteristics of statistical distribution laws are directly depending on the degree of heterogeneity of the finite element (the ratio between its volume and the volume of the coarsest aggregate) and of the quality of the cement paste. An inverse analysis approach allows to find their parameters as functions of the elementary volume. A weak coupling between cracking and fluid transfers is considered, under the assumption of no interaction between the two processes (i.e. the mechanically produced cracking of a finite element induce a local variation of its permeability tensor). An experimentally adapted Pouiseuille law, based on an original experimental protocol, allows to relate this permeability variation to the crack aperture and to macroscopically take into account the influence of crack roughness, aperture variation and tortuosity. A Monte-Carlo like approach is used in order to statistically validate mechanical and hydraulic simulations. The coupling strategy is validated in two phases, both at the scale of a laboratory specimen and at the scale of a multi-cracked structural element
|
Page generated in 0.0913 seconds