Spelling suggestions: "subject:"laméthode dde montecarlo"" "subject:"laméthode dde contestarlo""
1 |
Modélisation multi-échelle de la déformation d’alliage de zirconium sous irradiation / Multiscale modeling of the deformation of zirconium alloy under irradiationChristiaen, Benjamin 04 May 2018 (has links)
Les alliages de zirconium sont utilisés pour fabriquer des gaines de combustible ainsi que des assemblages combustibles des réacteurs nucléaires à eau sous pression. Sous irradiation, ils montrent un changement dimensionnel communément appelé croissance. Des observations expérimentales ont montré qu'au-dessus d'une dose seuil, ces alliages sont sujets à une croissance accélérée appelée "breakaway". Il a été bien établi que la formation sous irradiation de boucles de dislocation ‹a› et ‹c› est directement responsables de la croissance des alliages de zirconium sous irradiation et que l’apparition des boucles ‹c› est corrélée avec cette accélération de croissance. Cependant, les mécanismes de germination des boucles qui semblent influencés par la présence d’éléments d’alliage sont encore mal compris. Afin d'améliorer notre compréhension des mécanismes élémentaires, une approche multi-échelle a été utilisée pour simuler l'évolution de la microstructure du zirconium sous irradiation. Des calculs à l’échelle atomique basés sur la théorie de la fonctionnelle de la densité (DFT) et sur des potentiels empiriques sont utilisés dans un premier temps pour déterminer les propriétés des amas de défauts ponctuels (boucles de dislocation, cavités, pyramides de fautes d’empilement). Les résultats obtenus sont ensuite insérés en tant que paramètres d'entrée dans un code Monte Carlo cinétique d'objet (OKMC) qui nous permet de simuler l’évolution de la microstructure du matériau sous irradiation, et donc de prédire la croissance. Nos résultats montrent qu’il est nécessaire de considérer une migration anisotrope de la lacune pour prédire l’accélération de croissance. / Zirconium alloys are used to manufacture fuel cladding as well as fuel assemblies of pressurized water nuclear reactors. Under irradiation, they show a dimensional change commonly called growth. Experimental observations have shown that above a threshold dose, these alloys are subject to accelerated growth called "breakaway". It has been well established that the irradiation formation of <a> and <c> dislocation loops is directly responsible for the growth of irradiated zirconium alloys and that the appearance of <c> loops is correlated with this growth acceleration. However, the nucleation mechanisms of the loops that seem to be influenced by the presence of alloying elements are still poorly understood. In order to improve our understanding, a multi-scale modelling approach has been used to simulate the evolution of zirconium microstructure under irradiation. Atomic-scale calculations based on the density functional theory (DFT) and empirical potentials are used to determine the properties of clusters of point defects (dislocation loops, cavities, pyramids of stacking faults). The results obtained are then used as input parameters of an object kinetic Monte Carlo (OKMC) code which allows us to simulate the microstructure evolution of the material under irradiation. Our results show that it is necessary to consider an anisotropic migration of the vacancies to predict the growth acceleration.
|
2 |
Towards the prediction of microstructure evolution under irradiation of model ferritic alloys with an hybrid AKMC-OKMC approach / Vers la prédiction de l’évolution de la microstructure sous irradiation d’alliages ferritiques modèles par une approche hybride AKMC-OKMCPannier, Baptiste 27 June 2017 (has links)
Ce travail de thèse consistait en premier lieu à accélérer un modèle de Monte Carlo Cinétique Atomique visant à simuler l’évolution de la microstructure d’alliages modèles du type FeCuMnNiSiP représentatifs de l’acier de cuve sous irradiation neutronique. Cette accélération était nécessaire pour atteindre des doses ainsi que des flux comparables à l’expérience en des temps raisonnables. Pour cela, une accélération algorithmique du code de calcul LAKIMOCA a d’abord été réalisée. Les diverses optimisations apportées ont permis d’accélérer le code d’un facteur 7. Cette accélération ne s’avérant pas suffisante, l’approche retenue a été le développement d’une approche hybride entre une approche Monte Carlo atomique et Monte Carlo d’objets. La paramétrisation du modèle objet a permis de mieux comprendre les macro évènements en jeux dans les simulations, mais s’est révélée être d’une grande difficulté lorsque la complexité chimique des objets devient trop importante. Néanmoins, l’approche hybride a apporté une accélération des temps de calcul d’environ deux ordres de grandeur permettant de simuler des doses correspondant à 40 ans d’irradiation en production. De ces résultats, différentes limitations du modèle ainsi que de sa paramétrisation ont été mises en évidence. La difficulté du modèle à reproduire des effets de flux a été comblée par l’ajout d’un absorbeur visant à réduire la force de puits des joints de grains ainsi que par l’ajout de pièges pour rendre compte de la présence d’impureté dans le fer pur. Les simulations à hautes doses dans les alliages du type FeCuMnNiSiP ont aussi mis en évidence des différences entre les microstructures simulées et celles observées expérimentalement. Ainsi, dans un second temps, un nouveau modèle de cohésion basée sur des interactions de paires dépendantes de la concentration locale a été développé et paramétré. Bien que le nouveau modèle de cohésion soit numériquement plus lourd, il a été possible d’atteindre la dose ciblée en le couplant à l’approche hybride. Les résultats obtenus sont en meilleur en accord avec les calculs DFT récents ainsi qu’avec les microstructures expérimentales. / This PhD thesis work consisted, in the first place, in accelerating an atomic kinetic Monte Carlo model aiming at simulating the microstructure evolution of the FeCuMnNiP model alloys, representative of the reactor pressure vessel steels, under irradiation. This acceleration was required to reach, in a reasonable amount of time, doses and flux conditions comparable to the experimental ones. To do so, an algorithmic optimization has first been performed. The different optimizations introduced lead to an acceleration of the code of a 7 factor. Since this acceleration was not sufficient, the retained approach was to develop an hybrid between an AKMC and an OKMC. The parameterization of the object model provided a better understanding of the macro events involved in the simulations. It turns out that parameterize the model became too complex when increasing the chemical complexity of the objects. However, the hybrid approach brings an acceleration of two orders of magnitude allowing reaching doses corresponding to 40 years of irradiation in service condition. From these results, different limitations of the model as well as the parameterization were highlighted. The difficulty of the model to reproduce flux effect has been solved by adding an absorber that reduced the grain boundary sink strength. Traps have also been introduced to simulate the presence of impurities in pure iron. The high doses simulations in FeCuMnNiSiP model alloys also highlighted differences between the microstructures simulated and those observed experimentally. Thus, in a second time, a new cohesive model based on concentration dependent pair interactions has been developed and parameterized. While the new cohesive model is numerically heavier than the previous one, it has been possible to reach the target dose by coupling it with the hybrid model. The results obtained are in better agreement with recent DFT calculations and experimental microstructures.
|
3 |
On building a Python-based Monte Carlo light simulation package for biophotonics : with focus on complex 3-dimensional arbitrary geometries and hardware accelerationVigneault, Marc-André 23 September 2024 (has links)
L'essor du Python comme language scientifique et la popularité grandissante du calcul GPGPU constitue un environnement fertile pour le développement de PyTissueOptics, un simulateur de propagation de la lumière dans les tissus, qui est un module entièrement programmé en Python, qui se concentre sur la mise en œuvre simple et compréhensible des mécanismes de propagation de la lumière, afin de catalyser la démocratisation de cette technique. Dans ce mémoire, nous explorons la théorie derrière le modèle de Monte Carlo, visitons les aspects techniques de la réalisation du projet, expliquons les différentes possibilités d'utilisation et comparons avec des modules connus, tel que MCML et MCX. / The rise of Python as a scientific language and the growing popularity of GPGPU computing creates a fertile environment for the development of PyTissueOptics, a light propagation simulator in tissues, which is a module entirely programmed in Python. It focuses on the simple and comprehensible implementation of light propagation mechanisms, aiming to catalyze the democratization of this technique. In this thesis, we explore the theory behind the Monte Carlo model, examine the technical aspects of the project's realization, explain the various usage possibilities, and compare it with known modules, such as MCML and MCX.
|
4 |
Automatisation du recalcul de dose Monte Carlo pour une étude rétrospective en curiethérapie à bas débit de dose de la prostateOuellet, Samuel 26 March 2024 (has links)
Thèse ou mémoire avec insertion d'articles / La méthode clinique pour le calcul de dose lors des traitements de curiethérapie considère le patient comme un volume d'eau infini (formalisme TG43). Cette approximation s'avère incorrecte, en particulier pour les photons de faible énergie présents en curiethérapie par implant permanent de la prostate. Des études ont montré que des différences allant jusqu'à 25-30% sur les indices dosimétriques cliniques sont observées dans les cas de calcifications de la prostate lorsque l'anatomie du patient est prise en compte dans une simulation Monte Carlo (MC) (formalisme TG186). Compte tenu des différences constatées entre les dosimétries TG43 et TG186 pour la curiethérapie par implant permanent de la prostate, l'objectif de ce travail est de recalculer rétrospectivement les distributions de dose à partir du formalisme TG186 pour tous les patients ayant reçu un traitement au CHU de Québec. Pour ce faire, un pipeline automatisé de recalcul de dose basé sur les bonnes pratiques de gestion des données est construit, validé et appliqué sur une cohorte de 960 patients. Une base de données de 960 patients a été construite et les cas de calcifications ont été identifiés. Un pipeline automatisé a été conçu pour recalculer les distributions de doses par simulations MC propres à l'anatomie du patient (TG186). Le pipeline extrait et reproduit automatiquement le context du traitment, contenu dans les données cliniques, dans la simulation de Monte Carlo. Le pipeline de recalcul a été validé en reproduisant les calculs du TG43 et en évaluant la cohérence des simulations MC TG186 effectuées avec deux codes MC différents. Appliquées à l'ensemble de la cohorte de patients, les distributions MC produites ont pu reproduire les résultats observés dans des études antérieures, tel qu'une diminution de 2,57 % sur le D90 de la prostate pour chaque % du volume de prostate calcifiée. L'ensemble des données de dose MC produites constitue donc une ressource clé pour les futures études dosimétriques qui viseraient à corréler la dose précise délivrée au patient à l'efficacité du traitement de curiethérapie. / The current clinical method used to calculate the dose during brachytherapy treatments considers the patient as an infinite water volume (TG43 formalism). This approximation is mostly accurate when using high-energy photons. That is not the case for low-energy photons used in permanent implant prostate brachytherapy. Studies have shown that differences of up to 25-30% on clinical metrics can be observed in cases with prostate calcifications when taking into account the patient anatomy with Monte Carlo (MC) simulations (TG186 formalism). Considering the differences found between TG43 and TG186 dosimetry for permanent implant prostate brachytherapy, the objective of this work was to retrospectively recalculate the dose distributions using the TG186 formalism for all patients having received permanent implant prostate brachytherapy at CHU de Québec. To do so, an automated dose recalculation pipeline based on the best data management practices is built, validated, and applied to a 960-patient cohort. A curated database of 960 patients was built with calcification cases identified. An automated pipeline has been built to recalculate patient-specific dose distributions (TG186). The pipeline extracts and reproduces the treatment context within a MC simulation. The recalculation pipeline was validated by reproducing the TG43 calculations using MC simulation in the same conditions and the consistency of the patient-specific MC simulations was evaluated between simulations made with two different MC codes. When applied to the entire patient cohort, the produced MC distributions could reproduce the results seen in previous studies, such as a diminution of 2.57% on the D90 of the prostate for each % of the prostate volume being calcifications. The produced MC dose dataset constitutes a key resource for future dosimetric studies that would aim to correlate the accurate delivered dose to the patient to the efficiency of the brachytherapy treatment.
|
5 |
Tests d'adéquation en séries chronologiquesSouktani, Lamya January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
6 |
Modélisation numérique de l’évolution nanostructurale d’aciers ferritiques sous irradiation / Computer simulation of the nanostructural evolution under irradiation in ferritic alloysChiapetto, Monica 27 September 2017 (has links)
Dans ce travail nous avons développé des modèles de Monte Carlo cinétique d’objets (OKMC) qui ont permis de prédire l'évolution nano-structurelle des amas de lacunes et des auto-interstitiels sous irradiation neutronique, à la température de fonctionnement des réacteurs de génération II dans les alliages Fe-C-MnNi (alliages modèles pour les aciers de cuve) et Fe-Cr-C (matériaux envisagés pour les réacteurs de génération IV). Un véritable acier de cuve venant du programme de surveillance de la centrale nucléaire suédoise de Ringhals a aussi été modélisé. Pour ce faire nous avons développé deux modèles OKMC fondés sur les données les plus actuelles concernant la mobilité et la stabilité des amas de défauts. Les effets des solutés d'intérêt ont été introduits dans nos modèles dans l’hypothèse simplifiée ‘‘d’alliage gris’’, c'est-à-dire que les solutés ne sont pas explicitement introduits dans le modèle, qui ne peut donc pas décrire leur redistribution, mais leur effet est introduit dans les paramètres liés à la mobilité des amas de défauts. A l’aide de cette approche nous avons modélisé diverses conditions de température et de débit de dose ainsi que des études de recuits isochrones d’alliages Fe-C-MnNi. L'origine du durcissement par irradiation neutronique à basse température a également été étudiée et les modèles ont fortement soutenu l'hypothèse selon laquelle les solutés ségrégent sur des boucles interstitielles immobiles, qui agissent donc comme des sites de nucléation hétérogène pour la formation d’amas enrichis en NiSiPCr et MnNi. A chaque fois nos modèles ont été validés par comparaison des résultats obtenus avec les observations expérimentales disponibles dans la littérature. / We developed object kinetic Monte Carlo (OKMC) models that proved able to predict the nanostructure evolution under neutron irradiation in both RPV and F/M steels. These were modelled, respectively, in terms of Fe-C-MnNi and Fe-C-Cr alloys, but the model was also validated against data obtained on a real RPV steel coming from the surveillance programme of the Ringhals Swedish nuclear power plant. The effects of the substitutional solutes of interest were introduced in our OKMC model under the simplifying assumptions of ‘‘grey alloy’’ scheme, i.e. they were not explicitly introduced in the model, which therefore cannot describe their redistribution under irradiation, but their effect was translated into modified parameters for the mobility of defect clusters. The possible origin of low temperature radiation hardening (and subsequent embrittlement) was also investigated and the models strongly supported the hypothesis that solute clusters segregate on immobile interstitial loops, which act therefore as heterogeneous nucleation sites for the formation of the NiSiPCr- and MnNi-enriched cluster populations experimentally, as observed with atom probe tomography in, respectively, F/M and RPV steels. In other words, the so-called matrix damage would be intimately associated with solute atom clusters and precipitates which increase their stability and reduce their mobility: their ultimate effect is reflected in an alteration of the macroscopic mechanical properties of the investigated alloys. Throughout all our work the obtained results have been systematically validated on existing experimental data, in a process of continuous improvement of the physical hypotheses adopted.
|
7 |
Extension et validation de bGPUMCD, un algorithme de calcul de dose Monte Carlo pour la curiethérapie implémenté sur processeur graphiqueJoachim-Paquet, Charles 02 February 2024 (has links)
Le présent mémoire présente les récents travaux de développement d'un algorithme de calcul de dose monte carlo en brachythérapie implémenté sur GPU (bGPUMCD, GPU Monte Carlo Dose for brachytherapy) ainsi que la validation des résultats et de la performance de celui-ci en vue d'une utilisation clinique future pour les cas de curiethérapie HDR et d'une utilisation académique permettant de remplacer l'utilisation de codes Monte Carlo plus lents dans le domaine académique. Les cas de test définis par le Groupe de travail sur les algorithmes de calcul de dose en curiethérapie (WG-DCAB, Working Group on Dose Calculation Algorithms in Brachytherapy)[1] et quatre cas de patients cliniques représentant des sites de traitement représentatifs sont utilisés pour explorer la précision, la vitesse et les limites de l'algorithme dans une multitude de contextes. bGPUMCD est comparé aux résultats de calcul de dose provenant de plusieurs codes Monte Carlo tel que MCNP6 et ALGEBRA[2]. Les résultats obtenus par bGPUMCD sont dans les limites d'incertitudes requises par les recommandations du Rapport du Groupe de Travail No.186 de l'AAPM (TG-186, Report on the Task Group No.43)[3]. Une simulation en situation de Rapport du Groupe de Travail No.43 de l'AAPM (TG-43, Report on the Task Group No.43)[4] a été effectuée pour trois modèles de source et les fonctions 𝑔𝐿(𝑟) et 𝐹 (𝑟, 𝜃) obtenues correspondent avec une erreur de 2 % aux valeurs de référence à l'exception des grands angles. Nous démontrons aussi que bGPUMCD est capable de simuler une dose cliniquement équivalente à un code Monte Carlo de référence en une fraction du temps ; en fonction des différents paramètres pouvant modifier le temps de calcul, bGPUMCD permet d'obtenir un résultat équivalent à la dose de référence avec un temps de calcul se trouvant entre quelques secondes à quelques minutes par rapport à plusieurs heures pour ALGEBRA.
|
8 |
Comparaison d'approches d'ajustement pour les facteurs confondants dans le cadre d'études observationnelles à l'aide de données administrativesBenasseur, Imane 27 January 2024 (has links)
Les méthodes du score de propension (PS) sont populaires pour estimer l’effet d’une exposition sur une issue à l’aide de données observationnelles. Cependant, leur mise en place pour l’analyse de données administratives soulève des questions concernant la sélection des covariables confondantes et le risque de covariables confondantes non mesurées. Notre objectif principal consiste à comparer différentes approches d’ajustement pour les covariables confondantes pou réliminer les biais dans le cadre d’études observationnelles basées sur des données administratives. Quatre méthodes de sélection de covariables seront comparées à partir de simulations, à savoir le score de propension à hautes dimensions (hdPS), le score de propension à hautes dimensions modifié (hdPS_0), le LASSO adapté pour l’issue (OAL) et l’estimation ciblée collaborative et évolutive par maximum de vraisemblance (SC-TMLE). Pour hdPS, hdPS_0et OAL, quatre approches d’ajustement sont considérées : 1) la pondération par l’inverse de probabilité de traitement (IPTW), 2) l’appariement, 3) l’appariement pondéré et 4) l’ajustement pour le score de propension. Des simulations avec 1000 observations et 100 covariables potentiellement confondantes ont été réalisées. Les résultats indiquent que la performance des méthodes d’ajustement varie d’un scénario à l’autre, mais l’IPTW, a réussi globalement à réduire le plus le biais et l’erreur quadratique moyenne parmi toutes les méthodes d’ajustement. De surcroît, aucune des méthodes de sélection de covariables ne semble vraiment arriver à corriger le biais attribuable aux covariables confondantes non mesurées. Enfin, la robustesse de l’algorithme hdPS peut être beaucoup améliorée, en éliminant l’étape 2 (hdPS_0). / Propensity score methods (PS) are common for estimating the effect of an exposure on an outcome using observational data. However, when analyzing administrative data, the applicationof PS methods raises questions regarding how to select confounders, and how to adjust forunmeasured ones. Our objective is to compare different methods for confounding adjustmentin the context of observational studies based on administrative data. Four methods for selecting confounders were compared using simulation studies: High-dimensional propensity score(hdPS), modified hdPS (hdPS_0), Outcome-adaptive Lasso (OAL) and Scalable collaborativetargeted maximum likelihood (SC-TMLE). For hdPS, hdPS_0 and OAL, four PS adjustmentapproaches were considered : 1) inverse probability of treatment weighting (IPTW), 2) matching, 3) matching weights and 4) covariate adjustment in the outcome model. Simulations basedon synthetically generated data with 1000 observations and 100 potential confounders havebeen realized. The results indicate that the performance of the adjustment methods variesfrom one scenario to another, but the IPTW, has globally succeeded in reducing the bias andthe mean square error. Moreover, no method for selecting confounders, seem to be able toadjust for unmeasured confounders. Finally, the robustness of the hdPS algorithm can begreatly improved, by eliminating step 2 (hdPS_0).
|
9 |
Schéma stepped wedge : modélisation et analyse de donnéesMessaoudi, Ghizlane 27 January 2024 (has links)
Ce mémoire a pour objectif principal de présenter des méthodes pour analyser les données provenant d'un essai clinique stepped wedge. On introduit des méthodes qui traitent les données individuelles ainsi que les données agrégées. Chaque méthode est illustrée avec des données provenant d'un essai clinique qui porte sur l'implantation d'un programme de formation à la prise de décision partagée dans une équipe interprofessionnelle. L'objectif secondaire de ce mémoire est d'évaluer la performance des tests de comparaison des deux traitements étudiés dans un stepped wedge à l'aide des méthodes de Monte Carlo. À cette n, des simulations ont été réalisées sous le logiciel R. Les résultats indiquent qu'il n'y a pas une méthode qui est supérieure à l'autre. Le choix de la méthode dépend du contexte de l'étude. / This research paper aims initially to present methods to analyse data from a stepped wedged clinical trial. We introduce methods that process both individual and aggregated data. Each method is exposed using data taken from a clinical trial based on the implementation of shared decision-making training program within an interprofessional team. As its secondary objective, this research paper provides a performance assessment on the comparison tests of two treatments studied within a stepped wedge using the Monte Carlo methods. On this note, simulations were executed using the R software. The results indicate that there is no method that is universally superior to the other. The choice of method depends on the context of the study
|
10 |
Inférence spatio-temporelle en présence de valeurs extrêmesCompaore, Kiswendsida Julien 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 10 octobre 2023) / Ce mémoire étudie les impacts qu'a une mauvaise spécification de la loi du champ aléatoire latent dans un modèle spatio-temporel. Précisement les impacts sur les estimations et l'inférence d'une mauvaise spécification dans un modèle Poisson log-normal spatio-temporel ont été investigués. La mauvaise spécification correspond à la présence de valeurs très extrêmes pour une distribution Poisson log-normale. Un modèle pour tenir compte de ces valeurs extrêmes a été proposé. L'amélioration des estimations avec ce modèle alternatif est mise en évidence par une étude de simulation Monte Carlo. L'ajustement des modèles impliqués dans cette étude fait intervenir des intégrations en grandes dimensions pour évaluer la vraisemblance. Le package R TMB met en oeuvre une solution, en l'occurence l'approximation de Laplace, à ce problème. / This thesis studies the impact of a misspecification of the latent random field distribution in a spatio-temporal model. Specifically, the impact on estimates and inference of misspecification in a space-time log-normal Poisson model has been investigated. The misspecification corresponds to the presence of very extreme values for a log-normal Poisson distribution. A model to account for these extreme values was proposed. The improvement in estimates with this alternative model is demonstrated by a Monte Carlo simulation study. The fitting of the models involved in this study involves high-dimensional integrations to evaluate the likelihood. The R package TMB implements a solution to this problem: the Laplace approximation.
|
Page generated in 0.0738 seconds