Spelling suggestions: "subject:"méthode dde montecarlo"" "subject:"méthode dde contestarlo""
31 |
Probabilistic design of wastewater treatment plantsTalebizadehsardari, Mansour 23 April 2018 (has links)
Dans cette étude, une méthode de conception probabiliste pour la conception d'usines de traitement des eaux usées (STEP) qui permet la quantification du degré de conformité aux normes de rejet en termes de probabilité a été proposée. La méthode de conception développée est une approche basée sur un modèle dans lequel les sources pertinentes d'incertitude sont exprimées en termes de fonctions de distribution de probabilité et leur effet combiné sur la distribution de la qualité de l'effluent sont quantifiés par simulation Monte Carlo. Pour ce faire, une série de conceptions en régime permanent avec différents niveaux de sécurité ont été générés en utilisant des règles de conception et la probabilité correspondante de non-conformité aux normes de rejet ont été calculés en utilisant des simulations dynamiques avec différentes réalisations de séries temporelles d'affluent et différentes valeurs pour les paramètres du modèle de station d'épuration. Pour générer différentes réalisations de séries temporelles d'affluent, un logiciel a été développé pour la génération de séries temporelles d'affluent tenant compte des conditions climatiques locales ainsi que les caractéristiques de base des réseaux d'égout connectés. En outre, différentes réalisations des paramètres du modèle de STEP ont été générés par l'échantillonnage des fonctions de distribution de probabilité et l'effet combiné de la variabilité de l'affluent et l'incertitude du modèle sur la distribution de la qualité des effluents a été calculé en exécutant un certain nombre de simulations Monte Carlo jusqu'à ce que la convergence de la distribution de la qualité des effluents a été atteinte. Une fois la convergence atteinte, la probabilité de non-respect d'une alternative de conception peut être calculée pour un certain niveau de qualité de l'effluent. La méthode de conception probabiliste peut aider les concepteurs à éviter l'application de facteurs de sécurité conservateurs qui pourraient entraîner un dimensionnement trop petit ou trop grand de stations d'épuration. En outre, le calcul de la probabilité de non-conformité comme un critère quantitatif peut aider les concepteurs et les décideurs à prendre une décision informée des risques en vue de la meilleure configuration de traitement, son dimensionnement, ainsi que le fonctionnement de l'usine pour la conception ou la mise à niveau des stations d'épuration. Mots-clés: usine de traitement des eaux usées, de conception dans l'incertitude, de la conception en fonction du risque, analyse de l'incertitude, probabilité de non-conformité. / In this study, a probabilistic design method for the design of wastewater treatment plants (WWTP) that enables the quantification of the degree of compliance to the effluent standards in terms of probability has been proposed. The developed design method is a model-based approach in which relevant sources of uncertainty are expressed in terms of probability distribution functions and their combined effect on the distribution of the effluent quality is quantified by Monte Carlo simulation. To do so, a set of steady-state designs with different levels of safety is first generated using a design guideline and then the corresponding probability of non-compliance (PONC) to the effluent standards is calculated using dynamic simulations under different realizations of influent time series and different values for the WWTP model parameters. To generate different realizations of the influent time series, a software tool was developed for synthetic generation of influent time series data considering the local climate conditions as well as basic characteristics of the connected sewershed. Moreover, different realizations of WWTP model parameters are generated by sampling from the probability distribution functions that are assigned to uncertain model parameters. The combined effect of influent variability and model uncertainty on the effluent distributions is calculated by running a certain number of Monte Carlo simulation runs until convergence of the effluent distribution is achieved. Once convergence is reached for the effluent distribution, the PONC for a design alternative can be calculated for a certain effluent standard. The probabilistic design method can help designers avoid the application of conservative safety factors that could result in over-or under-sizing of WWTPs. Moreover, calculating the probability of non-compliance as a quantitative criterion can help designers and decision makers make risk-informed decisions on the best treatment configuration, sizing, and plant operation during the design or upgrading of WWTPs. Keywords: Wastewater treatment plant, design under uncertainty, risk-informed design, uncertainty analysis, probability of non-compliance.
|
32 |
Cycle économique et modélisation de la structure à terme du spread CDS : implémentation de la simulation de Monte Carlo au modèle dynamique de Nelson-SiegelBaron, Standley-Réginald 05 September 2024 (has links)
Au cours de ces dernières années, le spread du Credit Default Swap (CDS) est devenu l'un des instruments très utilisé pour mesurer le risque de crédit. La modélisation de la courbe de la structure à terme du spread CDS s'avère nécessaire, et elle est d'importance capitale pour la gestion quantitative du risque de crédit. Nous proposons une extension du modèle dynamique de Nelson Siegel, en modélisant les changements des facteurs bêtas par un processus autorégressif avec erreurs hétéroscédastiques tenant compte du cycle économique. Par la technique de Monte Carlo nous simulons, à l'aide d'une copule de Student, les prévisions sur un et quatre trimestres du spread CDS à différentes maturités. Notre modèle suggère que le niveau d'influence du cycle économique sur le spread CDS dépend de la maturité. Son impact sur les spreads à longue échéance est plus significatif que sur les spreads à courte maturité. Notre modèle AR-GARCH performe mieux, quel que soit l'horizon de prévision analysé dans le cadre de ce travail, que le modèle vecteur autorégressif (VAR) et le modèle de marche aléatoire.
|
33 |
Le Bootstrap comme méthode d'estimation du r de Pearson : une étude Monte CarloChabot, Martin 15 November 2021 (has links)
La méthode Bootstrap est proposée comme alternative aux tests statistiques traditionnels. Le Bootstrap est une nouvelle technique permettant d'approximer la distribution d'échantillonage d'un estimateur. Sa validité est ici étudiée afin de démontrer l'intérêt de son utilisation dans des situations fréquemment rencontrées en psychologie. La recherche comprend trois parties, soit: une analyse graphique, une étude de robustesse et une étude de puissance. Des simulations Monte Carlo sur ordinateur sont utilisées afin de mener ces trois analyses. Les résultats démontrent l’utilité du Bootstrap dans de nombreuses situations où certaines certaines caractéristiques des distributions d’échantillonnages s’éloignent du cas gaussien.
|
34 |
Parallélisation des algorithmes de Monte-Carlo multicanoniquesBrunet, Charles 19 April 2018 (has links)
Les méthodes de Monte-Carlo multicanoniques sont des techniques adaptatives de simulation numérique permettant d'estimer des distributions de probabilités complexes, particulièrement lorsque les probabilités recherchées sont extrêmement petites. Ces méthodes sont basées notamment sur les chaînes de Markov. Avec ces méthodes il est possible d'obtenir des résultats de manière beaucoup plus rapide qu'avec d'autres techniques comme le Monte-Carlo. Nous discutons ici de la parallélisation de ces algorithmes, pour en permettre l'utilisation sur un super-ordinateur. De cette manière, il deviendra possible de simuler des systèmes encore plus complexes avec davantage de précision. Dans ce mémoire, nous voyons tout d'abord des notions de base à propos de la programmation parallèle. Puis nous étudions les fondements mathématiques du Monte-Carlo multicanonique. Ensuite, nous déterminons des critères pour en estimer la performance et la précision. Enfin, nous étudions comment on peut le paralléliser afin de l'utiliser sur un super-ordinateur.
|
35 |
Évaluation d'un algorithme de calcul de dose par méthode Monte Carlo pour des faisceaux d'électronsChamberland, Ève 16 April 2018 (has links)
Les méthodes Monte Carlo pour la planification de traitement par faisceaux d'électrons représentent une avancée significative en termes de précision de calcul de dose, comparativement aux algorithmes conventionnels de faisceaux pinceaux. Le système de planification de traitement Eclipse (Varian, Palo Alto, Ca) offre un nouvel algorithme rapide de calcul de dose par méthode Monte Carlo pour des faisceaux d'électrons de hautes énergies. Plusieurs tests ont été effectués afin d'explorer le comportement du système dans plusieurs configurations rencontrées dans les pratiques cliniques. La première série de tests a été effectuée dans un fantôme homogène d'eau. Les distributions de dose mesurées et calculées ont été comparées pour différentes combinaisons d'énergie, d'ap-plicateur et de profondeur. Ensuite, quatre différents fantômes hétérogènes simulant des matériaux de haute et basse densité furent construits afin d'explorer différentes conditions d'hétérogénéités : un petit cylindre d'air, un fantôme de poumon, un fantôme de paroi thoracique et un fantôme anthropomorphique. Enfin, l'évaluation de l'algorithme Monte Carlo s'est terminée avec l'étude rétrospective de deux cas cliniques. Comparativement à l'algorithme de faisceaux pinceaux de Pinnacle, les calculs Monte Carlo prédisent plus précisément les larges perturbations de dose dues aux hétérogénéités.
|
36 |
Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrieSaucier, Marie Annie 04 January 2025 (has links)
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table. / The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.
|
37 |
Étude Monte Carlo des effets de l’orientation des sources et de la présence de calcifications dans la curiethérapie de prostate à bas débit de doseCollins Fekete, Charles-Antoine 20 April 2018 (has links)
La curiethérapie prostatique se fait en implantant des grains radioactifs dans une zone tumorale. À cause des soucis temporaux, la planification considère ces grains comme des sources ponctuelles dans un monde uniforme d’eau. Ce mémoire présente une évaluation de l’impact de deux effets perturbant la dosimétrie, avec des méthodes Monte Carlo, en curiethérapie prostatique. L’orientation des sources, négligée actuellement, risque d’altérer la dosimétrie calculée. Cet impact est évalué sur une cohorte de patients (n=287). Aucun impact n’est calculé sur la prostate et l’urètre mais un impact de -2% est calculé sur la vessie et le rectum. La présence de calcifications dans la zone tumorale est négligée par la planification actuelle. Une cohorte de patients (n=43) possédant des calcifications permet d’évaluer cet impact. Il ressort du calcul MC une différence de -13% sur le D90 du CTV et de -16% sur le D10 de l’urètre, en comparaison avec l’algorithme de planification actuel. / Prostatic brachytherapy is performed by inserting radioactive seeds in a tumoral zone. Because of time constraint, clinical planning considers those seeds as point sources in a water medium. This thesis presents the quantification of the impact of two perturbing effects on the dosimetry, evaluated through a Monte Carlo algorithm, in prostatic brachytherapy. Seeds orientation, actually neglected, may alter the clinical dosimetry. The impact of this effect is evaluated on a cohort (n=287) of patients. No effect is calculated on the prostate or the urethra but a difference of -2%, when compared to the clinical algorithm, is calculated on the OARs. Calcifications are actually neglected in the clinical planning. A cohort of patients (n=43) with visible calcifications is used to measure the effect of this approximation. MC calculations yield a difference of -13% on the CTV D90 and -16% on the urethra D10, when compared to the clinical algorithm.
|
38 |
Comparing inverse probability of treatment weighting methods and optimal nonbipartite matching for estimating the causal effect of a multicategorical treatmentDiop, Serigne Arona 28 March 2024 (has links)
Des débalancements des covariables entre les groupes de traitement sont souvent présents dans les études observationnelles et peuvent biaiser les comparaisons entre les traitements. Ce biais peut notamment être corrigé grâce à des méthodes de pondération ou d’appariement. Ces méthodes de correction ont rarement été comparées dans un contexte de traitement à plusieurs catégories (>2). Nous avons mené une étude de simulation pour comparer une méthode d’appariement optimal non-biparti, la pondération par probabilité inverse de traitement ainsi qu’une pondération modifiée analogue à l’appariement (matching weights). Ces comparaisons ont été effectuées dans le cadre de simulation de type Monte Carlo à travers laquelle une variable d’exposition à 3 groupes a été utilisée. Une étude de simulation utilisant des données réelles (plasmode) a été conduite et dans laquelle la variable de traitement avait 5 catégories. Parmi toutes les méthodes comparées, celle du matching weights apparaît comme étant la plus robuste selon le critère de l’erreur quadratique moyenne. Il en ressort, aussi, que les résultats de la pondération par probabilité inverse de traitement peuvent parfois être améliorés par la troncation. De plus, la performance de la pondération dépend du niveau de chevauchement entre les différents groupes de traitement. La performance de l’appariement optimal nonbiparti est, quant à elle, fortement tributaire de la distance maximale pour qu’une paire soit formée (caliper). Toutefois, le choix du caliper optimal n’est pas facile et demeure une question ouverte. De surcroît, les résultats obtenus avec la simulation plasmode étaient positifs, dans la mesure où une réduction importante du biais a été observée. Toutes les méthodes ont pu réduire significativement le biais de confusion. Avant d’utiliser la pondération de probabilité inverse de traitement, il est recommandé de vérifier la violation de l’hypothèse de positivité ou l’existence de zones de chevauchement entre les différents groupes de traitement
|
39 |
Analyse numérique d'équations aux dérivées aléatoires, applications à l'hydrogéologieCharrier, Julia 12 July 2011 (has links) (PDF)
Ce travail présente quelques résultats concernant des méthodes numériques déterministes et probabilistes pour des équations aux dérivées partielles à coefficients aléatoires, avec des applications à l'hydrogéologie. On s'intéresse tout d'abord à l'équation d'écoulement dans un milieu poreux en régime stationnaire avec un coefficient de perméabilité lognormal homogène, incluant le cas d'une fonction de covariance peu régulière. On établit des estimations aux sens fort et faible de l'erreur commise sur la solution en tronquant le développement de Karhunen-Loève du coefficient. Puis on établit des estimations d'erreurs éléments finis dont on déduit une extension de l'estimation d'erreur existante pour la méthode de collocation stochastique, ainsi qu'une estimation d'erreur pour une méthode de Monte-Carlo multi-niveaux. On s'intéresse enfin au couplage de l'équation d'écoulement considérée précédemment avec une équation d'advection-diffusion, dans le cas d'incertitudes importantes et d'une faible longueur de corrélation. On propose l'analyse numérique d'une méthode numérique pour calculer la vitesse moyenne à laquelle la zone contaminée par un polluant s'étend. Il s'agit d'une méthode de Monte-Carlo combinant une méthode d'élements finis pour l'équation d'écoulement et un schéma d'Euler pour l'équation différentielle stochastique associée à l'équation d'advection-diffusion, vue comme une équation de Fokker-Planck.
|
40 |
Interaction lit fluidisé de particules solides-rayonnement solaire concentré pour la mise au point d'un procédé de chauffage de gaz à plus de 1000 KBounaceur, Arezki 09 December 2008 (has links) (PDF)
A l'heure actuelle les énergies fossiles traditionnelles (pétrole, charbon...) commencent à s'épuiser, ce qui pousse l'humanité à chercher d'autres sources d'énergie pour subvenir à ses besoins. La nature recèle beaucoup de sources d'énergie inépuisables et non polluantes comme l'énergie solaire, la biomasse et l'énergie éolienne. La disponibilité de l'énergie solaire, sa gratuité et son renouvellement encouragent sa collecte et son exploitation. L'énergie solaire peut être collectée pour diverses utilisations comme la réalisation d'une réaction chimique endothermique ou la production de l'électricité. La production de l'électricité solaire est opérée soit par des procédés photovoltaïques, soit par des procédés thermodynamiques. Ceux ci ont un rendement déjà intéressants, mais sont actuellement limités par la température des cycles à vapeur. Pour améliorer l'efficacité énergétique de ces procédés, une des solutions est de chauffer un gaz à très hautes températures en entrée d'une turbine à gaz. Le travail présenté dans ce mémoire décrit un procédé de collecte d'énergie solaire concentrée basé sur un lit fluidisé à changement de section. La collecte de l'énergie solaire se fait directement au travers d'une fenêtre transparente en quartz. La conception de notre récepteur solaire est basée sur deux études. La première consiste à tester plusieurs colonnes transparentes à froid de géométries et de dimensions différentes pour optimiser la distribution des particules lors de la fluidisation. Elle nous a permis de choisir les dimensions et la géométrie du récepteur solaire. En parallèle, nous avons réalisé un premier récepteur avec éclairement artificiel par des lampes infrarouges, au laboratoire RAPSODEE de l'Ecole des Mines d'Albi. Il nous a permis de vérifier la faisabilité du procédé et d'avoir les premiers résultats de la fluidisation à chaud. Le récepteur solaire a été ensuite testé au four solaire de 4,6 m du PROMES-CNRS à Odeillo. Durant notre travail nous avons étudié expérimentalement et numériquement les transferts thermiques dans le lit fluidisé et l'influence des divers paramètres physiques sur l'efficacité du récepteur. Un modèle mathématique des transferts radiatifs basé sur la méthode de Monte Carlo en 1 D a été réalisé. Ce modèle permet de déterminer la distribution des densités de flux thermiques dans les différentes couches du lit fluidisé ainsi que les pertes radiatives. Nous concluons sur la pertinence de nos choix dans ce travail et sur les perspectives.
|
Page generated in 0.0946 seconds