• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 79
  • 29
  • 3
  • Tagged with
  • 112
  • 112
  • 112
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Probabilistic design of wastewater treatment plants

Talebizadehsardari, Mansour January 2015 (has links)
Dans cette étude, une méthode de conception probabiliste pour la conception d'usines de traitement des eaux usées (STEP) qui permet la quantification du degré de conformité aux normes de rejet en termes de probabilité a été proposée. La méthode de conception développée est une approche basée sur un modèle dans lequel les sources pertinentes d'incertitude sont exprimées en termes de fonctions de distribution de probabilité et leur effet combiné sur la distribution de la qualité de l'effluent sont quantifiés par simulation Monte Carlo. Pour ce faire, une série de conceptions en régime permanent avec différents niveaux de sécurité ont été générés en utilisant des règles de conception et la probabilité correspondante de non-conformité aux normes de rejet ont été calculés en utilisant des simulations dynamiques avec différentes réalisations de séries temporelles d'affluent et différentes valeurs pour les paramètres du modèle de station d'épuration. Pour générer différentes réalisations de séries temporelles d'affluent, un logiciel a été développé pour la génération de séries temporelles d'affluent tenant compte des conditions climatiques locales ainsi que les caractéristiques de base des réseaux d'égout connectés. En outre, différentes réalisations des paramètres du modèle de STEP ont été générés par l'échantillonnage des fonctions de distribution de probabilité et l'effet combiné de la variabilité de l'affluent et l'incertitude du modèle sur la distribution de la qualité des effluents a été calculé en exécutant un certain nombre de simulations Monte Carlo jusqu'à ce que la convergence de la distribution de la qualité des effluents a été atteinte. Une fois la convergence atteinte, la probabilité de non-respect d'une alternative de conception peut être calculée pour un certain niveau de qualité de l'effluent. La méthode de conception probabiliste peut aider les concepteurs à éviter l'application de facteurs de sécurité conservateurs qui pourraient entraîner un dimensionnement trop petit ou trop grand de stations d'épuration. En outre, le calcul de la probabilité de non-conformité comme un critère quantitatif peut aider les concepteurs et les décideurs à prendre une décision informée des risques en vue de la meilleure configuration de traitement, son dimensionnement, ainsi que le fonctionnement de l'usine pour la conception ou la mise à niveau des stations d'épuration. Mots-clés: usine de traitement des eaux usées, de conception dans l'incertitude, de la conception en fonction du risque, analyse de l'incertitude, probabilité de non-conformité. / In this study, a probabilistic design method for the design of wastewater treatment plants (WWTP) that enables the quantification of the degree of compliance to the effluent standards in terms of probability has been proposed. The developed design method is a model-based approach in which relevant sources of uncertainty are expressed in terms of probability distribution functions and their combined effect on the distribution of the effluent quality is quantified by Monte Carlo simulation. To do so, a set of steady-state designs with different levels of safety is first generated using a design guideline and then the corresponding probability of non-compliance (PONC) to the effluent standards is calculated using dynamic simulations under different realizations of influent time series and different values for the WWTP model parameters. To generate different realizations of the influent time series, a software tool was developed for synthetic generation of influent time series data considering the local climate conditions as well as basic characteristics of the connected sewershed. Moreover, different realizations of WWTP model parameters are generated by sampling from the probability distribution functions that are assigned to uncertain model parameters. The combined effect of influent variability and model uncertainty on the effluent distributions is calculated by running a certain number of Monte Carlo simulation runs until convergence of the effluent distribution is achieved. Once convergence is reached for the effluent distribution, the PONC for a design alternative can be calculated for a certain effluent standard. The probabilistic design method can help designers avoid the application of conservative safety factors that could result in over-or under-sizing of WWTPs. Moreover, calculating the probability of non-compliance as a quantitative criterion can help designers and decision makers make risk-informed decisions on the best treatment configuration, sizing, and plant operation during the design or upgrading of WWTPs. Keywords: Wastewater treatment plant, design under uncertainty, risk-informed design, uncertainty analysis, probability of non-compliance.
22

Développement d'une sonde à réflectance diffuse pour la mesure in-situ des propriétés optiques inhérentes de la glace de mer

Perron, Christophe 09 April 2021 (has links)
No description available.
23

Mine project evaluation : a real options approach with least-quares Monte-Carlo simulations

Lemelin, Bruno. 13 April 2018 (has links)
Le but de cette thèse porte sur la compréhension et la résolution des problèmes décisionnels rencontrés durant la mise en place de la stratégie d' extraction minière tout en tenant compte des limitations des outils existants sur le marché pour l' optimisation de la valeur économique du site minier. Dans cette thèse, l'auteur amène une nouvelle approche pour évaluer correctement des zones minières avec des incertitudes relatives aux prix des métaux pour des cas réels et concrets. Ceci est destiné aux gestionnaires qui souhaitent utiliser un outil supplémentaire qui est à la fois pratique et compréhensif afin qu'ils établissent des plans d'affaires complets.
24

Conception d'un formalisme de pouvoir d'arrêt équivalent et accélération graphique : des simulations Monte Carlo plus efficaces en protonthérapie

Maneval, Daniel 27 April 2019 (has links)
En radiothérapie, la planification de traitement correspond à l’optimisation de la balistique pour administrer la dose prescrite aux lésions à traiter, tout en minimisant les doses collatérales reçues par les tissus sains. L’algorithme de calcul de dose qui est au cœur de cette simulation numérique se doit d’être précis et efficace. L’antagonisme de ces deux compétences a abouti au développement d’algorithmes analytique rapides dont l’amélioration de la précision dosimétrique a, de nos jours, atteint sa limite. L’exactitude de l’algorithme de calcul de dose est particulièrement importante en protonthérapie pour exploiter pleinement le potentiel balistique des protons. La méthode Monte Carlo de transport de proton est la plus précise mais également la moins efficace. Cette thèse a pour sujet le développement d’une plateforme Monte Carlo de calcul de dose suffisamment efficace pour envisager son utilisation en routine clinique. L’objectif principal du projet est d’accélérer le transport Monte Carlo de protons sans compromettre la précision des dépôts de dose. Pour ce faire, deux voies de recherche ont été exploitées. La première a consisté à établir une nouvelle méthode de réduction de variance nommée formalisme du pouvoir d’arrêt restreint équivalent (formalisme Leq). Cette technique améliore significativement la complexité algorithmique temporelle rendue constante (O(1)) au lieu de linéaire (O(n)) des algorithmes Monte Carlo actuels. La seconde voie de recherche s’est attardée à l’utilisation des processeurs graphiques pour améliorer la vitesse d’exécution du transport Monte Carlo de protons. La plateforme développée, nommée pGPUMCD, réalise le transport des protons sur des processeurs graphiques au sein de géométries voxelisées. Dans pGPUMCD, les techniques d’interactions condensées et ponctuelles sont considérées. Les interactions inélastiques de faibles portées sont modélisées par la décélération continue du proton à l’aide du formalisme Leq, et les interactions élastiques par la diffusion coulombienne multiple. Les interactions ponctuelles modélisées sont les interactions inélastiques, les intéractions nucléaires élastiques et non-élastiques proton-noyaux. pGPUMCD est comparé à Geant4, et les procédés physiques implémentés sont validés les uns après les autres. Pour les cas cliniques de calcul de dose, 27 matériaux sont définis pour la segmentation des tissus du scanner tomodensitométrique. L’exactitude dosimétrique du formalisme Leq est meilleure que 0.31% pour divers milieux allant de l’eau à l’or. Les gains d’efficacité intrinsèque au formalisme Leq sont supérieurs à 30 : entre 100 et 630 à précisions dosimétriques similaires. Combiné à l’accélération du GPU, le gain d’efficacité est d’un ordre de grandeur supérieur à 10⁵. pGPUMCD concorde à Geant4 à moins de 1% jusqu’au pic de Bragg et à moins de 3% dans sa pénombre distale, pour différentes configurations de simulations allant des milieux homogènes jusqu’aux cas cliniques. De plus, 99.5% des points de dose passent le critère 1% et les portées de prescription concordent avec celles de Geant4 à moins 0.1%. Les temps de calcul de pGPUMCD sont inférieurs à 0.5 seconde par million de protons transportés contre plusieurs heures avec Geant4. Les performances dosimétriques et d’efficacité de pGPUMCD lui confèrent les bonnes caractéristiques pour être employé dans un environnement de planification dosimétrique clinique. L’apport médical attendu est un meilleur contrôle sur les doses administrées, ce qui permet une réduction significative des marges et des toxicités des traitements. / In radiotherapy, treatment planning is the optimization of the ballistics to administer the prescribed dose to the treated lesions while minimizing collateral doses received by the healthy tissue. The algorithm of the dose calculation is at the heart of this numerical simulation. It must be precise and computationally efficient. The antagonism of these two features has led to the development of rapid analytical algorithms whose improvement in dosimetric accuracy has nowadays reached its limit. The accuracy of the dose calculation algorithm is particularly important in proton therapy to fully exploit the ballistic potential of protons. The Monte Carlo proton transport method is the most accurate but also the least efficient. This thesis deals with the development of a Monte Carlo dose calculation platform that is sufficiently effective to consider its use in clinical routine. The main objective of the project is to accelerate the Monte Carlo proton transport without compromising the precision of the dose deposition. To do this, two lines of research have been exploited. The first was to establish a new variance reduction technique called the equivalent restricted stopping power formalism (formalism Leq). This technique significantly improves the algorithmic time complexity made constant (O(1)) instead of linear (O(n)) for the current Monte Carlo algorithms. The second line of research focused on the use of graphics processing units to improve the execution speed of the proton Monte Carlo transport. The developed platform, named pGPUMCD, transports protons on graphic processors in a voxelized geometry. In pGPUMCD, condensed and discrete interaction techniques are considered. The inelastic low-range interactions are modeled with a continuous proton slowing down using the Leq formalism and the energy straggling is considered. The elastic interactions are based on the multiple Coulomb scattering. The discrete interactions are the inelastic interactions, the nuclear elastic and the non-elastic proton-nuclei interactions. pGPUMCD is compared to Geant4 and the implemented physical processes are validated one after the other. For the dose calculation in a clinical context, 27 materials are defined for the tissue segmentation from the CT scan. The dosimetric accuracy of the Leq formalism is better than 0.31% for various materials ranging from water to gold. The intrinsic efficiency gain factors of the Leq formalism are greater than 30, between 100 to 630 for a similar dosimetric accuracy. Combined with the GPU acceleration, the efficiency gain is an order of magnitude greater than 10⁵. Dose differences between pGPUMCD and Geant4 are smaller than 1% in the Bragg peak region and below 3% in its distal fall-off for the different simulation configurations with homogeneous phantoms and clinical cases. In addition, 99.5% of the dose points pass the criterion 1% and the prescribing ranges match with those of Geant4 at less than 0.1%. The computing times of pGPUMCD are below 0.5 seconds per million of transported protons compared to several hours with Geant4. The dosimetric and efficiency performances of pGPUMCD make it a good candidate to be used in a clinical dosimetric planning environment. The expected medical benefit is a better control of the delivered doses allowing a significant margin and toxicity reductions of the treatments.
25

Parallélisation des algorithmes de Monte-Carlo multicanoniques

Brunet, Charles 19 April 2018 (has links)
Les méthodes de Monte-Carlo multicanoniques sont des techniques adaptatives de simulation numérique permettant d'estimer des distributions de probabilités complexes, particulièrement lorsque les probabilités recherchées sont extrêmement petites. Ces méthodes sont basées notamment sur les chaînes de Markov. Avec ces méthodes il est possible d'obtenir des résultats de manière beaucoup plus rapide qu'avec d'autres techniques comme le Monte-Carlo. Nous discutons ici de la parallélisation de ces algorithmes, pour en permettre l'utilisation sur un super-ordinateur. De cette manière, il deviendra possible de simuler des systèmes encore plus complexes avec davantage de précision. Dans ce mémoire, nous voyons tout d'abord des notions de base à propos de la programmation parallèle. Puis nous étudions les fondements mathématiques du Monte-Carlo multicanonique. Ensuite, nous déterminons des critères pour en estimer la performance et la précision. Enfin, nous étudions comment on peut le paralléliser afin de l'utiliser sur un super-ordinateur.
26

Évaluation d'un algorithme de calcul de dose par méthode Monte Carlo pour des faisceaux d'électrons

Chamberland, Ève 16 April 2018 (has links)
Les méthodes Monte Carlo pour la planification de traitement par faisceaux d'électrons représentent une avancée significative en termes de précision de calcul de dose, comparativement aux algorithmes conventionnels de faisceaux pinceaux. Le système de planification de traitement Eclipse (Varian, Palo Alto, Ca) offre un nouvel algorithme rapide de calcul de dose par méthode Monte Carlo pour des faisceaux d'électrons de hautes énergies. Plusieurs tests ont été effectués afin d'explorer le comportement du système dans plusieurs configurations rencontrées dans les pratiques cliniques. La première série de tests a été effectuée dans un fantôme homogène d'eau. Les distributions de dose mesurées et calculées ont été comparées pour différentes combinaisons d'énergie, d'ap-plicateur et de profondeur. Ensuite, quatre différents fantômes hétérogènes simulant des matériaux de haute et basse densité furent construits afin d'explorer différentes conditions d'hétérogénéités : un petit cylindre d'air, un fantôme de poumon, un fantôme de paroi thoracique et un fantôme anthropomorphique. Enfin, l'évaluation de l'algorithme Monte Carlo s'est terminée avec l'étude rétrospective de deux cas cliniques. Comparativement à l'algorithme de faisceaux pinceaux de Pinnacle, les calculs Monte Carlo prédisent plus précisément les larges perturbations de dose dues aux hétérogénéités.
27

Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrie

Saucier, Marie Annie 25 September 2018 (has links)
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table. / The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.
28

Étude Monte Carlo des effets de l’orientation des sources et de la présence de calcifications dans la curiethérapie de prostate à bas débit de dose

Collins Fekete, Charles-Antoine 20 April 2018 (has links)
La curiethérapie prostatique se fait en implantant des grains radioactifs dans une zone tumorale. À cause des soucis temporaux, la planification considère ces grains comme des sources ponctuelles dans un monde uniforme d’eau. Ce mémoire présente une évaluation de l’impact de deux effets perturbant la dosimétrie, avec des méthodes Monte Carlo, en curiethérapie prostatique. L’orientation des sources, négligée actuellement, risque d’altérer la dosimétrie calculée. Cet impact est évalué sur une cohorte de patients (n=287). Aucun impact n’est calculé sur la prostate et l’urètre mais un impact de -2% est calculé sur la vessie et le rectum. La présence de calcifications dans la zone tumorale est négligée par la planification actuelle. Une cohorte de patients (n=43) possédant des calcifications permet d’évaluer cet impact. Il ressort du calcul MC une différence de -13% sur le D90 du CTV et de -16% sur le D10 de l’urètre, en comparaison avec l’algorithme de planification actuel. / Prostatic brachytherapy is performed by inserting radioactive seeds in a tumoral zone. Because of time constraint, clinical planning considers those seeds as point sources in a water medium. This thesis presents the quantification of the impact of two perturbing effects on the dosimetry, evaluated through a Monte Carlo algorithm, in prostatic brachytherapy. Seeds orientation, actually neglected, may alter the clinical dosimetry. The impact of this effect is evaluated on a cohort (n=287) of patients. No effect is calculated on the prostate or the urethra but a difference of -2%, when compared to the clinical algorithm, is calculated on the OARs. Calcifications are actually neglected in the clinical planning. A cohort of patients (n=43) with visible calcifications is used to measure the effect of this approximation. MC calculations yield a difference of -13% on the CTV D90 and -16% on the urethra D10, when compared to the clinical algorithm.
29

Comparing inverse probability of treatment weighting methods and optimal nonbipartite matching for estimating the causal effect of a multicategorical treatment

Diop, Serigne Arona 18 April 2019 (has links)
Des débalancements des covariables entre les groupes de traitement sont souvent présents dans les études observationnelles et peuvent biaiser les comparaisons entre les traitements. Ce biais peut notamment être corrigé grâce à des méthodes de pondération ou d’appariement. Ces méthodes de correction ont rarement été comparées dans un contexte de traitement à plusieurs catégories (>2). Nous avons mené une étude de simulation pour comparer une méthode d’appariement optimal non-biparti, la pondération par probabilité inverse de traitement ainsi qu’une pondération modifiée analogue à l’appariement (matching weights). Ces comparaisons ont été effectuées dans le cadre de simulation de type Monte Carlo à travers laquelle une variable d’exposition à 3 groupes a été utilisée. Une étude de simulation utilisant des données réelles (plasmode) a été conduite et dans laquelle la variable de traitement avait 5 catégories. Parmi toutes les méthodes comparées, celle du matching weights apparaît comme étant la plus robuste selon le critère de l’erreur quadratique moyenne. Il en ressort, aussi, que les résultats de la pondération par probabilité inverse de traitement peuvent parfois être améliorés par la troncation. De plus, la performance de la pondération dépend du niveau de chevauchement entre les différents groupes de traitement. La performance de l’appariement optimal nonbiparti est, quant à elle, fortement tributaire de la distance maximale pour qu’une paire soit formée (caliper). Toutefois, le choix du caliper optimal n’est pas facile et demeure une question ouverte. De surcroît, les résultats obtenus avec la simulation plasmode étaient positifs, dans la mesure où une réduction importante du biais a été observée. Toutes les méthodes ont pu réduire significativement le biais de confusion. Avant d’utiliser la pondération de probabilité inverse de traitement, il est recommandé de vérifier la violation de l’hypothèse de positivité ou l’existence de zones de chevauchement entre les différents groupes de traitement
30

Cycle économique et modélisation de la structure à terme du spread CDS : implémentation de la simulation de Monte Carlo au modèle dynamique de Nelson-Siegel

Baron, Standley-Réginald 24 April 2018 (has links)
Au cours de ces dernières années, le spread du Credit Default Swap (CDS) est devenu l'un des instruments très utilisé pour mesurer le risque de crédit. La modélisation de la courbe de la structure à terme du spread CDS s'avère nécessaire, et elle est d'importance capitale pour la gestion quantitative du risque de crédit. Nous proposons une extension du modèle dynamique de Nelson Siegel, en modélisant les changements des facteurs bêtas par un processus autorégressif avec erreurs hétéroscédastiques tenant compte du cycle économique. Par la technique de Monte Carlo nous simulons, à l'aide d'une copule de Student, les prévisions sur un et quatre trimestres du spread CDS à différentes maturités. Notre modèle suggère que le niveau d'influence du cycle économique sur le spread CDS dépend de la maturité. Son impact sur les spreads à longue échéance est plus significatif que sur les spreads à courte maturité. Notre modèle AR-GARCH performe mieux, quel que soit l'horizon de prévision analysé dans le cadre de ce travail, que le modèle vecteur autorégressif (VAR) et le modèle de marche aléatoire.

Page generated in 0.0901 seconds