1051 |
Entwicklung eines Neutronentransportmoduls für das Strahlungstransportprogramm AMOSHelbig, Kai 10 September 2013 (has links)
Im Rahmen der vorliegenden Arbeit ist das am Institut für Kern- und Teilchenphysik der Technischen Universität Dresden entwickelte Monte-Carlo-Strahlungstransportprogramm AMOS für Photonen und Elektronen um einen neuartigen Transportalgorithmus für Neutronen erweitert worden. Für die Modellierung der Wechselwirkungsprozesse werden evaluierte Wirkungsquerschnittsdaten im ENDF-Format verwendet, welche mit einer eigens dafür entwickelten Anwendung für eine effiziente Simulation aufbereitet worden sind. Für eine schnelle Simulation mit hoher Genauigkeit werden die Wirkungsquerschnitte über eine empirisch bestimmte hochaufgelöste Gruppenstruktur gemittelt. Die differentiellen Wirkungsquerschnitte werden für den Transportalgorithmus ins Laborsystem transformiert und linear interpoliert.
Das erarbeitete Neutronentransportmodul ist anhand mehrerer Beispielrechnungen getestet und verifiziert worden. Im Vergleich mit vorhandenen Strahlungstransportprogrammen erreicht es bei gleicher Genauigkeit eine deutlich höhere Geschwindigkeit. Sowohl das Programm zur Aufbereitung der Daten als auch der Transportalgorithmus sind im Rahmen dieser Arbeit konzipiert und implementiert worden. Die gute Übereinstimmung der Ergebnisse zeigt, dass das entwickelte Programmsystem eine vollwertige Alternative zu den vorhandenen Lösungen darstellt.
|
1052 |
Asymptotique suramortie de la dynamique de Langevin et réduction de variance par repondération / Weak over-damped asymptotic and variance reductionXu, Yushun 18 February 2019 (has links)
Cette thèse est consacrée à l’étude de deux problèmes différents : l’asymptotique suramortie de la dynamique de Langevin d’une part, et l’étude d’une technique de réduction de variance dans une méthode de Monte Carlo par une repondération optimale des échantillons, d’autre part. Dans le premier problème, on montre la convergence en distribution de processus de Langevin dans l’asymptotique sur-amortie. La preuve repose sur la méthode classique des “fonctions test perturbées”, qui est utilisée pour montrer la tension dans l’espace des chemins, puis pour identifier la limite comme solution d’un problème de martingale. L’originalité du résultat tient aux hypothèses très faibles faites sur la régularité de l’énergie potentielle. Dans le deuxième problème, nous concevons des méthodes de réduction de la variance pour l’estimation de Monte Carlo d’une espérance de type E[φ(X, Y )], lorsque la distribution de X est exactement connue. L’idée générale est de donner à chaque échantillon un poids, de sorte que la distribution empirique pondérée qui en résulterait une marginale par rapport à la variable X aussi proche que possible de sa cible. Nous prouvons plusieurs résultats théoriques sur la méthode, en identifiant des régimes où la réduction de la variance est garantie. Nous montrons l’efficacité de la méthode en pratique, par des tests numériques qui comparent diverses variantes de notre méthode avec la méthode naïve et des techniques de variable de contrôle. La méthode est également illustrée pour une simulation d’équation différentielle stochastique de Langevin / This dissertation is devoted to studying two different problems: the over-damped asymp- totics of Langevin dynamics and a new variance reduction technique based on an optimal reweighting of samples.In the first problem, the convergence in distribution of Langevin processes in the over- damped asymptotic is proven. The proof relies on the classical perturbed test function (or corrector) method, which is used (i) to show tightness in path space, and (ii) to identify the extracted limit with a martingale problem. The result holds assuming the continuity of the gradient of the potential energy, and a mild control of the initial kinetic energy. In the second problem, we devise methods of variance reduction for the Monte Carlo estimation of an expectation of the type E [φ(X, Y )], when the distribution of X is exactly known. The key general idea is to give each individual sample a weight, so that the resulting weighted empirical distribution has a marginal with respect to the variable X as close as possible to its target. We prove several theoretical results on the method, identifying settings where the variance reduction is guaranteed, and also illustrate the use of the weighting method in Langevin stochastic differential equation. We perform numerical tests comparing the methods and demonstrating their efficiency
|
1053 |
Résolution par la méthode de Monte Carlo de formulations intégrales du problème de diffusion électromagnétique par une suspension de particules à géométries complexes / Resolution by Monte Carlo method of the electromagnetic scattering by a suspension of complex-shaped particlesCharon, Julien 12 December 2017 (has links)
L’étude du problème de la diffusion d’une onde électromagnétique par une suspension de particules non sphériques est une difficulté récurrente dans de nombreux domaines de la recherche et de l’ingénierie. Cela implique d’utiliser des dispositifs expérimentaux hautement spécialisés ou de résoudre les équations de Maxwell, ce qui représente un véritable défi lorsque les particules sont de géométries complexes et avec des distributions statistiques de taille, d’orientation et de forme. L’objectif de la présente thèse est d’explorer l’utilisation de la méthode de Monte Carlo pour résoudre des formulations intégrales du champ électromagnétique diffusé déduites des équations de Maxwell. En particulier, nous résolvons celles de l’approximation de Schiff, de l’approximation de Born ainsi que celle du développement en série de Born. Notre approche est basée sur un travail de reformulation intégrale permettant de concevoir des algorithmes incluant les avancées les plus récentes de la méthode. Cette approche originale, utilisant les outils de la synthèse d’image pour gérer n’importe quelle géométrie, permet de traiter des statistiques de particules ainsi que d’évaluer les sensibilités à des paramètres d’intérêts, sans augmentation significative du temps de calcul. Les outils développés répondent d’ores et déjà aux besoins d’optimisation des photobioréacteurs qui mettent en œuvre des particules à faible contraste d’indice (micro-algues). À l’issue de ce travail, des pistes de recherches ont émergé pour explorer le verrou bien identifié des grandes particules et des forts contrastes d’indice à partir du principe de zéro-variance. / The resolution of the problem of an electromagnetic wave scattered by non-spherical particles suspensions is a significant difficulty encountered in many fields of research and engineering. This implies to use highly specialized experiments or to solve Maxwell’s equations, which is a real challenge when weconsider particles with complex shapes and with statistical distributions of size, orientation and shape.The aim of this thesis is to investigate the use of the Monte Carlo method in order to solve the integral formulations of electromagnetic scattering deduced from Maxwell’s equations. In particular, we solvethose of Schiff’s approximation, Born’s approximation as well as the Born series expansion. Our approachis based on integral reformulation in order to design algorithms including the most recent advances of the method. This original approach, using computer graphics algorithms in order to manage arbitraryshape, permits treating any distributions of parameters as well as evaluating sensitivities to parameters ofinterest, without additionnal CPU time. The developed tools already meet the needs for the optimisation of photobioreactors which bring into play soft particles (micro-algae). From this work, some researchideas have emerged to explore the well-identified issue of large particles and large refractive indices from zero-variance principle.
|
1054 |
Méthode de Monte-Carlo et non-linéarités : de la physique du transfert radiatif à la cinétique des gaz / Monte-Carlo method and non-linearities : from radiative transfer physics to gas kineticsTerrée, Guillaume 13 October 2015 (has links)
En physique du transport, en particulier en physique du transfert radiatif, la méthode de Monte-Carlo a été développée à l'origine comme la simulation de l'histoire d'un grand nombre de particules, dont on déduit des observables moyennes. Cette méthode numérique doit son succès à plusieurs qualités : une gestion naturelle des espaces des phases aux nombreuses dimensions, une erreur systématique nulle par rapport au modèle physico-mathématique, les intervalles de confiance donnés avec les résultats, une capacité à prendre en compte simultanément de nombreux phénomènes physiques, la possibilité de calcul de sensibilités simultané, et une parallélisation aisée. En cinétique des gaz, les particules collisionnent entre elles et non pas avec un milieu extérieur ; on dit que leur transport est non-linéaire. Ces collisions mutuelles mettent en défaut l'approche évoquée ci-dessus de la méthode de Monte-Carlo ; car pour simuler des trajectoires indépendantes de multiples particules et ainsi estimer leur distribution, il faut connaître au préalable exactement cette même distribution...Cette thèse fait suite à celles de Jérémi DAUCHET (2012) et de Mathieu GALTIER (2014), consacrées au transfert radiatif. Entre autres travaux, ces auteurs montraient comment la méthode de Monte-Carlo peut s'accommoder de non-linéarités, en gardant son formalisme et ses spécificités habituelles. Les non-linéarités alors franchies étaient respectivement une loi de couplage chimie/luminance, et la dépendance de la luminance envers le coefficient d'absorption. On essaie dans ce manuscrit d'outrepasser la non-linéarité du transport. Pour cela, nos principaux outils sont un suivi des particules en remontant le temps, basé sur des formulations intégrales des équations de transport, formulations largement inspirées des algorithmes dits à collisions nulles. Nous montrons, sur plusieurs exemples académiques, que nous avons en effet étendu la méthode de Monte-Carlo à la résolution de l'équation de Boltzmann. Ces exemples sont aussi l'occasion de tester les limites de ce que nous avons mis en place. Les résultats les plus marquants sont certainement l'absence totale de maillage dans la méthode numérique, ainsi que sa capacité à calculer correctement les quantités de particules de haute énergie cinétique (toujours peu nombreuses par rapport au total, en cinétique des gaz). Au-delà des exemples fournis, ce manuscrit est voulu comme un essai de formalisme et une exploration des bases de la méthode développée. L'accent est mis sur les raisonnements menant à la mise au point de la méthode, plutôt que sur les implémentations particulières qui ont été abouties. La méthode est encore, aux yeux de l'auteur, largement susceptible d'être retravaillée. En particulier, les temps maximaux sur lesquels l'évolution des particules est calculable, qui constituent la faiblesse principale de la méthode numérique développée, peuvent sûrement être augmentés. / In transport physics, especially in radiative transfer physics, the Monte-Carlo method has been originally developed as the simulation of the history of numerous particles, from which are deduced mean observables. This numerical method owes its success to several qualities : a natural management of many-dimensional phase space, a null systematic error away from the mathematical and physical model, the confidence intervals given with the results, an ability to take into account simultaneously numerous physical phenomenons, the simultaneous sensitivities calculating possibility, and an easy parallelization. In gas kinetics, particles collide each other, not with an external fixed medium ; it is said that their transport is non-linear. These mutual collisions put out of action the aforesaid approach of the Monte-Carlo method ; because in order to simulate the independent trajectories of multiple particles and thus estimate their distribution, this distribution must beforehand be exactly known...This thesis follows on from those of Jérémy DAUCHET (2012) and of Mathieu GALTIER (2014), dedicated to radiative transfer physics. Between other works, these authors have shown how the Monte-Carlo method can bear non-linearities, while keeping its customary formalism and specificities. The then overcome non-linearities were respectively a chemistry/irradiance coupling law, and the dependence of the irradiance toward the absorption coefficient. We try in this manuscript to overcome the non-linearity of the transport. In this aim, our main tools are a reverse following of particles, based on integral formulations of the transport equations, formulations largely inspired from the so-called null collisions algorithms. We show, on several academic examples, that we have indeed extended the Monte Carlo method to the resolution of the Boltzmann equation. These examples are also occasions to test the limits of what we have built. The most noteworthy results are certainly the absence of any mesh in the numerical method, and its capacity to calculate correctly the high-speed particles quantities (always rare compared to the total, in gas kinetics). Beyond the given examples, this manuscript is wanted as a formalism attempt and an exploration of the developed method basics. The focus is made on the reasoning leading to the method, rather than on particular implementations which have been realized. In the eyes of the author, the method is still largely reworkable. In particular, the maximal times on which the evolution of particles is computable, which constitute the main weakness of the developed numerical method, can surely be increased.
|
1055 |
Méthode de simulation appropriée aux systèmes complexes : preuve de concept auto-adaptative et auto-apprenante appliquée aux transferts thermiques / Suitable method for complex systems simulation : self-adaptive and self-learning proof-of-concept applied to coupled heat transferSpiesser, Christophe 20 June 2017 (has links)
L’augmentation de la puissance informatique disponible permet aux ingénieurs et designers d’aborder par simulation des problèmes de plus en plus complexes (multi-physiques, multi-échelles, géométries intriquées ...). Dans ce contexte, les quadratures à base de discrétisation (FDM, FEM, FVM) montrent leur limite : le besoin d’un grand nombre de sous-domaines qui implique des coûts RAM et CPU prohibitifs. La méthode de Monte-Carlo apparaît plus appropriée, mais son utilisation est verrouillée par la difficulté de générer des modèles probabilistes de systèmes complexes. Pour surpasser ceci, une approche systémique est proposée et implémentée pour créer une preuve de concept appliquée à la simulation des transferts thermiques couplés. Après une étape de validation vis-à-vis de solutions analytiques, l’outil est employé; sur des cas d’illustration (transferts thermiques au sein de bâtiments et dans une centrale solaire) pour étudier ses capacités. L’approche mise en œuvre présente un comportement particulièrement avantageux pour la simulation de systèmes complexes : son temps de calcul ne dépend que des parties influentes du problème. De plus, elles sont automatiquement identifiées, même en présence de géométries étendues ou intriquées, ce qui rend les simulations auto-adaptatives. Par ailleurs, ses performances de calcul ne sont pas corrélées avec le rapport d’échelle caractérisant le système simulé. Ceci en fait une approche douée d’une remarquable capacité à traiter les problèmes à la fois multi-physiques et multi-échelles. En parallèle de l’estimation d’une observable par des chemins d’exploration, l’outil analyse également ces derniers de manière statistique. Ceci lui permet de générer un modèle prédictif réduit de l’observable, procurant ainsi une capacité d’auto-apprentissage à la simulation. Son utilisation peut améliorer les processus d’optimisation et de contrôle-commande, ou simplifier les mesures par méthodes inverses. De plus, elle a aussi permis de mener une analyse par propagation d’incertitudes, affectant les conditions aux frontières, vers l’observable. Enfin, une démonstration d’optimisation, utilisant des modèles réduits générés, a été réalisée. / As computing power increases, engineers and designers tackle increasingly complex problems using simulation (multiphysics, multiscale, intricated geometries ...). In this context, discretization-based quadratures (FDM, FEM, FVM) show their limit: the need of a great number of sub-domains which induces prohibitive consumption of RAM and CPU power. The Monte Carlo method appears to be more appropriate, but the difficulty to build probabilistic models of complex systems forms a bottleneck. A systemic approach is proposed to alleviate it and is implemented to create a proof-of-concept dedicated to the coupled heat transfer simulation. After a successful validation step against analytical solutions, this tool is applied to illustrative cases (emulating heat transfer in buildings and in solar heating systems) in order to study its simulation capabilities.This approach presents a major beneficial behavior for complex systems simulation: the computation time only depends on the influential parts of the problem. These parts are automatically identified, even in intricate or extensive geometries, which makes the simulation self-adaptive. In addition, the computational performance and the system scale ratio are completely uncorrelated. Consequently, this approach shows an exceptional capacity to tackle multiphysics and multiscale problems. Each temperature is estimated using exploration paths. By statistically analyzing these paths during the process, the tool is able to generate a reduced predictive model of this physical quantity, which is bringing a self-learning capacity to the simulation. Its use can significantly improve optimization and control of processes, or simplify inverse measurements. Furthermore, based on this model, an uncertainty propagation analysis has been performed. It quantifies the effect of uncertainties affecting boundary conditions on the temperature. Finally a Particle Swarm Optimization (PSO) process, based on simulations done by the framework, is successfully carried out.
|
1056 |
Birds' Flight Range. : Sensitivity Analysis.Masinde, Brian January 2020 (has links)
’Flight’ is a program that uses flight mechanics to estimate the flight range of birds. This program, used by ornithologists, is only available for Windows OS. It requires manual imputation of body measurements and constants (one observation at a time) and this is time-consuming. Therefore, the first task is to implement the methods in R, a programming language that runs on various platforms. The resulting package named flying, has three advantages; first, it can estimate flight range of multiple bird observations, second, it makes it easier to experiment with different settings (e.g. constants) in comparison to Flight and third, it is open-source making contribution relatively easy. Uncertainty and global sen- sitivity analyses are carried out on body measurements separately and with various con- stants. In doing so, the most influential body variables and constants are discovered. This task would have been near impossible to undertake using ’Flight’. A comparison is made amongst the results from a crude partitioning method, generalized additive model, gradi- ent boosting machines and quasi-Monte Carlo method. All of these are based on Sobol’s method for variance decomposition. The results show that fat mass drives the simulations with other inputs playing a secondary role (for example mechanical conversion efficiency and body drag coefficient).
|
1057 |
Assessment of optical coherence tomography for metrology applications in high-scattering ceramic materialsSu, Rong January 2012 (has links)
Large-scale and cost-effective manufacturing of ceramic micro devices based on tape stacking requires the development of inspection systems to perform high-resolution in-process quality control of embedded manufactured cavities, metal structures and defects. In this work, alumina ceramic samples are evaluated by optical coherence tomography (OCT) operating at 1.3μm wavelength and some dimensional data are obtained by dedicated image processing and segmentation. Layer thicknesses can be measured and laser-machined channels can be verified embedded at around 100μm depth. Moreover, detection of internal defects is enabled. Monte Carlo ray tracing simulations are employed to analyze the abilities of OCT in imaging of the embedded channels. The light scattering mechanism is studied for the alumina ceramics, and different scattering origins and models are discussed. The scattering parameters required as input data for simulations are evaluated from the integrating sphere measurements of collimated and diffuse transmittance spectra using a reconstruction algorithm based on refined diffusion approximation approach. / <p>QC 20120628</p>
|
1058 |
Essays in Health EconomicsRosenkranz, David January 2022 (has links)
This dissertation consists of three essays in health economics concerned with measuring the determinants of health care resource utilization and health.
In the first chapter, I study entry barriers in healthcare provider markets. In the U.S., proponents of regulatory entry barriers called CON programs claim that they reduce waste by limiting "unnecessary" entry. I examine CON programs in the dialysis industry, where their effects on market structure, access, health, costs, and welfare are poorly understood, and where patients are sensitive to access and quality. I combine quasi-experimental policy variation in low population areas with a structural model of patient preferences to find that marginal entrants improved access significantly, reduced hospitalization rates, and generated for patients the utility value of traveling 275-344 fewer miles per month; but there is evidence that they contributed even more to fixed costs. Using policy variation throughout North Carolina, I also find evidence that the NC dialysis CON program created a mechanism through which incumbents could block potential entrants by expanding in tandem with their local patient populations. Taken together, my findings suggest that stronger regulatory entry barriers in low population areas may raise total welfare at patients' expense---but they also amplify concerns that CON programs dampen competition statewide.
In the second chapter, I study an empirical framework commonly used in health economics research to measure the impact of an event over time using observational data: the event study. Dating back to at least Snow (1855), event studies have been used in health economics research to study mortality, health care utilization, health insurance enrollment, provider competition, and much more. Under no anticipation and parallel trends assumptions, difference-in-differences are known to identify the event's average treatment effect on the treated when units experience one event at most. In this paper, I introduce a new event study framework to accommodate settings where units may experience multiple events. I introduce a matching estimator which consistently and transparently estimates the average treatment effect on the treated of a single event under generalizations of the conventional no anticipation and parallel trends assumptions. I show that the matching estimator is equivalent to a weighted least squares estimator for a particular set of weights. I also introduce a parallel pre-trends test which can be used to scrutinize these assumptions in the usual sense. Finally, I demonstrate in a series of Monte Carlo simulations that the estimator and parallel pre-trends test work well for a wide range of treatment effects, including dynamic, non-stationary, and history-dependent treatment effects.
In the third chapter, I study when and why emergency departments initiate ambulance diversions, and what happens to diverted patients. Efficiently distributing scarce healthcare resources among patients with time sensitive healthcare needs and uncertain arrival rates is a hard problem. When an emergency department gets too full, ED managers sometimes request that incoming ambulances reroute their patients to alternative destinations. While such ambulance diversions can sometimes help an overcrowded ED manage its caseload, it can also harm incoming patients and reduce systemwide EMS responsiveness. In detailed administrative records cataloging when, where, and why diversions occur, as well as who got diverted, I document that diversions commonly last exactly 1 hour, approximately 4 hours, and exactly 8 hours (indicating that managerial frictions may directly affect ED availability); that diverted patients have different characteristics than non-diverted patients (including potentially more severe symptoms); and that diverted patients spend 65% longer on the road to the hospital than non-diverted patients. I also find that diversions often occur not only because of crowdedness, but also because of hospital systems failures. I identify directions for future research.
|
1059 |
Modélisation et simulation du comportement spatiotemporel des transitions de phase dans les monocristaux moléculaires à transition de spin / Modeling and simulation of spatio-temporal behaviors of phase transitions in spin crossover single crystalsPaez Espejo, Miguel angel 23 June 2016 (has links)
Ce travail est dédié à la modélisation multi-échelle des phénomènes liés à la transition de spin dans des composés du Fe(II). Le développement d'un modèle macroscopique type réaction-diffusion pour la transition de phase à partir de l'Hamiltonien d'Ising a permis l'étude théorique des aspects spatio-temporels de la fraction haut-spin lors de la transition de phase du premier ordre dans des monocristaux commutables. La comparaison à l'expérience a conduit à de très bons accords pour le comportement du front de transition, ce qui a permis de mieux comprendre les mesures de microscopie optique. Ce travail a été étendu à l'étude des effets photo-thermiques qui causent l'échauffement du cristal par la lumière du microscope conduisant à un système d'équations différentielles couplées tenant compte du couplage thermique avec le bain.Ces équations prédisent des comportements non-linéaires du cristal dans son domaine bistable, tels que l’existence d’effets autocatalytiques, dont les conditions d'émergence ont été précisées. La dernière partie de la thèse est consacrée à une extension du modèle électro-élastique. Ici on démontre que la frustration élastique est à l'origine de la transition de spin en deux étapes et des transitions incomplètes. Ceci nous a amené aussi à prédire l'organisation de structures complexes de la fraction haut-spin dans les phases intermédiaires. Plusieurs types d'auto-organisation ont été révélés dont des structures modulées de la fraction haut-spin. Ce type de comportements a été observé expérimentalement très récemment dans les composés à transition de spin. / This work is devoted to the multiscale modeling of the spin transition phenomena in Fe(II) spin crossover compounds. The development of a macroscopic reaction-diffusion-like model for the phase transition from the Ising-like Hamiltonian allowed the theoretical study of the spatio-temporal behavior of the high-spin fraction accompanying the first-order phase transition in switchable spin crossover single crystals. The comparison to experiments led to an excellent agreement for the dynamics of the high-spin/low-spin interface which improved the understanding of the optical microscopy measurements. Next, this work was extended to the study of photothermic effects due to the crystal heating by the light of the microscope leading to a coupled system of differential equations accounting for the thermal coupling with the bath temperature. These equations predict nonlinear behaviors for crystals in the bistable region, such as the autocatalytic effects, for which we established the conditions of their emergence. The last part of this thesis is devoted to an extension of the electro-elastic model. Here we prove that the elastic frustration is at the origin of the existence of two-step and of incomplete spin crossover transitions. Furthermore, this model allowed us to predict structures of complex patterns in high-spin fractions for intermediate phases. Several types of self-organisation were revealed such as the spatially-modulated structures of the high-spin fractions. Some of these behaviors have been experimentally observed, very recently, in spin crossover compounds.
|
1060 |
Non-Rayleigh scattering by a randomly oriented elongated scattererBhatia, Saurav January 2012 (has links)
Thesis (S.M.)--Joint Program in Applied Ocean Science and Engineering (Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science; and the Woods Hole Oceanographic Institution), 2012. / Cataloged from PDF version of thesis. / Includes bibliographical references (p. 65-67). / The echo statistics of a randomly rough, randomly oriented prolate spheroid that is randomly located in a beampattern are investigated from physics-based principles both analytically and by Monte Carlo methods. This is a direct-path geometry in which reflections from neighboring boundaries are not a factor. The center of the prolate spheroid is assumed to be confined to the plane containing the MRA (maximum response axis). Additionally, the rotation of the prolate spheroid is assumed to always be in this plane. The statistics and, in particular, the tails of the probability density function (PDF) and probability of false alarm (PFA) are shown to be strongly non-Rayleigh and a strong function of shape of scatterer. The tails are shown to increase above that associated with a Rayleigh distribution with increasing degree of elongation (aspect ratio) of the scatterer and when roughness effects are introduced. And, as also shown in previous studies, the effects associated with the scatterer being randomly located in the beam contribute to the non-Rayleigh nature of the echo. The analytically obtained results are compared to Monte Carlo simulations for verification. / by Saurav Bhatia. / S.M.
|
Page generated in 0.0406 seconds