• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 44
  • 9
  • 4
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 168
  • 168
  • 168
  • 44
  • 25
  • 22
  • 20
  • 20
  • 17
  • 17
  • 16
  • 15
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Etude de la fission nucléaire par spectrométrie des rayons gamma prompts / Study of nuclear fission by spectrometry of the prompt gamma rays

Rąpała, Michał 15 October 2018 (has links)
La volonté d'améliorer l'efficacité énergétique des réacteurs nucléaires a motivé de nouvelles solutions dans leur conception. L'une d'elles est l’utilisation d’un réflecteur lourd dans les réacteurs de génération III+ et les futurs réacteurs de génération IV. Lorsque la matière est traversée par des rayons γ, les excitations induites entraînent une élévation de sa température. Ce processus, appelé échauffement γ, est responsable de plus de 90% de la production de chaleur dans la région hors combustible d'un réacteur nucléaire. C’est également le cas dans le réflecteur. Pour simuler l'effet de l’échauffement γ en fonction de la composition du combustible, il faut disposer de données précises sur les γ prompts émis par les différents fragments produits dans le processus de fission. En 2012, une campagne d’expériences inédite, EXILL, a été menée au réacteur de recherche de l'ILL. Un grand nombre de détecteurs HPGe a été placé autour d’une cible fissile et a mesuré les rayons γ émis par la cible alors qu’elle était irradiée par un faisceau intense de neutrons froids. Dans ce travail, nous avons analysé les données obtenues avec des cibles ²³⁵U. Elles nous ont permis d’étudier la désexcitation de plusieurs fragments de fission et plus globalement le processus de fission induite par des neutrons. Dans un premier temps, nous avons utilisé la méthode standard d'analyse par coïncidence γ-γ-γ. Nous avons pu filtrer les données expérimentales, identifier les transitions γ dans des fragments bien produits et calculer leur intensité relative. Les problèmes que nous avons rencontrés concernent le bruit de fond. Les résultats obtenus dépendent de ce choix et présentent donc des problèmes de reproductibilité. Nous avons développé et testé une nouvelle méthodologie d'analyse. Son principe est un balayage des portes de coïncidence selon trois directions, ce qui permet de trouver le bruit de fond le mieux adapté. L'idée principale était finalement de passer d'une méthode "spectroscopique", dont le but est de trouver de nouvelles transitions et des états excités dans un noyau, à une méthode "spectrométrique", qui nous permet d'obtenir plus précisément l’intensité de transitions γ connues, avec une meilleure estimation de leur incertitude. Cela nous a amené à développer un logiciel d'analyse semi-automatique d'ajustement des pics. Divers schémas de calcul de l'intensité des transitions γ ont été également élaborés pour tenir compte des contaminations possibles, selon leur emplacement dans la matrice de coïncidence et leur intensité. La méthode standard et la nouvelle méthode d'analyse ont été comparées pour l'analyse du ¹⁴²Ba. Dans ce travail, nous avons également comparé nos résultats sur quelques noyaux, tel que le ¹⁰⁰Zr, avec des simulations réalisées avec le code FIFRELIN. Ce dernier est un code Monte-Carlo qui simule le processus de fission et la désexcitation des fragments de fission. FIFRELIN utilise plusieurs modèles différents pour décrire ces processus. Nous avons testé le comportement des différents modèles, trouvé les valeurs optimales des paramètres de simulation et testé comment ces configurations reproduisaient les résultats expérimentaux. FIFRELIN n'a pas été en mesure de reproduire simultanément les intensités des transitions γ émises par les fragments de ¹⁰⁰Zr et la multiplicité de neutrons prompts moyennée sur tous les fragments de fission. Cependant, avec des paramètres modifiés, FIFRELIN a fourni localement une multiplicité de neutrons prompts correcte pour les fragments de masse atomique A=100 et des intensités de transition γ bien reproduites pour le noyau de ¹⁰⁰Zr. Nous avons également comparé nos résultats expérimentaux sur les fragments de ¹⁰⁰Zr provenant du processus ²³⁵U(n,f) avec les autres données expérimentales disponibles provenant des expériences sur ²⁴⁸Cm(sf) et ²⁵²Cf(sf), et une autre expérience sur ²³⁵U(n,f). / The desire to improve the fuel efficiency of nuclear reactors has motivated new solutions in their design. One of them is the heavy reflector used in the generation III+ and in the future generation IV reactors. γ-rays passing through matter cause its excitation and temperature rise. It is a process called γ-heating, and it is responsible for more than 90% of the heat production in the non-fuel region of the nuclear reactor. This is also the case of the heavy reflector. To simulate the γ-heating effect in every state of the nuclear reactor it is necessary to have precise data on the prompt γ-rays emitted by different fission fragments produced in the course of the nuclear chain reaction. In 2012, at the research reactor of the ILL, an innovative experiment, called EXILL, was conducted. It produced a large amount of useful data on the de-excitation of the fission fragments. A large number of HPGe detectors were used to study the neutron induced fission process by measuring the emitted γ-rays. Fissile targets were irradiated by an intense cold neutron beam. In this work we analyzed the ²³⁵U targets. We studied several fission fragments and more generally the fission process by using high-resolution γ-ray spectroscopy. At the beginning, we used the standard γ-γ-γ coincidence analysis method. We were able to filter experimental data, identify the well produced γ-rays, and calculate their relative intensities. The problems we have encountered are related to the background. The results obtained with this method were background dependent and thus presented some problems with reproducibility. We therefore developed and tested a new analysis methodology. Its crucial feature is a coincidence gates scanning in three directions which helps to find the most suitable background. The idea was to move from a “spectroscopic” method, which main purpose is finding new transitions and excited states in a nucleus, to a “spectrometric” method, which allows us to obtain more precise γ-ray intensities. We developed a semi-automatic analysis software which facilitates fitting of the chosen γ-ray peak, the contamination and the background. Various γ-ray intensity calculation schemes were derived to take into account different contamination strengths and placements. The results of the analysis with the new technique are reproducible and more reliable. The standard and the new analysis method were compared in the ¹⁴²Ba analysis. In this work, we also compared our experimental results on some nuclei, such as ¹⁰⁰Zr, with the simulation results performed with the FIFRELIN code. It is a Monte-Carlo code which simulates the fission process and the de-excitation of the fission fragments. It uses various models to describe these processes. We were able to test the behavior of different models implemented in FIFRELIN to find the optimal simulation parameter values and to test how well these setups reproduce the experimental results. FIFRELIN was unable to simultaneously reproduce the γ-ray intensities of ¹⁰⁰Zr and the prompt-neutron multiplicity averaged over all fission fragments. However, with modified simulation parameters, FIFRELIN locally provided correct prompt-neutron multiplicity for the fission fragment with the atomic mass A=100 and well reproduced γ-ray intensities of ¹⁰⁰Zr. We also compared our experimental results on ¹⁰⁰Zr coming from the ²³⁵U(n,f) process with the other available experimental data coming from the experiments on ²⁴⁸Cm(sf) and ²⁵²Cf(sf), and another experiment on ²³⁵U(n,f).
112

Development of reconstruction tools and sensitivity of the SuperNEMO demonstrator / Développement d'outils de reconstruction et sensibilité du démonstrateur SuperNEMO

Calvez, Steven 21 September 2017 (has links)
L’expérience SuperNEMO cherche à observer la double désintégration beta sans émission de neutrinos, uniquement possible si le neutrino est une particule de Majorana. Le premier module, aussi appelé démonstrateur, est en cours de construction au Laboratoire Souterrain de Modane. Sa capacité à détecter les particules individuelles en plus d’en mesurer l’énergie en fait un détecteur unique. Le démonstrateur peut contenir 7 kg de ⁸²Se sous forme de fines feuilles source. Ces feuilles source sont entourées par une chambre à fils, permettant ainsi la reconstruction en 3 dimensions des traces de particules chargées. Un calorimètre segmenté, composé de scintillateurs plastiques couplés à des photomultiplicateurs, assure quant à lui la mesure de l’énergie de chaque particule. De plus, la chambre à fils peut être soumise à un champ magnétique afin d’identifier la charge des particules. SuperNEMO est donc capable d’effectuer la reconstruction complète de la cinématique d’un événement ainsi que d’identifier la nature des particules impliquées dans ce dernier : électrons, positrons, particules α ou encore particules γ. En pratique, la reconstruction des particules repose sur divers algorithmes implémentés dans un logiciel de simulation et de reconstruction développé par et pour la collaboration SuperNEMO. La reconstruction des particules γ est particulièrement délicate puisque ces particules ne laissent pas de traces dans la chambre à fils et sont seulement détectées par le calorimètre, parfois même plusieurs fois. Différentes approches ont été explorées durant cette thèse. Ce travail a abouti à la création d’un nouvel algorithme permettant à la fois d’optimiser l’efficacité de reconstruction des particules γ mais aussi d’améliorer la reconstruction de leurs énergies. D'autres programmes assurant l’identification des particules et l’opération des mesures topologiques pertinentes à chaque événement ont aussi été développés. La valeur du champ magnétique a été optimisée pour la recherche de la désintégration 0νββ à l’aide de simulations Monte-Carlo. Les performances des blindages magnétiques ainsi que leur influence sur le champ magnétique ont été évaluées via des mesures effectuées grâce à des bobines magnétiques à échelle réduite. Le démonstrateur SuperNEMO est capable de mesurer ses propres contaminations en bruits de fond grâce à des canaux d’analyse dédiés. À l’issue d’une première prise de données de 2,5 ans, les activités visées pour les principaux bruits de fond devraient être connues précisément. En outre, la demi-vie du processus 2νββ pour le ⁸²Se devrait être mesurée avec une incertitude totale de 0,3 %.À la différence d’autres expériences double beta se basant uniquement sur la somme en énergie des deux électrons, SuperNEMO a accès à la totalité de la cinématique d’un événement et donc à de plus nombreuses informations topologiques. Une analyse multivariée reposant sur des arbres de décision boostés permet ainsi une amélioration d’au moins 10 % de la sensibilité pour la recherche de la désintégration 0νββ. Après 2,5 ans, et si aucun excès d'événements 0νββ n'est observé, le démonstrateur pourra établir une limite inférieure sur la demi-vie du processus 0νββ : T > 5.85 10²⁴ ans, équivalant à une limite supérieure sur la masse effective du neutrino mββ < 0.2 − 0.55 eV. En extrapolant ce résultat à une exposition de 500 kg.an, ces mêmes limites deviendraient T > 10²⁶ ans et mββ < 40 − 110 meV. / SuperNEMO is an experiment looking for the neutrinoless double beta decay in an effort to unveil the Majorana nature of the neutrino. The first module, called the demonstrator, is under construction and commissioning in the Laboratoire Souterrain de Modane. Its unique design combines tracking and calorimetry techniques. The demonstrator can study 7 kg of ⁸²Se, shaped in thin source foils. These source foils are surrounded by a wire chamber, thus allowing a 3-dimensional reconstruction of the charged particles tracks. The individual particles energies are then measured by a segmented calorimeter, composed of plastic scintillators coupled with photomultipliers. A magnetic field can be applied to the tracking volume in order to identify the charge of the particles. SuperNEMO is thus able to perform a full reconstruction of the events kinematics and to identify the nature of the particles involved: electrons, positrons, α particles or γ particles. In practice, the particle and event reconstruction relies on a variety of algorithms, implemented in the dedicated SuperNEMO simulation and reconstruction software. The γ reconstruction is particularly challenging since γ particles do not leave tracks in the wire chamber and are only detected by the calorimeter, sometimes multiple times. Several γ reconstruction approaches were explored during this thesis. This work lead to the creation of a new algorithm optimizing the γ reconstruction efficiency and improving the γ energy reconstruction. Other programs allowing the particle identification and performing the topological measurements relevant to an event were also developed. The value of the magnetic field was optimized for the 0νββ decay search, based on Monte-Carlo simulations. The magnetic shieldings performances and their impact on the shape of the magnetic field were estimated with measurements performed on small scale magnetic coils. The SuperNEMO demonstrator is able to measure its own background contamination thanks to dedicated analysis channels. At the end of the first 2.5 years data taking phase, the main backgrounds target activities should be measured accurately. The ⁸²Se 2νββ half-life should be known with a 0.3 % total uncertainty. Unlike other double beta decay experiments relying solely on the two electrons energy sum, SuperNEMO has access to the full events kinematics and thus to more topological information. A multivariate analysis based on Boosted Decision Trees was shown to guarantee at least a 10 % increase of the sensitivity of the 0νββ decay search. After 2.5 years, and if no excess of 0νββ events is observed, the SuperNEMO demonstrator should be able to set a limit on the 0νββ half-life of T > 5.85 10²⁴ y, translating into a limit on the effective Majorana neutrino mass mββ < 0.2 − 0.55 eV. Extrapolating this result to the full-scale SuperNEMO experiment, i.e. 500 kg.y, the sensitivity would be raised to T > 10²⁶ y or mββ < 40 − 110 meV.
113

Modélisation et résolution du problème d’implantation des ateliers de production : proposition d’une approche combinée Algorithme Génétique – Algorithme A* / Modeling and solving the problem of implementation of production workshops : proposition of a combined approach Algorithm genetic-algorithm A *

Besbes, Mariem 20 November 2019 (has links)
Pour faire face à la concurrence, les entreprises cherchent à améliorer leurs performances industrielles. L’une des solutions à ce défi réside dans la détermination de la meilleure configuration des ateliers de production. Ce type de problème est connu en anglais par Facility Layout Problem « FLP». Dans ce contexte, notre travail propose une méthodologie pour la définition de la configuration d’atelier à travers une approche réaliste. Plus précisément, notre objectif est de prendre en compte les distances réelles parcourues par les pièces dans l’atelier et des contraintes liées au système qui n’ont pas encore été intégrées aux modèles proposés dans la littérature. Pour ce faire, notre première contribution scientifique consiste à développer une nouvelle méthodologie qui utilise l’algorithme A* pour identifier les distances les plus courtes entre les postes de travail de manière réaliste. La méthodologie proposée combine l’Algorithme Génétique (AG) et l’algorithme A* afin d’explorer des espaces de solutions. Pour se rapprocher de plus en plus des cas réels, notre deuxième contribution consiste à présenter une nouvelle formulation généralisée du FLP initialement étudié, en tenant compte de différentes formes et de dimensions des équipements ainsi que de l’atelier. Les résultats obtenus prouvent l’applicabilité et la faisabilité de cette approche dans diverses situations. Une étude comparative de l’approche proposée avec les essaims particulaires intégrés avec A* a prouvé la qualité de la première approche en terme de coût de transport. Finalement, notre troisième contribution consiste à traiter le FLP dans un espace 3D où des contraintes spatiales sont intégrées dans la phase de modélisation. La résolution est une extension de la méthodologie proposée pour le problème 2D, qui intègre donc l'algorithme A* et l’AG afin de générer diverses configurations dans l’espace 3D. Pour chacune de ces contributions, une analyse de sensibilité des différents paramètres d’AG utilisés a été faite à l’aide de simulations de Monte Carlo. / To face the competition, companies seek to improve their industrial performance. One of the solutions to this challenge lies in determining the best configuration of the production workshops. This type of problem is known in English by Facility Layout Problem "FLP". In this context, our work proposes a methodology for the definition of the workshop configuration through a realistic approach. More precisely, our goal is to take into account the actual distances traveled by the parts in the workshop and system-related constraints that have not yet been incorporated into the models proposed in the literature. To do this, our first scientific contribution is to develop a new methodology that uses the A* algorithm to identify the shortest distances between workstations in a realistic way. The proposed methodology combines the Genetic Algorithm (GA) and the algorithm A* to explore solution spaces. To get closer to real cases, our second contribution is to present a new generalized formulation of FLP initially studied, taking into account different shapes and dimensions of the equipment and the workshop. The results obtained prove the applicability and the feasibility of this approach in various situations. A comparative study of the proposed approach with particle swarms integrated with A * proved the quality of the first approach in terms of transport cost. Finally, our third contribution is to treat the FLP in a 3D space where spatial constraints are integrated into the modeling phase. The resolution is an extension of the proposed methodology for the 2D problem, which therefore integrates the A * algorithm and the AG to generate various configurations in the 3D space. For each of these contributions, a sensitivity analysis of the different AG parameters used was made using Monte Carlo simulations.
114

Multiscale Computational Analysis and Modeling of Thermochemical Nonequilibrium Flow

Han Luo (9168512) 27 July 2020 (has links)
Thermochemical nonequilibrium widely exists in supersonic combustion, cold plasma and hypersonic flight. The effect can influence heat transfer, surface ablation and aerodynamic loads. One distinct feature of it is the coupling between internal energy excitation and chemical reactions, particularly the vibration-dissociation coupling. The widely used models are empirical and calibrated based on limited experimental data. Advances in theories and computational power have made the first-principle calculation of thermal nonequilibrium reaction rates by methods like quasi-classical trajectory (QCT) almost a routine today. However, the approach is limited by the uncertainties and availability of potential energy surfaces. To the best of our knowledge, there is no study of thermal nonequilibrium transport properties with this approach. Most importantly, non-trivial effort is required to process the QCT data and implement it in flow simulation methods. In this context, the first part of this work establishes the approach to compute transport properties by the QCT method and studies the influence of thermal nonequilibrium on transport properties for N<sub>2</sub>-O molecules. The preponderance of the work is the second part, a comprehensive study of the development of a new thermal nonequilibrium reaction model based on reasonable assumptions and approximations. The new model is as convenient as empirical models. By validating against recent QCT data and experimental results, we found the new model can predict nonequilibrium characteristics of dissociation reactions with nearly the same accuracy as QCT calculations do. In general, the results show the potential of the new model to be used as the standard dissociation model for the simulation of thermochemical nonequilibrium flows.
115

Formation de la l'hypertexture Cube {100}<001> dans les alliages cubiques à faces centrées / Formation of sharp Cube texture {100}<001> in the face centered cubic alloys

Ateba Betanda, Yanick Blaise Olivier 01 October 2015 (has links)
Les substrats métalliques ont été élaborés par des traitements thermomécaniques (laminages et recuits)sur des alliages Fe48%Ni et Ni5%W dans le but d'obtenir une hypertexture Cube indispensable à l'épitaxie de l'YBaCuO et du silicium dans la fabrication des câbles supraconducteurs et des cellules photovoltaïques à couches minces. Le rôle des éléments d'alliages tels que le soufre et le niobium sur la recristallisation et la formation de l'hypertexture Cube a été étudié dans le Fe48%Ni. Il a été montré que l'ajout du soufre favorise le développement de la texture Cube alors que l'ajout du niobium empêche la formation de la texture Cube. Le soufre se combine avec le Mn pour former les précipités MnS qui contribuent à l'augmentation de la différence d'énergie stockée entre l'orientation Cube et les orientations de laminage à froid (ECube/autres) quand le soufre augmente. Ce gap d'énergie explique explique l'acuité de la texture Cube avec l'ajout du soufre. Contrairement au soufre, l'ajout du niobium empêche la formation de la texture Cube, ce résultat s'explique par le fait la différence d'énergie stockée entre l'orientation Cube et les orientations de laminage diminue avec l'ajout du niobium. Pour expliques tous ces résultats, les analyses de microstructures et textures ont été faites par la technique EBSD et l'énergie stockée a été estimée à partir de la diffraction des neutrons sur les états déformés. / Substrate tapes were prepared by cold rolling and annealing of a Fe48%Ni and Ni5%W alloys in order to obtain Sharp Cube {100}<001> oriented substrate for photovoltaic thin films and superconductor cables in particular.The effect of microalloying elements sulfur and niobium on recrystallization and sharp Cube formation was studied in Fe48%Ni. It was shown that the addition of sulfur promotes the formation of Cube grains while the addition of niobium prevents the Cube grains formation. Regarding sulfur, it combines with manganese to form the MnS precipitates wich increases the stored energy difference between Cube component and others cold rolled components ECube/other when sulfur is added. This stored energy difference explains the sharpness of the Cube texture when sulfur is added. On the contrary the niobium microalloying element addition prevents the formation of Cube grains. This could be explained by the fact that stored energy of cold-rolled components decreases with the addition of niobium and thus decreases Cube grains fraction when niobium is added. In order to explain these results, the development of Cube texture during recrystallization has been investigated in detail by EBSD, furthermore, the effect of stored energy has been studied by carrying out neutron diffraction measurements on the deformed states.
116

Rarefied Plume Modeling for VISORS Mission

Ann Marie Karis (12487864) 03 May 2022 (has links)
<p> The Virtual Super-resolution Optics with Reconfigurable Swarms (VISORS) mission  aims to produce high-resolution images of solar release sites in the solar corona using a  distributed telescope. The collected data will be used to investigate the existence of underlying  energy release mechanisms. The VISORS telescope is composed of two spacecraft flying in a  formation configuration. The optics spacecraft (OSC) hosts the optic system, while the detector  spacecraft (DSC) is located behind the OSC in alignment with the Sun and houses a detector.  The two modes of operation for the CubeSats are Science Operations Mode and Standby Mode.  In Science Operations Mode, the two spacecraft are at a close distance which may make the plume impingement an issue. The cold gas thruster propulsion systems in both the OSC and  DSC use R-236fa (HFC) refrigerant. The plume from the system is modeled using SPARTA  Direct Simulation Monte Carlo (DSMC) Simulator while the refrigerant itself is modeled using  an equivalent particle that closely matches viscosity and specific heat. This work aims to  investigate plume propagation for two different flow inputs. The DSMC simulations are  performed with the input parameters acquired using the isentropic relations and CFD simulations  of the 2D axisymmetric nozzle flow. Additionally, the DSMC results are compared to the  Boynton-Simons, Roberts-South, and Gerasimov analytical plume models. </p>
117

Générateurs de nombres aléatoires modulo un grand entier, dont l’uniformité est assurée

Savard, Marc-Antoine 01 1900 (has links)
This thesis is about linear random number generators with a large integer modulus. It is essential to be able to check that a generator has good properties in Monte-Carlo simulation. The generator family studied here produces points that possess a well known lattice structure that can be studied to assess the uniformity of these generators. The present work is motivated by the update of the LatMRG software which studies the lattice structure of the aforementioned generators. This thesis first presents the different types of generators the software considers. It explains how they can be used to produce random numbers and how to study their period length. It then presents equivalences between some members of this family that are used to simplify LatMRG. It then covers the lattice structure. The thesis describes what it is and how to characterize it. It describes the characterization of the lattice structure for the considered generators. From that, it presents a few algorithms that extract information on the uniformity of generators. At last, the thesis describes the LatMRG software. LatMRG contains both an executable program and a library. The thesis presents both their purpose and their functionalities. It describes upgrades of the software that aim to simplify its usage. Along with the software description are a few examples that serve to illustrate the flexibility and future research avenues. / Ce mémoire s’intéresse au générateurs de nombres aléatoires linéaires modulo un grand entier. Vérifier qu’un générateur possède de bonnes propriétés théoriques est essentiel pour la simulation Monte-Carlo. La famille de générateurs dont il est question produit des points possédant une structure de réseau bien connue pouvant être étudiée pour vérifier l’uniformité de ces générateurs. Le présent travail est motivé par la mise à jour du logiciel LatMRG qui permet d’étudier la structure de réseau de tels générateurs. Ce mémoire présente d’abord les types de générateurs qui sont considérés par le logiciel. Il explique comment ils peuvent être utilisés pour produire des nombres et comment étudier la longueur de leur période. Il présente ensuite des équivalences entre certains membres de la famille dont l’utilisation permet de simplifier le travail dans LatMRG. Il couvre ensuite la structure de réseau. En plus de décrire en quoi elle consiste, il explique comment la caractériser. On décrit une caractérisation de cette structure pour les générateur considérés. À partir de cela, on présente quelques algorithmes permettant d’extraire de l’information sur l’uniformité des générateurs. Le mémoire fait ensuite la description du logiciel LatMRG. LatMRG contient un programme exécutable et une librairie. Ce mémoire présente leur raison d’être et décrit leurs fonctionnalités. Il décrit aussi diverses améliorations qui ont été faites au logiciel avec pour objectif principal de simplifier son utilisation. La description du logiciel s’accompagne de quelques exemples illustrant sa flexibilité et des voies de recherche intéressantes.
118

Comparing Theory and Experiment for Analyte Transport in the First Vacuum Stage of the Inductively Coupled Plasma Mass Spectrometer

Zachreson, Matthew R 01 July 2015 (has links) (PDF)
The inductively coupled plasma mass spectrometer (ICP-MS) has been used in laboratories for many years. The majority of the improvements to the instrument have been done empirically through trial and error. A few fluid models have been made, which have given a general description of the flow through the mass spectrometer interface. However, due to long mean free path effects and other factors, it is very difficult to simulate the flow details well enough to predict how changing the interface design will change the formation of the ion beam. Towards this end, Spencer et al. developed FENIX, a direct simulation Monte Carlo algorithm capable of modeling this transitional flow through the mass spectrometer interface, the transitional flow from disorganized plasma to focused ion beam. Their previous work describes how FENIX simulates the neutral ion flow. While understanding the argon flow is essential to understanding the ICP-MS, the true goal is to improve its analyte detection capabilities. In this work, we develop a model for adding analyte to FENIX and compare it to previously collected experimental data. We also calculate how much ambipolar fields, plasma sheaths, and electron-ion recombination affect the ion beam formation. We find that behind the sampling interface there is no evidence of turbulent mixing. The behavior of the analyte seems to be described simply by convection and diffusion. Also, ambipolar field effects are small and do not significantly affect ion beam formation between the sampler and skimmer cones. We also find that the plasma sheath that forms around the sampling cone does not significantly affect the analyte flow downstream from the skimmer. However, it does thermally insulate the electrons from the sampling cone, which reduces ion-electron recombination. We also develop a model for electron-ion recombination. By comparing it to experimental data, we find that significant amounts of electron-ion recombination occurs just downstream from the sampling interface.
119

Effect of disorder on the melting phase transition

Storey, Marianne January 1999 (has links)
No description available.
120

Morphologie et stabilité des surfaces cristallines nanostructurées, dynamique des instabilités: Théorie et modélisation

Ben Hadj Hamouda, Ajmi 01 June 2007 (has links) (PDF)
Les surfaces cristallines jouent un rôle essentiel dans grand nombre d'applications des nanotechnologies, une surface étant souvent un support nécessaire pour des nano-objets. La surface support peut être à son tour nano-structurée, et intervenir ainsi directement dans les propriétés du matériau réalisé. Ainsi, parmi les défis à relever pour maîtriser la morphologie de la surface et donc contrôler les nanostructures, il y a la compréhension des mécanismes moteurs à l'origine des instabilités de surface. Ce travail de thèse constitue une étude théorique accompagnée par des simulations Monte-Carlo de la dynamique des instabilités de croissance. C'est une contribution à la compréhension des mécanismes microscopiques gouvernant ces instabilités. Deux démarches ont été suivies dans cette étude : la première est une étude statistique qui consiste à analyser la morphologie de la surface instable, puis de proposer des modèles numériques (barrière Ehrlich-Schwoebel, impuretés) et des équations analytiques capables de décrire ces instabilités et remonter enfin aux mécanismes atomistiques sous-jacents. La deuxième, est une étude de la dynamique des marches qui a pour but de prévoir puis de déterminer les mécanismes atomistiques exacts gouvernants le mouvement de ces marches et les échanges de matière entre elles à l'aide de mesures de la distribution de largeur des terrasses (TWD). Les résultats de ce travail ont abouti à la mise en évidence de nouveaux mécanismes de nanostructuration spontanée [impuretés], ainsi que sur le développement et la validation numérique de nouveaux outils mathématiques [approche de Fokker-Planck] pour décrire les fluctuations des séparations entre les marches (TWDs) sur les surfaces loin de l'équilibre.

Page generated in 0.1035 seconds