• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 476
  • 217
  • 84
  • 66
  • 34
  • 30
  • 26
  • 25
  • 13
  • 9
  • 8
  • 6
  • 4
  • 4
  • 2
  • Tagged with
  • 1081
  • 1081
  • 1081
  • 121
  • 119
  • 99
  • 97
  • 94
  • 79
  • 68
  • 66
  • 63
  • 61
  • 54
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.

Optimization and Characterization of Bi-detector Coincidence Beta-ray Spectrometer

Sun, Ruoyu January 2021 (has links)
With the recent change of the equivalent dose limit for the lens of eyes from 150 to 20 mSv/yr., averaged over 5 years, it is of great importance to investigate the beta-ray spectrum in the maintenance areas of the nuclear power plants, where workers are exposed to mixed beta-gamma fields. A beta-ray spectrometer consisting of a thin silicon detector and a plastic scintillator has been developed, which can accept only beta detection events while rejecting gamma events via coincidence. Based on the spectroscopy system that has been built, a comprehensive upgrade of software and hardware has been conducted. The data acquisition software MC2 was replaced with CoMPASS, developed by CAEN to achieve higher stability and functionality. Optimal shaping parameters and coincidence time window were determined by instruction and sample tests. The fast event signal from the plastic scintillator does not provide enough energy information. Therefore, three approaches were executed, including adding a capacitor, adding a preamplifier, and changing the digital pulse processor to solve the problem. The method of changing digitizer was accepted as the final solution to obtain the best spectrum through benchmark tests. The experimental measurements characterized the response of the beta-ray coincidence spectrometer under the mixed beta/gamma radiation field with a various count rate ratio from 0.00625 to 0.8. Experimental result shows excellent and stable performance of the detector system under a higher beta to gamma ratio. Gamma contribution of the coincidence spectrum, especially in low energy region, significantly increased when beta count rate was controlled to a minor level. Monte Carlo simulations are also carried out using the MCNP6 code to validate the measurements. / Thesis / Master of Science (MSc) / With the recent change of the equivalent dose limit for the lens of eyes from 150 to 20 mSv/yr., averaged over 5 years, it is of great importance to investigate the beta-ray spectrum in the maintenance areas of the nuclear power plants, where workers are exposed to mixed beta-gamma fields. A beta-ray spectrometer consisting of a thin silicon detector and a plastic scintillator has been developed, which can accept only beta detection events while rejecting gamma events via coincidence. Based on the spectroscopy system that has been built, a comprehensive upgrade of software and hardware has been conducted to slow down the signal and achieve higher stability. The experimental measurements characterized the response of the beta-ray coincidence spectrometer under the mixed beta/gamma radiation field with a various count rate ratio from 0.00625 to 0.8. Experimental result shows excellent and stable performance of the detector system under a higher beta to gamma ratio. Gamma contribution of the coincidence spectrum, especially in low energy region, significantly increased when beta count rate was controlled to a minor level. Monte Carlo simulations are also carried out using the MCNP6 code to validate the measurements.

Monte-Carlo simulation with FLUKA for liquid and solid targets

Infantino, A., Oehlke, E., Trinczek, M., Mostacci, D., Schaffer, P., Hoehr, C. 19 May 2015 (has links) (PDF)
Introduction Monte-Carlo simulations can be used to assess isotope production on small medical cyclotrons. These simulations calculate the particle interactions with electric and magnetic fields, as well as the nuclear reactions. The results can be used to predict both yields and isotopic contaminations and can aid in the optimum design of target material and target geometry [1,2]. FLUKA is a general-purpose tool widely used in many applications from accelerator shielding to target design, calorimetry, activation, dosimetry, detector design, neutrino physics, or radiotherapy [3,4]. In this work, we applied the Monte-Carlo code FLUKA to determine the accuracy of predicting yields of various isotopes as compared to experimental yields. Material and Methods The proton beam collimation system, as well as the liquid and solid target of the TR13 cyclotron at TRIUMF, has been modeled in FLUKA. The proton beam parameters were initially taken from the cyclotron design specifications and were optimized against experimental measurements from the TR13. Data from irradiations of different targets and with different beam currents were collected in order to account for average behavior, see FIG. 1. Yields for a pencil proton beam as well as a beam spread out in direction and energy have been calculated and have been compared to experimental results obtained with the TR13. Results and Conclusion The reactions listed in TABLE 1 were assessed. For most reactions a good agreement was found in the comparison between experimental and simulated saturation yield. TABLE 1 only shows the yields simulated with a proton beam with a spread in both direction and energy. In most cases, the simulated yield is slightly larger or comparable. Only the calculated yield for 55Co was significantly lower by a factor of 4.2. This is still a good agreement considering that FLUKA was originally a high-energy physics code. It may indicate that the FLUKA internal cross-section calculation for this isotope production needs some optimization. In summary, we conclude that FLUKA can be used as a tool for the prediction of isotope production as well as for target design.

A stochastic model for sewer base flows using Monte Carlo simulation

Flores, Garth 03 1900 (has links)
Thesis (MSc)--Stellenbosch University, 2015. / ENGLISH ABSTRACT: This thesis deals with understanding and quantifying the components that make up sewage base flows (SBF). SBF is a steady flow that is ubiquitous in sewers, and is clearly seen when measuring the flow rate in the sewer between 03:00 and 04:00. The components of SBF are: ● return flow from residential night use, ● return flow from leaking plumbing, ● groundwater infiltration, ● stormwater inflow. By understanding each component of SBF, this research can answer the burning question as to how much of the SBF was due to plumbing leaks on residential properties. While previous work on SBF had been done, the work focused on groundwater ingress and stormwater inflows, and thus not much had been said about plumbing leaks. Furthermore, previous work focused on SBF as an isolated sewer related topic, whereas this research integrated SBF as both a sewer related topic and water conservation and demand management (WCDM) topic. Due to the high variability in each of the SBF components, a method of quantifying each component was developed using residential end-use modelling and Monte Carlo simulations. The author constructed the Leakage, Infiltration and Inflow Technique Model (LIFT Model). This stochastic model was built in MS Excel using the @Risk software add-on. The LIFT Model uses probability distributions to model the inflow variability. The results of the stochastic model were analysed and the findings discussed. This research can be used by water utilities as a tool to better understand the SBF in networks. Armed with this knowledge, water utilities could make informed decisions about how to best reduce the high SBF encountered in networks. / AFRIKAANSE OPSOMMING: Hierdie verhandeling bespreek die begrip en berekening van die komponente van riool nagvloei. Die nagvloei was duidelik wanneer die vloei in die rioolstelsel tussen 03:00 en 04:00 gemeet is. Die verskillende komponente van die nagvloei is: ● huishoudelike gebruik, ● lekkende krane en toilette, ● grondwaterinfiltrasie, en ● stormwaterinvloei. ’n Begrip van die komponente van nagvloei kan die brandende vraag van hoeveel nagvloei die gevolg van lekkende krane en toilette is, na aanleiding van die navorsing beantwoord. Vorige werk het op beter begrip van die grondwaterinfiltrasie en stormwaterinvloei gefokus en lekke het nie veel aandag geniet nie. Vorige werk het net op nagvloei as geïsoleerde rioolonderwerp gefokus, terwyl hierdie navorsing nagvloei as ’n onderwerp wat met riool verband hou, sowel as ’n waterverbruik- en behoeftebestuursonderwerp, ondersoek. As gevolg van die groot verskil tussen elk van die komponente van die nagvloei, is ’n metode ontwikkel wat elke komponent kwantifiseer deur gebruik te maak van eindgebruik-modelle en Monte Carlo-simulasies. Die outeur het die Leakage Infiltration and Inflow Technique Model (LIFT-Model) gebou. Hierdie stogastiese model is in MS Excel, met behulp van die @Risk sagtewarebyvoeging gebou. Die LIFT-Model gebruik waarskynlikheidverspreidings om invloeivariasie te modelleer. Die resultate van die stogastiese model is ontleed en die bevindinge bespreek. Hierdie navorsing mag moontlik deur watervoorsieningsmaatskapye as instrument gebruik word om nagvloei in rioolstelsels beter te verstaan. Hierdie nuwe kennis kan watervoorsieningsmaatskapye in staat stel om ingeligte besluite te neem rakende die beste metodes om te volg om nagvloei te verminder.

Die Identifikation von Personen mit besonderen Merkmalen. Eine empirische Analyse zur Effizienz der Suchmethode Pyramiding.

Prügl, Reinhard Wilhelm 02 1900 (has links) (PDF)
Die Identifikation von Personen mit hoher Expertise in einem spezifischen Gebiet ist in vielen Bereichen des Wirtschaftslebens von zentraler Bedeutung. Um beispielsweise Marktinformationen einzuholen, wird in Unternehmen normalerweise die Marktforschung bemüht. Deren Instrumentarium ist aus guten Gründen stark am Ideal der Repräsentativität ausgerichtet. Was aber, wenn das Ziel nicht ist, allgemeingültige Aussagen zu gewinnen, sondern seltene, besonders wertvolle Informationen gesucht werden, wie etwa Ideen für neue Produkte? Methoden wird hierzu in der Marktforschungsliteratur kaum Aufmerksamkeit gewidmet. Wissen dazu ist jedoch von hoher Bedeutung. Unternehmen sind einem zunehmenden Innovationsdruck ausgesetzt und daher wird auch die Frage immer wichtiger, wie man zu Ideen für viel versprechende Innovationen gelangen kann. Eine besondere Bedeutung als Träger solcher Ideen haben die so genannten "Lead User" - Produktnutzer, die ihrer Zeit voraus sind. Wie findet man sie? Diese Frage ist keineswegs trivial. Ziel der vorliegenden Arbeit ist es daher, zentrale Fragen bei der Vewendung der Pyramiding-Methode für die Suche nach Personen mit besonderen Merkmalen theoretisch und empirisch zu beantworten. Die beiden Forschungsfragen dieser Dissertation lauten:(1)Wie effizient ist der Suchprozess im Rahmen der Pyramiding-Methode (im Vergleich zur Screening-Methode)? (2)Welche Faktoren beeinflussen die Effizienz eines Verweises der Auskunftsperson bei der Suche mit der Pyramiding-Methode? Ein aufwändiges Feldexperiment ermöglicht die Analyse von 292 Pyramiding-Verweisketten. Das Ergebnis: Im Rahmen der vorliegenden empirischen Untersuchung sind nur zwischen rund 8% und 70% des Aufwands (Anzahl der befragten Personen) für die Suche mittels der Screening-Methode notwendig, um die gesuchte Person zu identifizieren. Als zentrale Einflussfaktoren auf die Effizienz eines Pyramiding-Verweises einer Auskunftsperson konnten in dieser empirischen Untersuchung unterschiedliche Variablen identifiziert und empirisch bestätigt werden: sowohl personenbezogene als auch populationsbezogene Variablen zeigen einen signifikanten Einfluss. (Autorenref.)

Monte Carlo Simulation of Boundary Crossing Probabilities for a Brownian Motion and Curved Boundaries

Drabeck, Florian January 2005 (has links) (PDF)
We are concerned with the probability that a standard Brownian motion W(t) crosses a curved boundary c(t) on a finite interval [0, T]. Let this probability be denoted by Q(c(t); T). Due to recent advances in research a new way of estimating Q(c(t); T) seems feasible: Monte Carlo Simulation. Wang and Pötzelberger (1997) derived an explicit formula for the boundary crossing probability of piecewise linear functions which has the form of an expectation. Based on this formula we proceed as follows: First we approximate the general boundary c(t) by a piecewise linear function cm(t) on a uniform partition. Then we simulate Brownian sample paths in order to evaluate the expectation in the formula of the authors for cm(t). The bias resulting when estimating Q(c_m(t); T) rather than Q(c(t); T) can be bounded by a formula of Borovkov and Novikov (2005). Here the standard deviation - or the variance respectively - is the main limiting factor when increasing the accuracy. The main goal of this dissertation is to find and evaluate variance reducing techniques in order to enhance the quality of the Monte Carlo estimator for Q(c(t); T). Among the techniques we discuss are: Antithetic Sampling, Stratified Sampling, Importance Sampling, Control Variates, Transforming the original problem. We analyze each of these techniques thoroughly from a theoretical point of view. Further, we test each technique empirically through simulation experiments on several carefully chosen boundaries. In order to asses our results we set them in relation to a previously established benchmark. As a result of this dissertation we derive some very potent techniques that yield a substantial improvement in terms of accuracy. Further, we provide a detailed record of our simulation experiments. (author's abstract)

Samoorganizace a optické vlastnosti malých molekulárních agregátů / Selforganization and optical properties of small molecular aggregates

Sláma, Vladislav January 2013 (has links)
The work deals with the description of carotenoid aggregation in water solutions. The main interactions which are involved in aggregation were analyzed and an efficient way of description of carotenoid aggregation, which leads to a speed up the computation, has been introduced. In addition, two different methods for calculation probability distribution of catotenoids configurations in solutions with variable water concentration were elaborated, and their advantages and disadvantages were discussed. Absorption spectra were calculated from these distributions, and they were compared with the experimental results. The influence of water on formation of different types of aggregates, and its impact on the shape of absorption spectra was also discussed. Results of this study will be used as a base of other, more accurate, description of carotenoids aggregation, which will include other weaker interactions between carotenoids.

An analysis of schedule buffer time for increased robustness and cost efficiency in Scandinavian Airlines´traffic program

Forsberg, Lucas, Ström, Anders January 2016 (has links)
The airline industry has become more competitive since the introduction of low fare airlines in the 1990s. Thus, requirement of optimized planning is nowadays essential in order to obtain high market shares. The planning behind an airworthy traffic program is complex and includes many different resources, as fleet, crew and maintenance, which have to be synchronized. With a constant risk of unforeseen disruptions and variances in the weather conditions, robustness in form of time buffers are necessary in order to give the system a chance of recovery. Generally, one delay often affects several flights due to the lack of time buffers. In order to achieve cost reductions and to maximize profit, airlines tends to create traffic programs maximizing airborne hours. This report culminates in a conclusion of where and when time buffers, in a cost efficient way, can be added in Scandinavian Airline´s traffic program in order to obtain a higher robustness. This is performed by analyzing historical flight data and by implementing a Monte Carlo simulation.

Portfolio Credit Risk Modeling / Modelování portfoliového kreditního rizika

Kolman, Marek January 2010 (has links)
Thesis Portfolio Credit Risk Modeling focuses on state-of-the-art credit models largely implemented by banks into their banking risk-assessment and complementary valuation system frameworks. Reader is provided in general with both theoretical and applied (practical) approaches that are giving a clear notion how selected portfolio models perform in real-world environment. Our study comprises CreditMetrics, CreditRisk+ and KMV model. In the first part of the thesis, our intention is to clarify theoretically main features, modeling principles and moreover we also suggest hypotheses about strengths/drawbacks of every scrutinized model. Subsequently, in the applied part we test the models in a lab-environment but with real-world market data. Noticeable stress is also put on model calibration. This enables us to con firm/reject the assumptions we made in the theoretical part. In the very end there follows a straightforward general overview of all outputs and a conclusion.

Simulation of self-assembled nanopatterns in binary alloys on the fcc(111) surface / Simulation von selbstgebildeten Nanostrukturen in binären Legierungen auf der fcc(111) Oberfläche

Weber, Sebastian January 2008 (has links) (PDF)
In this PhD thesis, we study the heteroepitaxial crystal growth by means of Monte Carlo simulations. Of particular interest in this work is the influence of the lattice mismatch of the adsorbates relative to the substrate on surface structures. In the framework of an off-lattice model, we consider one monolayer of adsorbate and investigate the emerging nanopatterns in equilibrium and their formation during growth. In chapter 1, a brief introduction is given, which describes the role of computer simulations in the field of the physics of condensed matter. Chapter 2 is devoted to some technical basics of experimental methods of molecular beam epitaxy and the theoretical description. Before a model for the simulation can be designed, it is necessary to make some considerations of the single processes which occur during epitaxial growth. For that purpose we look at an experimental setup and extract the main microscopic processes. Afterwards a brief overview of different theoretical concepts describing that physical procedures is given. In chapter 3, the model used in the simulations is presented. The aim is to investigate the growth of an fcc crystal in the [111] direction. In order to keep the simulation times within a feasible limit a simple pair potential, the Lennard-Jones potential, with continuous particle positions is used, which are necessary to describe effects resulting from the atomic mismatch in the crystal. Furthermore the detailed algorithm is introduced which is based on the idea to calculate the barrier of each diffusion event and to use the barriers in a rejection-free method. Chapter 4 is attended to the simulation of equilibrium. The influence of different parameters on the emerging structures in the first monolayer upon the surface, which is completely covered with two adsorbate materials, is studied. Especially the competition between binding energy and strain leads to very interesting pattern formations like islands or stripes. In chapter 5 the results of growth simulations are presented. At first, we introduce a model in order to realize off-lattice Kinetic Monte Carlo simulations. Since the costs in simulation time are enormous, some simplifications in the calculation of diffusion barriers are necessary and therefore the previous model is supplemented with some elements from the so-called ball and spring model. The next point is devoted to the calculation of energy barriers followed by the presentation of the growth simulations. Binary systems with only one sort of adsorbate are investigated as well as ternary systems with two different adsorbates. Finally, a comparison to the equilibrium simulations is drawn. Chapter 6 contains some concluding remarks and gives an outlook to possible further investigations. / Diese Doktorarbeit beschäftigt sich mit der Untersuchung von heteroepitaktischem Kristallwachstum mit Hilfe von Monte Carlo Simulationen. Von besonderem Interesse ist hierbei der Einfluss des Gitterunterschieds zwischen den Adsorbatmaterialien und dem Substrat auf die Oberflächenstrukturen. Unter Verwendung eines gitterfreien Modells betrachten wir die erste Monolage des Adsorbats und untersuchen die entstehenden Nanostrukturen sowie deren Entwicklung während des Wachstums. Kapitel 1 gibt dazu eine kurze Einführung, welche die Rolle von Computersimulationen im Gebiet der modernen Festkörperphysik beschreibt. Kapitel 2 widmet sich einigen technischen Grundlagen der Molekularstrahlepitaxie und deren theoretischen Behandlung. Bevor ein Modell für die Simulation erstellt werden kann, ist es notwendig einige Überlegungen über die einzelnen Prozesse anzustellen, welche beim epitaktischen Wachstum in Erscheinung treten. Zu diesem Zweck betrachten wir zunächst den experimentellen Aufbau und entnehmen die wichtigsten mikroskopischen Prozesse. Danach wird ein kurzer Überblick über die verschiedenen theoretischen Konzepte gegeben, die diese physikalischen Vorgänge beschreiben. In Kapitel 3 wird anschließend das in den Simulationen verwendete Modell vorgestellt. Das Ziel dieser Arbeit ist die Untersuchung des Wachstums eines fcc Kristalls in die [111] Richtung. Um die Simulationszeiten in realisierbaren Grenzen zu halten, wird ein einfaches Paar-Potential, das Lennard-Jones Potential, mit kontinuierlichen Koordinaten verwendet, welche notwendig sind, um Effekte zu beschreiben, die ihren Ursprung in der atomaren Fehlanpassung im Kristall besitzen. Außerdem wird der detaillierte Algorithmus erläutert, welcher darauf basiert zunächst die Barriere eines jeden Diffusionsereignisses zu berechnen, um diese Barrieren dann in einem verwerfungsfreien Algorithmus zu verwenden. Kapitel 4 beschäftigt sich mit der Simulation von Gleichgewichtskonfigurationen. Dabei wird der Einfluss verschiedener Parameter auf die entstehenden Strukturen in der ersten Monolage auf dem Substrat untersucht, welches vollständig mit zwei Adsorbatmaterialien bedeckt ist. Besonders die Konkurrenz zwischen Bindungsenergie und Verspannung führt zur Bildung äußerst interessanter Strukturen wie Inseln oder Streifen. Im Anschluss werden in Kapitel 5 die Ergebnisse von Wachstumssimulationen präsentiert. Zu Beginn stellen wir das Modell vor, das den gitterfreien Monte Carlo Simulationen zu Grunde liegt. Da sich der numerische Aufwand in enormen Simulationszeiten niederschlägt, werden einige Vereinfachungen bei der Berechnung der Diffusionsbarrieren notwendig und aus diesem Grund werden dem bis dahin verwendetem Modell einige Elemente des sogenannten Ball and Spring Modells hinzugefügt. Der nächste Abschnitt widmet sich dann den Berechnungen der Energiebarrieren, bevor die Ergebnisse der Wachstumssimulationen vorgestell werden. Dabei werden sowohl binäre Systeme mit nur einer Adsorbatsorte als auch ternäre Systeme mit zwei Adsorbatkomponenten untersucht. Abschließend wird ein Vergleich zu den Ergebnissen der Gleichgewichtssimulationen aus dem Kapitel vorher gezogen. Kapitel 6 beinhaltet schließlich einige zusammenfassende Bemerkungen und bietet einen Ausblick auf mögliche weitere Untersuchungen.

Simulation of strain-induced and defect-controlled self-organization of nanostructures / Simulation von verspannungsinduzierter und defektkontrollierter Selbstorganisation von Nanostrukturen

Walther, Markus January 2008 (has links) (PDF)
In this PhD thesis, the effect of strain on heteroepitaxial growth is investigated by means of Kinetic Monte Carlo simulations. In this context the lattice misfit, arising from the different lattice constants of the adsorbate and the substrate material, is of particular interest. As a consequence, this lattice misfit leads to long-range elastic strain effects having strong influence on the entire growing crystal and its resulting surface morphology. The main focus of this work is the investigation of different strain relaxation mechanisms and their controlling parameters, revealing interesting consequences on the subsequent growth. Since epitaxial growth is carried out under conditions far away from thermodynamic equilibrium, it is strongly determined by surface kinetics. At this point the relevant kinetic microscopic processes are described, followed by theoretical considerations of heteroepitaxial growth disclosing an overview over several independent methodological streams, used to model epitaxy in different time and length scales, as well as the characterization of misfit dislocations and the classification of epitaxial growth modes based on thermodynamic considerations. The epitaxial growth is performed by means of Kinetic Monte Carlo simulations which allows for the consideration of long range effects in systems with lateral extension of few hundred atoms. By using an off-lattice simulation model the particles are able to leave their predefined lattice sites, which is an indispensable condition for simulating strain relaxation mechanisms. The main idea of our used model is calculating the activation energy of all relevant thermally activated processes by using simple pair potentials and then realizing the dynamics by performing each event according to its probability by means of a rejection-free algorithm method. In addition, the crystal relaxation procedure, the grid-based particle access method, which accelerates the simulation enormously, and the efficient implementation of the algorithm are discussed. To study the influence of long range elastic strain effects, the main part of this work was realized on the two dimensional triangular lattice, which can be treated as a cross section of the real three dimensional case. Chapter 4 deals with the formation of misfit dislocations as a strain relaxation mechanism and the resulting consequences on the subsequent heteroepitaxial growth. We can distinguish between two principally different dislocation formation mechanisms, depending strongly on the sign as well as on the magnitude of the misfit, but also the surface kinetics need to be taken into account. Additionally, the dislocations affect the lattice spacings of the crystal whose observed progression is in qualitative good agreement with experimental results. Furthermore, the dislocations influence the subsequent growth of the adsorbate film, since the potential energy of an adatom is modulated by buried dislocations. A clear correlation between the lateral positions of buried dislocations and the positions of mounds grown on the surface can be observed. In chapter 5, an alternative strain relaxation mechanism is studied: the formation of three dimensional islands enables the particles to approach their preferred lattice spacing. We demonstrate that it is possible to adjust within our simulation model each of the three epitaxial growth modes: Volmer–Weber, Frank–van der Merve or layer-by-layer, and Stranski–Krastanov growth mode. Moreover, we can show that the emerging growth mode depends in principle on two parameters: on the one hand the interaction strength of adsorbate particles with each other, compared to the interaction of adsorbate with substrate particles, and on the other hand the lattice misfit between adsorbate and substrate particles. A sensible choice of these two parameters allows the realization of each growth mode within the simulations. In conclusion, the formation of nanostructures controlled by an underlying dislocation network can be applied in the concept of self-organized pattern formation as well as by the tendency to form ordered arrays of strain-induced three dimensional grown islands. In chapter 6, we extend our model to three dimensions and investigate the effect of strain on growth on bcc(100) surfaces. We introduce an anisotropic potential yielding a stable bcc lattice structure within the off-lattice representation. We can show that the strain built up in submonolayer islands is mainly released at the island edges and the lattice misfit has strong influence on the diffusion process on the plane surface as well as on the situation at island edges with eminent consequences on the appearance of submonolayer islands. / Im Rahmen dieser Doktorarbeit wird der Einfluss elastischer Verspannungen auf heteroepitaktisches Kristallwachstum mit Hilfe kinetischer Monte Carlo Simulationen untersucht. Von besonderem Interesse ist hierbei die Gitterfehlanpassung, die aus den unterschiedlichen Gitterkonstanten des Adsorbat- und des Substratmaterials herrührt. Dieser Gitterunterschied zeigt weitreichende elastische Verspannungseffekte mit starkem Einfluss auf den gesamten Kristall und dessen Morphologie. Hauptgegenstand der vorliegenden Arbeit ist die Untersuchung der wesentlichen Mechanismen, mittels deren die Kristallverspannungen abgebaut werden. Dabei gilt es ferner die maßgeblichen Parameter zu bestimmen, die es erlauben, die Relaxationsmechanismen zu kontrollieren. Da epitaktisches Wachstum fernab vom thermodynamischen Gleichgewicht stattfindet und somit stark von kinetischen Oberflächenprozessen beeinflusst wird, werden zunächst die relevanten mikroskopischen Prozesse beschrieben. Im Anschluss daran folgt ein Überblick über verschiedene Methoden, die zur Modellierung epitaktischem Wachstums auf unterschiedlichen Zeit- und Längenskalen dienen, gefolgt von Charakterisierungsmöglichkeiten von Versetzungen und der Klassifizierung der verschiedenen Wachstumsmoden. Hierbei wird epitaktisches Wachstum mittels kinetischen Monte Carlo Simulationen verwirklicht, die es erlauben weitreichende Verspannungseffekte an Systemen mit einer Ausdehnung von einigen hundert Atomen zu untersuchen. Die Verwendung eines gitterfreien Simulationsmodells ermöglicht ferner den Teilchen, ihre vordefinierten Gitterplätze zu verlassen. Die Grundidee unseres Modells besteht darin, die Aktivierungsenergien aller relevanten thermisch aktivierten Prozesse mit Hilfe einfacher Paarwechselwirkungspotenziale zu berechnen. Die Dynamik wird dadurch verwirklicht, dass jedes Ereignis entsprechend seiner Wahrscheinlichkeit unter Verwendung eines verwerfungsfreien Algorithmus ausgeführt wird. Ferner werden das Kristallrelaxationsverfahren, die rasterbasierte Teilchenzugriffsmethode, welche die Simulationen erheblich beschleunigt, sowie die effiziente Implementierung des Algorithmus diskutiert. In den weiteren Kapiteln findet unser Modell Anwendung in der Simulation der verschiedenen Mechanismen des Verspannungsabbaus beim heteroepitaktischen Wachstum. Um den Einfluss weitreichender elastischer Verspannungseffekte zu untersuchen, wurde der Großteil dieser Arbeit auf dem zweidimensionalen Dreiecksgitter bewerkstelligt, das als Querschnitt des realen dreidimensionalen Falls betrachtet werden kann. Kapitel 4 behandelt den Verspannungsabbau durch die Bildung von Versetzungen. Hierbei unterscheidet man zwei prinzipiell unterschiedliche Mechanismen der Versetzungsbildung, die unter zusätzlicher Berücksichtigung der Oberflächenkinetik maßgeblich vom Vorzeichen und Betrag der Gitterfehlanpassung abhängen. Zusätzlich beeinträchtigen die Versetzungen die Gitterabstände innerhalb des Kristalls, deren Verlauf qualitativ gut mit experimentellen Beobachtungen übereinstimmt. Darüber hinaus beeinflussen Versetzungen den weiteren Wachstumsverlauf des Adsorbatfilms. Dabei besteht ein deutlicher Zusammenhang zwischen den lateralen Positionen der vergrabenen Versetzungen und denen der auf der Oberfläche gewachsenen Hügel. Die Bildung dreidimensionaler Inseln ermöglicht den Teilchen sich ihrem bevorzugten Gitterabstand anzunähern. Im Rahmen unseres Modells ist es möglich, jede der drei epitaktischen Wachstumsarten einzustellen: Volmer–Weber, Frank–van der Merve oder Lage für Lage sowie die Stranski–Krastanov Wachstumsart. Ferner sind wir in der Lage zu zeigen, dass die sich einstellende Wachstumsart im Wesentlichen von zwei Parametern gesteuert werden kann: die erste wichtige Größe ist die Wechselwirkungsstärke zwischen Adsorbatteilchen untereinander verglichen mit jener zwischen Adsorbat- und Substratteilchen, den zweiten wichtigen Parameter stellt die Gitterfehlanpassung zwischen Adsorbat und Substrat dar. Eine vernünftige Wahl dieser beiden Parameter erlaubt es, jede dieser drei Wachstumsarten zu simulieren. Schlussfolgernd kann gesagt werden, dass einerseits durch ein zu Grunde liegendes Versetzungsnetzwerk die Bildung von Nanostrukturen gesteuert werden kann, andererseits auch die durch Kristallverspannungen induzierte, regelmäßige Anordnung dreidimensional gewachsener Inseln in dem Konzept selbstorganisierter Strukturbildung Verwendung finden kann. In Kapitel 6 erweitern wir schließlich unser Modell auf drei Dimensionen, was es uns ermöglicht, den Einfluss von Verspannung auf das Wachstum auf bcc(100) Oberflächen zu untersuchen. Dabei zeigt sich, dass die Verspannung innerhalb der Monolageninseln hauptsächlich an den Inselrändern abgebaut wird und die Gitterfehlanpassung starken Einfluss auf die Diffusion in der Ebene genauso wie auf die Situation an den Inselrändern hat und somit bedeutende Auswirkungen auf das Erscheinungsbild von Submonolageninseln zeigt.

Page generated in 0.1388 seconds