Spelling suggestions: "subject:"werteinteilung"" "subject:"artenverteilung""
161 |
Analysis Of Multiwalled Carbon Nanotube Agglomerate Dispersion In Polymer MeltsKasaliwal, Gaurav 15 July 2011 (has links)
For the commercial success of polymer - multiwalled carbon nanotube (MWNT) composites the production of these materials on industrial scale by melt processing is of significant importance. The complete dispersion of primary MWNT agglomerates in a polymer melt is difficult to achieve, making it an important and challenging technological problem. Hence, it is necessary to understand the process of MWNT agglomerate dispersion in a polymer melt.
Based on an intensive literature research on mechanisms and influencing factors on dispersion of other agglomerated nanostructured fillers (e.g. carbon black), the main dispersion steps were evaluated and investigated concerning the agglomerated MWNT.Consequently, systematic investigations were performed to study the effect of the melt infiltration on MWNT agglomerate dispersion and to analyse the corresponding main dispersion mechanisms, namely rupture and erosion. The states of MWNT agglomerate dispersion were assessed by quantifying the agglomerate area ratio and particle size distribution using image analysis of optical transmission micrographs. Additionally, the composite’s electrical resistivity was determined. In the prevailing study, polycarbonates (PC) varying in molecular weight were used to produce composites containing 1 wt% MWNT (Baytubes C150HP) as model systems and a discontinuous microcompounder was applied as melt mixing device. The agglomerate structure of the used MWNT material made them especially suitable for the reported investigations.
The step of melt infiltration into the primary nanotube agglomerates plays a crucial role for their dispersion in the PC melt. During melt mixing when low shear rates were applied, better state of MWNT dispersion was obtained in high viscosity matrices because applied shear stresses were high. On the contrary, if high shear rates were applied, similar states of MWNT dispersion were obtained in low and high viscosity matrices although significantly lower shear stresses were applied in the low viscosity matrix as compared to the high viscosity matrix. The results indicate that if the applied shear stress values are compared, with increasing matrix viscosity the agglomerate dispersion gets worsen. This is attributed to the fact that low viscosity matrices can infiltrate relatively faster than high viscosity matrices into the agglomerate making them weaker and reducing the agglomerate strength. Thus, at sufficient shear rates MWNT agglomerates disperse relatively faster in low viscosity matrix. This illustrates a balance between the counteracting effects of viscosity on agglomerate infiltration and agglomerate dispersion.
Additionally, the effect of matrix molecular weight on the size of un-dispersed MWNT agglomerates was investigated. Under similar conditions of applied shear stress, the composites based on low molecular weight matrix showed smaller sized un-dispersed primary agglomerates as compared to composites with higher molecular weight matrices. This again highlights the role of matrix infiltration as the first step of dispersion.
Following the step of melt infiltration, agglomerate size gets reduced due to the dispersion mechanisms. To analyse the corresponding contributions of different dispersion mechanisms (rupture and erosion), the kinetics of MWNT agglomerate dispersion was investigated. If high mixing speeds are employed dispersion is quite fast and needs less time as compared to low mixing speed. A model is proposed to estimate the fractions of rupture and erosion mechanisms during agglomerate dispersion based on the kinetic study in the discontinuous mixer. Under the employed experimental conditions, at high mixing speeds, the dispersion was found to be governed by rupture dominant mechanism, whereas at low mixing speeds the dispersion was controlled by both mechanisms.
As far as electrical resistivity is concerned, for a given content of MWNT as the state of dispersion improves, the resistivity values decrease significantly but only up to a plateau value. The composites produced using low viscosity matrices have lower resistivity values as compared to high viscosity matrices. Additionally, composites were prepared using additives, whereas the additives were found to be useful for improving filler dispersion and electrical conductivity.
|
162 |
On the diffusion in inhomogeneous systemsHeidernätsch, Mario 29 May 2015 (has links)
Ziel dieser Arbeit ist die Untersuchung des Einflusses der stochastischen Interpretation der Langevin Gleichung mit zustandsabhängigen Diffusionskoeffizienten auf den Propagator des zugehörigen stochastischen Prozesses bzw. dessen Mittelwerte. Dies dient dem besseren Verständnis und der Interpretation von Messdaten von Diffusion in inhomogenen Systemen und geht einher mit der Frage der Form der Diffusionsgleichung in solchen Systemen. Zur Vereinfachung der Fragestellung werden in dieser Arbeit nur Systeme untersucht die vollständig durch einen ortsabhängigen Diffusionskoeffizienten und Angabe der stochastischen Interpretation beschrieben werden können.
Dazu wird zunächst für mehrere experimentell relevante eindimensionale Systeme der jeweilige allgemeine Propagator bestimmt, der für jede denkbare stochastische Interpretation gültig ist. Der analytisch bestimmte Propagator wird dann für zwei exemplarisch ausgewählte stochastische Interpretationen, hier für die Itô und Klimontovich-Hänggi Interpretation, gegenübergestellt und die Unterschiede identifiziert. Für Mittelwert und Varianz der Prozesse werden die drei wesentlichen stochastischen Interpretationen verglichen, also Itô, Stratonovich und Klimontovich-Hänggi Interpretation. Diese systematische Untersuchung von inhomogenen Diffusionsprozessen kann zukünftig helfen diese Art von, in genau einer stochastischen Interpretation, driftfreien Systemen einfacher zu identifizieren.
Ein weiterer wesentlicher Teil der Arbeit erweitert die Frage auf mehrdimensionale inhomogene anisotrope Systeme. Dies wird z.B. bei der Untersuchung von Diffusion in Flüssigkristallen mit inhomogenem Direktorfeld relevant. Obwohl hier, im Gegensatz zu eindimensionalen Systemen, der Propagator nicht allgemein berechnet werden kann, wird dennoch der Einfluss der Inhomogenität auf Messgrößen, wie die mittlere quadratische Verschiebung oder die Verteilung der Diffusivitäten, bestimmt. Anhand eines Beispiels wird auch der Einfluss der stochastischen Interpretation auf diese Messgrößen demonstriert. / The aim of this thesis is to investigate the influence of the stochastic interpretation of the Langevin equation with state-dependent diffusion coefficient on the propagator of the related stochastic process, or its averages, respectively. This helps to obtain a deeper understanding and to interpret measurement data of diffusion in inhomogeneous systems and is accompanied with the question of the proper form of the diffusion equation in such systems. To simplify the question, in this thesis only systems are considered which can be fully described by a spatially dependent diffusion coefficient and a given stochastic interpretation.
Therefore, for several experimentally relevant one-dimensional systems, the respective general propagator is determined, which is valid for any possible stochastic interpretation. Then, the propagator for two exemplary stochastic interpretations, here the Itô and Klimontovich-Hänggi interpretation, are compared and the differences are identified. For mean and variance of the processes three major interpretations are compared, namely the Itô, the Stratonovich and the Klimontovich-Hänggi interpretation. This systematic research on inhomogeneous diffusion process may help in future to identify these kind of, in exactly one stochastic interpretation, drift-free systems more easily.
Another important part of this thesis extends this question to multidimensional inhomogeneous anisotropic systems. This is of high relevance, for instance, for the research of diffusion in liquid crystalline systems with an inhomogeneous director field. Although, in contrast to one-dimensional systems, the propagator may not be calculated generally, the influence of the inhomogeneity on measurement data like the mean squared displacement or the distribution of diffusivities is determined. Based on one example, also the influence of the stochastic interpretation on these quantities is demonstrated.
|
163 |
Energy-aware localization based on an optimized anchor deployment in wireless sensor networksEl Houssaini, Dhouha 16 January 2023 (has links)
Various applications of Wireless Sensor Networks (WSNs) require accurate localization of sensor nodes. The quantity and locations of anchor nodes, which serve as reference points for distance estimates, as well as the localization process itself, affect the localization accuracy. Furthermore, because numerous communications are sent between nodes for localization, energy consumption must be considered. This work presents an energy-aware and accurate localization method. It is based on a combined anchor deployment and energy-aware localization. The proper number and distribution of anchors have been investigated to achieve full network coverage and connectivity based on an efficient and heterogeneous hexagonal deployment. Later, energy-aware localization is performed in three stages: Initialization, signal acquisition, and anchor selection. The initialization step allows the network to be adaptable to sudden changes by establishing anchor connectivity and creating the neighbors' list. Meanwhile, the Received Signal Strength Indicator (RSSI) is used for distance measurements between nodes, with the implementation of a Kalman
filter to reduce signal attenuation and noise. Later, the anchor selection is done using fuzzy logic with inference parameters: RSSI, node density, and residual energy. This step ensures that only operable anchors engage in localization, while anchors with inadequate energy sources remain intact to ensure their future availability.:1 Introduction
2 Theoretical background
3 Energy-aware outdoor deployment and localization
4 Proposed anchor deployment method
5 Proposed energy-aware localization method
6 Experimental validation of the proposed localization method / Verschiedene Anwendungen von drahtlosen Sensornetzwerken (WSNs) erfordern eine genaue Lokalisierung von Sensorknoten. Die Anzahl und Standorte der Ankerknoten, die als Referenzpunkte für Entfernungsschätzungen dienen, sowie der Lokalisierungsprozess selbst beeinflussen die Lokalisierungsgenauigkeit. Da für die Lokalisierung zahlreiche Nachrichten zwischen den Knoten gesendet werden, muss außerdem der Energieverbrauch berücksichtigt werden. In dieser Arbeit wird eine energiebewusste und genaue Lokalisierungsmethode vorgestellt. Sie basiert auf einer Kombination aus effizienter Ankerknotennutzung und energiebewusster
Lokalisierung. Die richtige Anzahl und Verteilung von Ankern wurde untersucht, um eine vollständige Netzabdeckung und Konnektivität auf der Grundlage einer effizienten und heterogenen hexagonalen Verteilung zu erreichen. Später wird die energiebewusste Lokalisierung in drei Stufen durchgeführt: Initialisierung, Signalerfassung und Ankerauswahl. Der Initialisierungsschritt ermöglicht es dem Netzwerk, sich an plötzliche Veränderungen anzupassen, indem es die Verbindung zu den Ankern und die Liste der Nachbarn erstellt. Zunächst wird der Received Signal Strength Indicator (RSSI) für die Entfernungsmessung zwischen den Knoten verwendet, wobei ein Kalman-Filter implementiert wird, um Signalabschwächung und Rauschen zu reduzieren. Später erfolgt die Ankerauswahl mit Hilfe von Fuzzy-Logik und Inferenzparametern: RSSI, Knotendichte und Restenergie. Dieser Schritt stellt sicher, dass nur funktionsfähige Anker an der Lokalisierung teilnehmen, während Anker mit unzureichenden Energiequellen intakt bleiben, um ihre zukünftige Verfügbarkeit zu gewährleisten.:1 Introduction
2 Theoretical background
3 Energy-aware outdoor deployment and localization
4 Proposed anchor deployment method
5 Proposed energy-aware localization method
6 Experimental validation of the proposed localization method
|
164 |
Geometallurgical resource assessment for tailings storage facilitiesBlannin, Rosie 15 November 2024 (has links)
Tailings are the fine-grained residues produced by processing operations, and are commonly retain residual contents of valuable and critical metals. Re-mining of tailings storage facilities (TSF) could play a crucial role in alleviating environmental problems associated with mine wastes, while recovering residual value and decreasing the volumes of tailings to be stored. Resource modelling of TSFs is complicated by their heterogeneity, which results from the sedimentary-style deposition of tailings, as well as post-depositional processes like weathering. Tailings particles are sorted based on size and density (i.e., mineralogy), generating strong systematic trends in geochemistry across a TSF. As such, TSFs should not be treated the same way as primary deposits; different sampling, spatial modelling, and processing methods may be needed, as well as adaptions to resource and reserve reporting codes. This thesis provides recommendations for the resource and reserve estimation of TSFs. To achieve this, a series of methods were developed, from best-practise sampling of TSFs for resource estimation, through to geostatistical modelling of a TSF for grade/tonnage estimation with corresponding uncertainties, to geometallurgical modelling using particle-based data.
|
165 |
Hazard functions and macroeconomic dynamicsYao, Fang 24 January 2011 (has links)
In dieser Arbeit werden die Folgen der Calvo-Annahme in dynamischen makroökonomischen Modellen untersucht. Dafür wird die Calvo-Annahme unter Anwendung des Konzepts der statistischen Hazardfunktion verallgemeinert. Ich untersuche zwei mögliche Anwendungen dieses Ansatzes innerhalb von DSGE-Modellen. Im ersten Artikel zeige ich, dass der Zugewinn an Handhabbarkeit, der aus der Calvo-Annahme für Neu-Keynesianische Modelle folgt, mit unerwünschten Folgen in Bezug auf die Inflationsdynamiken einher geht. Der zweite Artikel schätzt die aggregierte Hazardfunktion unter Verwendung des theoretischen Rahmens des ersten Artikels. Es zeigt sich, dass die Annahme einer konstanten Hazardfunktion, die aus der Calvo-Annahme folgt, von den Daten eindeutig abgelehnt wird. Im dritten Artikel analysiere ich die Implikationen der empirisch geschätzten Hazardfunktion für die Persistenz von Inflation und die Geldpolitik. Die Untersuchungen zeigen, dass mittels der empirisch plausiblen aggregierten Hazardfunktion Zeitreihen simuliert werden können, die mit der Persistenz der inflatorischen Lücke im US Verbraucherpreisindex konsistent sind. Anhand dieser Ergebnisse komme ich zu dem Schluss, dass die Hazardfunktion eine entscheidende Rolle für die dynamischen Eigenschaften von Inflation spielt. Der letzte Artikel wendet den selben Modellierungsansatz auf ein Real-Business-Cycle Model mit rigidem Arbeitsmarkt an. Unter Verwendung eines allgemeineren stochastischen Anpassungsprozess stelle ich fest, dass die Arbeitsmarktdynamiken von einem Parameter beinflusst werden, der das Monotonieverhalten der Hazardfunktion bestimmt. Insbesondere steigt die Volatilität des Beschäftigungsniveaus, wohingegen dessen Persistenz mit zunehmendem Parameterwert abnimmt. / The Calvo assumption (Calvo, 1983) is widely used in the macroeconomic literature to model market frictions that limit the ability of economic agents to re-optimize their control variables. In spite of its virtues, the Calvo assumption also implies singular adjustment behavior at the firm level as well as a restrictive aggregation mechanism for the whole economy. In this study, I examine implications of the Calvo assumption for macroeconomic dynamics. To do so, I extend the Calvo assumption to a more general case based on the concept of the statistical hazard function. Two applications of this approach are studied in the DSGE framework. In the first essay, I apply this approach to a New Keynesian model, and demonstrate that tractability gained from the Calvo pricing assumption is costly in terms of inflation dynamics. The second essay estimates aggregate price reset hazard function using the theoretical framework constructed in the first essay, and shows that the constant hazard function implied by the Calvo assumption is strongly rejected by the aggregate data. In the third essay, I further explore implications of the empirically based hazard function for inflation persistence and monetary policy. I find that the empirically plausible aggregate price reset hazard function can generate simulated data that are consistent with inflation gap persistence found in the US CPI data. Based on these results, I conclude that the price reset hazard function plays a crucial role for generating inflation dynamics. The last essay applies the same modeling approach to a RBC model with employment rigidity. I find that, when introducing a more general stochastic adjustment process, the employment dynamics vary with a parameter, which determines the monotonic property of the hazard function. In particular, the volatility of employment is increasing, but the persistence is decreasing in the value of the parameter.
|
166 |
Analysis of the long term dynamics in thesaurus developments and its consequencesTavakolizadeh-Ravari, Mohammad 20 August 2007 (has links)
Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank „MEDLINE“. Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: „T = 3.076,6 Ln (d) – 22.695 + 0,0039d“ (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften. / This dissertation analyzes dynamic developments and use of thesauri. It focuses also on six effecting factors on the number of index terms per document or journal. MeSH and its corresponding well known database “MEDLINE” were established to conduct this research. The main consequences of statistical analyses are: 1. MeSH has developed logarithmically through three different phases. Such a thesaurus should follow the equation “T = 3,076.6 Ln(d) –22,695 + 0.0039d” (T = thesaurus terms, Ln = natural logarithm, and d = documents). To construct such a thesaurus, one needs to have at least 1,600 documents covering different topics of the thesaurus. The dynamic of thesauri such as MeSH is due to the persistent inclusion of one new term per indexing of 256 new documents. 2. The distribution of thesaurus terms yielded three classes: highly, normally, and rarely used terms. The last group is in a test phase, and only growth rates of most frequented terms in the first class and newer terms in the second class were becoming persistent over time. 3. There is a logarithmic relationship between the number of index terms per article and its pages, if the articles are between one and twenty-one pages. 4. Journal articles with abstracts received almost two more terms than those included into MEDLINE without abstracts. 5. The findability of non-English documents, such as articles written in German and indexed in an US-based database like MEDLINE, is less than that of English documents. The greatest difference is for articles with ten pages and the least is for those with twenty and more pages. 6. Journals with Impact Factors in the range from 0 to fifteen receive roughly the same number of index terms per page. 7. In an indexing system, different journals have more or less weight in their findability. Distribution of index terms per page has shown that there are three regions of journals in MEDLINE. In addition, few journals are the most favored ones and get more index term per page.
|
167 |
Determinants of population structure in the world's smallest primate, <i>Microcebus berthae</i>, across its global range in Menabe Central, Western Madagascar / Determinanten der räumlichen Populationsstruktur des kleinsten bekannten Primaten, <i>Microcebus berthae</i>, in dessen globalem Verbreitungsgebiet Menabe Central, West-MadagaskarSchäffler, Livia 16 December 2011 (has links)
No description available.
|
168 |
Novel Methods for Controlled Self-Catalyzed Growth of GaAs Nanowires and GaAs/AlxGa1-xAs Axial Nanowire Heterostructures on Si Substrates by Molecular Beam EpitaxyTauchnitz, Tina 12 March 2020 (has links)
GaAs-based nanowires are attractive building blocks for the development of future (opto)electronic devices owing to their excellent intrinsic material properties, such as the direct band gap and high electron mobility. A pre-requisite for the implementation of novel functionalities on a single Si chip is the monolithic integration of the nanowires on the well-established Si complementary-metal-oxide-semiconductor (CMOS) platform with precise control of the nanowire growth process.
The self-catalyzed (Ga-assisted) growth of GaAs nanowires on Si(111) substrates using molecular beam epitaxy has offered the possibility to obtain vertical nanowires with predominant zinc blende structure, while potential contamination by external catalysts like Au is eliminated. Although the growth mechanism is fairly well understood, control of the nucleation stage, the nanowire number density and the crystal structure has been proven rather challenging. Moreover, conventional growth processes are typically performed at relatively high substrate temperatures in the range of 560-630 °C, which limit their application to the industrial Si platform.
This thesis provides two original methods in order to tackle the aforementioned challenges in the conventional growth processes. In the first part of this thesis, a simple surface modification procedure (SMP) for the in situ preparation of native-SiOx/Si(111) substrates has been developed. Using a pre-growth treatment of the substrates with Ga droplets and two annealing cycles, the SMP enables highly synchronized nucleation of all nanowires on their substrate and thus, the growth of exceptionally uniform GaAs nanowire ensembles with sub-Poissonian length distributions. Moreover, the nanowire number density can be tuned within three orders of magnitude and independent of the nanowire dimensions without prior ex situ patterning of the substrate. This work delivers a fundamental understanding of the nucleation kinetics of Ga droplets on native-SiOx and their interaction with SiOx, and confirms theoretical predictions about the so-called nucleation antibunching, the temporal anti-correlation of consecutive nucleation events.
In the second part of this thesis, an alternative method called droplet-confined alternate-pulsed epitaxy (DCAPE) for the self-catalyzed growth of GaAs nanowires and GaAs/AlxGa1-xAs axial nanowire heterostructures has been developed. DCAPE enables nanowire growth at unconventional, low temperatures in the range of 450-550 °C and is compatible with the standard Si-CMOS platform. The novel growth approach allows one to precisely control the crystal structure of the nanowires and, thus, to produce defect-free pure zinc blende GaAs-based nanowires. The strength of DCAPE is further highlighted by the controlled growth of GaAs/AlxGa1-xAs axial quantum well nanowires with abrupt interfaces and tunable thickness and Al-content of the AlxGa1-xAs sections. The GaAs/AlxGa1-xAs axial nanowire heterostructures are interesting for applications as single photon emitters with tunable emission wavelength, when they are overgrown with thick lattice-mismatched InxAl1-xAs layers in a core-shell fashion. All results presented in this thesis contribute to paving the way for a successful monolithic integration of
highly uniform GaAs-based nanowires with controlled number density, dimensions and crystal structure on the mature Si platform. / GaAs-basierte Nanodrähte sind attraktive Bausteine für die Entwicklung von zukünftigen (opto)elektronischen Bauelementen dank ihrer exzellenten intrinsischen Materialeigenschaften wie zum Beispiel die direkte Bandlücke und die hohe Elektronenbeweglichkeit. Eine Voraussetzung für die Realisierung neuer Funktionalitäten auf einem einzelnen Si Chip ist die monolithische Integration
der Nanodrähte auf der etablierten Si-Metall-Oxid-Halbleiter-Plattform (CMOS) mit
präziser Kontrolle des Wachstumsprozesses der Nanodrähte.
Das selbstkatalytische (Ga-unterstützte) Wachstum von GaAs Nanodrähten auf Si(111)-Substrat mittels Molekularstrahlepitaxie bietet die Möglichkeit vertikale Nanodrähte mit vorwiegend Zinkblende-Struktur herzustellen, während die potentielle Verunreinigung der Nanodrähte und des Substrats durch externe Katalysatoren wie Au vermieden wird. Obwohl der Wachstumsmechanismus gut verstanden ist, erweist sich die Kontrolle der Nukleationsphase, Anzahldichte und Kristallstruktur der Nanodrähte als sehr schwierig. Darüber hinaus sind relativ hohe Temperaturen im Bereich von 560-630 °C in konventionellen Wachstumsprozessen notwendig, die deren Anwendung auf der industriellen Si Plattform begrenzen.
Die vorliegende Arbeit liefert zwei originelle Methoden um die bestehenden Herausforderungen in konventionellen Wachstumsprozessen zu bewältigen. Im ersten Teil dieser Arbeit wurde eine einfache Prozedur, bezeichnet als surface modification procedure (SMP), für die in situ Vorbehandlung von nativem-SiOx/Si(111)-Substrat entwickelt. Die Substratvorbehandlung mit Ga-Tröpfchen und zwei Hochtemperaturschritten vor dem Wachstumsprozess ermöglicht eine synchronisierte Nukleation aller Nanodrähte auf ihrem Substrat und folglich das Wachstum von sehr gleichförmigen GaAs Nanodraht-Ensembles mit einer sub-Poisson Verteilung der Nanodrahtlängen. Des Weiteren kann die Anzahldichte der Nanodrähte unabhängig von deren Abmessungen und ohne ex situ Vorstrukturierung des Substrats über drei Größenordnungen eingestellt werden. Diese Arbeit liefert außerdem ein grundlegendes Verständnis zur Nukleationskinetik von Ga-Tröpfchen auf nativem-SiOx und deren Wechselwirkung mit SiOx und bestätigt theoretische Voraussagen zum sogenannten Nukleations-Antibunching, dem Auftreten einer zeitlichen Anti-Korrelation aufeinanderfolgender Nukleationsereignisse.
Im zweiten Teil dieser Arbeit wurde eine alternative Methode, bezeichnet als droplet-confined alternate-pulsed epitaxy (DCAPE), für das selbstkatalytische Wachstum von GaAs Nanodrähten und GaAs/AlxGa1-xAs axialen Nanodraht-Heterostrukturen entwickelt. DCAPE ermöglicht das Nanodrahtwachstum bei unkonventionell geringeren Temperaturen im Bereich von 450-550 °C und ist vollständig kompatibel mit der Standard-Si-CMOS-Plattform. Der neue Wachstumsansatz erlaubt eine präzise Kontrolle der Kristallstruktur der Nanodrähte und folglich das Wachstum
von defektfreien Nanodrähten mit phasenreiner Zinkblende-Struktur. Die Stärke der DCAPE Methode wird des Weiteren durch das kontrollierte Wachstum von GaAs/AlxGa1-xAs axialen Quantentopf-Nanodrähten mit abrupten Grenzflächen und einstellbarer Dicke und Al-Anteil der AlxGa1-xAs-Segmente aufgezeigt. Die GaAs/AlxGa1-xAs axialen Nanodraht-Heterostrukturen sind interessant für den Einsatz als Einzelphotonen-Emitter mit einstellbarer Emissionswellenlänge, wenn diese mit gitterfehlangepassten InxAl1-xAs-Schichten in einer Kern-Hülle-Konfiguration überwachsen werden. Alle Ergebnisse dieser Arbeit tragen dazu bei, den Weg für eine erfolgreiche monolithische Integration von sehr gleichförmigen GaAs-basierten Nanodrähten mit kontrollierbarer Anzahldichte, Abmessungen und Kristallstruktur auf der industriell etablierten Si-Plattform zu ebnen.
|
169 |
Weak nonergodicity in anomalous diffusion processesAlbers, Tony 23 November 2016 (has links)
Anomale Diffusion ist ein weitverbreiteter Transportmechanismus, welcher für gewöhnlich mit ensemble-basierten Methoden experimentell untersucht wird.
Motiviert durch den Fortschritt in der Einzelteilchenverfolgung, wo typischerweise Zeitmittelwerte bestimmt werden, entsteht die Frage nach der Ergodizität.
Stimmen ensemble-gemittelte Größen und zeitgemittelte Größen überein, und wenn nicht, wie unterscheiden sie sich?
In dieser Arbeit studieren wir verschiedene stochastische Modelle für anomale Diffusion bezüglich ihres ergodischen oder nicht-ergodischen Verhaltens hinsichtlich der mittleren quadratischen Verschiebung.
Wir beginnen unsere Untersuchung mit integrierter Brownscher Bewegung, welche von großer Bedeutung für alle Systeme mit Impulsdiffusion ist.
Für diesen Prozess stellen wir die ensemble-gemittelte quadratische Verschiebung und die zeitgemittelte quadratische Verschiebung gegenüber und charakterisieren insbesondere die Zufälligkeit letzterer.
Im zweiten Teil bilden wir integrierte Brownsche Bewegung auf andere Modelle ab, um einen tieferen Einblick in den Ursprung des nicht-ergodischen Verhaltens zu bekommen.
Dabei werden wir auf einen verallgemeinerten Lévy-Lauf geführt.
Dieser offenbart interessante Phänomene, welche in der Literatur noch nicht beobachtet worden sind.
Schließlich führen wir eine neue Größe für die Analyse anomaler Diffusionsprozesse ein, die Verteilung der verallgemeinerten Diffusivitäten, welche über die mittlere quadratische Verschiebung hinausgeht,
und analysieren mit dieser ein oft verwendetes Modell der anomalen Diffusion, den subdiffusiven zeitkontinuierlichen Zufallslauf. / Anomalous diffusion is a widespread transport mechanism, which is usually experimentally investigated by ensemble-based methods.
Motivated by the progress in single-particle tracking, where time averages are typically determined, the question of ergodicity arises.
Do ensemble-averaged quantities and time-averaged quantities coincide, and if not, in what way do they differ?
In this thesis, we study different stochastic models for anomalous diffusion with respect to their ergodic or nonergodic behavior concerning the mean-squared displacement.
We start our study with integrated Brownian motion, which is of high importance for all systems showing momentum diffusion.
For this process, we contrast the ensemble-averaged squared displacement with the time-averaged squared displacement and, in particular, characterize the randomness of the latter.
In the second part, we map integrated Brownian motion to other models in order to get a deeper insight into the origin of the nonergodic behavior.
In doing so, we are led to a generalized Lévy walk.
The latter reveals interesting phenomena, which have never been observed in the literature before.
Finally, we introduce a new tool for analyzing anomalous diffusion processes, the distribution of generalized diffusivities, which goes beyond the mean-squared displacement, and we analyze with this tool an often used model of anomalous diffusion, the subdiffusive continuous time random walk.
|
170 |
Schädigungsprognose mittels Homogenisierung und mikromechanischer MaterialcharakterisierungGoldmann, Joseph 01 October 2018 (has links)
In der vorliegenden Arbeit wird die Frage untersucht, ob effektive Eigenschaften von Verbunden auch nach dem Auftreten einer Dehnungslokalisierung aufgrund von entfestigendem Materialverhalten noch durch numerische Homogenisierungsmethoden berechnet werden können. Ihr Nutzen für diesen Anwendungsfall wird in der Literatur kritisch beurteilt. Aus diesem Grund werden hier systematisch alle Teilaufgaben betrachtet, die zu diesem Zweck gelöst werden müssen.
Die erste dieser Aufgaben ist die Charakterisierung der einzelnen Verbundbestandteile. Zur Demonstration einer experimentell gestützten Charakterisierung wird ein glasfaserverstärktes Epoxidharz als Beispielmaterial gewählt. Neben der Beschreibung von Faser- und Matrixmaterial wird besonderes Augenmerk auf die Charakterisierung der Grenzschicht zwischen beiden gelegt.
Die für die Glasfasern vorliegenden Festigkeitsmessungen entsprechen nicht der Kettenhypothese. Daher werden zahlreiche Verallgemeinerungen der Weibull-Verteilung untersucht, um störende Effekte zu erfassen. Schließlich werden Wahrscheinlichkeitsverteilungen hergeleitet, die Faserbrüche im Bereich der Einspannung einbeziehen. Die Messwerte können von diesen Verteilungen gut wiedergegeben werden. Zusätzlich macht ihre Anwendung das aufwändige Aussortieren und Wiederholen jener Experimente unnötig, bei denen der Faserbruch im Klemmbereich auftritt.
Zur Modellierung der Grenzfläche wird ein Kohäsivzonengesetz entwickelt. Die Bestimmung seiner Parameter erfolgt anhand von Daten aus Pullout- und Einzelfaserfragmentierungsversuchen. Aus diesen ermittelte Festigkeiten und Energiefreisetzungsraten weisen eine sehr gute Übereinstimmung zwischen beiden Versuchen auf. Dabei erfolgt die Parameteridentifikation mithilfe von Finite-Elemente-Modellen anstatt der häufig genutzten vereinfachten analytischen Modelle, welche üblicherweise eine schlechtere Übereinstimmung erreichen.
Sobald eine Dehnungslokalisierung auftritt, ist neben der Materialmodellierung auch das Homogenisierungsschema zu verallgemeinern. Zu diesem gehören die Generierung repräsentativer Volumenelemente, Randbedingungen (RB) und ein Mittelungsoperator. Anhand des aktuellen Standes der Literatur werden die Randbedingungen als ein signifikanter Schwachpunkt von Homogenisierungsverfahren erkannt. Daher erfolgt die Untersuchung periodischer RB, linearer Verschiebungsrandbedingungen und minimal kinematischer RB sowie zweier adaptiver RB, nämlich Lokalisierungspfad-ausgerichteter RB und generalisiert periodischer RB. Unter der Bezeichnung Tesselationsrandbedingungen wird ein weiterer Typ adaptiver RB vorgeschlagen. Zunächst erfolgt der Beweis, dass alle drei adaptiven RB die Hill-Mandel-Bedingung erfüllen. Des Weiteren wird mittels einer Modifikation der Hough-Transformation ein systematischer Fehler derselben bei der Bestimmung der Richtung von Lokalisierungszonen eliminiert. Schließlich werden die Eigenschaften aller Randbedingungen an verschiedenen Beispielen demonstriert. Dabei zeigt sich, dass nur Tesselationsrandbedingungen sowohl beliebige Richtungen von Lokalisierungszonen erlauben als auch fehlerhafte Lokalisierungen in Eckbereichen ausschließen.
Zusammengefasst können in der Literatur geäußerte grundlegende Einschränkungen hinsichtlich der Anwendbarkeit numerischer Homogenisierungsverfahren beim Auftreten von Dehnungslokalisierungen aufgehoben werden. Homogenisierungsmethoden sind somit auch für entfestigendes Materialverhalten anwendbar. / The thesis at hand is concerned with the question if numerical homogenization schemes can be of use in deriving effective material properties of composite materials after the onset of strain localization due to strain softening. In this case, the usefulness of computational homogenization methods has been questioned in the literature. Hence, all the subtasks to be solved in order to provide a successful homogenization scheme are investigated herein.
The first of those tasks is the characterization of the constituents, which form the composite. To allow for an experimentally based characterization an exemplary composite has to be chosen, which herein is a glass fiber reinforced epoxy. Hence the constituents to be characterized are the epoxy and the glass fibers. Furthermore, special attention is paid to the characterization of the interface between both materials.
In case of the glass fibers, the measured strength values do not comply with the weakest link hypothesis. Numerous generalizations of the Weibull distribution are investigated, to account for interfering effects. Finally, distributions are derived, that incorporate the possibility of failure inside the clamped fiber length. Application of such a distribution may represent the measured data quite well. Additionally, it renders the cumbersome process of sorting out and repeating those tests unnecessary, where the fiber fails inside the clamps.
Identifying the interface parameters of the proposed cohesive zone model relies on data from pullout and single fiber fragmentation tests. The agreement of both experiments in terms of interface strength and energy release rate is very good, where the parameters are identified by means of an evaluation based on finite element models. Also, the agreement achieved is much better than the one typically reached by an evaluation based on simplified analytical models.
Beside the derivation of parameterized material models as an input, the homogenization scheme itself needs to be generalized after the onset of strain localization. In an assessment of the current state of the literature, prior to the generation of representative volume elements and the averaging operator, the boundary conditions (BC) are identified as a significant issue of such a homogenization scheme. Hence, periodic BC, linear displacement BC and minimal kinematic BC as well as two adaptive BC, namely percolation path aligned BC and generalized periodic BC are investigated. Furthermore, a third type of adaptive BC is proposed, which is called tesselation BC. Firstly, the three adaptive BC are proven to fulfill the Hill-Mandel condition. Secondly, by modifying the Hough transformation an unbiased criterion to determine the direction of the localization zone is given, which is necessary for adaptive BC. Thirdly, the properties of all the BC are demonstrated in several examples. These show that tesselation BC are the only type, that allows for arbitrary directions of localization zones, yet is totally unsusceptible to spurious localization zones in corners of representative volume elements.
Altogether, fundamental objections, that have been raised in the literature against the application of homogenization in situations with strain localization, are rebutted in this thesis. Hence, the basic feasibility of homogenization schemes even in case of strain softening material behavior is shown.
|
Page generated in 0.0381 seconds