• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 1
  • 1
  • Tagged with
  • 11
  • 11
  • 9
  • 6
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Methods of spatial statistics for the characterization of dislocation systems

Ghorbani, Hamid 14 December 2009 (has links) (PDF)
Gegenstand der Arbeit ist die Entwicklung statistischer Verfahren zur Schätzung der Anzahl der Versetzungen in multikristallinem Silizium. Die erste Methode benutzt Ideen aus der Theorie der Keim-Korn-Modelle, speziell die sphärische Kontaktverteilungsfunktion. Die zweite Methode geht von einer summarischen Modellierung der Intensitätsfunktion aus. Beide Verfahren liefern, wie erwartet, größere Werte als die bisherigen, von Physikern entwickelten, Schätzer. Der Wachstumsprozess der Versetzungen im Siliziumblock während der Kristallisation wird durch deterministische Wachstumsprozesse mit zufälligen Stoppzeiten modelliert. Sie führen zu Pareto- und Weibullverteilungen für die Anzahl der Versetzungen in Gebieten fester Größe. Diese Modelle wurden auch erfolgreich in der statistischen Analyse der Größe von Waldbränden, der Anzahlen von Galaxien in kubischen Zellen des Universums und der Teilchengrößenverteilungen in einem verfahrenstechnischen Prozess benutzt.
2

Synthesis, characterization and catalytic activity of immobilized metallic nanoparticles

Wunder, Stefanie 10 June 2013 (has links)
In dieser Arbeit wurden Gold- und PlatinNanopartikel in sphärischen Polyelektolyt-Bürsten (SPB) synthetisiert. Diese wurden zu mechanistischen Untersuchungen der p-Nitrophenol-Reduktion mittels Natriumborhydrid herangezogen. Dabei konnte der Mechanismus der Reaktion auf der Oberfläche der Nanopartikel aufgeklärt werden. Die Reaktion folgt einem Langmuir Hinshelwood (LH) Mechanismus. Hierbei adsorbieren beide Edukte auf die Oberfläche, bevor sie im zu p-Aminophenol umgesetzt werden. Nach der Reaktion desorbiert das Reaktionsprodukt. Mittels des LH Modells konnten für verschiedene Temperaturen die intrinsische Geschwindigkeitskonstante, sowie die Adsorptionskonstanten der Edukte bestimmt werden. Mit diesen Daten konnten dann die Enthalpie und Entropie der Adsorption der Edukte und die Aktivierungsenergie berechnet werden. Neben dem Reaktionsmechanismus wurde die Induktionszeit der p-Nitrophenol Reduktion untersucht. Hierbei konnte gezeigt werden, dass diese Totzeit der Reaktion wahrscheinlich auf eine Restrukturierung der Nanopartikeloberfläche zurückzuführen ist. Sie ist unabhängig von den eingesetzten Konzentrationen des Borhydrids, hingegen abhängig von der Konzentration an p-Nitrophenol auf der Oberfläche der Nanopartikel, was auf Restrukturierung der Nanopartikel durch p-Nitrophenol hindeutet. Zudem wurden Hinweise auf eine spontane Rekonstruktion der Nanopartikel gefunden, die unabhängig von der Konzentration des p-Nitrophenols ist. Des Weiteren wurde die katalytische Oxidation von Morin mit Manganoxid Nanopartikeln untersucht. Diese sind in der Polyelektrolytschale der SPB immobilisiert. Analysen der Reaktionskinetik der Morin Oxidation ergaben, dass auch in diesem Fall der LH Mechanismus vorliegt. Hierbei konnten die Adsorptionskonstanten und Geschwindigkeitskonstanten für verschiedene Temperaturen ermittelt werden und somit die Aktivierungsenergie der Oxidation sowie die Adsorptionsenthalpie und Entropie der Edukte. / In this work, gold and platinum nanoparticles were synthesized into spherical polyelectrolyte brushes (SPB) in order to apply them as catalysts for kinetic studies of the reduction of p-nitrophenol by sodium borohydride. It was found that the reaction follows the Langmuir-Hinshelwood (LH) mechanism where both educts must adsorb onto the surface of the catalyst in order to react. Thereby, the rate determining step is the surface reaction of both educts. After the reaction, the product desorbs from the surface and a free active site is formed. With this model the intrinsic reaction rate and the adsorption constants for both educts could be determined. The measurements at different temperatures allowed the calculation of the activation energy and the adsorption enthalpy and entropy of the educts. Besides the reaction mechanism, the induction time of the reaction was analyzed. Here, it was shown that the reason of this delay time is a restructuring of the nanoparticle surface. The induction time is solely dependent on the concentration of p-nitrophenol on the surface of the nanoparticles and independent of the applied concentrations of borohydride. Moreover, hints for a spontaneous reconstruction of the nanoparticles without p-nitrophenol were found. In the second part, the catalytic oxidation of morin by manganese oxide has been studied. These nanoparticles were embedded inside the polyelectrolyte layer of the SPB. These nanoparticles were used for systematic studies of the oxidation of morin with hydrogen peroxide. It was shown that in this case the reaction followed a LH kinetics as well. Here, the intrinsic rate constants and the adsorption constants could be obtained for different temperatures. The activation energy and the adsorption enthalpy and entropy could be determined accordingly. The adsorption enthalpy is exothermic in both cases.
3

Methods of spatial statistics for the characterization of dislocation systems

Ghorbani, Hamid 30 June 2004 (has links)
Gegenstand der Arbeit ist die Entwicklung statistischer Verfahren zur Schätzung der Anzahl der Versetzungen in multikristallinem Silizium. Die erste Methode benutzt Ideen aus der Theorie der Keim-Korn-Modelle, speziell die sphärische Kontaktverteilungsfunktion. Die zweite Methode geht von einer summarischen Modellierung der Intensitätsfunktion aus. Beide Verfahren liefern, wie erwartet, größere Werte als die bisherigen, von Physikern entwickelten, Schätzer. Der Wachstumsprozess der Versetzungen im Siliziumblock während der Kristallisation wird durch deterministische Wachstumsprozesse mit zufälligen Stoppzeiten modelliert. Sie führen zu Pareto- und Weibullverteilungen für die Anzahl der Versetzungen in Gebieten fester Größe. Diese Modelle wurden auch erfolgreich in der statistischen Analyse der Größe von Waldbränden, der Anzahlen von Galaxien in kubischen Zellen des Universums und der Teilchengrößenverteilungen in einem verfahrenstechnischen Prozess benutzt.
4

Reconstructing Functions on the Sphere from Circular Means

Quellmalz, Michael 09 April 2020 (has links)
The present thesis considers the problem of reconstructing a function f that is defined on the d-dimensional unit sphere from its mean values along hyperplane sections. In case of the two-dimensional sphere, these plane sections are circles. In many tomographic applications, however, only limited data is available. Therefore, one is interested in the reconstruction of the function f from its mean values with respect to only some subfamily of all hyperplane sections of the sphere. Compared with the full data case, the limited data problem is more challenging and raises several questions. The first one is the injectivity, i.e., can any function be uniquely reconstructed from the available data? Further issues are the stability of the reconstruction, which is closely connected with a description of the range, as well as the demand for actual inversion methods or algorithms. We provide a detailed coverage and answers of these questions for different families of hyperplane sections of the sphere such as vertical slices, sections with hyperplanes through a common point and also incomplete great circles. Such reconstruction problems arise in various practical applications like Compton camera imaging, magnetic resonance imaging, photoacoustic tomography, Radar imaging or seismic imaging. Furthermore, we apply our findings about spherical means to the cone-beam transform and prove its singular value decomposition. / Die vorliegende Arbeit beschäftigt sich mit dem Problem der Rekonstruktion einer Funktion f, die auf der d-dimensionalen Einheitssphäre definiert ist, anhand ihrer Mittelwerte entlang von Schnitten mit Hyperebenen. Im Fall d=2 sind diese Schnitte genau die Kreise auf der Sphäre. In vielen tomografischen Anwendungen sind aber nur eingeschränkte Daten verfügbar. Deshalb besteht das Interesse an der Rekonstruktion der Funktion f nur anhand der Mittelwerte bestimmter Familien von Hyperebenen-Schnitten der Sphäre. Verglichen mit dem Fall vollständiger Daten birgt dieses Problem mehrere Herausforderungen und Fragen. Die erste ist die Injektivität, also können alle Funktionen anhand der gegebenen Daten eindeutig rekonstruiert werden? Weitere Punkte sind die die Frage nach der Stabilität der Rekonstruktion, welche eng mit einer Beschreibung der Bildmenge verbunden ist, sowie der praktische Bedarf an Rekonstruktionsmethoden und -algorithmen. Diese Arbeit gibt einen detaillierten Überblick und Antworten auf diese Fragen für verschiedene Familien von Hyperebenen-Schnitten, angefangen von vertikalen Schnitten über Schnitte mit Hyperebenen durch einen festen Punkt sowie Kreisbögen. Solche Rekonstruktionsprobleme treten in diversen Anwendungen auf wie der Bildgebung mittels Compton-Kamera, Magnetresonanztomografie, fotoakustischen Tomografie, Radar-Bildgebung sowie der Tomografie seismischer Wellen. Weiterhin nutzen wir unsere Ergebnisse über sphärische Mittelwerte, um eine Singulärwertzerlegung für die Kegelstrahltomografie zu zeigen.
5

Computergestützte Simulation und Analyse zufälliger dichter Kugelpackungen

Elsner, Antje 19 November 2009 (has links)
In dieser interdisziplinär geprägten Arbeit wird zunächst eine Übersicht über kugelbasierte Modelle und die algorithmischen Ansätze zur Generierung zufälliger Kugelpackungen gegeben. Ein Algorithmus aus der Gruppe der Kollektiven-Umordnungs-Algorithmen -- der Force-Biased-Algorithmus -- wird ausführlich erläutert und untersucht. Dabei werden die für den Force-Biased-Algorithmus als essenziell geltenden Verschiebungsfunktionen bezüglich ihres Einflusses auf den erreichbaren Volumenanteil der Packungen untersucht. Nicht nur aus der Literatur bekannte, sondern auch neu entwickelte Verschiebungsfunktionen werden hierbei betrachtet. Daran anschließend werden Empfehlungen zur Auswahl geeigneter Verschiebungsfunktionen gegeben. Einige mit dem Force-Biased-Algorithmus generierte Kugelpackungen, zum Beispiel hochdichte monodisperse Packungen, lassen den Schluss zu, dass insbesondere strukturelle Umbildungsvorgänge an solchen Packungen sehr gut zu untersuchen sind. Aus diesem Grund besitzt das Modell der mit dem Force-Biased-Algorithmus dicht gepackten harten Kugeln große Bedeutung in der Materialwissenschaft, insbesondere in der Strukturforschung. In einem weiteren Kapitel werden wichtige Kenngrößen kugelbasierter Modelle erläutert, wie z. B. spezifische Oberfläche, Volumenanteil und die Kontaktverteilungsfunktionen. Für einige besonders anwendungsrelevante Kenngrößen (z. B. die spezifische Oberfläche) werden Näherungsformeln entwickelt, an Modellsystemen untersucht und mit bekannten Näherungen aus der Literatur verglichen. Zur Generierung und Analyse der Kugelpackungen wurde im Rahmen dieser Arbeit die Simulationssoftware „SpherePack“ entwickelt, deren Aufbau unter dem Aspekt des Softwareengineerings betrachtet wird. Die Anforderungen an dieses Simulationssystem sowie dessen Architektur werden hier beschrieben, einschließlich der Erläuterung einzelner Berechnungsmodule. An ausgewählten praxisnahen Beispielen aus der Materialwissenschaft kann die Vielfalt der Einsatzmöglichkeiten eines Simulationssystems zur Generierung und Analyse von zufälligen dicht gepackten Kugelsystemen gezeigt werden. Vor allem die hohe Aussagekraft der Untersuchungen in Bezug auf Materialeigenschaften unterstreicht die Bedeutung des Modells zufällig dicht gepackter harter Kugeln in der Materialforschung und verwandten Forschungsgebieten.
6

Efficient Algorithms for the Computation of Optimal Quadrature Points on Riemannian Manifolds

Gräf, Manuel 05 August 2013 (has links) (PDF)
We consider the problem of numerical integration, where one aims to approximate an integral of a given continuous function from the function values at given sampling points, also known as quadrature points. A useful framework for such an approximation process is provided by the theory of reproducing kernel Hilbert spaces and the concept of the worst case quadrature error. However, the computation of optimal quadrature points, which minimize the worst case quadrature error, is in general a challenging task and requires efficient algorithms, in particular for large numbers of points. The focus of this thesis is on the efficient computation of optimal quadrature points on the torus T^d, the sphere S^d, and the rotation group SO(3). For that reason we present a general framework for the minimization of the worst case quadrature error on Riemannian manifolds, in order to construct numerically such quadrature points. Therefore, we consider, for N quadrature points on a manifold M, the worst case quadrature error as a function defined on the product manifold M^N. For the optimization on such high dimensional manifolds we make use of the method of steepest descent, the Newton method, and the conjugate gradient method, where we propose two efficient evaluation approaches for the worst case quadrature error and its derivatives. The first evaluation approach follows ideas from computational physics, where we interpret the quadrature error as a pairwise potential energy. These ideas allow us to reduce for certain instances the complexity of the evaluations from O(M^2) to O(M log(M)). For the second evaluation approach we express the worst case quadrature error in Fourier domain. This enables us to utilize the nonequispaced fast Fourier transforms for the torus T^d, the sphere S^2, and the rotation group SO(3), which reduce the computational complexity of the worst case quadrature error for polynomial spaces with degree N from O(N^k M) to O(N^k log^2(N) + M), where k is the dimension of the corresponding manifold. For the usual choice N^k ~ M we achieve the complexity O(M log^2(M)) instead of O(M^2). In conjunction with the proposed conjugate gradient method on Riemannian manifolds we arrive at a particular efficient optimization approach for the computation of optimal quadrature points on the torus T^d, the sphere S^d, and the rotation group SO(3). Finally, with the proposed optimization methods we are able to provide new lists with quadrature formulas for high polynomial degrees N on the sphere S^2, and the rotation group SO(3). Further applications of the proposed optimization framework are found due to the interesting connections between worst case quadrature errors, discrepancies and potential energies. Especially, discrepancies provide us with an intuitive notion for describing the uniformity of point distributions and are of particular importance for high dimensional integration in quasi-Monte Carlo methods. A generalized form of uniform point distributions arises in applications of image processing and computer graphics, where one is concerned with the problem of distributing points in an optimal way accordingly to a prescribed density function. We will show that such problems can be naturally described by the notion of discrepancy, and thus fit perfectly into the proposed framework. A typical application is halftoning of images, where nonuniform distributions of black dots create the illusion of gray toned images. We will see that the proposed optimization methods compete with state-of-the-art halftoning methods.
7

Efficient Algorithms for the Computation of Optimal Quadrature Points on Riemannian Manifolds

Gräf, Manuel 30 May 2013 (has links)
We consider the problem of numerical integration, where one aims to approximate an integral of a given continuous function from the function values at given sampling points, also known as quadrature points. A useful framework for such an approximation process is provided by the theory of reproducing kernel Hilbert spaces and the concept of the worst case quadrature error. However, the computation of optimal quadrature points, which minimize the worst case quadrature error, is in general a challenging task and requires efficient algorithms, in particular for large numbers of points. The focus of this thesis is on the efficient computation of optimal quadrature points on the torus T^d, the sphere S^d, and the rotation group SO(3). For that reason we present a general framework for the minimization of the worst case quadrature error on Riemannian manifolds, in order to construct numerically such quadrature points. Therefore, we consider, for N quadrature points on a manifold M, the worst case quadrature error as a function defined on the product manifold M^N. For the optimization on such high dimensional manifolds we make use of the method of steepest descent, the Newton method, and the conjugate gradient method, where we propose two efficient evaluation approaches for the worst case quadrature error and its derivatives. The first evaluation approach follows ideas from computational physics, where we interpret the quadrature error as a pairwise potential energy. These ideas allow us to reduce for certain instances the complexity of the evaluations from O(M^2) to O(M log(M)). For the second evaluation approach we express the worst case quadrature error in Fourier domain. This enables us to utilize the nonequispaced fast Fourier transforms for the torus T^d, the sphere S^2, and the rotation group SO(3), which reduce the computational complexity of the worst case quadrature error for polynomial spaces with degree N from O(N^k M) to O(N^k log^2(N) + M), where k is the dimension of the corresponding manifold. For the usual choice N^k ~ M we achieve the complexity O(M log^2(M)) instead of O(M^2). In conjunction with the proposed conjugate gradient method on Riemannian manifolds we arrive at a particular efficient optimization approach for the computation of optimal quadrature points on the torus T^d, the sphere S^d, and the rotation group SO(3). Finally, with the proposed optimization methods we are able to provide new lists with quadrature formulas for high polynomial degrees N on the sphere S^2, and the rotation group SO(3). Further applications of the proposed optimization framework are found due to the interesting connections between worst case quadrature errors, discrepancies and potential energies. Especially, discrepancies provide us with an intuitive notion for describing the uniformity of point distributions and are of particular importance for high dimensional integration in quasi-Monte Carlo methods. A generalized form of uniform point distributions arises in applications of image processing and computer graphics, where one is concerned with the problem of distributing points in an optimal way accordingly to a prescribed density function. We will show that such problems can be naturally described by the notion of discrepancy, and thus fit perfectly into the proposed framework. A typical application is halftoning of images, where nonuniform distributions of black dots create the illusion of gray toned images. We will see that the proposed optimization methods compete with state-of-the-art halftoning methods.
8

Catalytic activity analysis of metallic nanoparticles by model reactions

Gu, Sasa 16 July 2018 (has links)
In dieser Arbeit wurden zwei katalytische Modellreaktionen studiert. Zunächst die katalytische Reduktion von p-Nitrophenol (Nip) mit Natriumborhydrid (BH_4^-). Diese verläuft entlang der direkten Route: Dabei wird Nip über p-Hydroxylaminophenol (Hx) zum Produkt p-Aminophenol (Amp) reduziert. Ein kinetisches Modell wird vorgestellt, dass die Reaktion auf Basis des Langmuir-Hinshelwood (LH) Mechanismus beschreibt. Die Lösung der Gleichungen gibt die Nip Konzentration als Funktion der Zeit, welche direkt mit den experimentellen Daten verglichen werden kann. Werden als Katalysator auf sphärischen Polyeletrolytbürsten stabilisierte Gold Nanopartikel (SPB-Au) verwendet, zeigt sich eine gute Übereinstimmung und unterstreicht die Allgemeingültigkeit der direkten Route. Der zweite Teil beschäftigt sich mit der katalytischen Oxidation von 3,3’,5,5’-Tetramethylbenzidin (TMB) durch Wasserstoffperoxid (H_2O_2) an SPB-Pt Nanopartikeln. Dabei wurden die Katalyse mithilfe zweier Modelle analysiert: Michaelis-Menten (MM) und Langmuir-Hinshelwood (LH). Im MM Modell wird die Oxidation von TMB durch die Nanopartikel mit der Peroxidase katalysierten TMB Oxidation unter Annahme des Ping-Pong Mechanismus verglichen. Es wurde gezeigt, dass die häufig verwendete Analyse der initialen Reaktionsraten große Fehler verursacht und zu inkonsistenten Ergebnissen führt. Dies zeigt dass dieses Vorgehen zu Analyse der Oxidation von TMB nicht geeignet ist. Im LH Modell wird angenommen dass H_2O_2 und TMB im ersten Schritt auf der Oberfläche der Nanopartikel adsorbieren. Das LH Modell mit Produktinhibition ermöglicht hierbei eine zufriedenstellende Beschreibung der kinetischen Daten bis zu einem Umsatz von 40 %. Die gesamte Analyse zeigt, dass das Langmuir-Hinshelwood Modell die bessere Näherung zur Beschreibung der Kinetik der Nanopartikel katalysierten TMB Oxidation bietet / In this work, two catalytic model reactions were studied using different metallic nanoparticles in aqueous solution. One is the catalytic reduction of p-nitrophenol (Nip) by sodium borohydride (BH_4^-). The reaction proceeds in the following route: Nip is first reduced to p-hydroxylaminophenol (Hx) which is further reduced to the final product p-aminophenol (Amp). Here we present a full kinetic scheme according to Langmuir-Hinshelwood mechanism (LH). The solution of the kinetic equations gives the concentration of Nip as the function of time, which can be directly compared with the experimental data. Satisfactory agreement is found for reactions catalyzed by Au nanoparticles immobilized in spherical polyelectrolyte brushes (SPB-Au) verifying the validity of the reaction route. In the second part, we present a study on the catalytic oxidation of 3,3’,5,5’-tetramethylbenzidine (TMB) by hydrogen peroxide (H_2O_2) with SPB-Pt nanoparticles. The catalysis was analyzed by two different models: Michaelis-Menten (MM) and Langmuir-Hinshelwood (LH) model. In the MM model, the oxidation of TMB catalyzed by nanoparticles is inferred to the catalysis of peroxidase assuming the Ping-Pong mechanism. It is found that the frequently used analysis with the initial rates introduces large errors and leads to inconsistent results, which indicates that such approach is not suitable to analyze the oxidation of TMB catalyzed by nanoparticles. In the LH model, it is assumed that H_2O_2 and TMB adsorb on the surface of nanoparticles in the first step. The LH model with product inhibition gives satisfactory description of the kinetic data up to a conversion of 40%. The entire analysis demonstrates that the Langmuir-Hinshelwood model provides a superior approach to describe the kinetics of TMB oxidation catalyzed by nanoparticles.
9

On Ruled Surfaces in three-dimensional Minkowski Space

Shonoda, Emad N. Naseem 22 December 2010 (has links) (PDF)
In a Minkowski three dimensional space, whose metric is based on a strictly convex and centrally symmetric unit ball , we deal with ruled surfaces Φ in the sense of E. Kruppa. This means that we have to look for Minkowski analogues of the classical differential invariants of ruled surfaces in a Euclidean space. Here, at first – after an introduction to concepts of a Minkowski space, like semi-orthogonalities and a semi-inner-product based on the so-called cosine-Minkowski function - we construct an orthogonal 3D moving frame using Birkhoff’s left-orthogonality. This moving frame is canonically connected to ruled surfaces: beginning with the generator direction and the asymptotic plane of this generator g we complete this flag to a frame using the left-orthogonality defined by ; ( is described either by its supporting function or a parameter representation). The plane left-orthogonal to the asymptotic plane through generator g(t) is called Minkowski central plane and touches Φ in the striction point s(t) of g(t). Thus the moving frame defines the Minkowski striction curve S of the considered ruled surface Φ similar to the Euclidean case. The coefficients occurring in the Minkowski analogues to Frenet-Serret formulae of the moving frame of Φ in a Minkowski space are called “M-curvatures” and “M-torsions”. Here we essentially make use of the semi-inner product and the sine-Minkowski and cosine-Minkowski functions. Furthermore we define a covariant differentiation in a Minkowski 3-space using a new vector called “deformation vector” and locally measuring the deviation of the Minkowski space from a Euclidean space. With this covariant differentiation it is possible to declare an “M-geodesicc parallelity” and to show that the vector field of the generators of a skew ruled surface Φ is an M-geodesic parallel field along its Minkowski striction curve s. Finally we also define the Pirondini set of ruled surfaces to a given surface Φ. The surfaces of such a set have the M-striction curve and the strip of M-central planes in common
10

Computergestützte Simulation und Analyse zufälliger dichter Kugelpackungen

Elsner, Antje 18 October 2010 (has links) (PDF)
In dieser interdisziplinär geprägten Arbeit wird zunächst eine Übersicht über kugelbasierte Modelle und die algorithmischen Ansätze zur Generierung zufälliger Kugelpackungen gegeben. Ein Algorithmus aus der Gruppe der Kollektiven-Umordnungs-Algorithmen -- der Force-Biased-Algorithmus -- wird ausführlich erläutert und untersucht. Dabei werden die für den Force-Biased-Algorithmus als essenziell geltenden Verschiebungsfunktionen bezüglich ihres Einflusses auf den erreichbaren Volumenanteil der Packungen untersucht. Nicht nur aus der Literatur bekannte, sondern auch neu entwickelte Verschiebungsfunktionen werden hierbei betrachtet. Daran anschließend werden Empfehlungen zur Auswahl geeigneter Verschiebungsfunktionen gegeben. Einige mit dem Force-Biased-Algorithmus generierte Kugelpackungen, zum Beispiel hochdichte monodisperse Packungen, lassen den Schluss zu, dass insbesondere strukturelle Umbildungsvorgänge an solchen Packungen sehr gut zu untersuchen sind. Aus diesem Grund besitzt das Modell der mit dem Force-Biased-Algorithmus dicht gepackten harten Kugeln große Bedeutung in der Materialwissenschaft, insbesondere in der Strukturforschung. In einem weiteren Kapitel werden wichtige Kenngrößen kugelbasierter Modelle erläutert, wie z. B. spezifische Oberfläche, Volumenanteil und die Kontaktverteilungsfunktionen. Für einige besonders anwendungsrelevante Kenngrößen (z. B. die spezifische Oberfläche) werden Näherungsformeln entwickelt, an Modellsystemen untersucht und mit bekannten Näherungen aus der Literatur verglichen. Zur Generierung und Analyse der Kugelpackungen wurde im Rahmen dieser Arbeit die Simulationssoftware „SpherePack“ entwickelt, deren Aufbau unter dem Aspekt des Softwareengineerings betrachtet wird. Die Anforderungen an dieses Simulationssystem sowie dessen Architektur werden hier beschrieben, einschließlich der Erläuterung einzelner Berechnungsmodule. An ausgewählten praxisnahen Beispielen aus der Materialwissenschaft kann die Vielfalt der Einsatzmöglichkeiten eines Simulationssystems zur Generierung und Analyse von zufälligen dicht gepackten Kugelsystemen gezeigt werden. Vor allem die hohe Aussagekraft der Untersuchungen in Bezug auf Materialeigenschaften unterstreicht die Bedeutung des Modells zufällig dicht gepackter harter Kugeln in der Materialforschung und verwandten Forschungsgebieten.

Page generated in 0.0411 seconds