• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 9
  • 2
  • Tagged with
  • 38
  • 31
  • 19
  • 15
  • 14
  • 14
  • 14
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Hyperholomorphic structures and corresponding explicit orthogonal function systems in 3D and 4D

Le, Thu Hoai 20 June 2014 (has links)
Die Reichhaltigkeit und breite Anwendbarkeit der Theorie der holomorphen Funktionen in der komplexen Ebene ist stark motivierend eine ähnliche Theorie für höhere Dimensionen zu entwickeln. Viele Forscher waren und sind in diese Aufgaben involviert, insbesondere in der Entwicklung der Quaternionenanalysis. In den letzten Jahren wurde die Quaternionenanalysis bereits erfolgreich auf eine Vielzahl von Problemen der mathematischen Physik angewandt. Das Ziel der Dissertation besteht darin, holomorphe Strukturen in höheren Dimensionen zu studieren. Zunächst wird ein neues Holomorphiekonzept vorgelegt, was auf der Theorie rechtsinvertierbarer Operatoren basiert und nicht auf Verallgemeinerungen des Cauchy-Riemann-Systems wie üblich. Dieser Begriff umfasst die meisten der gut bekannten holomorphen Strukturen in höheren Dimensionen. Unter anderem sind die üblichen Modelle für reelle und komplexe quaternionenwertige Funktionen sowie Clifford-algebra-wertige Funktionen enthalten. Außerdem werden holomorphe Funktionen mittels einer geeignete Formel vom Taylor-Typ durch spezielle Funktionen lokal approximiert. Um globale Approximationen für holomorphe Funktionen zu erhalten, werden im zweiten Teil der Arbeit verschiedene Systeme holomorpher Basisfunktionen in drei und vier Dimensionen mittels geeigneter Fourier-Entwicklungen explizit konstruiert. Das Konzept der Holomorphie ist verbunden mit der Lösung verallgemeinerter Cauchy-Riemann Systeme, deren Funktionswerte reellen Quaternionen bzw. reduzierte Quaternionen sind. In expliziter Form werden orthogonale holomorphe Funktionensysteme konstruiert, die Lösungen des Riesz-Systems bzw. des Moisil-Teodorescu Systems über zylindrischen Gebieten im R3, sowie Lösungen des Riesz-Systems in Kugeln des R4 sind. Um konkrete Anwendungen auf Randwertprobleme realisieren zu können wird eine orthogonale Zerlegung eines Rechts-Quasi-Hilbert-Moduls komplex-quaternionischer Funktionen unter gegebenen Bedingungen studiert. Die Ergebnisse werden auf die Behandlung von Maxwell-Gleichungen mit zeitvariabler elektrischer Dielektrizitätskonstante und magnetischer Permeabilität angewandt. / The richness and widely applicability of the theory of holomorphic functions in complex analysis requires to perform a similar theory in higher dimensions. It has been developed by many researchers so far, especially in quaternionic analysis. Over the last years, it has been successfully applied to a vast array of problems in mathematical physics. The aim of this thesis is to study the structure of holomorphy in higher dimensions. First, a new concept of holomorphy is introduced based on the theory of right invertible operators, and not by means of an analogue of the Cauchy-Riemann operator as usual. This notion covers most of the well-known holomorphic structures in higher dimensions including real, complex, quaternionic, Clifford analysis, among others. In addition, from our operators a local approximation of a holomorphic function is attained by the Taylor type formula. In order to obtain the global approximation for holomorphic functions, the second part of the thesis deals with the construction of different systems of basis holomorphic functions in three and four dimensions by means of Fourier analysis. The concept of holomorphy is related to the null-solutions of generalized Cauchy-Riemann systems, which take either values in the reduced quaternions or real quaternions. We obtain several explicit orthogonal holomorphic function systems: solutions to the Riesz and Moisil-Teodorescu systems over cylindrical domains in R3, and solutions to the Riesz system over spherical domains in R4. Having in mind concrete applications to boundary value problems, we investigate an orthogonal decomposition of complex-quaternionic functions over a right quasi-Hilbert module under given conditions. It is then applied to the treatment of Maxwell’s equations with electric permittivity and magnetic permeability depending on the time variable.
22

Untersuchung optischer Verfahren zur gleichzeitigen Messung von Strömungs- und Schallfeldern an aeroakustischen Schalldämpfern / Investigation of optical techniques for the simultaneous measurement of flow and sound fields at aeroacoustic sound absorbers

Haufe, Daniel 11 April 2016 (has links) (PDF)
Um Flugzeugtriebwerke und stationäre Gasturbinen schadstoffärmer und leiser zu gestalten, werden effizientere Dämpfer zur Unterdrückung des in der Brennkammer entstehenden Schalls benötigt. Hierfür sollen durchströmte, perforierte Wandauskleidungen eingesetzt werden, die sogenannten Bias-Flow-Liner (BFL). Die Erhöhung der Dämpfungseffizienz von BFL erfordert jedoch ein tiefer gehendes Verständnis der aeroakustischen Dämpfungsmechanismen. Die Analyse der Mechanismen bedarf einer experimentellen Untersuchung des Vektorfeldes der Fluidgeschwindigkeit, die sowohl die Strömungsgeschwindigkeit als auch die Schallschnelle enthält. Zur gleichzeitigen Erfassung beider Größen wird eine berührungslose sowie örtlich und zeitlich hoch aufgelöste Messung der Geschwindigkeit von im Mittel 10 m/s bis 100 m/s bei einer Unsicherheit von maximal 10 mm/s für die Schallschnelleamplitude und einem Dynamikumfang von 1000 bis 10 000 benötigt. Für diese Messung sind optische Verfahren vielversprechend, genügten aber bisher nicht diesen Anforderungen. Deshalb wurden im ersten Schritt neuartige optische Geschwindigkeitsmessverfahren erstmals bezüglich der Eignung für aeroakustische Untersuchungen am BFL, speziell hinsichtlich der Unsicherheit und des Dynamikumfangs, charakterisiert: der Laser-Doppler-Geschwindigkeitsprofilsensor (LDV-PS), die akustische Particle Image Velocimetry (A-PIV) und die Doppler-Global-Velozimetrie mit Frequenzmodulation (FM-DGV). Aus dem Messunsicherheitsbudget geht für alle Verfahren die turbulente Strömungsfluktuation als dominierender Beitrag zur Unsicherheit für die gemessene Schnelleamplitude hervor, wobei die Unsicherheit durch eine Erhöhung der Messdauer gesenkt werden kann. Für eine Messdauer von 80 s beträgt die mittels FM-DGV erzielte Unsicherheit bei einer mittleren Strömungsgeschwindigkeit von 100 m/s beispielsweise 10 mm/s, woraus ein Dynamikumfang von 10 000 resultiert. Demnach erfüllen die neuartigen Verfahren die Voraussetzungen für die Anwendung am BFL, was im zweiten Schritt experimentell demonstriert wurde. Hierbei wurde zwecks Untersuchung kleiner Strukturen der LDV-PS mit einer feinen Ortsauflösung von minimal 10 µm genutzt. Ferner wurde die großflächige Erfassung mittels A-PIV zur Untersuchung der Wechselwirkung zwischen den Perforationslöchern eingesetzt und eine spektrale Untersuchung der mittels FM-DGV gemessenen Geschwindigkeit bei einer hohen Messrate von 100 kHz durchgeführt. Im Ergebnis wurden folgende Erkenntnisse zum Dämpfungsverhalten gewonnen: Am BFL tritt eine Interaktion von Strömung und Schall auf, die zu einer Oszillation der Geschwindigkeit mit hoher Amplitude bei der Schallanregungsfrequenz führt. Aus der erstmals durchgeführten Zerlegung der volumetrisch gemessenen Geschwindigkeit in Strömungsgeschwindigkeit und Schallschnelle resultiert, dass die akustisch induzierte oszillierende Geschwindigkeit vorwiegend dem Strömungsfeld zuzuordnen ist. Folglich wurde ein Energietransfer vom Schallfeld ins Strömungsfeld am BFL nachgewiesen, der wegen des sich typischerweise anschließenden Zerfalls von Strömungswirbeln und der finalen Umwandlung in Wärmeenergie zur Dämpfung beiträgt. Zudem wurde mittels spektraler Analyse der Geschwindigkeit ein breitbandiger Energiezuwachs bei tonaler Schallanregung festgestellt, welcher mit der Dämpfungseffizienz korreliert ist. Somit wird die These der primär von der akustisch induzierten Wirbelbildung herrührenden Dämpfung gestützt. Diese mit den neuartigen optischen Messverfahren gewonnenen Erkenntnisse tragen perspektivisch zur Optimierung von BFL hinsichtlich einer hohen Dämpfungseffizienz bei.
23

A class of mixed finite element methods based on the Helmholtz decomposition in computational mechanics

Schedensack, Mira 26 June 2015 (has links)
Diese Dissertation verallgemeinert die nichtkonformen Finite-Elemente-Methoden (FEMn) nach Morley und Crouzeix und Raviart durch neue gemischte Formulierungen für das Poisson-Problem, die Stokes-Gleichungen, die Navier-Lamé-Gleichungen der linearen Elastizität und m-Laplace-Gleichungen der Form $(-1)^m\Delta^m u=f$ für beliebiges m=1,2,3,... Diese Formulierungen beruhen auf Helmholtz-Zerlegungen. Die neuen Formulierungen gestatten die Verwendung von Ansatzräumen beliebigen Polynomgrades und ihre Diskretisierungen stimmen für den niedrigsten Polynomgrad mit den genannten nicht-konformen FEMn überein. Auch für höhere Polynomgrade ergeben sich robuste Diskretisierungen für fast-inkompressible Materialien und Approximationen für die Lösungen der Stokes-Gleichungen, die punktweise die Masse erhalten. Dieser Ansatz erlaubt außerdem eine Verallgemeinerung der nichtkonformen FEMn von der Poisson- und der biharmonischen Gleichung auf m-Laplace-Gleichungen für beliebiges m>2. Ermöglicht wird dies durch eine neue Helmholtz-Zerlegung für tensorwertige Funktionen. Die neuen Diskretisierungen lassen sich nicht nur für beliebiges m einheitlich implementieren, sondern sie erlauben auch Ansatzräume niedrigster Ordnung, z.B. stückweise affine Polynome für beliebiges m. Hat eine Lösung der betrachteten Probleme Singularitäten, so beeinträchtigt dies in der Regel die Konvergenz so stark, dass höhere Polynomgrade in den Ansatzräumen auf uniformen Gittern dieselbe Konvergenzrate zeigen wie niedrigere Polynomgrade. Deshalb sind gerade für höhere Polynomgrade in den Ansatzräumen adaptiv generierte Gitter unabdingbar. Neben der A-priori- und der A-posteriori-Analysis werden in dieser Dissertation optimale Konvergenzraten für adaptive Algorithmen für die neuen Diskretisierungen des Poisson-Problems, der Stokes-Gleichungen und der m-Laplace-Gleichung bewiesen. Diese werden auch in den numerischen Beispielen dieser Dissertation empirisch nachgewiesen. / This thesis generalizes the non-conforming finite element methods (FEMs) of Morley and Crouzeix and Raviart by novel mixed formulations for the Poisson problem, the Stokes equations, the Navier-Lamé equations of linear elasticity, and mth-Laplace equations of the form $(-1)^m\Delta^m u=f$ for arbitrary m=1,2,3,... These formulations are based on Helmholtz decompositions. The new formulations allow for ansatz spaces of arbitrary polynomial degree and its discretizations coincide with the mentioned non-conforming FEMs for the lowest polynomial degree. Also for higher polynomial degrees, this results in robust discretizations for almost incompressible materials and approximations of the solution of the Stokes equations with pointwise mass conservation. Furthermore this approach also allows for a generalization of the non-conforming FEMs for the Poisson problem and the biharmonic equation to mth-Laplace equations for arbitrary m>2. A new Helmholtz decomposition for tensor-valued functions enables this. The new discretizations allow not only for a uniform implementation for arbitrary m, but they also allow for lowest-order ansatz spaces, e.g., piecewise affine polynomials for arbitrary m. The presence of singularities usually affects the convergence such that higher polynomial degrees in the ansatz spaces show the same convergence rate on uniform meshes as lower polynomial degrees. Therefore adaptive mesh-generation is indispensable especially for ansatz spaces of higher polynomial degree. Besides the a priori and a posteriori analysis, this thesis proves optimal convergence rates for adaptive algorithms for the new discretizations of the Poisson problem, the Stokes equations, and mth-Laplace equations. This is also demonstrated in the numerical experiments of this thesis.
24

Methoden zur Beschreibung von chemischen Strukturen beliebiger Dimensionalität mit der Dichtefunktionaltheorie unter periodischen Randbedingungen

Burow, Asbjörn Manfred 28 November 2011 (has links)
Die vorliegende Arbeit ist ein Beitrag auf dem Gebiet der theoretischen Chemie und beschäftigt sich mit der Entwicklung effizienter Berechnungsmethoden für die Elektronendichte und die Energie des Grundzustands molekularer und periodischer Systeme im Rahmen der Kohn-Sham-Dichtefunktionaltheorie (Kohn-Sham-DFT) und unter Verwendung von lokalen Basisfunktionen. Im Vordergrund steht dabei die einheitliche Beschreibung von Molekülen und ausgedehnten Systemen beliebiger Periodizität (zum Beispiel Volumenkristalle, dünne Filme und Polymere) mit einfachen Algorithmen bei einem hohen Maß an numerischer Genauigkeit und Recheneffizienz. Dafür hat der Verfasser bewährte molekulare Simulationsmethoden in neuartiger Form auf periodische Randbedingungen erweitert und zu einer vollständigen DFT-Methode vereint. Von diesen Methoden ist das völlig neue Konzept für die RI-Methode (resolution of identity, Zerlegung der Einheit), die auf den Coulomb-Term angewendet wird, die Schlüsseltechnologie in dieser Arbeit. Ein Merkmal der Methode ist, dass sie ausschließlich im direkten Raum arbeitet. Neben der RI-Methode wurden weitere methodische Ansätze entwickelt werden, um eine gute Speicher- und Zeiteffizienz der gesamten DFT-Methode zu gewährleisten. Dazu gehören die Komprimierung der speicherintensiven Dichte- und Kohn-Sham-Matrizes und die numerische Integration des Austausch-Korrelationsterms durch die Anwendung eines adaptiven, numerischen Integrationsschemas. Die vorgestellten Methoden werden zum Prototypen eines RI-DFT-Programms zusammengefügt. Dieses Programm ermöglicht die Berechnung von single point-Energien am Gamma-Punkt für Systeme mit abgeschlossenen Schalen. Anhand von Berechnungen werden die numerische Genauigkeit und Effizienz bewertet. Das Programm bildet die Basis für ein effizientes und leistungsfähiges DFT-Programm, das Moleküle und periodische Systeme methodisch einheitlich und numerisch genau behandelt. / This work contributes to the field of theoretical chemistry and is aimed at the development of efficient methods for computation of the electron density and the energy belonging to the ground state of molecular and periodic systems. It is based on the use of Kohn Sham density functional theory (Kohn Sham DFT) and local basis functions. In this scope, the molecular and the periodic systems of any dimensionality (e.g., bulk crystals, thin films, and polymers) are treated on an equal footing using methods which are easy to implement, numerically accurate, and highly efficient. For this, the author has augmented established methods of molecular simulations for their use with periodic boundary conditions applying novel techniques. These methods have been combined to a complete DFT method. Among these methods, the innovative approach for the RI (resolution of identity) method applied to the Coulomb term represents the key technology of this work. As a striking feature, this approach operates exclusively in real space. Although the RI method is the chief ingredient, the development of further methods is required to achieve overall efficiency for the consumption of storage and time. One of these methods is used to compress the density and Kohn Sham matrices. Moreover, numerical integration of the exchange-correlation term has been improved applying an adaptive numerical integration scheme. The methods presented in this thesis are combined to the prototype of an RI-DFT program. Using this program single point energies on the gamma point can be calculated for systems with closed shells. Calculations have been performed and the results are used to assess the accuracy and efficiency achieved. This program forms the foundation of an efficient and competitive DFT code. It works numerically accurate and treats molecules and periodic systems on an equal footing.
25

Interpretable Approximation of High-Dimensional Data based on the ANOVA Decomposition

Schmischke, Michael 08 July 2022 (has links)
The thesis is dedicated to the approximation of high-dimensional functions from scattered data nodes. Many methods in this area lack the property of interpretability in the context of explainable artificial intelligence. The idea is to address this shortcoming by proposing a new method that is intrinsically designed around interpretability. The multivariate analysis of variance (ANOVA) decomposition is the main tool to achieve this purpose. We study the connection between the ANOVA decomposition and orthonormal bases to obtain a powerful basis representation. Moreover, we focus on functions that are mostly explained by low-order interactions to circumvent the curse of dimensionality in its exponential form. Through the connection with grouped index sets, we can propose a least-squares approximation idea via iterative LSQR. Here, the proposed grouped transformations provide fast algorithms for multiplication with the appearing matrices. Through global sensitivity indices we are then able to analyze the approximation which can be used in improving it further. The method is also well-suited for the approximation of real data sets where the sparsity-of-effects principle ensures a low-dimensional structure. We demonstrate the applicability of the method in multiple numerical experiments with real and synthetic data.:1 Introduction 2 The Classical ANOVA Decomposition 3 Fast Multiplication with Grouped Transformations 4 High-Dimensional Explainable ANOVA Approximation 5 Numerical Experiments with Synthetic Data 6 Numerical Experiments with Real Data 7 Conclusion Bibliography / Die Arbeit widmet sich der Approximation von hoch-dimensionalen Funktionen aus verstreuten Datenpunkten. In diesem Bereich leiden vielen Methoden darunter, dass sie nicht interpretierbar sind, was insbesondere im Kontext von Explainable Artificial Intelligence von großer Wichtigkeit ist. Um dieses Problem zu adressieren, schlagen wir eine neue Methode vor, die um das Konzept von Interpretierbarkeit entwickelt ist. Unser wichtigstes Werkzeug dazu ist die Analysis of Variance (ANOVA) Zerlegung. Wir betrachten insbesondere die Verbindung der ANOVA Zerlegung zu orthonormalen Basen und erhalten eine wichtige Reihendarstellung. Zusätzlich fokussieren wir uns auf Funktionen, die hauptsächlich durch niedrig-dimensionale Variableninteraktionen erklärt werden. Dies hilft uns, den Fluch der Dimensionen in seiner exponentiellen Form zu überwinden. Über die Verbindung zu Grouped Index Sets schlagen wir dann eine kleinste Quadrate Approximation mit dem iterativen LSQR Algorithmus vor. Dabei liefern die vorgeschlagenen Grouped Transformations eine schnelle Multiplikation mit den entsprechenden Matrizen. Unter Zuhilfenahme von globalen Sensitvitätsindizes können wir die Approximation analysieren und weiter verbessern. Die Methode ist zudem gut dafür geeignet, reale Datensätze zu approximieren, wobei das sparsity-of-effects Prinzip sicherstellt, dass wir mit niedrigdimensionalen Strukturen arbeiten. Wir demonstrieren die Anwendbarkeit der Methode in verschiedenen numerischen Experimenten mit realen und synthetischen Daten.:1 Introduction 2 The Classical ANOVA Decomposition 3 Fast Multiplication with Grouped Transformations 4 High-Dimensional Explainable ANOVA Approximation 5 Numerical Experiments with Synthetic Data 6 Numerical Experiments with Real Data 7 Conclusion Bibliography
26

Polyhedra-based analysis of computer simulated amorphous structures

Kokotin, Valentin 25 June 2010 (has links) (PDF)
Bulk metallic glasses represent a newly developed class of materials. Some metallic glasses possess combinations of very good or even excellent mechanical, chemical and/or magnetic properties uncovering a broad range of both industrial and vital applications. Besides all advantages metallic glasses have also significant drawbacks, which have to be overcome for commercial application. Apart from low critical thicknesses, brittleness and chemical inhomogeneity one important problem of metallic glasses is the lack of an appropriate theory describing their structure. Therefore, the search for new glass forming compositions as well as the improving of existing ones occurs at present by means of trial-and-error methods and a number of empirical rules. Empirical rules for good glass-forming ability of bulk metallic glasses have been established in recent years by Inoue and Egami. Two of these rules, (i) Preference of more than 3 elements and (ii) Need of more than 12 % radii difference of base elements, seem to be closely related to topological (geometrical) criteria. From this point of view topological parameters contribute essentially to the glass-forming ability. The third rule (iii) demands a negative mixing enthalpy of base elements and refers to the chemical interaction of the atoms. The generalized Bernal’s model (hard-sphere approximation) was used for the simulation of monatomic, binary and multi-component structures. Excluding chemical interaction, this method allows the investigation of topological criteria of the glass-forming ability. Bernal’s hard-sphere model was shown to be a good approximation for bulk metallic glasses and metallic liquids and yields good coincidence of experimental and theoretical results. • The Laguerre (weighted Voronoi) tessellation technique was used as the main tool for the structural analysis. Due to very complex structures it is impossible to determine the structure of bulk metallic glasses by means of standard crystallographic methods. • Density, radial distribution function, coordination number and Laguerre polyhedra analysis confirm amorphism of the simulated structures and are in a good agreement with available experimental results. • The ratio of the fractions of non-crystalline to crystalline Laguerre polyhedra faces was introduced as a new parameter . This parameter reflects the total non-crystallinity of a structure and the amount of atomic rearrangements necessary for crystallization. Thus, the parameter is related to the glass-forming ability. It depends strongly on composition and atomic size ratio and indicates a region of enhanced glass-forming ability in binary mixtures at 80 % of small atoms and atomic size ratio of 1.3. All found maxima of parameter for ternary mixtures have compositions and size ratios which are nearly the same as for the binary mixture with the maximum value of . • A new method of multiple-compression was introduces in order to test the tendency towards densification and/or crystallization of the simulated mixtures. The results of the multiple-compression of monatomic mixtures indicate a limiting value of about 0.6464 for the density of the amorphous state. Further densification is necessarily connected to formation and growth of nano-crystalline regions. • The results of the multiple-compression for binary mixtures shows a new maximum of the density at the size ratio of 1.3 and 30 % to 90 % of small atoms. This maximum indicates a local island of stability of the amorphous state. The maximal receivable density without crystallization in this region is enhanced compared to neighbouring regions. • The comparison of the parameter and the density to the distribution of known binary bulk metallic (metal-metal) glasses clearly shows that both parameters play a significant role in the glass-forming ability. • The polyhedra analysis shows regions with enhanced fraction of the icosahedral short-range order (polyhedron (0, 0, 12)) in the binary systems with the maximum at 80 % of small atoms and size ratio of 1.3. Comparison of the distribution of the (0, 0, 12) polyhedra to the distribution of known binary metallic (metal-metal) glasses and to the parameter shows that icosahedral short-range order is not related to the glass-forming ability and is a consequence of the high non-crystallinity (high values of ) of the mixtures and non vice versa. Results for the ternary mixtures confirm this observation. • A new approach for the calculation of the mixing enthalpy is proposed. The new method is based on the combination of Miedema’s semi-empirical model and Laguerre tessellation technique. The new method as well as 6 other methods including the original Miedema’s model were tested for more than 1400 ternary and quaternary alloys. The results show a better agreement with experimental values of the mixing enthalpy for the new model compared to all other methods. The new model takes into account the local structure at atom site and can be applied to all metallic alloys without additional extrapolations if the atomic structure of the considered alloy is known from a suitable atomistic structure model.
27

Models of Discrete-Time Stochastic Processes and Associated Complexity Measures / Modelle stochastischer Prozesse in diskreter Zeit und zugehörige Komplexitätsmaße

Löhr, Wolfgang 24 June 2010 (has links) (PDF)
Many complexity measures are defined as the size of a minimal representation in a specific model class. One such complexity measure, which is important because it is widely applied, is statistical complexity. It is defined for discrete-time, stationary stochastic processes within a theory called computational mechanics. Here, a mathematically rigorous, more general version of this theory is presented, and abstract properties of statistical complexity as a function on the space of processes are investigated. In particular, weak-* lower semi-continuity and concavity are shown, and it is argued that these properties should be shared by all sensible complexity measures. Furthermore, a formula for the ergodic decomposition is obtained. The same results are also proven for two other complexity measures that are defined by different model classes, namely process dimension and generative complexity. These two quantities, and also the information theoretic complexity measure called excess entropy, are related to statistical complexity, and this relation is discussed here. It is also shown that computational mechanics can be reformulated in terms of Frank Knight's prediction process, which is of both conceptual and technical interest. In particular, it allows for a unified treatment of different processes and facilitates topological considerations. Continuity of the Markov transition kernel of a discrete version of the prediction process is obtained as a new result.
28

Untersuchung optischer Verfahren zur gleichzeitigen Messung von Strömungs- und Schallfeldern an aeroakustischen Schalldämpfern

Haufe, Daniel 18 December 2015 (has links)
Um Flugzeugtriebwerke und stationäre Gasturbinen schadstoffärmer und leiser zu gestalten, werden effizientere Dämpfer zur Unterdrückung des in der Brennkammer entstehenden Schalls benötigt. Hierfür sollen durchströmte, perforierte Wandauskleidungen eingesetzt werden, die sogenannten Bias-Flow-Liner (BFL). Die Erhöhung der Dämpfungseffizienz von BFL erfordert jedoch ein tiefer gehendes Verständnis der aeroakustischen Dämpfungsmechanismen. Die Analyse der Mechanismen bedarf einer experimentellen Untersuchung des Vektorfeldes der Fluidgeschwindigkeit, die sowohl die Strömungsgeschwindigkeit als auch die Schallschnelle enthält. Zur gleichzeitigen Erfassung beider Größen wird eine berührungslose sowie örtlich und zeitlich hoch aufgelöste Messung der Geschwindigkeit von im Mittel 10 m/s bis 100 m/s bei einer Unsicherheit von maximal 10 mm/s für die Schallschnelleamplitude und einem Dynamikumfang von 1000 bis 10 000 benötigt. Für diese Messung sind optische Verfahren vielversprechend, genügten aber bisher nicht diesen Anforderungen. Deshalb wurden im ersten Schritt neuartige optische Geschwindigkeitsmessverfahren erstmals bezüglich der Eignung für aeroakustische Untersuchungen am BFL, speziell hinsichtlich der Unsicherheit und des Dynamikumfangs, charakterisiert: der Laser-Doppler-Geschwindigkeitsprofilsensor (LDV-PS), die akustische Particle Image Velocimetry (A-PIV) und die Doppler-Global-Velozimetrie mit Frequenzmodulation (FM-DGV). Aus dem Messunsicherheitsbudget geht für alle Verfahren die turbulente Strömungsfluktuation als dominierender Beitrag zur Unsicherheit für die gemessene Schnelleamplitude hervor, wobei die Unsicherheit durch eine Erhöhung der Messdauer gesenkt werden kann. Für eine Messdauer von 80 s beträgt die mittels FM-DGV erzielte Unsicherheit bei einer mittleren Strömungsgeschwindigkeit von 100 m/s beispielsweise 10 mm/s, woraus ein Dynamikumfang von 10 000 resultiert. Demnach erfüllen die neuartigen Verfahren die Voraussetzungen für die Anwendung am BFL, was im zweiten Schritt experimentell demonstriert wurde. Hierbei wurde zwecks Untersuchung kleiner Strukturen der LDV-PS mit einer feinen Ortsauflösung von minimal 10 µm genutzt. Ferner wurde die großflächige Erfassung mittels A-PIV zur Untersuchung der Wechselwirkung zwischen den Perforationslöchern eingesetzt und eine spektrale Untersuchung der mittels FM-DGV gemessenen Geschwindigkeit bei einer hohen Messrate von 100 kHz durchgeführt. Im Ergebnis wurden folgende Erkenntnisse zum Dämpfungsverhalten gewonnen: Am BFL tritt eine Interaktion von Strömung und Schall auf, die zu einer Oszillation der Geschwindigkeit mit hoher Amplitude bei der Schallanregungsfrequenz führt. Aus der erstmals durchgeführten Zerlegung der volumetrisch gemessenen Geschwindigkeit in Strömungsgeschwindigkeit und Schallschnelle resultiert, dass die akustisch induzierte oszillierende Geschwindigkeit vorwiegend dem Strömungsfeld zuzuordnen ist. Folglich wurde ein Energietransfer vom Schallfeld ins Strömungsfeld am BFL nachgewiesen, der wegen des sich typischerweise anschließenden Zerfalls von Strömungswirbeln und der finalen Umwandlung in Wärmeenergie zur Dämpfung beiträgt. Zudem wurde mittels spektraler Analyse der Geschwindigkeit ein breitbandiger Energiezuwachs bei tonaler Schallanregung festgestellt, welcher mit der Dämpfungseffizienz korreliert ist. Somit wird die These der primär von der akustisch induzierten Wirbelbildung herrührenden Dämpfung gestützt. Diese mit den neuartigen optischen Messverfahren gewonnenen Erkenntnisse tragen perspektivisch zur Optimierung von BFL hinsichtlich einer hohen Dämpfungseffizienz bei.
29

Polyhedra-based analysis of computer simulated amorphous structures

Kokotin, Valentin 15 June 2010 (has links)
Bulk metallic glasses represent a newly developed class of materials. Some metallic glasses possess combinations of very good or even excellent mechanical, chemical and/or magnetic properties uncovering a broad range of both industrial and vital applications. Besides all advantages metallic glasses have also significant drawbacks, which have to be overcome for commercial application. Apart from low critical thicknesses, brittleness and chemical inhomogeneity one important problem of metallic glasses is the lack of an appropriate theory describing their structure. Therefore, the search for new glass forming compositions as well as the improving of existing ones occurs at present by means of trial-and-error methods and a number of empirical rules. Empirical rules for good glass-forming ability of bulk metallic glasses have been established in recent years by Inoue and Egami. Two of these rules, (i) Preference of more than 3 elements and (ii) Need of more than 12 % radii difference of base elements, seem to be closely related to topological (geometrical) criteria. From this point of view topological parameters contribute essentially to the glass-forming ability. The third rule (iii) demands a negative mixing enthalpy of base elements and refers to the chemical interaction of the atoms. The generalized Bernal’s model (hard-sphere approximation) was used for the simulation of monatomic, binary and multi-component structures. Excluding chemical interaction, this method allows the investigation of topological criteria of the glass-forming ability. Bernal’s hard-sphere model was shown to be a good approximation for bulk metallic glasses and metallic liquids and yields good coincidence of experimental and theoretical results. • The Laguerre (weighted Voronoi) tessellation technique was used as the main tool for the structural analysis. Due to very complex structures it is impossible to determine the structure of bulk metallic glasses by means of standard crystallographic methods. • Density, radial distribution function, coordination number and Laguerre polyhedra analysis confirm amorphism of the simulated structures and are in a good agreement with available experimental results. • The ratio of the fractions of non-crystalline to crystalline Laguerre polyhedra faces was introduced as a new parameter . This parameter reflects the total non-crystallinity of a structure and the amount of atomic rearrangements necessary for crystallization. Thus, the parameter is related to the glass-forming ability. It depends strongly on composition and atomic size ratio and indicates a region of enhanced glass-forming ability in binary mixtures at 80 % of small atoms and atomic size ratio of 1.3. All found maxima of parameter for ternary mixtures have compositions and size ratios which are nearly the same as for the binary mixture with the maximum value of . • A new method of multiple-compression was introduces in order to test the tendency towards densification and/or crystallization of the simulated mixtures. The results of the multiple-compression of monatomic mixtures indicate a limiting value of about 0.6464 for the density of the amorphous state. Further densification is necessarily connected to formation and growth of nano-crystalline regions. • The results of the multiple-compression for binary mixtures shows a new maximum of the density at the size ratio of 1.3 and 30 % to 90 % of small atoms. This maximum indicates a local island of stability of the amorphous state. The maximal receivable density without crystallization in this region is enhanced compared to neighbouring regions. • The comparison of the parameter and the density to the distribution of known binary bulk metallic (metal-metal) glasses clearly shows that both parameters play a significant role in the glass-forming ability. • The polyhedra analysis shows regions with enhanced fraction of the icosahedral short-range order (polyhedron (0, 0, 12)) in the binary systems with the maximum at 80 % of small atoms and size ratio of 1.3. Comparison of the distribution of the (0, 0, 12) polyhedra to the distribution of known binary metallic (metal-metal) glasses and to the parameter shows that icosahedral short-range order is not related to the glass-forming ability and is a consequence of the high non-crystallinity (high values of ) of the mixtures and non vice versa. Results for the ternary mixtures confirm this observation. • A new approach for the calculation of the mixing enthalpy is proposed. The new method is based on the combination of Miedema’s semi-empirical model and Laguerre tessellation technique. The new method as well as 6 other methods including the original Miedema’s model were tested for more than 1400 ternary and quaternary alloys. The results show a better agreement with experimental values of the mixing enthalpy for the new model compared to all other methods. The new model takes into account the local structure at atom site and can be applied to all metallic alloys without additional extrapolations if the atomic structure of the considered alloy is known from a suitable atomistic structure model.
30

Transcribing an Animation: The case of the Riemann Sums

Hamdan, May 16 April 2012 (has links)
In this paper I present a theoretical analysis (genetic decomposition) of the cognitive constructions for the concept of infinite Riemann sums following Piaget\''s model of epistemology. This genetic decomposition is primarily based on my own mathematical knowledge as well as on my continual observations of students in the process of learning. Based on this analysis I plan to suggest instructional procedures that motivate the mental activities described in the proposed genetic decomposition. In a later study, I plan to present empirical data in the form of informal interviews with students at different stages of learning. The analysis of those interviews may suggest a review of my initial genetic decomposition.

Page generated in 0.08 seconds