• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 57
  • 31
  • 11
  • 7
  • 2
  • Tagged with
  • 107
  • 48
  • 29
  • 28
  • 28
  • 24
  • 17
  • 12
  • 11
  • 10
  • 10
  • 10
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

DFT-based microscopic magnetic modeling for low-dimensional spin systems

Janson, Oleg 29 June 2012 (has links)
In the vast realm of inorganic materials, the Cu2+-containing cuprates form one of the richest classes. Due to the combined effect of crystal-field, covalency and strong correlations, all undoped cuprates are magnetic insulators with well-localized spins S=1/2, whereas the charge and orbital degrees of freedom are frozen out. The combination of the spin-only nature of their magnetism with the unique structural diversity renders cuprates as excellent model systems. The experimental studies, boosted by the discovery of high-temperature superconductivity in doped La2CuO4, revealed a fascinating variety of magnetic behaviors observed in cuprates. A digest of prominent examples should include the spin-Peierls transition in CuGeO3, the Bose-Einstein condensation of magnons in BaCuSi2O6, and the quantum critical behavior of Li2ZrCuO4. The magnetism of cuprates originates from short-range (typically, well below 1 nm) exchange interactions between pairs of spins Si and Sj, localized on Cu atoms i and j. Especially in low-dimensional compounds, these interactions are strongly anisotropic: even for similar interatomic distances |Rij|, the respective magnetic couplings Jij can vary by several orders of magnitude. On the other hand, there is an empirical evidence for the isotropic nature of this interaction in the spin space: different components of Si are coupled equally strong. Thus, the magnetism of cuprates is mostly described by a Heisenberg model, comprised of Jij(Si*Sj) terms. Although the applicability of this approach to cuprates is settled, the model parameters Jij are specific to a certain material, or more precisely, to a particular arrangement of the constituent atoms, i.e. the crystal structure. Typically, among the infinite number of Jij terms, only several are physically relevant. These leading exchange couplings constitute the (minimal) microscopic magnetic model. Already at the early stages of real material studies, it became gradually evident that the assignment of model parameters is a highly nontrivial task. In general, the problem can be solved experimentally, using elaborate measurements, such as inelastic neutron scattering on large single crystals, yielding the magnetic excitation spectrum. The measured dispersion is fitted using theoretical models, and in this way, the model parameters are refined. Despite excellent accuracy of this method, the measurements require high-quality samples and can be carried out only at special large-scale facilities. Therefore, less demanding (especially, regarding the sample requirements), yet reliable and accurate procedures are desirable. An alternative way to conjecture a magnetic model is the empirical approach, which typically relies on the Goodenough-Kanamori rules. This approach links the magnetic exchange couplings to the relevant structural parameters, such as bond angles. Despite the unbeatable performance of this approach, it is not universally applicable. Moreover, in certain cases the resulting tentative models are erroneous. The recent developments of computational facilities and techniques, especially for strongly correlated systems, turned density-functional theory (DFT) band structure calculations into an appealing alternative, complementary to the experiment. At present, the state-of-the-art computational methods yield accurate numerical estimates for the leading microscopic exchange couplings Jij (error bars typically do not exceed 10-15%). Although this computational approach is often regarded as ab initio, the actual procedure is not parameter-free. Moreover, the numerical results are dependent on the parameterization of the exchange and correlation potential, the type of the double-counting correction, the Hubbard repulsion U etc., thus an accurate choice of these crucial parameters is a prerequisite. In this work, the optimal parameters for cuprates are carefully evaluated based on extensive band structure calculations and subsequent model simulations. Considering the diversity of crystal structures, and consequently, magnetic behaviors, the evaluation of a microscopic model should be carried out in a systematic way. To this end, a multi-step computational approach is developed. The starting point of this procedure is a consideration of the experimental structural data, used as an input for DFT calculations. Next, a minimal DFT-based microscopic magnetic model is evaluated. This part of the study comprises band structure calculations, the analysis of the relevant bands, supercell calculations, and finally, the evaluation of a microscopic magnetic model. The ground state and the magnetic excitation spectrum of the evaluated model are analyzed using various simulation techniques, such as quantum Monte Carlo, exact diagonalization and density-matrix renormalization groups, while the choice of a particular technique is governed by the dimensionality of the model, and the presence or absence of magnetic frustration. To illustrate the performance of the approach and tune the free parameters, the computational scheme is applied to cuprates featuring rather simple, yet diverse magnetic behaviors: spin chains in CuSe2O5, [NO]Cu(NO3)3, and CaCu2(SeO3)2Cl2; quasi-two-dimensional lattices with dimer-like couplings in alpha-Cu2P2O7 and CdCu2(BO3)2, as well as the 3D magnetic model with pronounced 1D correlations in Cu6Si6O18*6H2O. Finally, the approach is applied to spin liquid candidates --- intricate materials featuring kagome-lattice arrangement of the constituent spins. Based on the DFT calculations, microscopic magnetic models are evaluated for herbertsmithite Cu3(Zn0.85Cu0.15)(OH)6Cl2, kapellasite Cu3Zn(OH)6Cl2 and haydeeite Cu3Mg(OH)6Cl2, as well as for volborthite Cu3[V2O7](OH)2*2H2O. The results of the DFT calculations and model simulations are compared to and challenged with the available experimental data. The advantages of the developed approach should be briefly discussed. First, it allows to distinguish between different microscopic models that yield similar macroscopic behavior. One of the most remarkable example is volborthite Cu3[V2O7](OH)2*2H2O, initially described as an anisotropic kagome lattice. The DFT calculations reveal that this compound features strongly coupled frustrated spin chains, thus a completely different type of magnetic frustration is realized. Second, the developed approach is capable of providing accurate estimates for the leading magnetic couplings, and consequently, reliably parameterize the microscopic Hamiltonian. Dioptase Cu6Si6O18*6H2O is an instructive example showing that the microscopic theoretical approach eliminates possible ambiguity and reliably yields the correct parameterization. Third, DFT calculations yield even better accuracy for the ratios of magnetic exchange couplings. This holds also for small interchain or interplane couplings that can be substantially smaller than the leading exchange. Hence, band structure calculations provide a unique possibility to address the interchain or interplane coupling regime, essential for the magnetic ground state, but hardly perceptible in the experiment due to the different energy scales. Finally, an important advantage specific to magnetically frustrated systems should be mentioned. Numerous theoretical and numerical studies evidence that low-dimensionality and frustration effects are typically entwined, and their disentanglement in the experiment is at best challenging. In contrast, the computational procedure allows to distinguish between these two effects, as demonstrated by studying the long-range magnetic ordering transition in quasi-1D spin chain systems. The computational approach presented in the thesis is a powerful tool that can be directly applied to numerous S=1/2 Heisenberg materials. Moreover, with minor modifications, it can be largely extended to other metallates with higher value of spin. Besides the excellent performance of the computational approach, its relevance should be underscored: for all the systems investigated in this work, the DFT-based studies not only reproduced the experimental data, but instead delivered new valuable information on the magnetic properties for each particular compound. Beyond any doubt, further computational studies will yield new surprising results for known as well as for new, yet unexplored compounds. Such "surprising" outcomes can involve the ferromagnetic nature of the couplings that were previously considered antiferromagnetic, unexpected long-range couplings, or the subtle balance of antiferromagnetic and ferromagnetic contributions that "switches off" the respective magnetic exchange. In this way, dozens of potentially interesting systems can acquire quantitative microscopic magnetic models. The results of this work evidence that elaborate experimental methods and the DFT-based modeling are of comparable reliability and complement each other. In this way, the advantageous combination of theory and experiment can largely advance the research in the field of low-dimensional quantum magnetism. For practical applications, the excellent predictive power of the computational approach can largely alleviate designing materials with specific properties.:List of Figures List of Tables List of Abbreviations 1. Introduction 2. Magnetism of cuprates 3. Experimental methods 4. DFT-based microscopic modeling 5. Simulations of a magnetic model 6. Model spin systems: challenging the computational approach 7. Kagome lattice compounds 8. Summary and outlook Appendix Bibliography List of publications Acknowledgments
92

Level set methods for higher order evolution laws / Levelset-Verfahren für Evolutionsgleichungen höherer Ordnung

Stöcker, Christina 12 March 2008 (has links) (PDF)
A numerical treatment of non-linear higher-order geometric evolution equations with the level set and the finite element method is presented. The isotropic, weak anisotropic and strong anisotropic situation is discussed. Most of the equations considered in this work arise from the field of thin film growth. A short introduction to the subject is given. Four different models are discussed: mean curvature flow, surface diffusion, a kinetic model, which combines the effects of mean curvature flow and surface diffusion and includes a further kinetic component, and an adatom model, which incorporates in addition free adatoms. As an introduction to the numerical schemes, first the isotropic and weak anisotropic situation is considered. Then strong anisotropies (non-convex anisotropies) are used to simulate the phenomena of faceting and coarsening. The experimentally observed effect of corner and edge roundings is reached in the simulation through the regularization of the strong anisotropy with a higher-order curvature term. The curvature regularization leads to an increase by two in the order of the equations, which results in highly non-linear equations of up to 6th order. For the numerical solution, the equations are transformed into systems of second order equations, which are solved with a Schur complement approach. The adatom model constitutes a diffusion equation on a moving surface. An operator splitting approach is used for the numerical solution. In difference to other works, which restrict to the isotropic situation, also the anisotropic situation is discussed and solved numerically. Furthermore, a treatment of geometric evolution equations on implicitly given curved surfaces with the level set method is given. In particular, the numerical solution of surface diffusion on curved surfaces is presented. The equations are discretized in space by standard linear finite elements. For the time discretization a semi-implicit discretization scheme is employed. The derivation of the numerical schemes is presented in detail, and numerous computational results are given for the 2D and 3D situation. To keep computational costs low, the finite element grid is adaptively refined near the moving curves and surfaces resp. A redistancing algorithm based on a local Hopf-Lax formula is used. The algorithm has been extended by the authors to the 3D case. A detailed description of the algorithm in 3D is presented in this work. / In der Arbeit geht es um die numerische Behandlung nicht-linearer geometrischer Evolutionsgleichungen höherer Ordnung mit Levelset- und Finite-Elemente-Verfahren. Der isotrope, schwach anisotrope und stark anisotrope Fall wird diskutiert. Die meisten in dieser Arbeit betrachteten Gleichungen entstammen dem Gebiet des Dünnschicht-Wachstums. Eine kurze Einführung in dieses Gebiet wird gegeben. Es werden vier verschiedene Modelle diskutiert: mittlerer Krümmungsfluss, Oberflächendiffusion, ein kinetisches Modell, welches die Effekte des mittleren Krümmungsflusses und der Oberflächendiffusion kombiniert und zusätzlich eine kinetische Komponente beinhaltet, und ein Adatom-Modell, welches außerdem freie Adatome berücksichtigt. Als Einführung in die numerischen Schemata, wird zuerst der isotrope und schwach anisotrope Fall betrachtet. Anschließend werden starke Anisotropien (nicht-konvexe Anisotropien) benutzt, um Facettierungs- und Vergröberungsphänomene zu simulieren. Der in Experimenten beobachtete Effekt der Ecken- und Kanten-Abrundung wird in der Simulation durch die Regularisierung der starken Anisotropie durch einen Krümmungsterm höherer Ordnung erreicht. Die Krümmungsregularisierung führt zu einer Erhöhung der Ordnung der Gleichung um zwei, was hochgradig nicht-lineare Gleichungen von bis zu sechster Ordnung ergibt. Für die numerische Lösung werden die Gleichungen auf Systeme zweiter Ordnungsgleichungen transformiert, welche mit einem Schurkomplement-Ansatz gelöst werden. Das Adatom-Modell bildet eine Diffusionsgleichung auf einer bewegten Fläche. Zur numerischen Lösung wird ein Operatorsplitting-Ansatz verwendet. Im Unterschied zu anderen Arbeiten, die sich auf den isotropen Fall beschränken, wird auch der anisotrope Fall diskutiert und numerisch gelöst. Außerdem werden geometrische Evolutionsgleichungen auf implizit gegebenen gekrümmten Flächen mit Levelset-Verfahren behandelt. Insbesondere wird die numerische Lösung von Oberflächendiffusion auf gekrümmten Flächen dargestellt. Die Gleichungen werden im Ort mit linearen Standard-Finiten-Elementen diskretisiert. Als Zeitdiskretisierung wird ein semi-implizites Diskretisierungsschema verwendet. Die Herleitung der numerischen Schemata wird detailliert dargestellt, und zahlreiche numerische Ergebnisse für den 2D und 3D Fall sind gegeben. Um den Rechenaufwand gering zu halten, wird das Finite-Elemente-Gitter adaptiv an den bewegten Kurven bzw. den bewegten Flächen verfeinert. Es wird ein Redistancing-Algorithmus basierend auf einer lokalen Hopf-Lax Formel benutzt. Der Algorithmus wurde von den Autoren auf den 3D Fall erweitert. In dieser Arbeit wird der Algorithmus für den 3D Fall detailliert beschrieben.
93

Bewertung, Verarbeitung und segmentbasierte Auswertung sehr hoch auflösender Satellitenbilddaten vor dem Hintergrund landschaftsplanerischer und landschaftsökologischer Anwendungen / Evaluation, processing and segment-based analysis of very high resolution satellite imagery against the background of applications in landscape planning and landscape ecology

Neubert, Marco 03 March 2006 (has links) (PDF)
Die Fernerkundung war in den vergangenen Jahren von einschneidenden Umbrüchen gekennzeichnet, die sich besonders in der stark gestiegenen geometrischen Bodenauflösung der Sensoren und den damit einhergehenden Veränderungen der Verarbeitungs- und Auswertungsverfahren widerspiegeln. Sehr hoch auflösende Satellitenbilddaten - definiert durch eine Auflösung zwischen einem halben und einem Meter - existieren seit dem Start von IKONOS Ende 1999. Etwa im selben Zeitraum wurden extrem hoch auflösende digitale Flugzeugkameras (0,1 bis 0,5 m) entwickelt. Dieser Arbeit liegen IKONOS-Daten mit einer Auflösung von einem (panchromatischer Kanal) bzw. vier Metern (Multispektraldaten) zugrunde. Bedingt durch die Eigenschaften sehr hoch aufgelöster Bilddaten (z. B. Detailgehalt, starke spektrale Variabilität, Datenmenge) lassen sich bisher verfügbare Standardverfahren der Bildverarbeitung nur eingeschränkt anwenden. Die Ergebnisse der in dieser Arbeit getesteten Verfahren verdeutlichen, dass die Methoden- bzw. Softwareentwicklung mit den technischen Neuerungen nicht Schritt halten konnte. Einige Verfahren werden erst allmählich für sehr hoch auflösende Daten nutzbar (z. B. atmosphärisch-topographische Korrektur). Die vorliegende Arbeit zeigt, dass Daten dieses Auflösungsbereiches mit bisher verwendeten pixelbasierten, statistischen Klassifikationsverfahren nur unzulänglich ausgewertet werden können. Die hier untersuchte Anwendung von Bildsegmentierungsmethoden hilft, die Nachteile pixelbasierter Verfahren zu überwinden. Dies wurde durch einen Vergleich pixel- und segmentbasierter Klassifikationsverfahren belegt. Im Rahmen einer Segmentierung werden homogene Bildbereiche zu Regionen verschmolzen, welche die Grundlage für die anschließende Klassifikation bilden. Hierzu stehen über die spektralen Eigenschaften hinaus Form-, Textur- und Kontextmerkmale zur Verfügung. In der verwendeten Software eCognition lassen sich diese Klassifikationsmerkmale zudem auf Grundlage des fuzzy-logic-Konzeptes in einer Wissensbasis (Entscheidungsbaum) umsetzen. Ein Vergleich verschiedener, derzeit verfügbarer Segmentierungsverfahren zeigt darüber hinaus, dass sich mit der genutzten Software eine hohe Segmentierungsqualität erzielen lässt. Der wachsende Bedarf an aktuellen Geobasisdaten stellt für sehr hoch auflösende Fernerkundungsdaten eine wichtige Einsatzmöglichkeit dar. Durch eine gezielte Klassifikation der Bilddaten lassen sich Arbeitsgrundlagen für die hier betrachteten Anwendungsfelder Landschaftsplanung und Landschaftsökologie schaffen. Die dargestellten Beispiele von Landschaftsanalysen durch die segmentbasierte Auswertung von IKONOS-Daten zeigen, dass sich eine Klassifikationsgüte von 90 % und höher erreichen lässt. Zudem können die infolge der Segmentierung abgegrenzten Landschaftseinheiten eine Grundlage für die Berechnung von Landschaftsstrukturmaßen bilden. Nationale Naturschutzziele sowie internationale Vereinbarungen zwingen darüber hinaus zur kontinuierlichen Erfassung des Landschaftsinventars und dessen Veränderungen. Fernerkundungsdaten können in diesem Bereich zur Etablierung automatisierter und operationell einsatzfähiger Verfahren beitragen. Das Beispiel Biotop- und Landnutzungskartierung zeigt, dass eine Erfassung von Landnutzungseinheiten mit hoher Qualität möglich ist. Bedingt durch das Auswertungsverfahren sowie die Dateneigenschaften entspricht die Güte der Ergebnisse noch nicht vollständig den Ansprüchen der Anwender, insbesondere hinsichtlich der erreichbaren Klassifikationstiefe. Die Qualität der Ergebnisse lässt sich durch die Nutzung von Zusatzdaten (z. B. GIS-Daten, Objekthöhenmodelle) künftig weiter steigern. Insgesamt verdeutlicht die Arbeit den Trend zur sehr hoch auflösenden digitalen Erderkundung. Für eine breite Nutzung dieser Datenquellen ist die weitere Entwicklung automatisierter und operationell anwendbarer Verarbeitungs- und Analysemethoden unerlässlich. / In recent years remote sensing has been characterised by dramatic changes. This is reflected especially by the highly increased geometrical resolution of imaging sensors and as a consequence thereof by the developments in processing and analysis methods. Very high resolution satellite imagery (VHR) - defined by a resolution between 0.5 and 1 m - exists since the start of IKONOS at the end of 1999. At about the same time extreme high resolution digital airborne sensors (0.1 till 0.5 m) have been developed. The basis of investigation for this dissertation is IKONOS imagery with a resolution of one meter (panchromatic) respectively four meters (multispectral). Due to the characteristics of such high resolution data (e.g. level of detail, high spectral variability, amount of data) the use of previously available standard methods of image processing is limited. The results of the procedures tested within this work demonstrate that the development of methods and software was not able to keep up with the technical innovations. Some procedures are only gradually becoming suitable for VHR data (e.g. atmospheric-topographic correction). Additionally, this work shows that VHR imagery can be analysed only inadequately using traditional pixel-based statistical classifiers. The herein researched application of image segmentation methods helps to overcome drawbacks of pixel-wise procedures. This is demonstrated by a comparison of pixel and segment-based classification. Within a segmentaion, homogeneous image areas are merged into regions which are the basis for the subsequent classification. For this purpose, in addition to spectral features also formal, textural and contextual properties are available. Furthermore, the applied software eCognition allows the definition of the features for classification based on fuzzy logic in a knowledge base (decision tree). An evaluation of different, currently available segmentation approaches illustrates that a high segmentation quality is achievable with the used software. The increasing demand for geospatial base data offers an important field of application for VHR remote sensing data. With a targeted classification of the imagery the creation of working bases for the herein considered usage for landscape planning and landscape ecology is possible. The given examples of landscape analyses using a segment-based processsing of IKONOS data show an achievable classification accuracy of 90 % and more. The landscape units delineated by image segmentation could be used for the calculation of landscape metrics. National aims of nature conservation as well as international agreements constrain a continuous survey of the landscape inventory and the monitoring of its changes. Remote sensing imagery can support the establishment of automated and operational methods in this field. The example of biotope and land use type mapping illustrates the possibility to detect land use units with a high precision. Depending on the analysis method and the data characteristics the quality of the results is not fully equivalent to the user?s demands at the moment, especially concerning the achievable depth of classification. The quality of the results can be enhanced by using additional thematic data (e.g. GIS data, object elevation models). To summarize this dissertation underlines the trend towards very high resolution digital earth observation. Thus, for a wide use of this kind of data it is essentially to further develop automated and operationally useable processing and analysis methods.
94

L^2-Spektraltheorie für Markov-Operatoren / L^2-spectral-theory for Markov operators

Wübker, Achim 07 January 2008 (has links)
No description available.
95

Kalibrierverfahren und optimierte Bildverarbeitung für Multiprojektorsysteme / Calibration methods and optimized image processing for multi-projector display systems

Heinz, Marcel 28 November 2013 (has links) (PDF)
Gegenstand der vorliegenden Dissertation ist die Entwicklung von Kalibrierverfahren und Algorithmen zur Bildverarbeitung im Kontext von Multiprojektorsystemen mit dem Ziel, die Einsatzmöglichkeiten von derartigen Anlagen zu erweitern und die Nutzerakzeptanz solcher Systeme zu steigern. Die Arbeit konzentriert sich dabei insbesondere auf (annähernd) planare Mehrsegment-Projektionsanlagen, die aus preisgünstigen, nicht speziell für den Visualisierungbereich konzipierten Consumer- und Office-Projektoren aufgebaut werden. Im ersten Teil der Arbeit werden bestehende Verfahren zur geometrischen Kalibrierung, zum Edge-Blending sowie zur Helligkeits- und Farbanpassung auf ihre Eignung im Hinblick auf die Anforderungen untersucht und Erweiterungen entwickelt. Für die kamerabasierte Geometrie- Kalibrierung wird mit Lininenpattern gearbeitet, wobei ein effizienter rekursiver Algorithmus zur Berechnung der Schnittpunkte bei leicht gekrümmten Oberflächen vorgestellt wird. Für das Edge-Blending wird ein generalisiertes Modell entwickelt, das mehrere bestehende Ansätze kombiniert und erweitert. Die vorgenommene Modifikation der Distanzfunktion erlaubt insbesondere die bessere Steuerung des Helligkeitsverlaufs und ermöglicht weichere Übergänge an den Grenzen der Überlappungszonen. Es wird weiterhin gezeigt, dass das Edge-Blending mit bestehenden Ansätzen zum Ausgleich der Helligkeitsunterschiede wie Luminance Attenutation Maps kombiniert werden kann. Für die photometrische Kalibrierung ist die Kenntnis der Farb-Transferfunktion, also der Abbildung der Eingabe-Farbwerte auf die tatsächlich vom Projektor erzeugten Ausgaben, unerlässlich. Die herkömmlichen Ansätze betrachten dabei vorwiegend RGB-Projektoren, bei denen die dreidimensionale Transferfunktion in drei eindimensionale Funktionen für jeden Farbkanal zerlegt werden kann. Diese Annahme trifft jedoch auf die betrachteten Projektoren meist nicht zu. Insbesondere DLP-Projektoren mit Farbrad verfügen oft über zusätzliche Grundfarben, so dass der Farbraum deutlich von einem idealen RGB-Modell abweicht. In dieser Arbeit wird zunächst ein empirisches Modell einer Transferfunktion vorgestellt, das sich für derartige Projektoren besser eignet, allerdings die Helligkeit der Projektoren nicht vollständig ausnutzt. Im zweiten Teil der Arbeit wird ein kamerabasiertes Messverfahren entwickelt, mit dem direkt die dreidimensionale Farb-Transferfunktion ermittelt werden kann. Gegenüber bestehenden Verfahren werden tausende von Farbsamples gleichzeitig erfasst, so dass die erreichbare Sampledichte unter praxisrelevanten Messbedingungen von 17x17x17 auf 64x64x64 erhöht und damit die Qualität der photometrischen Kalibrierung signifikant gesteigert werden kann. Weiterhin wird ein Schnellverfahren entwickelt, dass die Messungsdauer bei 17x17x17 Samples von mehreren Stunden mit bisherigen Verfahren auf weniger als 30 Minuten reduziert. Im dritten Teil werden Algorithmen zur effizienten Bildverarbeitung entwickelt, die der GPU-basierten Anwendung der Kalibrierparameter auf die darzustellenden Bilddaten in Echtzeit dienen. Dabei werden die Möglichkeiten zur Vermeidung redundanter Berechnungsschritte beim Einsatz Stereoskopie-fähiger Projektoren ausgenutzt. Weiterhin wird das eigentliche Kalibrierverfahren effizient mit Verfahren zur Konvertierung von stereoskopischen Bildverfahren kombiniert. Es wird gezeigt, dass ein einzelner PC aus Standardkomponenten zur Ansteuerung einer Mehrsegment-Projektionsanlage mit bis zu 6 Projektoren ausreicht. Die Verwendung von DVI-Capture-Karten ermöglicht dabei den Betrieb einer solchen Anlage wie einen "großen Monitor" für beliebige Applikationen und Betriebssysteme.
96

Obosnovanie parametrov kovšej zemlečerpatel'nych snarjadov dlja glubokovodnoj dobyči organo-mineral'nych osadkov / Bucket tool design for mining deep-sea organic-mineral sediments

Shepel, Taras 21 April 2015 (has links) (PDF)
The thesis is devoted to determining the parameters of the bucket to increase productivity of dredgers while mining deep-water organic-mineral sediments. It was achieved by increasing the fill factor through determining the rational geometrical parameters of the bucket. Analytical dependencies of the rational height and length of the bucket on the cutting parameters and physical-and-mechanical properties of the excavated sediments were determined. Expressions for defining forces while digging plasticity water-saturated soils were developed. Experimental investigations of the process of digging deep-water organic-mineral sediments in laboratory conditions and in the real conditions of operating single-bucket dredger in the Black Sea at the depth of 1885 m were carried out. The technique for calculation of the bucket\'s parameters was developed.
97

Obosnovanie parametrov kovšej zemlečerpatel'nych snarjadov dlja glubokovodnoj dobyči organo-mineral'nych osadkov

Shepel, Taras 21 April 2015 (has links)
The thesis is devoted to determining the parameters of the bucket to increase productivity of dredgers while mining deep-water organic-mineral sediments. It was achieved by increasing the fill factor through determining the rational geometrical parameters of the bucket. Analytical dependencies of the rational height and length of the bucket on the cutting parameters and physical-and-mechanical properties of the excavated sediments were determined. Expressions for defining forces while digging plasticity water-saturated soils were developed. Experimental investigations of the process of digging deep-water organic-mineral sediments in laboratory conditions and in the real conditions of operating single-bucket dredger in the Black Sea at the depth of 1885 m were carried out. The technique for calculation of the bucket\'s parameters was developed.
98

Induction Assisted Single Point Incremental Forming of Advanced High Strength Steels

Al-Obaidi, Amar Baker Salim 28 September 2018 (has links)
Induction Assisted Single Point Incremental Forming (IASPIF) is a die-less hot sheet metal forming. The IASPIF does not apply characteristic complex tooling like those applied in deep drawing and bending. In this thesis, induction heating was used to heat up the sheet while simultaneously forming with a tool. The research goal is to improve the formability of high strength steels by heating. The IASPIF consists of non-complicated set up that allows induction heating to be utilized through the coil inductor moved under the sheet and synchronized with the forming tool that moves on the upper side of the sheet. The advanced high strength steel alloys, DP980, DP600 and 22MnB5 steels, were investigated. The influence of induction heating on formability was evaluated by the maximum wall angle that can be achieved in a single pass. Additionally, tool diameter and tool feed rate was also varied. The most influencing parameters were tool feed rate, induction power, and the profile depth. A new forming strategy was also developed by control the heating temperature through coupling the formed profile depth with a successively increased tool feed rate. The forming forces of DP980 steel sheet, were reduced from 7 kN to 2.5 kN when forming process was performed at room and elevated temperature, respectively. Stretching stresses were developed during forming process causing a high reduction in the resulting wall part thickness. New findings in this investigation were the reverse relationship between the step-down depth and the thickness reduction percentage. The smaller the tool diameter, the better was the formability. The finite element simulation of the investigated forming process showed that the increase in heating temperature has a direct effect on rising the plastic strain from 0.2 at room temperature to 1.02 at 800 ◦ C. The maximum true strain achieved in the resulting wall part thickness was determined by FEM simulations and validated with experimental trials. The part shape accuracy was measured and the highest deflection was founded when the part was formed by the highest step-down depth. Moreover, the minimum deflection in the part shape was achieved by utilizing a high induction power in the experiments. Finally, the resulting mechanical properties of the 22MnB5 alloy sheet material were tailored during IASPIF. For this purpose, the sheets were locally heated by induction during the forming process and subsequently quenched at different rates. As a result, the produced tailored parts consist of three different regions, which consist of a ductile, transitional and hardened region. The proposed procedure allows forming and quenching at the same time without transfer and thus, process time was reduced. / Die induktionsgestützte, inkrementelle Blechumformung (englisch: Induction Assisted Single-Point Incremental Forming IASPIF) ist Warmumformprozess, bei dem keine komplexen Werkzeuge wie beim Tiefziehen und Biegen benötigt werden. Inhalt dieser Arbeit ist die inkrementelle Umformung eines Bleches mit gleichzeitig ablaufender induktiver Erwärmung. Das Forschungsziel bestand in der Verbesserung der Umformbarkeit von hochfesten Stahlwerkstoffen wie DP600, DP980 und 22MnB5 durch eine gezielte partielle Erwärmung. Der prinzipielle Aufbau des Versuchsstandes besteht aus einem Spuleninduktor, der unterhalb des umzuformenden Blechs platziert ist, und der synchron mit dem Werkzeug – einem Drückdorn – während des Umformvorganges verfährt. Ein wesentlicher Untersuchungsschwerpunkt bestand in der Ermittlung der Einflussgrößen auf den untersuchten IASPIF-Prozess. Für die Bewertung der Umformbarkeit wurden hierbei der maximal erreichbare Teilwandwinkel und die Profiltiefe, die in einem Umformdurchgang herstellbar waren, ermittelt und ausgewertet. Darüber hinaus konnten im Rahmen der Arbeit die Induktionsleistung des Generators, der Werkzeugdurchmesser und die Werkzeugvorschubgeschwindigkeit als relevante Prozessparameter identifiziert werden. Im Ergebnis der durchgeführten Untersuchungen zeigten die Werkzeugvorschubgeschwindigkeit und die Induktionsleistung einen wesentlichen Einfluss auf die erreichbare Profiltiefe. Aufbauend auf den erzielten Ergebnissen konnte eine prozessangepasste Umformstrategie entwickelt werden, bei der eine konstante Erwärmungstemperatur durch das Koppeln der momentanen Profiltiefe mit einer sukzessiv steigenden Werkzeugvorschubgeschwindigkeit erreicht wird. Weiterhin ließen sich die Kräfte bei der Umformung eines Stahlbleches aus DP980 von 7 kN (bei Raumtemperatur) auf 2,5 kN (bei erhöhter Temperatur) reduzieren. Aufgrund des mit einem Streckziehvorgang vergleichbaren Spannungszustandes während des Umformprozesses war eine starke Verringerung der resultierenden Wanddicke zu beobachten. Als neue Erkenntnis in dieser Untersuchung konnte die umgekehrte Beziehung zwischen der Zustelltiefe und dem Dickenreduktionsprozentsatz abgleitet werden. Aus der Finite - Elemente - Simulation des vorgestellten Umformprozesses wurde erkennbar, dass die Erhöhung der Erwärmungstemperatur einen direkten Einfluss auf die plastische Dehnung von 0,2 (bei Raumtemperatur) auf 1,02 (bei 800 °C) hat. Mittels der numerischen Simulation und der nachfolgenden experimentellen Validierung erfolgte darüber hinaus die Bestimmung der maximalen wahren Dehnung, die in der resultierenden Wanddicke erreicht wurde. Bei den Versuchen mit der größten Zustellung ließ sich durch die Bestimmung der Teileformgenauigkeit die höchste Abweichung von der Sollgeometrie CAD Modell feststellen. Abschließend wurde nachgewiesen, dass der IASPIF Prozess auch zur Einstellung maßgeschneiderter Bauteileigenschaften wie der resultierenden mechanischen Eigenschaften des Blechmaterials aus 22MnB5 einsetzbar ist. Zu diesem Zweck wurden die Bleche während des Umformprozesses lokal induktiv erwärmt und anschließend zur Einstellung des gewünschten Gefüges bei unterschiedlichen Abkühlgeschwindigkeiten abgeschreckt.
99

Bewertung, Verarbeitung und segmentbasierte Auswertung sehr hoch auflösender Satellitenbilddaten vor dem Hintergrund landschaftsplanerischer und landschaftsökologischer Anwendungen

Neubert, Marco 14 October 2005 (has links)
Die Fernerkundung war in den vergangenen Jahren von einschneidenden Umbrüchen gekennzeichnet, die sich besonders in der stark gestiegenen geometrischen Bodenauflösung der Sensoren und den damit einhergehenden Veränderungen der Verarbeitungs- und Auswertungsverfahren widerspiegeln. Sehr hoch auflösende Satellitenbilddaten - definiert durch eine Auflösung zwischen einem halben und einem Meter - existieren seit dem Start von IKONOS Ende 1999. Etwa im selben Zeitraum wurden extrem hoch auflösende digitale Flugzeugkameras (0,1 bis 0,5 m) entwickelt. Dieser Arbeit liegen IKONOS-Daten mit einer Auflösung von einem (panchromatischer Kanal) bzw. vier Metern (Multispektraldaten) zugrunde. Bedingt durch die Eigenschaften sehr hoch aufgelöster Bilddaten (z. B. Detailgehalt, starke spektrale Variabilität, Datenmenge) lassen sich bisher verfügbare Standardverfahren der Bildverarbeitung nur eingeschränkt anwenden. Die Ergebnisse der in dieser Arbeit getesteten Verfahren verdeutlichen, dass die Methoden- bzw. Softwareentwicklung mit den technischen Neuerungen nicht Schritt halten konnte. Einige Verfahren werden erst allmählich für sehr hoch auflösende Daten nutzbar (z. B. atmosphärisch-topographische Korrektur). Die vorliegende Arbeit zeigt, dass Daten dieses Auflösungsbereiches mit bisher verwendeten pixelbasierten, statistischen Klassifikationsverfahren nur unzulänglich ausgewertet werden können. Die hier untersuchte Anwendung von Bildsegmentierungsmethoden hilft, die Nachteile pixelbasierter Verfahren zu überwinden. Dies wurde durch einen Vergleich pixel- und segmentbasierter Klassifikationsverfahren belegt. Im Rahmen einer Segmentierung werden homogene Bildbereiche zu Regionen verschmolzen, welche die Grundlage für die anschließende Klassifikation bilden. Hierzu stehen über die spektralen Eigenschaften hinaus Form-, Textur- und Kontextmerkmale zur Verfügung. In der verwendeten Software eCognition lassen sich diese Klassifikationsmerkmale zudem auf Grundlage des fuzzy-logic-Konzeptes in einer Wissensbasis (Entscheidungsbaum) umsetzen. Ein Vergleich verschiedener, derzeit verfügbarer Segmentierungsverfahren zeigt darüber hinaus, dass sich mit der genutzten Software eine hohe Segmentierungsqualität erzielen lässt. Der wachsende Bedarf an aktuellen Geobasisdaten stellt für sehr hoch auflösende Fernerkundungsdaten eine wichtige Einsatzmöglichkeit dar. Durch eine gezielte Klassifikation der Bilddaten lassen sich Arbeitsgrundlagen für die hier betrachteten Anwendungsfelder Landschaftsplanung und Landschaftsökologie schaffen. Die dargestellten Beispiele von Landschaftsanalysen durch die segmentbasierte Auswertung von IKONOS-Daten zeigen, dass sich eine Klassifikationsgüte von 90 % und höher erreichen lässt. Zudem können die infolge der Segmentierung abgegrenzten Landschaftseinheiten eine Grundlage für die Berechnung von Landschaftsstrukturmaßen bilden. Nationale Naturschutzziele sowie internationale Vereinbarungen zwingen darüber hinaus zur kontinuierlichen Erfassung des Landschaftsinventars und dessen Veränderungen. Fernerkundungsdaten können in diesem Bereich zur Etablierung automatisierter und operationell einsatzfähiger Verfahren beitragen. Das Beispiel Biotop- und Landnutzungskartierung zeigt, dass eine Erfassung von Landnutzungseinheiten mit hoher Qualität möglich ist. Bedingt durch das Auswertungsverfahren sowie die Dateneigenschaften entspricht die Güte der Ergebnisse noch nicht vollständig den Ansprüchen der Anwender, insbesondere hinsichtlich der erreichbaren Klassifikationstiefe. Die Qualität der Ergebnisse lässt sich durch die Nutzung von Zusatzdaten (z. B. GIS-Daten, Objekthöhenmodelle) künftig weiter steigern. Insgesamt verdeutlicht die Arbeit den Trend zur sehr hoch auflösenden digitalen Erderkundung. Für eine breite Nutzung dieser Datenquellen ist die weitere Entwicklung automatisierter und operationell anwendbarer Verarbeitungs- und Analysemethoden unerlässlich. / In recent years remote sensing has been characterised by dramatic changes. This is reflected especially by the highly increased geometrical resolution of imaging sensors and as a consequence thereof by the developments in processing and analysis methods. Very high resolution satellite imagery (VHR) - defined by a resolution between 0.5 and 1 m - exists since the start of IKONOS at the end of 1999. At about the same time extreme high resolution digital airborne sensors (0.1 till 0.5 m) have been developed. The basis of investigation for this dissertation is IKONOS imagery with a resolution of one meter (panchromatic) respectively four meters (multispectral). Due to the characteristics of such high resolution data (e.g. level of detail, high spectral variability, amount of data) the use of previously available standard methods of image processing is limited. The results of the procedures tested within this work demonstrate that the development of methods and software was not able to keep up with the technical innovations. Some procedures are only gradually becoming suitable for VHR data (e.g. atmospheric-topographic correction). Additionally, this work shows that VHR imagery can be analysed only inadequately using traditional pixel-based statistical classifiers. The herein researched application of image segmentation methods helps to overcome drawbacks of pixel-wise procedures. This is demonstrated by a comparison of pixel and segment-based classification. Within a segmentaion, homogeneous image areas are merged into regions which are the basis for the subsequent classification. For this purpose, in addition to spectral features also formal, textural and contextual properties are available. Furthermore, the applied software eCognition allows the definition of the features for classification based on fuzzy logic in a knowledge base (decision tree). An evaluation of different, currently available segmentation approaches illustrates that a high segmentation quality is achievable with the used software. The increasing demand for geospatial base data offers an important field of application for VHR remote sensing data. With a targeted classification of the imagery the creation of working bases for the herein considered usage for landscape planning and landscape ecology is possible. The given examples of landscape analyses using a segment-based processsing of IKONOS data show an achievable classification accuracy of 90 % and more. The landscape units delineated by image segmentation could be used for the calculation of landscape metrics. National aims of nature conservation as well as international agreements constrain a continuous survey of the landscape inventory and the monitoring of its changes. Remote sensing imagery can support the establishment of automated and operational methods in this field. The example of biotope and land use type mapping illustrates the possibility to detect land use units with a high precision. Depending on the analysis method and the data characteristics the quality of the results is not fully equivalent to the user?s demands at the moment, especially concerning the achievable depth of classification. The quality of the results can be enhanced by using additional thematic data (e.g. GIS data, object elevation models). To summarize this dissertation underlines the trend towards very high resolution digital earth observation. Thus, for a wide use of this kind of data it is essentially to further develop automated and operationally useable processing and analysis methods.
100

Defining ‘Geometric Poetics’ in Nelly Sachs’ Poetry: From “The Space of Words” to “the curved line of affliction”

Hoyer, Jennifer M. 29 July 2019 (has links)
No description available.

Page generated in 0.0909 seconds