• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 17
  • 5
  • 3
  • Tagged with
  • 56
  • 32
  • 15
  • 15
  • 15
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

When graph meets diagonal: an approximative access to fixed point theory / Wenn der Graph auf die Diagonale trifft: ein approximativer Zugang zur Fixpunkttheorie

Okon, Thomas 25 August 2001 (has links) (PDF)
The thesis deals with a general access to topological transversality in uniform spaces. / Die Arbeit behandelt einen allgemeinen Zugang zur Topologischen Transversalität in uniformen Räumen.
32

When graph meets diagonal: an approximative access to fixed point theory

Okon, Thomas 30 August 2001 (has links)
The thesis deals with a general access to topological transversality in uniform spaces. / Die Arbeit behandelt einen allgemeinen Zugang zur Topologischen Transversalität in uniformen Räumen.
33

A parabolic stochastic differential inclusion

Bauwe, Anne, Grecksch, Wilfried 06 October 2005 (has links) (PDF)
Stochastic differential inclusions can be considered as a generalisation of stochastic differential equations. In particular a multivalued mapping describes the set of equations, in which a solution has to be found. This paper presents an existence result for a special parabolic stochastic inclusion. The proof is based on the method of upper and lower solutions. In the deterministic case this method was effectively introduced by S. Carl.
34

High-Resolution 3D Ptychography

Stephan, Sandra 15 April 2013 (has links)
Coherent imaging is a promising method in the field of x-ray microscopy allowing for the nondestructive determination of the interior structure of radiation-hard samples with a spatial resolution that is only limited by the fluence on the sample and the scattering strength of the sample. Ultimately, the achievable spatial resolution is limited by the wavelength of the incoming x-ray radiation. Combining coherent imaging with scanning microscopy to a method called ptychography enables one to also probe extended objects. In this method, a sample is scanned through a defined coherent x-ray beam and at each scan point a diffraction pattern is recorded with a diffraction camera located in the far field of the sample. Neighboring illuminated areas must have a certain overlap to guarantee the collection of sufficient information about the object for a subsequent successful and unique computational reconstruction of the object. Modern ptychographic reconstruction algorithms are even able to reconstruct the complex-valued transmission function of the sample and the complex illumination wave field at the same time. Once the 2D transmission function of a sample is known, it is an obvious step forward to combine ptychography with tomographic techniques yielding the 3D internal structure of an object with unprecedented spatial resolution. Here, projections at varying angular positions of the sample are generated via ptychographic scans and are subsequently used for the tomographic reconstruction. In this thesis the development of 3D ptychography is described. It includes the description of the required experimental environment, the numerical implementation of ptychographic phase retrieval and tomographic reconstruction routines, and a detailed analysis of the performance of 3D ptychography using an example of an experiment carried out at beamline P06 of PETRA III at DESY in Hamburg. In that experiment the investigated object was a Mo/UO2 thin film, which is a simplified model for spent nuclear fuel from nuclear power plant reactors. Such models find application in systematic scientific investigations related to the safe disposal of nuclear waste. We determined the three-dimensional interior structure of this sample with an unprecedented spatial resolution of at least 18 nm. The measurement of the fluorescence signal at each scan point of the ptychograms delivers the two- and three-dimensional elemental distribution of the sample with a spatial resolution of 80 nm. Using the fluorescence data, we assigned the chemical element to the area of the corresponding phase shift in the ptychographic reconstruction of the object phase and to the corresponding refractive index decrement in the tomographic reconstruction. The successful demonstration of the feasibility of the 3D ptychography motivates further applications, for instance, in the field of medicine, of material science, and of basic physical research. / Kohärente Bildgebung ist eine vielversprechende Methode der Röntgenmikroskopie. Sie ermöglicht die zerstörungsfreie Bestimmung der inneren Struktur von strahlenharten Untersuchungsobjekten mit einer räumlichen Auflösung, die im Prinzip nur von der integralen Anzahl der Photonen auf der Probe sowie deren Streukraft abhängt. Letztendlich stellt die Wellenlänge der verwendeten Röntgenstrahlung eine Grenze für die erreichbare räumliche Auflösung dar. Die Kombination der kohärenten Bildgebung mit der Rastermikroskopie zur sogenannten Ptychographie eröffnet die Möglichkeit, auch ausgedehnte Objekte mit hoher Auflösung zu untersuchen. Dabei wird die Probe mit einem räumlich begrenzten, kohärenten Röntgenstrahl abgerastert und an jedem Rasterpunkt ein Beugungsbild von einer im Fernfeld platzierten Beugungskamera registriert. Die Beleuchtungen benachbarter Rasterpunkte müssen dabei zu einem bestimmten Prozentsatz überlappen, um genügend Informationen für eine anschließende computergestützte und eindeutige Rekonstruktion des Objektes sicherzustellen. Moderne Rekonstruktionsalgorithmen ermöglichen sogar die gleichzeitige Rekonstruktion der Transmissionsfunktion des Objektes und der Beleuchtungsfunktion des eintreffenden Röntgenstrahls. Die Verknüpfung der Ptychographie mit der Tomographie zur 3D-Ptychographie ist der nahe liegende Schritt, um nun auch die dreidimensionale innere Struktur von Objekten mit hoher räumlicher Auflösung zu bestimmen. Die Projektionen an den verschiedenen Winkelpositionen der Probe werden dabei mittels ptychographischer Abrasterung der Probe erzeugt und anschließend der tomographischen Rekonstruktion zugrunde gelegt. In dieser Arbeit wird die Entwicklung der 3D-Ptychographie beschrieben. Das beinhaltet die Beschreibung der experimentellen Umgebung, der numerischen Implementierung des ptychographischen und des tomographischen Rekonstruktionsalgorithmus als auch eine detaillierte Darstellung der Durchführung der 3D-Ptychographie am Beispiel eines Experiments, welches unter Verwendung des modernen Nanoprobe-Aufbaus des Strahlrohres P06 am PETRA III Synchrotronring des DESY in Hamburg durchgeführt wurde. Als Untersuchungsobjekt diente dabei ein dünner Mo/UO2-Film, der ein vereinfachtes Modell für die in Reaktoren von Atomkraftwerken verbrauchten Brennstäbe darstellt und deshalb im Bereich des Umweltschutzes Anwendung findet. Die dreidimensionale Struktur der Probe wurde mit einer - für diese Methode bisher einmaligen - räumlichen Auflösung von 18 nm bestimmt. Die Messung des von der Probe kommenden Fluoreszenz-Signals an jedem Rasterpunkt der Ptychogramme ermöglichte zusätzlich die Bestimmung der zwei- und dreidimensionalen Elementverteilung innerhalb der Probe mit einer räumlichen Auflösung von 80 nm. Anhand der Fluoreszenzdaten konnte sowohl den Bereichen verschiedener Phasenschübe in den ptychographischen Rekonstruktionen der Objektphase als auch den verschiedenen Werten des Dekrementes des Brechungsindex in der tomographischen Rekonstruktion, das entsprechende chemische Element zugeordnet werden. Die erfolgreiche Demonstration der Durchführbarkeit der 3D-Ptychographie motiviert weitere zukünftige Anwendungen, z. B. auf dem Gebiet der Medizin, der Materialforschung und der physikalischen Grundlagenforschung.
35

Efficient computation of seismic traveltimes in anisotropic media and the application in pre-stack depth migration

Riedel, Marko 01 July 2016 (has links) (PDF)
This study is concerned with the computation of seismic first-arrival traveltimes in anisotropic media using finite difference eikonal methods. For this purpose, different numerical schemes that directly solve the eikonal equation are implemented and assessed numerically. Subsequently, they are used for pre-stack depth migration on synthetic and field data. The thesis starts with a detailed examination of different finite difference methods that have gained popularity in scientific literature for computing seismic traveltimes in isotropic media. The most appropriate for an extension towards anisotropic media are found to be the so-called Fast Marching/Sweeping methods. Both schemes rely on different iteration strategies, but incorporate the same upwind finite difference Godunov schemes that are implemented up to the second order. As a result, the derived methods exhibit high numerical accuracy and perform robustly even in highly contrasted velocity models. Subsequently, the methods are adapted for transversely isotropic media with vertical (VTI) and tilted (TTI) symmetry axes, respectively. Therefore, two different formulations for approximating the anisotropic phase velocities are tested, which are the weakly-anisotropic and the pseudo-acoustic approximation. As expected, the pseudo-acoustic formulation shows superior accuracy especially for strongly anisotropic media. Moreover, it turns out that the tested eikonal schemes are generally more accurate than anisotropic ray tracing approaches, since they do not require an approximation of the group velocity. Numerical experiments are carried out on homogeneous models with varying strengths of anisotropy and the industrial BP 2007 benchmark model. They show that the computed eikonal traveltimes are in good agreement with independent results from finite difference modelling of the isotropic and anisotropic elastic wave equations, and traveltimes estimated by ray-based wavefront construction, respectively. The computational performance of the TI eikonal schemes is largely increased compared to their original isotropic implementations, which is due to the algebraic complexity of the anisotropic phase velocity formulations. At this point, the Fast Marching Method is found to be more efficient on models containing up to 50 million grid points. For larger models, the anisotropic Fast Sweeping implementation gradually becomes advantageous. Here, both techniques perform independently well of the structural complexity of the underlying velocity model. The final step of this thesis is the application of the developed eikonal schemes in pre-stack depth migration. A synthetic experiment over a VTI/TTI layer-cake model demonstrates that the traveltime computation leads to accurate imaging results including a tilted, strongly anisotropic shale layer. The experiment shows further that the estimation of anisotropic velocity models solely from surface reflection data is highly ambiguous. In a second example, the eikonal solvers are applied for depth imaging of two-dimensional field data that were acquired for geothermal exploration in southern Tuscany, Italy. The developed methods also produce clear imaging results in this setting, which illustrates their general applicability for pre-stack depth imaging, particularly in challenging environments.
36

Signal-metabolome interactions in plants

Birkemeyer, Claudia Sabine January 2005 (has links)
From its first use in the field of biochemistry, instrumental analysis offered a variety of invaluable tools for the comprehensive description of biological systems. Multi-selective methods that aim to cover as many endogenous compounds as possible in biological samples use different analytical platforms and include methods like gene expression profile and metabolite profile analysis. The enormous amount of data generated in application of profiling methods needs to be evaluated in a manner appropriate to the question under investigation. The new field of system biology rises to the challenge to develop strategies for collecting, processing, interpreting, and archiving this vast amount of data; to make those data available in form of databases, tools, models, and networks to the scientific community.<br><br> On the background of this development a multi-selective method for the determination of phytohormones was developed and optimised, complementing the profile analyses which are already in use (Chapter I). The general feasibility of a simultaneous analysis of plant metabolites and phytohormones in one sample set-up was tested by studies on the analytical robustness of the metabolite profiling protocol. The recovery of plant metabolites proved to be satisfactory robust against variations in the extraction protocol by using common extraction procedures for phytohormones; a joint extraction of metabolites and hormones from plant tissue seems practicable (Chapter II).<br><br> Quantification of compounds within the context of profiling methods requires particular scrutiny (Chapter II). In Chapter III, the potential of stable-isotope in vivo labelling as normalisation strategy for profiling data acquired with mass spectrometry is discussed. First promising results were obtained for a reproducible quantification by stable-isotope in vivo labelling, which was applied in metabolomic studies.<br><br> In-parallel application of metabolite and phytohormone analysis to seedlings of the model plant Arabidopsis thaliana exposed to sulfate limitation was used to investigate the relationship between the endogenous concentration of signal elements and the ‘metabolic phenotype’ of a plant. An automated evaluation strategy was developed to process data of compounds with diverse physiological nature, such as signal elements, genes and metabolites – all which act in vivo in a conditional, time-resolved manner (Chapter IV). Final data analysis focussed on conditionality of signal-metabolome interactions. / Die instrumentelle Analytik stellt mit ihrem unschätzbaren Methodenreichtum Analysenwerkzeuge zur Verfügung, die seit ihrem Einzug in die Biologie die Aufzeichnung immer komplexerer ‚Momentaufnahmen’ von biologischen Systemen ermöglichen. Konkret hervorzuheben sind dabei vor allem die sogenannten ‚Profilmethoden’. Die Anwendung von Profilmethoden zielt darauf ab, aus einer bestimmten Stoffklasse so viele zugehörige Komponenten wie nur möglich gleichzeitig zu erfassen. <br><br> Für die Auswertung derart komplexer Daten müssen nun auch entsprechende Auswertungsmethoden bereit gestellt werden. Das neu entstandene Fachgebiet der Systembiologie erarbeitet deshalb Strategien zum Sammeln, Auswerten und Archivieren komplexer Daten, um dieses gesammelte Wissen in Form von Datenbanken, Modellen und Netzwerken der allgemeinen Nutzung zugänglich zu machen.<br><br> Vor diesem Hintergrund wurde den vorhandenen Profilanalysen eine Methode zur Erfassung von Pflanzenhormonen hinzugefügt. Verschiedene Experimente bestätigten die Möglichkeit zur Kopplung von Pflanzenhormon- und Pflanzeninhaltsstoff(=metabolit)-Profilanalyse. In weiteren Untersuchungen wurde das Potential einer innovativen Standardisierungstechnologie für die mengenmässige Erfassung von Pflanzeninhaltsstoffen in biologischen Proben betrachtet (in vivo labelling mit stabilen Isotopen).<br><br> Hormon- und Metabolitprofilanalyse wurden dann parallel angewandt, um Wechselwirkungen zwischen der Konzentration von Signalkomponenten und der Ausprägung des Stoffwechsels in Keimlingen der Modellpflanze Arabidopsis thaliana zu untersuchen. Es wurde eine Prozessierungsmethode entwickelt, die es auf einfache Art und Weise erlaubt, Daten oder Komponenten verschiedenen Ursprungs wie Signalelemente, Gene und Metabolite, die in biologischen Systemen zeitlich versetzt aktiv oder verändert erscheinen, im Zusammenhang zu betrachten. Die abschließende Analyse aller Daten richtet sich auf die Abschätzung der Bedingtheit von Signal-Metabolismus Interaktionen.
37

Local imaging of magnetic flux in superconducting thin films

Shapoval, Tetyana 04 March 2010 (has links) (PDF)
Local studies of magnetic flux line (vortex) distribution in superconducting thin films and their pinning by natural and artificial defects have been performed using low-temperature magnetic force microscopy (LT-MFM). Taken a 100 nm thin NbN film as an example, the depinning of vortices from natural defects under the influence of the force that the MFM tip exerts on the individual vortex was visualized and the local pinning force was estimated. The good agreement of these results with global transport measurements demonstrates that MFM is a powerful and reliable method to probe the local variation of the pinning landscape. Furthermore, it was demonstrated that the presence of an ordered array of 1-μm-sized ferromagnetic permalloy dots being in a magneticvortex state underneath the Nb film significantly influences the natural pinning landscape of the superconductor leading to commensurate pinning effects. This strong pinning exceeds the repulsive interaction between the superconducting vortices and allows vortex clusters to be located at each dot. Additionally, for industrially applicable YBa$_2$Cu$_3$O$_{7-\delta} thin films the main question discussed was the possibility of a direct correlation between vortices and artificial defects as well as vortex imaging on rough as-prepared thin films. Since the surface roughness (droplets, precipitates) causes a severe problem to the scanning MFM tip, a nanoscale wedge polishing technique that allows to overcome this problem was developed. Mounting the sample under a defined small angle results in a smooth surface and a monotonic thickness reduction of the film along the length of the sample. It provides a continuous insight from the film surface down to the substrate with surface sensitive scanning techniques.
38

Parallelisierung von Algorithmen zur Nutzung auf Architekturen mit Teilwortparallelität / Parallelization of Algorithms for using on Architectures with Subword Parallelism

Schaffer, Rainer 12 October 2010 (has links) (PDF)
Der technologische Fortschritt gestattet die Implementierung zunehmend komplexerer Prozessorarchitekturen auf einem Schaltkreis. Ein Trend der letzten Jahre ist die Implementierung von mehr und mehr Verarbeitungseinheiten auf einem Chip. Daraus ergeben sich neue Herausforderungen für die Abbildung von Algorithmen auf solche Architekturen, denn alle Verarbeitungseinheiten sollen effizient bei der Ausführung des Algorithmus genutzt werden. Der Schwerpunkt der eingereichten Dissertation ist die Ausnutzung der Parallelität von Rechenfeldern mit Teilwortparallelität. Solche Architekturen erlauben Parallelverarbeitung auf mehreren Ebenen. Daher wurde eine Abbildungsstrategie, mit besonderem Schwerpunkt auf Teilwortparallelität entwickelt. Diese Abbildungsstrategie basiert auf den Methoden des Rechenfeldentwurfs. Rechenfelder sind regelmäßig angeordnete Prozessorelemente, die nur mit ihren Nachbarelementen kommunizieren. Die Datenein- und -ausgabe wird durch die Prozessorelemente am Rand des Rechenfeldes realisiert. Jedes Prozessorelement kann mehrere Funktionseinheiten besitzen, welche die Rechenoperationen des Algorithmus ausführen. Die Teilwortparallelität bezeichnet die Fähigkeit zur Teilung des Datenpfads der Funktionseinheit in mehrere schmale Datenpfade für die parallele Ausführung von Daten mit geringer Wortbreite. Die entwickelte Abbildungsstrategie unterteilt sich in zwei Schritte, die \"Vorverarbeitung\" und die \"Mehrstufige Modifizierte Copartitionierung\" (kurz: MMC). Die \"Vorverarbeitung\" verändert den Algorithmus in einer solchen Art, dass der veränderte Algorithmus schnell und effizient auf die Zielarchitektur abgebildet werden kann. Hierfür wurde ein Optimierungsproblem entwickelt, welches schrittweise die Parameter für die Transformation des Algorithmus bestimmt. Die \"Mehrstufige Modifizierte Copartitionierung\" wird für die schrittweise Anpassung des Algorithmus an die Zielarchitektur eingesetzt. Darüber hinaus ermöglicht die Abbildungsmethode die Ausnutzung der lokalen Register in den Prozessorelementen und die Anpassung des Algorithmus an die Speicherarchitektur, an die das Rechenfeld angebunden ist. Die erste Stufe der MMC dient der Transformation eines Algorithmus mit Einzeldatenoperationen in einen Algorithmus mit teilwortparallelen Operationen. Mit der zweiten Copartitionierungsstufe wird der Algorithmus an die lokalen Register und an das Rechenfeld angepasst. Weitere Copartitionierungsstufen können zur Anpassung des Algorithmus an die Speicherarchitektur verwendet werden. / The technological progress allows the implementation of complex processor architectures on a chip. One trend of the last years is the implemenation of more and more execution units on one chip. That implies new challenges for the mapping of algorithms on such architectures, because the execution units should be used efficiently during the execution of the algorithm. The focus of the submitted dissertation thesis is the utilization of the parallelism of processor arrays with subword parallelism. Such architectures allow parallel executions on different levels. Therefore an algorithm mapping strategy was developed, where the exploitation of the subword parallelism was in the focus. This algorithm mapping strategy is based on the methods of the processor array design. Processor arrays are regular arranged processor elements, which communicate with their neighbors elements only. The data in- and output will be realized by the processor elements on the border of the array. Each processor element can have several functional units, which execute the computational operations. Subword parallelism means the capability for splitting the data path of the functional units in several smaller chunks for the parallel execution of data with lower word width. The developed mapping strategy is subdivided in two steps, the \"Preprocessing\" and the \"Multi-Level Modified Copartitioning\" (kurz: MMC), whereat the MMC means the method of the step simultaneously. The \"Preprocessing\" alter the algorithm in such a kind, that the altered algorithm can be fast and efficient mapped on the target architecture. Therefore an optimization problem was developed, which determines gradual the parameter for the transformation of the algorithm. The \"Multi-Level Modified Copartitioning\" is used for mapping the algorithm gradual on the target architecture. Furthermore the mapping methodology allows the exploitation of the local registers in the processing elements and the adaptation of the algorithm on the memory architecture, where the processing array is connected on. The first level of the MMC is used for the transformation of an algorithm with operation based on single data to an algorithm with subword parallel operations. With the second level, the algorithm will be adapted to the local registers in the processing elements and to the processor array. Further copartition levels can be used for matching the algorithm to the memory architecture.
39

Towards Attribute Grammars for Metamodel Semantics

Bürger, Christoff, Karol, Sven 15 August 2011 (has links) (PDF)
Of key importance for metamodelling are appropriate modelling formalisms. Most metamodelling languages permit the development of metamodels that specify tree-structured models enriched with semantics like constraints, references and operations, which extend the models to graphs. However, often the semantics of these semantic constructs is not part of the metamodel, i.e., it is unspeci ed. Therefore, we propose to reuse well-known compiler construction techniques to specify metamodel semantics. To be more precise, we present the application of reference attribute grammars (RAGs) for metamodel semantics and analyse commonalities and differences. Our focus is to pave the way for such a combination, by exemplifying why and how the metamodelling and attribute grammar (AG) world can be combined and by investigating a concrete example - the combination of the Eclipse Modelling Framework (EMF) and JastAdd, an AG evaluator generator.
40

An apt perspective of analysis

Kishore, Nanad, Chandra, Ramesh 02 May 2012 (has links) (PDF)
The discourse presented here is aimed at examining the justification of applications of current analysis to real world problems.

Page generated in 0.0453 seconds