• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • Tagged with
  • 5
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Improving flood frequency analysis by integration of empirical and probabilistic regional envelope curves

Guse, Björn Felix January 2010 (has links)
Flood design necessitates discharge estimates for large recurrence intervals. However, in a flood frequency analysis, the uncertainty of discharge estimates increases with higher recurrence intervals, particularly due to the small number of available flood data. Furthermore, traditional distribution functions increase unlimitedly without consideration of an upper bound discharge. Hence, additional information needs to be considered which is representative for high recurrence intervals. Envelope curves which bound the maximum observed discharges of a region are an adequate regionalisation method to provide additional spatial information for the upper tail of a distribution function. Probabilistic regional envelope curves (PRECs) are an extension of the traditional empirical envelope curve approach, in which a recurrence interval is estimated for a regional envelope curve (REC). The REC is constructed for a homogeneous pooling group of sites. The estimation of this recurrence interval is based on the effective sample years of data considering the intersite dependence among all sites of the pooling group. The core idea of this thesis was an improvement of discharge estimates for high recurrence intervals by integrating empirical and probabilistic regional envelope curves into the flood frequency analysis. Therefore, the method of probabilistic regional envelope curves was investigated in detail. Several pooling groups were derived by modifying candidate sets of catchment descriptors and settings of two different pooling methods. These were used to construct PRECs. A sensitivity analysis shows the variability of discharges and the recurrence intervals for a given site due to the different assumptions. The unit flood of record which governs the intercept of PREC was determined as the most influential aspect. By separating the catchments into nested and unnested pairs, the calculation algorithm for the effective sample years of data was refined. In this way, the estimation of the recurrence intervals was improved, and therefore the use of different parameter sets for nested and unnested pairs of catchments is recommended. In the second part of this thesis, PRECs were introduced into a distribution function. Whereas in the traditional approach only discharge values are used, PRECs provide a discharge and its corresponding recurrence interval. Hence, a novel approach was developed, which allows a combination of the PREC results with the traditional systematic flood series while taking the PREC recurrence interval into consideration. An adequate mixed bounded distribution function was presented, which in addition to the PREC results also uses an upper bound discharge derived by an empirical envelope curve. By doing so, two types of additional information which are representative for the upper tail of a distribution function were included in the flood frequency analysis. The integration of both types of additional information leads to an improved discharge estimation for recurrence intervals between 100 and 1000 years. / Abschätzungen von Abflüssen mit hohen Wiederkehrintervallen werden vor allem für die Bemessung von Extremhochwässern benötigt. In der Hochwasserstatistik bestehen insbesondere für hohe Wiederkehrintervalle große Unsicherheiten, da nur eine geringe Anzahl an Messwerten für Hochwasserereignisse verfügbar ist. Zudem werden zumeist Verteilungsfunktionen verwendet, die keine obere Grenze beinhalten. Daher müssen zusätzliche Informationen zu den lokalen Pegelmessungen berücksichtigt werden, die den Extrembereich einer Verteilungsfunktion abdecken. Hüllkurven ermitteln eine obere Grenze von Hochwasserabflüssen basierend auf beobachteten maximalen Abflusswerten. Daher sind sie eine geeignete Regionalisierungsmethode. Probabilistische regionale Hüllkurven sind eine Fortentwicklung des herkömmlichen Ansatzes der empirischen Hüllkurven. Hierbei wird einer Hüllkurve einer homogenen Region von Abflusspegeln ein Wiederkehrintervall zugeordnet. Die Berechnung dieses Wiederkehrintervalls basiert auf der effektiven Stichprobengröße und berücksichtigt die Korrelationsbeziehungen zwischen den Pegeln einer Region. Ziel dieser Arbeit ist eine Verbesserung der Abschätzung von Abflüssen mit großen Wiederkehrintervallen durch die Integration von empirischen und probabilistischen Hüllkurven in die Hochwasserstatistik. Hierzu wurden probabilistische Hüllkurven detailliert untersucht und für eine Vielzahl an homogenen Regionen konstruiert. Hierbei wurden verschiedene Kombinationen von Einzugsgebietsparametern und Variationen von zwei Gruppierungsmethoden verwendet. Eine Sensitivitätsanalyse zeigt die Variabilität von Abfluss und Wiederkehrintervall zwischen den Realisationen als Folge der unterschiedlichen Annahmen. Die einflussreichste Größe ist der maximale Abfluss, der die Höhe der Hüllkurve bestimmt. Eine Einteilung in genestete und ungenestete Einzugsgebiete führt zu einer genaueren Ermittlung der effektiven Stichprobe und damit zu einer verbesserten Abschätzung des Wiederkehrintervalls. Daher wird die Verwendung von zwei getrennten Parametersätzen für die Korrelationsfunktion zur Abschätzung des Wiederkehrintervalls empfohlen. In einem zweiten Schritt wurden die probabilistischen Hüllkurven in die Hochwasserstatistik integriert. Da in traditionellen Ansätzen nur Abflusswerte genutzt werden, wird eine neue Methode präsentiert, die zusätzlich zu den gemessenen Abflusswerten die Ergebnisse der probabilistischen Hüllkurve – Abfluss und zugehöriges Wiederkehrintervall - berücksichtigt. Die Wahl fiel auf eine gemischte begrenzte Verteilungsfunktion, die neben den probabilistischen Hüllkurven auch eine absolute obere Grenze, die mit einer empirischen Hüllkurve ermittelt wurde, beinhaltet. Damit werden zwei Arten von zusätzlichen Informationen verwendet, die den oberen Bereich einer Verteilungsfunktion beschreiben. Die Integration von beiden führt zu einer verbesserten Abschätzung von Abflüssen mit Wiederkehrintervallen zwischen 100 und 1000 Jahren.
2

Direct calculation of parton distribution functions (PDFs) on the lattice

Manigrasso, Floriano 05 September 2022 (has links)
In dieser Arbeit befassen wir uns mit einer Reihe von entscheidenden Schritten, um die unpolarisierten Helizitäts- und Trasversitäts-Parton-Verteilungsfunktionen der Nukleonen im Rahmen der Gitter-QCD zu bewerten. Diskretisierungsartefakte werden unter Verwendung eines N_f=2+1+1 Eichensembles von Fermionen mit verdrillter Wilson-Masse untersucht, die bei einer Pionenmasse von ungefähr M=37 MeV simuliert werden. Die unpolarisierten und Helizitäts Partonverteilungsfunktionen weisen eine nicht vernachlässigbare Abhängigkeit vom Gitterabstand auf, und die Kontinuumsextrapolation ergibt eine bessere Übereinstimmung mit Phänomenologie. Die direkte Berechnung der Fourier-Transformation mit diskreten Gitterdaten kann Artefakte verursachen. Daher arbeiten wir mit einer neuen datengesteuerten Methode, die auf Gauß-Prozess-Regression basiert, die sogenannte Bayes-Gauß-Fourier-Transformation, um die Einschränkungen der diskreten Fourier-Transformation zu überwinden. Wir sind der Meinung, dass dieser datengesteuerte Ansatz die durch die Diskretisierung der Fourier-Transformation eingeführten Artefakte drastisch reduzieren kann, jedoch ist der endgültige Effekt auf die Lichtkegel-PDFs gering. Darüber hinaus präsentieren wir die Ergebnisse der ersten ab initio Berechnung der individuellen up, down und strange unpolarisierten, Helizitäts- und Transversitäts-Partonverteilungsfunktionen für das Proton. Die Analyse wird an einem durch N_f=2+1+1 verdrillten Kleeblatt-verbesserten Fermionen-Ensemble durchgeführt, das bei einer Pionenmasse von 260 MeV simuliert wird. Wir verwenden den hierarchischen Sondierungsalgorithmus, um die unzusammenhängenden Quarkschleifen auszuwerten. Dadurch erhalten wir Ergebnisse ungleich Null für den unbegundenen isoskalaren Beitrag und die strange Quark-Matrixelemente. / In this work, we address a number of crucial steps in order to evaluate the nucleon unpolarized helicity and trasversity parton distribution functions within the framework of lattice QCD. Discretization artifacts are investigated using an N_f=2+1+1 gauge ensemble of Wilson twisted mass fermions simulated at a pion mass of approximately M=370 MeV. The unpolarized and helicity parton distribution functions show a non-negligible dependence on the lattice spacing, with the continuum extrapolation producing a better agreement with phenomenology. The direct computation of the Fourier transform using discrete lattice data may introduce artifacts and we, therefore, use a new data-driven method based on Gaussian process regression, the so-called Bayes-Gauss Fourier transform to overcome the limitations of the discrete Fourier transform. We find that this data-driven approach can drastically reduce the artifacts introduced by the discretization of the Fourier transform, however, the final effect on the light-cone PDFs is small. Furthermore, we present results of the first ab initio calculation of the individual up, down, and strange unpolarized, helicity, and transversity parton distribution functions for the proton. The analysis is performed on an N_f=2+1+1 twisted mass clover-improved fermion ensemble simulated at a pion mass of 260 MeV. We employ the hierarchical probing algorithm to evaluate the disconnected quark loops, allowing us to obtain non-zero results for the disconnected isoscalar contribution and the strange quark matrix elements.
3

Nucleon structure from lattice QCD

Dinter, Simon 29 November 2012 (has links)
In dieser Arbeit berechnen wir mit Hilfe der Gitter-QCD Observablen, die in Beziehung zur Struktur des Nukleons stehen. Ein Teil dieser Arbeit beschäftigt sich mit Momenten von Parton-Verteilungsfunktionen. Solche Momente sind wichtig für das Verständnis der Nukleon-Struktur und werden durch globale Analysen von tief-inelastischen Streuexperimenten bestimmt. Eine theoretische, nicht-perturbative Rechnung der Momente in der Gitter-QCD ist möglich. Allerdings existiert, seit solche Gitter-QCD Rechnungen vorliegen, eine Diskrepanz zwischen diesen Rechnungen und den Ergebnissen globaler Analysen experimenteller Daten. Wir untersuchen, ob systematische Effekte für diese Diskrepanz verantwortlich sind, dabei studieren wir insbesondere die Effekte angeregter Zustände. Zudem führen wir eine erste Rechnung mit vier dynamischen Quark-Flavors durch. Ein weiterer Aspekt dieser Arbeit ist eine Machbarkeitsstudie zur Berechnung des skalaren Quark-Inhalts des Nukleons in der Gitter-QCD. Dieser bestimmt den Wirkungsquerschnitt der durch ein skalares Teilchen (z.B. ein Higgs-Teilchen) vermittelten Wechselwirkung eines schweren Teilchens mit einem Nukleon und kann somit einen Einfluss bei der Suche nach Dunkler Materie haben. Bisherige Gitter-Rechnungen dieser Größe besitzen große Unsicherheiten und sind daher von geringer Signifikanz für phenomenologische Anwendungen. Wir benutzen eine Varianz-Reduktions-Methode zur Auswertung von unverbundenen Diagrammen um ein präzises Ergebnis zu erhalten. Des Weiteren stellen wir eine neue stochastische Methode zur Berechnung von Nukleon-Dreipunkt-Korrelationsfunktionen vor, die für die Berechnung von Observablen der Nukleon-Struktur benötigt werden. Wir testen die Konkurrenzfähigkeit dieser neuen Methode gegenüber der Standard-Methode. In allen Rechnungen benutzen wir Wilson twisted-Mass Fermionen mit maximalem Twist, so dass die hier berechneten Observablen nur O(a^2) Diskretisierungsfehler aufweisen. / In this thesis we compute within lattice QCD observables related to the structure of the nucleon. One part of this thesis is concerned with moments of parton distribution functions (PDFs). Those moments are essential elements for the understanding of nucleon structure and can be extracted from a global analysis of deep inelastic scattering experiments. On the theoretical side they can be computed non-perturbatively by means of lattice QCD. However, since the time lattice calculations of moments of PDFs are available, there is a tension between these lattice calculations and the results from a global analysis of experimental data. We examine whether systematic effects are responsible for this tension, and study particularly intensively the effects of excited states by a dedicated high precision computation. Moreover, we carry out a first computation with four dynamical flavors. Another aspect of this thesis is a feasibility study of a lattice QCD computation of the scalar quark content of the nucleon, which is an important element in the cross-section of a heavy particle with the nucleon mediated by a scalar particle (e.g. Higgs particle) and can therefore have an impact on Dark Matter searches. Existing lattice QCD calculations of this quantity usually have a large error and thus a low significance for phenomenological applications. We use a variance-reduction technique for quark-disconnected diagrams to obtain a precise result. Furthermore, we introduce a new stochastic method for the calculation of connected 3-point correlation functions, which are needed to compute nucleon structure observables, as an alternative to the usual sequential propagator method. In an explorative study we check whether this new method is competitive to the standard one. We use Wilson twisted mass fermions at maximal twist in all our calculations, such that all observables considered here have only O(a^2) discretization effects.
4

DIPBench Toolsuite

Lehner, Wolfgang, Böhm, Matthias, Habich, Dirk, Wloka, Uwe 27 May 2022 (has links)
So far the optimization of integration processes between heterogeneous data sources is still an open challenge. A first step towards sufficient techniques was the specification of a universal benchmark for integration systems. This DIPBench allows to compare solutions under controlled conditions and would help generate interest in this research area. However, we see the requirement for providing a sophisticated toolsuite in order to minimize the effort for benchmark execution. This demo illustrates the use of the DIPBench toolsuite. We show the macro-architecture as well as the micro-architecture of each tool. Furthermore, we also present the first reference benchmark implementation using a federated DBMS. Thereby, we discuss the impact of the defined benchmark scale factors. Finally, we want to give guidance on how to benchmark other integration systems and how to extend the toolsuite with new distribution functions or other functionalities.
5

Photolytischer Käfigeffekt von Dihalomethanen in überkritischen Lösungsmitteln / Photolytic cage effect of dihalomethanes in supercritical solvents

Zerbs, Jochen 02 November 2005 (has links)
No description available.

Page generated in 0.0964 seconds