• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 8
  • 8
  • 1
  • Tagged with
  • 30
  • 27
  • 24
  • 14
  • 11
  • 11
  • 11
  • 11
  • 10
  • 10
  • 10
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Numerische Untersuchung zur instationären Kutta-Bedingung

Bebber, Guido van 20 June 2000 (has links)
No description available.
2

Asset Allokationsentscheidungen auf Basis höherer Momente und impliziter Informationen / Asset Allocation with Higher Moments and Implied Information

Brinkmann, Felix Holger 14 February 2014 (has links)
Die auf Markowitz (1952) zurückgehende Portfoliotheorie ist ohne jeden Zweifel ein bedeutender Themenbereich der modernen finanzwirtschaftlichen Forschung. Zentral beschäftigt sich dieser Bereich mit der Frage, wie ein Anleger sein Vermögen auf unterschiedliche Anlagewerte verteilen soll. Als Ergebnis stellt sich ein optimales Verhältnis aus Rendite und Risiko heraus, wobei das Risiko ausschließlich durch die Varianz der Portfoliorendite erfasst wird. Konkrete Anwendungen dieses Konzeptes erzielen jedoch aufgrund von Schätzfehlern und Stationaritätsannahmen bei der Erwartungsbildung enttäuschende Resultate, speziell im Vergleich zu passiven Anlagestrategien. Die vorliegende Arbeit greift nun beide Aspekte parallel auf. Zum einem werden neben der Varianz auch weitere höhere Momente der Portfoliorenditeverteilung in der optimalen Asset Allokation berücksichtigt, zum anderen werden an Stelle von historischen Renditezeitreihen implizite Informationen aus dem Optionsmarkt für die Erwartungsbildung genutzt. Die Arbeit leistet hierzu methodische, theoretische und empirische Beiträge. Es wird aufgezeigt, wie implizite Informationen in der Asset Allokation mit höheren Momenten zur Anwendung kommen und, im Rahmen von umfangreichen empirischen Studien, dass im Vergleich zur Erwartungsbildung auf Basis historischer Renditezeitreihen implizite Informationen in der Asset Allokation vorzuziehen sind.
3

The role of higher moments in high-frequency data modelling

Schmid, Manuel 24 November 2021 (has links)
This thesis studies the role of higher moments, that is moments behind mean and variance, in continuous-time, or diffusion, processes, which are commonly used to model so-called high-frequency data. Thereby, the first part is devoted to the derivation of closed-form expression of general (un)conditional (co)moment formulas of the famous CIR process’s solution. A byproduct of this derivation will be a novel way of proving that the process’s transition density is a noncentral chi-square distribution and that its steady-state law is a Gamma distribution. In the second part, we use these moment formulas to derive a near-exact simulation algorithm to the Heston model, in the sense that our algorithm generates pseudo-random numbers that have the same first four moments as the theoretical diffusion process. We will conduct several in-depth Monte Carlo studies to determine which existing simulation algorithm performs best with respect to these higher moments under certain circumstances. We will conduct the same study for the CIR process, which serves as a diffusion for the latent spot variance in the Heston model. The third part discusses several estimation approaches to the Heston model based on high-frequency data, such as MM, GMM, and (pseudo/quasi) ML. For the GMM approach, we will use the moments derived in the first part as moment conditions. We apply the best methodology to actual high-frequency price series of cryptocurrencies and FIAT stocks to provide benchmark parameter estimates. / Die vorliegende Arbeit untersucht die Rolle von höheren Momenten, also Momente, welche über den Erwartungswert und die Varianz hinausgehen, im Kontext von zeitstetigen Zeitreihenmodellen. Solche Diffusionsprozesse werden häufig genutzt, um sogenannte Hochfrequenzdaten zu beschreiben. Teil 1 der Arbeit beschäftigt sich mit der Herleitung von allgemeinen und in geschlossener Form verfügbaren Ausdrücken der (un)bedingten (Ko-)Momente der Lösung zum CIR-Prozess. Mittels dieser Formeln wird auf einem alternativen Weg bewiesen, dass die Übergangsdichte dieses Prozesses mithilfe einer nichtzentralen Chi-Quadrat-Verteilung beschrieben werden kann, und dass seine stationäre Verteilung einer Gamma-Verteilung entspricht. Im zweiten Teil werden die zuvor entwickelten Ausdrücke genutzt, um einen nahezu exakten Simulationsalgorithmus für das Hestonmodell herzuleiten. Dieser Algorithmus ist in dem Sinne nahezu exakt, dass er Pseudo-Zufallszahlen generiert, welche die gleichen ersten vier Momente besitzen, wie der dem Hestonmodell zugrundeliegende Diffusionsprozess. Ferner werden Monte-Carlo-Studien durchgeführt, die ergründen sollen, welche bereits existierenden Simulationsalgorithmen in Hinblick auf die ersten vier Momente die besten Ergebnisse liefern. Die gleiche Studie wird außerdem für die Simulation des CIR-Prozesses durchgeführt, welcher im Hestonmodell als Diffusion für die latente, instantane Varianz dient. Im dritten Teil werden mehrere Schätzverfahren für das Hestonmodell, wie das MM-, GMM und pseudo- beziehungsweise quasi-ML-Verfahren, diskutiert. Diese werden unter Benutzung von Hochfrequenzdaten studiert. Für das GMM-Verfahren dienen die hergeleiteten Momente aus dem ersten Teil der Arbeit als Momentebedingungen. Um ferner Schätzwerte für das Hestonmodell zu finden, werden die besten Verfahren auf Hochfrequenzmarktdaten von Kryptowährungen, sowie hochliquider Aktientitel angewandt. Diese sollen zukünftig als Orientierungswerte dienen.
4

Utility maximization and quadratic BSDEs under exponential moments

Mocha, Markus 08 March 2012 (has links)
In der Arbeit befassen wir uns mit der Potenznutzenmaximierung des Endvermögens, wenn die Aktienpreise stetigen Semimartingaldynamiken genügen und die Strategien des Agenten Investitions- und Informationsrestriktionen unterworfen sind. Hauptaugenmerk liegt auf der stochastischen Rückwärtsgleichung (BSDE) für den dynamischen Wertprozess und auf der Übertragung von neuen Ergebnissen zu quadratischen Semimartingal-BSDEs auf das Investitionsproblem. Dieses gelingt unter der Annahme endlicher exponentiellen Momente des Mean-Variance Tradeoff und verallgemeinert frühere Resultate, die Beschränktheit fordern. Wir betrachten dabei zunächst die Beziehung zwischen den Dualitäts- und BSDE-Ansätzen zur Lösung des Problems und gehen dann über zum Studium der quadratischen Semimartingal-BSDE, wenn der Marktpreis des Risikos vom BMO-Typ ist. Wir zeigen, dass es stets ein Kontinuum verschiedener BSDE-Lösungen mit quadratisch integrierbarem Martingalteil gibt. Wir stellen dann eine neue scharfe Bedingung an geeignete dynamische exponentielle Momente vor, die die Beschränktheit der BSDE-Lösungen in einer allgemeinen Filtration garantiert. In weiterer Folge weisen wir Existenz-, Eindeutigkeits-, Stabilitäts- und Maßwechselresultate für allgemeine quadratische stetige BSDEs unter exponentiellen Momenten nach. Diese Ergebnisse verwenden wir, um das Investitionsproblem für den Fall konischer Investitionsrestriktionen zu untersuchen. Ausgehend von der Zerlegung von Elementen des dualen Gebietes erhalten wir die zugehörige BSDE und beweisen, dass der Wertprozess in einem Raum liegt, in dem Lösungen quadratischer BSDEs eindeutig sind. Als Folgerung aus dem Stabilitätsresultat für BSDEs erhalten wir die Stetigkeit der Optimierer in der Semimartingaltopologie in den Parametern des Modells. Schließlich betrachten wir das Investitionsproblem unter exponentiellen Momenten, kompakten Handelsrestriktionen und eingeschränkter Information. Hierbei benutzen wir ausschließlich BSDE-Resultate. / In this thesis we consider the problem of maximizing the power utility from terminal wealth when the stocks have continuous semimartingale dynamics and there are investment and information constraints on the agent''s strategies. The main focus is on the backward stochastic differential equation (BSDE) that encodes the dynamic value process and on transferring new results on quadratic semimartingale BSDEs to the portfolio choice problem. This is accomplished under the assumption of finite exponential moments of the mean-variance tradeoff, generalizing previous results which require boundedness. We first recall the relationship between the duality and BSDE approaches to solving the problem and then study the associated quadratic semimartingale when the market price of risk is of BMO type. We show that there is always a continuum of distinct solutions to this BSDE with square-integrable martingale part. We then provide a new sharp condition on the dynamic exponential moments of the mean-variance tradeoff which guarantees the boundedness of BSDE solutions in a general filtration. In a subsequent step we establish existence, uniqueness, stability and measure change results for general quadratic continuous BSDEs under an exponential moments condition. We use these results to study the portfolio selection problem when there are conic investment constraints. Building on a decomposition result for the elements of the so-called dual domain we derive the associated BSDE and show that the value process is contained in a specific space in which BSDE solutions are unique. A consequence of the stability result for BSDEs is then the continuity of the optimizers with respect to the input parameters of the model in the semimartingale topology. Finally, we study the optimal investment problem under exponential moments, compact constraints and restricted information. This is done by referring to BSDE results only.
5

Essays on asset pricing and the macroeconomy

Kliem, Martin 02 September 2009 (has links)
Diese Dissertation beinhaltet drei eigenständige Aufsätze, die die Interaktionen von Bewertungsmodellen für Wertpapiere, Finanzmärkten und der Volkswirtschaft untersuchen. Alle drei Papiere tragen zu einem besseren Verständnis von Verknüpfungen zwischen Finanzmärkten und Realwirtschaft. Im Mittelpunkt dieser Arbeit stehen Gewohnheitspräferenzen und Bayesianische Schätzmethoden, um sowohl theoretische als auch empirische Erkenntnisse zu liefern, die helfen, die makroökonomische und die Finanzliteratur stärker zu verbinden. Das erste Essay beschäftigt sich mit Gewohnheitspräferenzen und deren Fähigkeit, verschiedene Aktienrenditen in einem Portfolio zu erklären. Die zugrunde gelegten konsumbasierten Bewertungsmodelle basieren auf mikrofundierten Präferenzen und implizieren somit individuelles und aggregiertes Verhalten von Individuen. Aus diesem Grund werden Bayesianische Methoden genutzt, um diese a priori Information in die Schätzung einfließen zu lassen. Im zweiten Essay, einer gemeinsamen Arbeit mit Harald Uhlig, schätzen wir ein DSGE-Modell. Hervorzuheben ist, dass wir sowohl die Momente zweiter Ordnung für Wertpapierrenditen berücksichtigen als auch die a priori Wahrscheinlichkeiten für stilisierte Fakten wie Frisch-Elastizität und Sharpe ratio. Dieses Vorgehen liefert eine Modellschätzung, die gleichzeitig Fakten der Konjunkturzyklen, Momente zweiter Ordnung von Wertpapierrenditen sowie Finanzmarktfakten besser erklären kann. Das dritte Essay präsentiert ein DSGE-Modell, das die Interaktionen der Aktienmarktbooms zum Ende der 1980er und 1990er Jahre mit der Realwirtschaft erklären kann. Mit Hilfe nichtseparabler Präferenzen und nominaler Rigiditäten lässt sich der simultane Anstieg von BIP, Konsum, Investitionen, geleisteten Arbeitsstunden und Löhnen in dieser Zeit erklären. Abschließend wird die Rolle der Geldpolitik während Aktienmarktbooms diskutiert, und es werden optimale geldpolitische Regeln hergeleitet. / This thesis consists of three self-contained essays that investigate the interaction of asset prices and financial markets with the macroeconomy. All papers extend the existing literature in order to enhance the understanding of the strong degree of cross-linking between financial markets and the ‘rest of the economy’. In particular, the thesis focuses on habitually formed preferences and Bayesian techniques to yield theoretical and empirical insights, which help to reduce the existing gap between asset pricing and macroeconomic literature. The first essay examines and compares the ability of habitually formed preferences to explain the cross section of asset returns compared to successful factor models. Such consumption-based asset pricing models are based on micro- founded preferences, implying a linkage to individual and aggregate behavior. For this reason, the essay uses a Bayesian approach with a priori information derived from the empirical Business Cycle literature. In the second essay which is joint work with Harald Uhlig, we use Bayesian techniques to estimate a DSGE model. Especially, we explore a way to include conditional second moments of asset returns into the estimation. Moreover, we constrain the estimation by a priori probabilities on the Sharpe ratio and the Frisch elasticity. By doing so, the estimated model can well jointly explain key business cycle facts, different volatilities of several asset returns, and the empirically observed equity premium. The third essay presents a DSGE model, which covers the observed co-movements of stock market boom and bust episodes in the 1980''s and 1990''s and the economy. By including non-separable preferences and nominal rigidities, the model explains the simultaneous rise of consumption, output, investments, hours worked, and wages during a boom and the subsequent bust. Finally, the role of monetary policy during stock market booms is discussed, and optimal monetary policy rules are evaluated.
6

Measurement and Interpretation of Moments of the Combined Hadronic Mass and Energy Spectrum in Inclusive Semileptonic B-meson Decays / Messung und Interpretation von Momenten der kombinierten hadronischen Massen- und Energieverteilung in inklusiven semileptonischen B-Mesonenzerfällen

Klose, Verena 02 April 2008 (has links) (PDF)
This thesis presents first measurements of moments of the hadronic n_X^2 distribution measured in inclusive semileptonic decays of B mesons to final states containing a charm quark, B->Xc l nu. The variable n_X^2 is a combination of the invariant mass of the charmed meson m_X, its energy in the B-meson rest-frame E_X, and a constant \tilde{\Lambda} = 0.65 GeV, n_X^2 = m_X^2 c^4 - 2 \tilde{\Lambda} E_X + \tilde{\Lambda}^2. The moments <n_X^k> with k=2,4,6 are measured as proposed by theory to constrain assumptions made in the theoretical description of inclusive observables in semileptonic B-meson decays. This description uses Heavy Quark Expansion (HQE), an effective QCD combined with an Operator Product Expansion. The measurement is based on a sample of 231.6 million e+e- -> Y(4S) -> B\bar{B} events recorded with the BABAR experiment at the PEP-II e+e--storage rings at SLAC. We reconstruct the semileptonic decay by identifying a charged lepton in events tagged by a fully reconstructed hadronic decay of the second B meson. Correction procedures are derived from Monte Carlo simulations to ensure an unbiased measurement of the moments of the n_X^2 distribution. All moments are measured requiring minimum lepton momenta between 0.8 GeV/c and 1.9 GeV/c in the rest frame of the B meson. Performing a simultaneous fit to the measured moments <n_X^k> up to order k=6 combined with other measurements of moments of the lepton-energy spectrum in decays B->Xc l nu and moments of the photon-energy spectrum in decays B->Xs gamma, we determine the quark-mixing parameter |V_{cb}|, the bottom and charm quark masses, the semileptonic branching fraction BR(B->X l nu), and four non-perturbative heavy quark parameters. Using HQE calculations in the kinetic scheme up to order 1/m_b^3 we find |V_{cb}| = (41.65 +- 0.43 +- 0.40 +- 0.58) x 10^{-3} and m_b = (4.570 \pm 0.033 \pm 0.043)GeV/c^2, where the first uncertainty refers to experimental contributions, the second to uncertainties in the HQE, and the third to theoretical uncertainties in the calculations of the semileptonic decay rate. All obtained results are consistent with previous determinations. The inclusion of the moments <n_X^6> decreases the uncertainty on the HQE parameters mu_{pi} and rho_{D}. Furthermore, the theoretical treatment of higher order corrections in the HQE used for the moments <m_X^k> has been verified with these new measurements.
7

Photoelektronenspektroskopie an Eisen/Silizium-Grenzflaechenschichten und an Eisen-Silizium-Legierungen

Kilper, Roland 12 February 1997 (has links)
Die elektronischen Eigenschaften von in-situ hergestellten Eisen/Silizium-Grenzflächen- schichten und Eisen-Silizium-Legierungen werden mittels Photoelektronenspektroskopie (UPS, XPS) untersucht. Die Grenzflächenschichten entstehen durch Bedampfen reiner Siliziumsubstrate unterschiedlicher Oberflächenstruktur mit Eisen bei einer nominellen Bedeckung von 0,1 - 15 Monolagen. Die Eisen-Silizium-Legierungen werden im gesamten Konzentrationsbereich durch Raumtemperaturabscheidung auf inerten Substraten präpariert und sind i.a. im amorphen Zustand. Sowohl amorphe als auch getemperte, polykristalline Legierungen werden systematisch untersucht. Neben der Messung von Valenzbandeigen- schaften werden lokale chemische und magnetische Eigenschaften mittels hochaufgelöster Rumpfniveauspektroskopie bestimmt. Die gemessenen Valenzbänder der amorphen Legierungen werden mit Bandstrukturrech- nungen amorpher Eisen-Bor-Legierungen verglichen. Die gute Übereinstimmung charakteristischer Valenzbandstrukturen lassen vermuten, daß die im Eisen-Bor-System vorherrschende p-d-Hybridisierung ebenfalls einen wichtigen Beitrag zur Bandstruktur des Eisen-Silizium-Systems liefert. Die lokalen chemischen und magnetischen Eigenschaften werden anhand einer ausführlichen Linienformanalyse des Fe2p3/2-Rumpfniveaus ermittelt. Unter Einbeziehung von Vielteilcheneffekten lassen sich die Linienparameter i.a. qualitativ und für die Bindungsenergieverschiebung in Abhängigkeit von der Legierungszusammen- setzung auch quantitativ verstehen. Die Valenzband- und die lokalen Eigenschaften werden für einen ausführlichen Vergleich zwischen Grenzflächenschichten und Legierungen genutzt. Es zeigt sich, daß Eisenbedeckungen bis 3,5 Monolagen zu homogen amorphen und in ihrer Zusammensetzung durchstimmbaren Legierungen führen.
8

Photoelektronenspektroskopie an Eisen/Silizium-Grenzflaechenschichten und an Eisen-Silizium-Legierungen

Kilper, Roland 15 November 1996 (has links)
Die elektronischen Eigenschaften von in-situ hergestellten Eisen/Silizium-Grenzflächen- schichten und Eisen-Silizium-Legierungen werden mittels Photoelektronenspektroskopie (UPS, XPS) untersucht. Die Grenzflächenschichten entstehen durch Bedampfen reiner Siliziumsubstrate unterschiedlicher Oberflächenstruktur mit Eisen bei einer nominellen Bedeckung von 0,1 - 15 Monolagen. Die Eisen-Silizium-Legierungen werden im gesamten Konzentrationsbereich durch Raumtemperaturabscheidung auf inerten Substraten präpariert und sind i.a. im amorphen Zustand. Sowohl amorphe als auch getemperte, polykristalline Legierungen werden systematisch untersucht. Neben der Messung von Valenzbandeigen- schaften werden lokale chemische und magnetische Eigenschaften mittels hochaufgelöster Rumpfniveauspektroskopie bestimmt. Die gemessenen Valenzbänder der amorphen Legierungen werden mit Bandstrukturrech- nungen amorpher Eisen-Bor-Legierungen verglichen. Die gute Übereinstimmung charakteristischer Valenzbandstrukturen lassen vermuten, daß die im Eisen-Bor-System vorherrschende p-d-Hybridisierung ebenfalls einen wichtigen Beitrag zur Bandstruktur des Eisen-Silizium-Systems liefert. Die lokalen chemischen und magnetischen Eigenschaften werden anhand einer ausführlichen Linienformanalyse des Fe2p3/2-Rumpfniveaus ermittelt. Unter Einbeziehung von Vielteilcheneffekten lassen sich die Linienparameter i.a. qualitativ und für die Bindungsenergieverschiebung in Abhängigkeit von der Legierungszusammen- setzung auch quantitativ verstehen. Die Valenzband- und die lokalen Eigenschaften werden für einen ausführlichen Vergleich zwischen Grenzflächenschichten und Legierungen genutzt. Es zeigt sich, daß Eisenbedeckungen bis 3,5 Monolagen zu homogen amorphen und in ihrer Zusammensetzung durchstimmbaren Legierungen führen.
9

Measurement and Interpretation of Moments of the Combined Hadronic Mass and Energy Spectrum in Inclusive Semileptonic B-meson Decays

Klose, Verena 26 February 2008 (has links)
This thesis presents first measurements of moments of the hadronic n_X^2 distribution measured in inclusive semileptonic decays of B mesons to final states containing a charm quark, B->Xc l nu. The variable n_X^2 is a combination of the invariant mass of the charmed meson m_X, its energy in the B-meson rest-frame E_X, and a constant \tilde{\Lambda} = 0.65 GeV, n_X^2 = m_X^2 c^4 - 2 \tilde{\Lambda} E_X + \tilde{\Lambda}^2. The moments <n_X^k> with k=2,4,6 are measured as proposed by theory to constrain assumptions made in the theoretical description of inclusive observables in semileptonic B-meson decays. This description uses Heavy Quark Expansion (HQE), an effective QCD combined with an Operator Product Expansion. The measurement is based on a sample of 231.6 million e+e- -> Y(4S) -> B\bar{B} events recorded with the BABAR experiment at the PEP-II e+e--storage rings at SLAC. We reconstruct the semileptonic decay by identifying a charged lepton in events tagged by a fully reconstructed hadronic decay of the second B meson. Correction procedures are derived from Monte Carlo simulations to ensure an unbiased measurement of the moments of the n_X^2 distribution. All moments are measured requiring minimum lepton momenta between 0.8 GeV/c and 1.9 GeV/c in the rest frame of the B meson. Performing a simultaneous fit to the measured moments <n_X^k> up to order k=6 combined with other measurements of moments of the lepton-energy spectrum in decays B->Xc l nu and moments of the photon-energy spectrum in decays B->Xs gamma, we determine the quark-mixing parameter |V_{cb}|, the bottom and charm quark masses, the semileptonic branching fraction BR(B->X l nu), and four non-perturbative heavy quark parameters. Using HQE calculations in the kinetic scheme up to order 1/m_b^3 we find |V_{cb}| = (41.65 +- 0.43 +- 0.40 +- 0.58) x 10^{-3} and m_b = (4.570 \pm 0.033 \pm 0.043)GeV/c^2, where the first uncertainty refers to experimental contributions, the second to uncertainties in the HQE, and the third to theoretical uncertainties in the calculations of the semileptonic decay rate. All obtained results are consistent with previous determinations. The inclusion of the moments <n_X^6> decreases the uncertainty on the HQE parameters mu_{pi} and rho_{D}. Furthermore, the theoretical treatment of higher order corrections in the HQE used for the moments <m_X^k> has been verified with these new measurements.
10

On the Applicability of the Weak Coupling Expansion for Time-Moments of Heavy Quark Correlators

Chimirri, Leonardo 27 November 2023 (has links)
Die Simulation von diskretisier QCD hat sich zu einem sehr erfolgreichen Verfahren entwickelt, um nicht-perturbativen Berechnungen durchzuführen. In dieser Arbeit untersuchen wir im Detail die Zeit-Momente schwerer Quark-Korrelatoren mit hoher Präzision. Diese werden verwendet, um die QCD-Kopplung durch den Vergleich von Gitter- und Störungsberechnungen zu extrahieren. Dabei müssen diese Observablen von Energien dominiert werden, bei denen beide Methoden angewendbar sind. Genaue Abschätzungen der systematischen Unsicherheiten ist notewendig, da dies Auswirkungen auf Berechnungen von, z.B., Higgs-Zerfällen zu b-Quarks oder Gluonen und Z-Bosonen-Partialbreiten haben. Wir führen eine quenched Untersuchung der Zeitmomente durch, um im großen Volumen mit L=2fm und T=6fm mit offenen Randbedingungen, Gitterabständen von bis ca. 0.01 fm zu erreichen. Wir berechnen Momente und dabei die Kopplung und den Trunkierungsfehler für wechselnde Energie von 0.8 bis 3.5 Mal die charm Masse. Um die großen Diskretisierungseffekte zu kontrollieren, verwenden wir ein nicht-perturbativ verbessertes Wilson-Clover-Fermionen-Dublett mit einem twisted mass Term. Neben der Kopplung untersuchen wir auch ihren Verlauf bis zur unendlichen Energie, kodiert im Lambda-Parameter, und die darin enthaltenen Trunkierungsfehler. Der extrahierte Lambda-Parameter bei Energieskalen von 2 Mal die Charmmasse weist, in Bezug auf step-scaling Ergebnisse, Abweichungen in der Größenordnung von 5% bis 10% auf. Eine Extrapolation bis zum Nullwert der Kopplung ist möglich, allerdings mit einer beträchtlichen Steigung. Weitverbreitete Variationen der perturbativen Renormierungsskala zur Abschätzung des Trunkierungsfehlers scheinen hier die tatsächliche Größe der Fehler zu unterschätzen. Bei der Verwendung der Störungstheorie hoher Ordnung auf den Skalen der Flavor-Physik für die Momente der Korrelatoren schwerer Quarks ist Vorsicht geboten, da große Trunkierungsfehler auftreten können. / The simulation of discretized QCD has become a very successful method to perform non-perturbative calculations. In this work we study in detail the time-moments of heavy quark correlators with high precision. These are used to extract the QCD coupling by comparing lattice and perturbative calculations. These observables must be dominated by energies at which both methods are applicable. Accurate estimates of the systematic uncertainties are needed as this has implications for calculations of, e.g., Higgs decays to b-quarks or gluons and Z-boson partial widths. We carry out a quenched investigation of the time-moments in order to achieve lattice spacings of down to approx. 0.01 fm in large volume, L=2fm and T=6fm, with open boundary conditions. We calculate moments and thereby the coupling and the truncation error for varying energy from 0.8 to 3.5 times the charm mass. To control the large discretization effects, we use a non-perturbatively enhanced Wilson-Clover fermion doublet with a twisted mass term. In addition to the coupling, we also study its evolution to infinite energy, encoded in the lambda parameter, and the truncation errors therein. The extracted lambda parameter at energy scales of 2 times the charm mass shows deviations in the order of 5% to 10% with respect to step-scaling results. Extrapolation to the zero value of the coupling is possible, but with a considerable slope. Widespread variations of the perturbative renormalization scale to estimate the truncation error seem to underestimate the actual size of the errors here. Care should be taken when using high-order perturbation theory on the scales of flavor physics for the moments of heavy quark correlators, as large truncation errors can occur.

Page generated in 0.0603 seconds