• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 2
  • Tagged with
  • 10
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Finite sample analysis of profile M-estimators

Andresen, Andreas 02 September 2015 (has links)
In dieser Arbeit wird ein neuer Ansatz für die Analyse von Profile Maximierungsschätzern präsentiert. Es werden die Ergebnisse von Spokoiny (2011) verfeinert und angepasst für die Schätzung von Komponenten von endlich dimensionalen Parametern mittels der Maximierung eines Kriteriumfunktionals. Dabei werden Versionen des Wilks Phänomens und der Fisher-Erweiterung für endliche Stichproben hergeleitet und die dafür kritische Relation der Parameterdimension zum Stichprobenumfang gekennzeichnet für den Fall von identisch unabhängig verteilten Beobachtungen und eines hinreichend glatten Funktionals. Die Ergebnisse werden ausgeweitet für die Behandlung von Parametern in unendlich dimensionalen Hilberträumen. Dabei wir die Sieve-Methode von Grenander (1981) verwendet. Der Sieve-Bias wird durch übliche Regularitätsannahmen an den Parameter und das Funktional kontrolliert. Es wird jedoch keine Basis benötigt, die orthogonal in dem vom Model induzierten Skalarprodukt ist. Weitere Hauptresultate sind zwei Konvergenzaussagen für die alternierende Maximisierungsprozedur zur approximation des Profile-Schätzers. Alle Resultate werden anhand der Analyse der Projection Pursuit Prozedur von Friendman (1981) veranschaulicht. Die Verwendung von Daubechies-Wavelets erlaubt es unter natürlichen und üblichen Annahmen alle theoretischen Resultate der Arbeit anzuwenden. / This thesis presents a new approach to analyze profile M-Estimators for finite samples. The results of Spokoiny (2011) are refined and adapted to the estimation of components of a finite dimensional parameter using the maximization of a criterion functional. A finite sample versions of the Wilks phenomenon and Fisher expansion are obtained and the critical ratio of parameter dimension to sample size is derived in the setting of i.i.d. samples and a smooth criterion functional. The results are extended to parameters in infinite dimensional Hilbert spaces using the sieve approach of Grenander (1981). The sieve bias is controlled via common regularity assumptions on the parameter and functional. But our results do not rely on an orthogonal basis in the inner product induced by the model. Furthermore the thesis presents two convergence results for the alternating maximization procedure. All results are exemplified in an application to the Projection Pursuit Procedure of Friendman (1981). Under a set of natural and common assumptions all theoretical results can be applied using Daubechies wavelets.
2

Asymptotischer Vergleich höherer Ordnung adaptiver linearer Schätzer in Regressionsmodellen

Ilouga, Pierre Emmanuel 20 April 2001 (has links)
Das Hauptanliegen dieser Arbeit ist der asymptotische Vergleich verschiedener nichtparametrischer adaptiver Schätzer des Mittelwertvektors in einer Regressionssituation mit wachsender Anzahl von Wiederholungen an festen Versuchspunkten. Da die adaptiven Schätzer nicht mehr linear in den Beobachtungen sind, wird ihre mittleren quadratischen Fehler durch ihre Risiken höherer Ordnung approximiert und dadurch wird ein Vergleich unter Annahme normalverteilter Beobachtungsfehlern ermöglicht. Es wird gezeigt, daß der Plug-In Schätzer des unbekannten Mittelwertvektors in dritter Ordnung besser ist als die anderen adaptiven Schätzer und, daß die mit Hilfe der Full Cross-validation Idee konstruierte Schätzer des Mittelwertvektors besser ist als die Schätzung mit Cross-validation, falls die unbekannte Regressionsfunktion "unglatt" ist. In speziellen Situationen ist die Full Cross-validation Adaptation besser als die Adaptationen mit Hilfe der in der Arbeit betrachteten "automatischen" Kriterien. Es wird außerdem einen Schätzer des Mittelwertvektors mit einer Plug-In Idee konstruiert, dessen Risiken zweiter Ordnung kleiner sind als die Risiken zweiter Ordnung der anderen adaptiven Schätzer. Wenn aber eine Vermutung vorliegt, daß die unbekannte Regressionsfunktion "sehr glatt" ist, wird bewiesen daß der Projektionsschätzer den kleinsten mittleren quadratischen Fehler liefert. / The main objective of this thesis is the asymptotic comparison of various nonparametric adaptive estimators of the mean vector in a regression situation with increasing number of replications at fixed design points. Since the adaptive estimators are no longer linear in the observations, one approximates their mean square errors by their heigher order risks and a comparison under the assumption of normal distributed errors of the observations will be enabled. It is shown that the Plug-In estimators of the unknown mean vector is better in third order than the others adaptive estimators and that the estimator defined with the full cross-validation idea is better than the estimator with cross-validation, if the unknown regression function is "non smooth". In some special situations, the full cross-validation adaptation will be better than the adaptations using a minimizer of the "automatic" criteria considered in this thesis. Additionally, an estimator of the mean vector is proposed, whose second order risk is smaller than the second order risks of the other adaptive estimators. If however one presumes that the unknown regression function is "very smooth", then it is shown that the projection estimator gives the smallest mean square error.
3

Least squares estimation for binary decision trees

Albrecht, Nadine 14 December 2020 (has links)
In this thesis, a binary decision tree is used as an approximation of a nonparametric regression curve. The best fitted decision tree is estimated from data via least squares method. It is investigated how and under which conditions the estimator converges. These asymptotic results then are used to create asymptotic convergence regions.
4

Improved estimation in threshold regression with applications to price transmission modeling / Verbessertes Schätzen von Threshold Regressionsmodellen mit Anwendungen in der Preistransmissionsanalyse

Greb, Friederike 30 January 2012 (has links)
No description available.
5

Tail behaviour analysis and robust regression meets modern methodologies

Wang, Bingling 11 March 2024 (has links)
Diese Arbeit stellt Modelle und Methoden vor, die für robuste Statistiken und ihre Anwendungen in verschiedenen Bereichen entwickelt wurden. Kapitel 2 stellt einen neuartigen Partitionierungs-Clustering-Algorithmus vor, der auf Expectiles basiert. Der Algorithmus bildet Cluster, die sich an das Endverhalten der Clusterverteilungen anpassen und sie dadurch robuster machen. Das Kapitel stellt feste Tau-Clustering- und adaptive Tau-Clustering-Schemata und ihre Anwendungen im Kryptowährungsmarkt und in der Bildsegmentierung vor. In Kapitel 3 wird ein faktorerweitertes dynamisches Modell vorgeschlagen, um das Tail-Verhalten hochdimensionaler Zeitreihen zu analysieren. Dieses Modell extrahiert latente Faktoren, die durch Extremereignisse verursacht werden, und untersucht ihre Wechselwirkung mit makroökonomischen Variablen mithilfe des VAR-Modells. Diese Methodik ermöglicht Impuls-Antwort-Analysen, Out-of-Sample-Vorhersagen und die Untersuchung von Netzwerkeffekten. Die empirische Studie stellt den signifikanten Einfluss von durch finanzielle Extremereignisse bedingten Faktoren auf makroökonomische Variablen während verschiedener Wirtschaftsperioden dar. Kapitel 4 ist eine Pilotanalyse zu Non Fungible Tokens (NFTs), insbesondere CryptoPunks. Der Autor untersucht die Clusterbildung zwischen digitalen Assets mithilfe verschiedener Visualisierungstechniken. Die durch CNN- und UMAP-Regression identifizierten Cluster werden mit Preisen und Merkmalen von CryptoPunks in Verbindung gebracht. Kapitel 5 stellt die Konstruktion eines Preisindex namens Digital Art Index (DAI) für den NFT-Kunstmarkt vor. Der Index wird mithilfe hedonischer Regression in Kombination mit robusten Schätzern für die Top-10-Liquid-NFT-Kunstsammlungen erstellt. Es schlägt innovative Verfahren vor, nämlich Huberisierung und DCS-t-Filterung, um abweichende Preisbeobachtungen zu verarbeiten und einen robusten Index zu erstellen. Darüber hinaus werden Preisdeterminanten des NFT-Marktes analysiert. / This thesis provides models and methodologies developed on robust statistics and their applications in various domains. Chapter 2 presents a novel partitioning clustering algorithm based on expectiles. The algorithm forms clusters that adapt to the tail behavior of the cluster distributions, making them more robust. The chapter introduces fixed tau-clustering and adaptive tau-clustering schemes and their applications in crypto-currency market and image segmentation. In Chapter 3 a factor augmented dynamic model is proposed to analyse tail behavior of high-dimensional time series. This model extracts latent factors driven by tail events and examines their interaction with macroeconomic variables using VAR model. This methodology enables impulse-response analysis, out-of-sample predictions, and the study of network effects. The empirical study presents significant impact of financial tail event driven factors on macroeconomic variables during different economic periods. Chapter 4 is a pilot analysis on Non Fungible Tokens (NFTs) specifically CryptoPunks. The author investigates clustering among digital assets using various visualization techniques. The clusters identified through regression CNN and UMAP are associated with prices and traits of CryptoPunks. Chapter 5 introduces the construction of a price index called the Digital Art Index (DAI) for the NFT art market. The index is created using hedonic regression combined with robust estimators on the top 10 liquid NFT art collections. It proposes innovative procedures, namely Huberization and DCS-t filtering, to handle outlying price observations and create a robust index. Furthermore, it analyzes price determinants of the NFT market.
6

Estimating the quadratic covariation from asynchronous noisy high-frequency observations

Bibinger, Markus 30 August 2011 (has links)
Ein nichtparametrisches Schätzverfahren für die quadratische Kovariation von hochfrequent nicht-synchron beobachteter Itô-Prozessen mit einem additiven Rauschen wird entwickelt. Für eine artverwandte Folge von statistischen Experimenten wird die lokal asymptotische Normalität (LAN) im Sinne von Le Cam bewiesen. Mit dieser lassen sich optimale Konvergenzraten und Effizienzschranken für asymptotische Varianzen ableiten. Der vorgestellte Schätzer wird auf Grundlage von zwei modernen Verfahren, für die Anwendung bei nicht-synchronen Beobachtungen zum einen, und einem additiven Rauschen zum anderen, entwickelt. Der Hayashi-Yoshida Schätzer wird in einer neuen Darstellung eingeführt, welche einen Synchronisierungsalgorithmus mit einschließt, der für die kombinierte Methode ausgelegt werden kann. Es wird eine stabiles zentrales Grenzwerttheorem bewiesen, wobei spezieller Wert auf die Analyse des Einflusses der Nicht-Synchronität auf die asymptotische Varianz gelegt wird. Nach diesen Vorbereitungen wird das kombinierte Schätzverfahren für den allgemeinsten Fall nicht-synchroner verrauschter Beobachtungen vorgestellt. Dieses beruht auf Subsampling- und Multiskalenmethoden, die auf Mykland, Zhang und Aït-Sahalia zurück gehen. Es vereint positive Eigenschaften der beiden Ursprünge. Das zentrale Resultat dieser Arbeit ist der Beweis, dass der Schätzfehler stabil in Verteilung gegen eine gemischte Normalverteilung konvergiert. Für die asymptotische Varianz wird ein konsistenter Schätzer angegeben. In einer Anwendungsstudie wird eine praktische Implementierung des Schätzverfahrens, die die Wahl von abhängigen Parametern beinhaltet, getestet und auf ihre Eigenschaften im Falle endlicher Stichprobenumfänge untersucht. Neuen fortgeschrittenen Entwicklungen auf dem Forschungsfeld von Seite anderer Autoren wird Rechnung getragen durch Vergleiche und diesbezügliche Kommentare. / A nonparametric estimation approach for the quadratic covariation of Itô processes from high-frequency observations with an additive noise is developed. It is proved that a closely related sequence of statistical experiments is locally asymptotically normal (LAN) in the Le Cam sense. By virtue of this property optimal convergence rates and efficiency bounds for asymptotic variances of estimators can be concluded. The proposed nonparametric estimator is founded on a combination of two modern estimation methods devoted to an additive observation noise on the one hand and asynchronous observation schemes on the other hand. We reinvent this Hayashi-Yoshida estimator in a new illustration that can serve as a synchronization method which is possible to adapt for the combined approach. A stable central limit theorem is proved focusing especially on the impact of non-synchronicity on the asymptotic variance. With this preparations on hand, the generalized multiscale estimator for the noisy and asynchronous setting arises. This convenient method for the general model is based on subsampling and multiscale estimation techniques that have been established by Mykland, Zhang and Aït-Sahalia. It preserves valuable features of the synchronization methodology and the estimators to cope with noise perturbation. The central result of the thesis is that the estimation error of the generalized multiscale estimator converges with optimal rate stably in law to a centred mixed normal limiting distribution on fairly general regularity assumptions. For the asymptotic variance a consistent estimator based on time transformed histograms is given making the central limit theorem feasible. In an application study a practicable estimation algorithm including a choice of tuning parameters is tested for its features and finite sample size behaviour. We take account of recent advances on the research field by other authors in comparisons and notes.
7

Approaches for the optimisation of double sampling for stratification in repeated forest inventories

von Lüpke, Nikolas 26 March 2013 (has links)
Die zweiphasige Stichprobe zur Stratifizierung ist ein effizientes Inventurverfahren, das seine Praxistauglichkeit in verschiedenen Waldinventuren unter Beweis stellen konnte. Dennoch sind weitere Effizienzsteigerungen wünschenswert. In der vorliegenden Arbeit werden verschiedene Ansätze die Effektivität dieses Verfahrens zu steigern separat vorgestellt, in Fallstudien mit Daten der Niedersächsischen Betriebsinventur getestet und diskutiert. Der erste Ansatz (Kapitel 2) beschäftigt sich mit der Anwendung der zweiphasigen Stichprobe zur Stratifizierung in Wiederholungsinventuren. In einem Zusammengesetzten Schätzer werden Daten eines aktuellen mit Simulationsergebnissen des vorhergehenden Inventurdurchgangs kombiniert. Dabei kann der Stichprobenumfang der aktuellen Inventur verringert werden, während die Daten aller Inventurpunkte des vorherigen Durchgangs für Simulationen genutzt werden. Zwar kann ein solcher Schätzer konstruiert werden, jedoch lässt die Fallstudie darauf schließen, dass keine, oder zumindest keine ausreichende, Effizienzsteigerung erzielt werden kann. Erklärt werden kann dies durch die großen Unterschiede zwischen den aktuellen Inventurergebnissen aus den reduzierten Inventuren und den prognostizierten Volumina aus den Simulationen. Eine Erhöhung der Effizienz dieses Verfahrens könnte nur durch Weiterentwicklungen der Waldwachstumsmodelle möglich werden. In Wiederholungsinventuren kann jedoch eine höhere Effizienzsteigerung mit einem dreiphasigen Verfahren erreicht werden, das die zweiphasige Stichprobe mit der zwei\-phasigen Regressionsstichprobe kombiniert (Kapitel 3). Mittelwert- und Varianzschätzer, die auf dem sogenannten infinite population approach in der ersten Phase beruhen, werden präsentiert. Genutzt werden dabei die Korrelationen zwischen den aktuellen Inventurergebnissen und den Wachstumssimulationen auf der Basis des vorherigen Inventurdurchgangs. Statt der Simulationsergebnisse können auch einfach die Ergebnisse des vorherigen Inventurdurchgangs zur Berechnung der Korrelationen genutzt werden. Allerdings führt die Nutzung der Simulationsergebnisse als Regressor in den meisten Fällen zu besseren Ergebnissen. Bei verringertem Stichprobenumfang der Folgeinventur und damit einhergehendem Präzisionsverlust, ist die Effizienz des dreiphasigen Verfahrens höher als die des klassischen zweiphasigen Verfahrens. Die Nutzung der Vorinventur in Form eines stratenweisen Regressionsschätzers hat sich damit als erfolgreich und gegenüber dem zusammengesetzten Schätzer als deutlich überlegen gezeigt. Als weiterer Ansatz wird die Erweiterung der zweisphasigen Stichprobe zur Stratifizierung um eine geclusterte Unterstichprobe zu einem dreiphasigen Design vorgestellt (Kapitel 4). Sowohl für den Ratio-to-Size- als auch für den unverzerrten Ansatz werden entsprechende Mittelwert- und Varianzschätzer präsentiert. Verglichen mit dem zweiphasigen Verfahren, führt dieses dreiphasige Design in der Fallstudie zu keiner Effizienzsteigerung. Gründe hierfür können in der vergleichsweise kleinen Größe der Forstämter und der hohen Stichprobendichte der Niedersächsischen Betriebsinventur gesehen werden. Sinnvolle Anwendungen dieses Verfahrens sind aber möglicherweise unter anderen Erschließungsbedingungen in Großgebieten denkbar. In einer weiteren Fallstudie wird versucht existierende Probepunkte in Clustern von homogener Größe zusammenzufassen (Kapitel 5). Eine solche Zusammenfassung soll der Optimierung der Wegzeiten bei der Aufnahme von Inventurpunkten dienen. Dazu werden sieben verschiedene Methoden getestet und deren Ergebnisse miteinander verglichen. Durch einen Vergleich mit optimierten Richtwert-Lösungen wird zudem die Qualität dieser Lösungen evaluiert. Es zeigt sich, dass drei Algorithmen des Vehicle Routing Problems gut dazu geeignet sind, Cluster von homogener Größe zu erstellen. Nicht empfohlen werden kann dagegen die Verwendung von drei anderen Cluster-Algorithmen, sowie die Nutzung von Bewirtschaftungseinheiten als Cluster, da diese Methoden zu Clustern von sehr heterogener Größe führen.
8

Covariation estimation for multi-dimensional Lévy processes based on high-frequency observations

Papagiannouli, Aikaterini 07 March 2023 (has links)
Gegenstand dieser Dissertation ist die non-parametrische Schätzung der Kovarianz in multi-dimensionalen Lévy-Prozessen auf der Basis von Hochfrequenzbeobachtungen. Im ersten Teil der Arbeit wird eine modifizierte Version der von Jacod und Reiß vorgeschlagenen Methode der Hochfrequenzbeobachtung für die Ermittlung der Kovarianz multi-dimensionaler Lévy-Prozesse gegeben. Es wird gezeigt, dass der Kovarianzschätzer optimal im Minimaxsinn ist. Darüber hinaus demonstrieren wir, dass die Indexaktivität der co-jumps durch das harmonische Mittel der Sprungaktivitätsinzidenzen der Komponenten von unten beschränkt wird. Der zweite Teil behandelt das Problem der adaptiven Schätzung. Ausgehend von einer Familie asymptotischer Minimax-Schätzer der Kovarianz, erhalten wir einen datenbasierten Schätzer. Wir wenden Lepskii’s Methode an, um die Kovarianz an die unbekannte Aktivität des co-jumps Indexes des Sprungteils anzupassen. Da wir es mit einem Adaptierungsproblem zu tun haben, müssen wir eine Schätzung der charakteristischen Funktion des multi-dimensionalen Lévy-Prozesses konstruieren, damit die charakteristische Funktion weder von einer semiparametrischen Annahme abhängt noch schnell abfällt. Aus diesem Grund wird auf Basis von Neumanns Methode ein trunkierter Schätzer für die empirische charakteristische Funktion konstruiert. Die Anwesenheit der trunkierten, empirischen charakteristischen Funktion im Zähler führt jedoch zu einer Situation, die auch bei der Deconvolution auftritt, d.h. einem irregulären Verhalten des stochastischen Fehlers. Dieser U-förmige stochastische Fehler verhindert die Anwendung von Lepskii’s Grundsatz. Um diesem Problem, entgegenzuwirken, entwickeln wir eine Strategie, welche zu einem Orakelstart von Lepskii's Methode führt, mit deren Hilfe ein monoton steigender stochastischer Fehler konstruiert wird. Dies erlaubt uns, ein Balancing Principle einzuführen und einen adaptiven Schätzer für die Kovarianz zu erhalten, der fast-optimale Raten erzeugt. / In this thesis, we consider the problem of nonparametric estimation for the continuous part of the covariation of a multi-dimensional Lévy process from high-frequency observations. This continuous part of covariation is also called covariance. The first part modifies the high-frequency estimation method, proposed by Jacod and Reiss, to cover estimation of the covariance of multi-dimensional Lévy processes. The covariance estimator is shown to be optimal in the minimax-sense. Moreover, the co-jump index activity is proved to be bounded from below by the harmonic mean of the jump activity indices of the components. In the second part, we address the problem of the adaptive estimation. Starting from an asymptotically minimax family of estimators for the covariance, we derive a data-driven estimator. Lepskii's method is applied to adapt the covariance to the unknown co-jump index activity of the jump part. Faced with an adaptation problem, we need to secure an estimation for the characteristic function of the multi-dimensional Lévy process so that it does not depend on a semiparametric assumption and, at the same time, does not decay fast. For this reason, a truncated estimator for the empirical characteristic function is constructed based on Neumann's method. The presence of the truncated empirical characteristic function in the denominator leads to a situation similar to the deconvolution problem, i.e., an irregular behavior of the stochastic error. This U-shaped stochastic error does not permit us to apply Lepskii's principle. To counteract this problem, we establish a strategy to obtain an oracle start of Lepskii's method, according to which a monotonically increasing stochastic error is constructed. This enables us to apply a balancing principle and build an adaptive estimator for the covariance which obtains near-optimal rates.
9

Quantile regression in risk calibration

Chao, Shih-Kang 05 June 2015 (has links)
Die Quantilsregression untersucht die Quantilfunktion QY |X (τ ), sodass ∀τ ∈ (0, 1), FY |X [QY |X (τ )] = τ erfu ̈llt ist, wobei FY |X die bedingte Verteilungsfunktion von Y gegeben X ist. Die Quantilsregression ermo ̈glicht eine genauere Betrachtung der bedingten Verteilung u ̈ber die bedingten Momente hinaus. Diese Technik ist in vielerlei Hinsicht nu ̈tzlich: beispielsweise fu ̈r das Risikomaß Value-at-Risk (VaR), welches nach dem Basler Akkord (2011) von allen Banken angegeben werden muss, fu ̈r ”Quantil treatment-effects” und die ”bedingte stochastische Dominanz (CSD)”, welches wirtschaftliche Konzepte zur Messung der Effektivit ̈at einer Regierungspoli- tik oder einer medizinischen Behandlung sind. Die Entwicklung eines Verfahrens zur Quantilsregression stellt jedoch eine gro ̈ßere Herausforderung dar, als die Regression zur Mitte. Allgemeine Regressionsprobleme und M-Scha ̈tzer erfordern einen versierten Umgang und es muss sich mit nicht- glatten Verlustfunktionen besch ̈aftigt werden. Kapitel 2 behandelt den Einsatz der Quantilsregression im empirischen Risikomanagement w ̈ahrend einer Finanzkrise. Kapitel 3 und 4 befassen sich mit dem Problem der h ̈oheren Dimensionalit ̈at und nichtparametrischen Techniken der Quantilsregression. / Quantile regression studies the conditional quantile function QY|X(τ) on X at level τ which satisfies FY |X QY |X (τ ) = τ , where FY |X is the conditional CDF of Y given X, ∀τ ∈ (0,1). Quantile regression allows for a closer inspection of the conditional distribution beyond the conditional moments. This technique is par- ticularly useful in, for example, the Value-at-Risk (VaR) which the Basel accords (2011) require all banks to report, or the ”quantile treatment effect” and ”condi- tional stochastic dominance (CSD)” which are economic concepts in measuring the effectiveness of a government policy or a medical treatment. Given its value of applicability, to develop the technique of quantile regression is, however, more challenging than mean regression. It is necessary to be adept with general regression problems and M-estimators; additionally one needs to deal with non-smooth loss functions. In this dissertation, chapter 2 is devoted to empirical risk management during financial crises using quantile regression. Chapter 3 and 4 address the issue of high-dimensionality and the nonparametric technique of quantile regression.
10

Estimation Problems Related to Random Matrix Ensembles / Schätzprobleme für Ensembles zufälliger Matrizen

Matić, Rada 06 July 2006 (has links)
No description available.

Page generated in 0.0379 seconds