• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • Tagged with
  • 8
  • 8
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Studies on the Estimation of Integrated Volatility for High Frequency Data

Lin, Liang-ching 26 July 2007 (has links)
Estimating the integrated volatility of high frequency realized prices is an important issue in microstructure literature. Bandi and Russell (2006) derived the optimal-sampling frequency, and Zhang et al. (2005) proposed a "two-scales estimator" to solve the problem. In this study, we propose a new estimator based on a signal to noise ratio statistic with convergence rate of Op (n^(−1/ 4) ). The method is applicable to both constant and stochastic volatility models and modi¡Âes the Op (n^(−1/ 6) ) convergence rate of Zhang et al. (2005). The proposed estimator is shown to be asymptotic e¡Ócient as the maximum likelihood estimate for the constant volatility case. Furthermore, unbiased estimators of the two elements, the variance of the microstructure noise and the fourth moment of the realized log returns, are also proposed to facilitate the estimation of integrated volatility. The asymptotic prop- erties and e®ectiveness of the proposed estimators are investigated both theoretically and via simulation study.
2

Deux problèmes d’estimation statistique pour les processus stochastiques / Two problems of statistical estimation for stochastic processes

Gasparyan, Samvel 12 December 2016 (has links)
Le travail est consacré aux questions de la statistique des processus stochastiques. Particulièrement, on considère deux problèmes d'estimation. Le premier chapitre se concentre sur le problème d'estimation non-paramétrique pour le processus de Poisson non-homogène. On estime la fonction moyenne de ce processus, donc le problème est dans le domaine d'estimation non-paramétrique. On commence par la définition de l'efficacité asymptotique dans les problèmes non-paramétriques et on procède à exploration de l'existence des estimateurs asymptotiquement efficaces. On prend en considération la classe des estimateurs à noyau. Dans la thèse il est démontré que sous les conditions sur les coefficients du noyau par rapport à une base trigonométrique, on a l'efficacité asymptotique dans le sens minimax sur les ensembles divers. Les résultats obtenus soulignent le phénomène qu'en imposant des conditions de régularité sur la fonction inconnue, on peut élargir la classe des estimateurs asymptotiquement efficaces. Pour comparer les estimateurs asymptotiquement efficaces (du premier ordre), on démontre une inégalité qui nous permet de trouver un estimateur qui est asymptotiquement efficace du second ordre. On calcule aussi la vitesse de convergence pour cet estimateur, qui dépend de la régularité de la fonction inconnue et finalement on calcule la valeur minimale de la variance asymptotique pour cet estimateur. Cette valeur joue le même rôle dans l'estimation du second ordre que la constantede Pinsker dans le problème d'estimation de la densité ou encore l'information de Fisher dans les problèmes d'estimation paramétrique.Le deuxième chapitre est dédié au problème de l’estimation de la solution d’une équation différentielle stochastique rétrograde (EDSR). On observe un processus de diffusion qui est donnée par son équation différentielle stochastique dont le coefficient de la diffusion dépend d’un paramètre inconnu. Les observations sont discrètes. Pour estimer la solution de l’EDSR on a besoin d’un estimateur-processus pour leparamètre, qui, chaque instant n’utilise que la partie des observations disponible. Dans la littérature il existe une méthode de construction, qui minimise une fonctionnelle. On ne pouvait pas utiliser cet estimateur, car le calcul serait irréalisable. Dans le travail nous avons proposé un estimateur-processus qui a la forme simple et peut être facilement calculé. Cet estimateur-processus est un estimateur asymptotiquementefficace et en utilisant cet estimateur on estime la solution de l’EDSR de manière efficace aussi. / This work is devoted to the questions of the statistics of stochastic processes. Particularly, the first chapter is devoted to a non-parametric estimation problem for an inhomogeneous Poisson process. The estimation problem is non-parametric due to the fact that we estimate the mean function. We start with the definition of the asymptotic efficiency in non-parametric estimation problems and continue with examination of the existence of asymptotically efficient estimators. We consider a class of kernel-type estimators. In the thesis we prove that under some conditions on the coefficients of the kernel with respect to a trigonometric basis we have asymptotic efficiency in minimax sense over various sets. The obtained results highlight the phenomenon that imposing regularity conditions on the unknown function, we can widen the class ofasymptotically efficient estimators. To compare these (first order) efficient estimators, we prove an inequality which allows us to find an estimator which is asymptotically efficient of second order. We calculate also the rate of convergence of this estimator, which depends on the regularity of the unknown function, and finally the minimal value of the asymptotic variance for this estimator is calculated. This value plays the same role in the second order estimation as the Pinsker constant in the density estimation problem or the Fisher information in parametric estimation problems. The second chapter is dedicated to a problem of estimation of the solution of a Backward Stochastic Differential Equation (BSDE). We observe a diffusion process which is given by its stochastic differential equation with the diffusion coefficientdepending on an unknown parameter. The observations are discrete. To estimate the solution of a BSDE, we need an estimator-process for a parameter, which, for each given time, uses only the available part of observations. In the literature there exists a method of construction, which minimizes a functional. We could not use this estimator, because the calculations would not be feasible. We propose an estimator-process which has a simple form and can be easily computed. Using this estimator we estimate the solution of a BSDE in an asymptotically efficient way.
3

Asymptotic Efficiency of Estimates for Panel Data Models with Fixed Effect / s固定効果パネルモデルにおける推定の漸近的効率性に関する研究

Iwakura, Haruo 24 March 2014 (has links)
京都大学 / 0048 / 新制・課程博士 / 博士(経済学) / 甲第18037号 / 経博第490号 / 新制||経||268(附属図書館) / 30895 / 京都大学大学院経済学研究科経済学専攻 / (主査)教授 西山 慶彦, 准教授 奥井 亮, 講師 末石 直也 / 学位規則第4条第1項該当 / Doctor of Economics / Kyoto University / DGAM
4

Consistency and efficiency in continuous-time system identification

González, Rodrigo A. January 2020 (has links)
Continuous-time system identification deals with the problem of building continuous-time models of dynamical systems from sampled input and output data. In this field, there are two main approaches: indirect and direct. In the indirect approach, a suitable discrete-time model is first determined, and then it is transformed into continuous-time. On the other hand, the direct approach obtains a continuous-time model directly from the sampled data. In both approaches there exists a dichotomy between discrete-time data and continuous-time models, which can induce robustness issues and complications in the theoretical analysis of identification algorithms. These difficulties are addressed in this thesis. First, we consider the indirect approach to continuous-time system identification. For a zero-order hold sampling mechanism, this approach usually leads to a transfer function estimate with relative degree one, independent of the relative degree of the strictly proper true system. Inspired by the indirect prediction error method, we propose an indirect-approach estimator that enforces the desired number of poles and zeros in the continuous-time transfer function estimate, and show that the estimator is consistent and asymptotically efficient. A robustification of this method is also developed, by which the estimates are also guaranteed to deliver stable models. In the second part of the thesis, we analyze asymptotic properties of the Simplified Refined Instrumental Variable method for Continuous-time systems (SRIVC), which is one of the most popular direct identification methods. This algorithm applies an adaptive prefiltering to the sampled input and output that requires assumptions on the intersample behavior of the signals. We present a comprehensive analysis on the consistency and asymptotic efficiency of the SRIVC estimator while taking into account the intersample behavior of the input signal. Our results show that the SRIVC estimator is generically consistent when the intersample behavior of the input is known exactly and subsequently used in the implementation of the algorithm, and we give conditions under which consistency is not achieved. In terms of statistical efficiency, we compute the asymptotic Cramér-Rao lower bound for an output error model structure with Gaussian noise, and derive the asymptotic covariance of the SRIVC estimates. We conclude that the SRIVC estimator is asymptotically efficient under mild conditions, and that this property can be lost if the intersample behavior of the input is not carefully accounted for in the SRIVC procedure. Moreover, we propose and analyze the statistical properties of an extension of SRIVC that is able to deal with input signals that cannot be interpolated exactly via hold reconstructions. The proposed estimator is generically consistent for any input reconstructed using zero or first-order-hold devices, and we show that it is generically consistent for continuous-time multisine inputs as well. Comparisons with the Maximum Likelihood technique and an analysis of the iterations of the method are provided, in order to reveal the influence of the intersample behavior of the output and to propose new robustifications to the SRIVC algorithm. / <p>QC 20200511</p>
5

Efficient Stepwise Procedures for Minimum Effective Dose Under Heteroscedasticity

Wang, Yinna 25 July 2012 (has links)
No description available.
6

High-frequency statistics for Gaussian processes from a Le Cam perspective

Holtz, Sebastian 04 March 2020 (has links)
Diese Arbeit untersucht Inferenz für Streuungsparameter bedingter Gaußprozesse anhand diskreter verrauschter Beobachtungen in einem Hochfrequenz-Setting. Unser Ziel dabei ist es, eine asymptotische Charakterisierung von effizienter Schätzung in einem allgemeine Gaußschen Rahmen zu finden. Für ein parametrisches Fundamentalmodell wird ein Hájek-Le Cam-Faltungssatz hergeleitet, welcher eine exakte asymptotische untere Schranke für Schätzmethoden liefert. Dazu passende obere Schranken werden konstruiert und die Bedeutung des Satzes wird verdeutlicht anhand zahlreicher Beispiele wie der (fraktionellen) Brownschen Bewegung, dem Ornstein-Uhlenbeck-Prozess oder integrierten Prozessen. Die Herleitung der Effizienzresultate basiert auf asymptotischen Äquivalenzen und kann für verschiedene Verallgemeinerungen des parametrischen Fundamentalmodells verwendet werden. Als eine solche Erweiterung betrachten wir das Schätzen der quadrierten Kovariation eines stetigen Martingals anhand verrauschter asynchroner Beobachtungen, welches ein fundamentales Schätzproblem in der Öknometrie ist. Für dieses Modell erhalten wir einen semi-parametrischen Faltungssatz, welcher bisherige Resultate im Sinne von Multidimensionalität, Asynchronität und Annahmen verallgemeinert. Basierend auf den vorhergehenden Herleitungen entwickeln wir einen statistischen Test für den Hurst-Parameter einer fraktionellen Brownschen Bewegung. Ein Score- und ein Likelihood-Quotienten-Test werden implementiert sowie analysiert und erste empirische Eindrücke vermittelt. / This work studies inference on scaling parameters of a conditionally Gaussian process under discrete noisy observations in a high-frequency regime. Our aim is to find an asymptotic characterisation of efficient estimation for a general Gaussian framework. For a parametric basic case model a Hájek-Le Cam convolution theorem is derived, yielding an exact asymptotic lower bound for estimators. Matching upper bounds are constructed and the importance of the theorem is illustrated by various examples of interest such as the (fractional) Brownian motion, the Ornstein-Uhlenbeck process or integrated processes. The derivation of the efficiency result is based on asymptotic equivalences and can be employed for several generalisations of the parametric basic case model. As such an extension we consider estimation of the quadratic covariation of a continuous martingale from noisy asynchronous observations, which is a fundamental estimation problem in econometrics. For this model, a semi-parametric convolution theorem is obtained which generalises existing results in terms of multidimensionality, asynchronicity and assumptions. Based on the previous derivations, we develop statistical tests on the Hurst parameter of a fractional Brownian motion. A score test and a likelihood ratio type test are implemented as well as analysed and first empirical impressions are given.
7

Optimal portfolio selection with transaction costs

Koné, N'Golo 05 1900 (has links)
Le choix de portefeuille optimal d'actifs a été depuis longtemps et continue d'être un sujet d'intérêt majeur dans le domaine de la finance. L'objectif principal étant de trouver la meilleure façon d'allouer les ressources financières dans un ensemble d'actifs disponibles sur le marché financier afin de réduire les risques de fluctuation du portefeuille et d'atteindre des rendements élevés. Néanmoins, la littérature de choix de portefeuille a connu une avancée considérable à partir du 20ieme siècle avec l'apparition de nombreuses stratégies motivées essentiellement par le travail pionnier de Markowitz (1952) qui offre une base solide à l'analyse de portefeuille sur le marché financier. Cette thèse, divisée en trois chapitres, contribue à cette vaste littérature en proposant divers outils économétriques pour améliorer le processus de sélection de portefeuilles sur le marché financier afin d'aider les intervenants de ce marché. Le premier chapitre, qui est un papier joint avec Marine Carrasco, aborde un problème de sélection de portefeuille avec coûts de transaction sur le marché financier. Plus précisément, nous développons une procédure de test simple basée sur une estimation de type GMM pour évaluer l'effet des coûts de transaction dans l'économie, quelle que soit la forme présumée des coûts de transaction dans le modèle. En fait, la plupart des études dans la littérature sur l'effet des coûts de transaction dépendent largement de la forme supposée pour ces frictions dans le modèle comme cela a été montré à travers de nombreuses études (Dumas and Luciano (1991), Lynch and Balduzzi (1999), Lynch and Balduzzi (2000), Liu and Loewenstein (2002), Liu (2004), Lesmond et al. (2004), Buss et al. (2011), Gârleanu and Pedersen (2013), Heaton and Lucas (1996)). Ainsi, pour résoudre ce problème, nous développons une procédure statistique, dont le résultat est indépendant de la forme des coûts de transaction, pour tester la significativité de ces coûts dans le processus d'investissement sur le marché financier. Cette procédure de test repose sur l'hypothèse que le modèle estimé par la méthode des moments généralisés (GMM) est correctement spécifié. Un test commun utilisé pour évaluer cette hypothèse est le J-test proposé par Hansen (1982). Cependant, lorsque le paramètre d'intérêt se trouve au bord de l'espace paramétrique, le J-test standard souffre d'un rejet excessif. De ce fait, nous proposons une procédure en deux étapes pour tester la sur-identification lorsque le paramètre d'intérêt est au bord de l'espace paramétrique. Empiriquement, nous appliquons nos procédures de test à la classe des anomalies utilisées par Novy-Marx and Velikov (2016). Nous montrons que les coûts de transaction ont un effet significatif sur le comportement des investisseurs pour la plupart de ces anomalies. Par conséquent, les investisseurs améliorent considérablement les performances hors échantillon en tenant compte des coûts de transaction dans le processus d'investissement. Le deuxième chapitre aborde un problème dynamique de sélection de portefeuille de grande taille. Avec une fonction d'utilité exponentielle, la solution optimale se révèle être une fonction de l'inverse de la matrice de covariance des rendements des actifs. Cependant, lorsque le nombre d'actifs augmente, cet inverse devient peu fiable, générant ainsi une solution qui s'éloigne du portefeuille optimal avec de mauvaises performances. Nous proposons deux solutions à ce problème. Premièrement, nous pénalisons la norme des poids du portefeuille optimal dans le problème dynamique et montrons que la stratégie sélectionnée est asymptotiquement efficace. Cependant, cette méthode contrôle seulement en partie l'erreur d'estimation dans la solution optimale car elle ignore l'erreur d'estimation du rendement moyen des actifs, qui peut également être importante lorsque le nombre d'actifs sur le marché financier augmente considérablement. Nous proposons une méthode alternative qui consiste à pénaliser la norme de la différence de pondérations successives du portefeuille dans le problème dynamique pour garantir que la composition optimale du portefeuille ne fluctue pas énormément entre les périodes. Nous montrons que, sous des conditions de régularité appropriées, nous maîtrisons mieux l'erreur d'estimation dans le portefeuille optimal avec cette nouvelle procédure. Cette deuxième méthode aide les investisseurs à éviter des coûts de transaction élevés sur le marché financier en sélectionnant des stratégies stables dans le temps. Des simulations ainsi qu'une analyse empirique confirment que nos procédures améliorent considérablement la performance du portefeuille dynamique. Dans le troisième chapitre, nous utilisons différentes techniques de régularisation (ou stabilisation) empruntées à la littérature sur les problèmes inverses pour estimer le portefeuille diversifié tel que définie par Choueifaty (2011). En effet, le portefeuille diversifié dépend du vecteur de volatilité des actifs et de l'inverse de la matrice de covariance du rendement des actifs. En pratique, ces deux quantités doivent être remplacées par leurs contrepartie empirique. Cela génère une erreur d'estimation amplifiée par le fait que la matrice de covariance empirique est proche d'une matrice singulière pour un portefeuille de grande taille, dégradant ainsi les performances du portefeuille sélectionné. Pour résoudre ce problème, nous étudions trois techniques de régularisation, qui sont les plus utilisées : le rigde qui consiste à ajouter une matrice diagonale à la matrice de covariance, la coupure spectrale qui consiste à exclure les vecteurs propres associés aux plus petites valeurs propres, et Landweber Fridman qui est une méthode itérative, pour stabiliser l'inverse de matrice de covariance dans le processus d'estimation du portefeuille diversifié. Ces méthodes de régularisation impliquent un paramètre de régularisation qui doit être choisi. Nous proposons donc une méthode basée sur les données pour sélectionner le paramètre de stabilisation de manière optimale. Les solutions obtenues sont comparées à plusieurs stratégies telles que le portefeuille le plus diversifié, le portefeuille cible, le portefeuille de variance minimale et la stratégie naïve 1 / N à l'aide du ratio de Sharpe dans l'échantillon et hors échantillon. / The optimal portfolio selection problem has been and continues to be a subject of interest in finance. The main objective is to find the best way to allocate the financial resources in a set of assets available on the financial market in order to reduce the portfolio fluctuation risks and achieve high returns. Nonetheless, there has been a strong advance in the literature of the optimal allocation of financial resources since the 20th century with the proposal of several strategies for portfolio selection essentially motivated by the pioneering work of Markowitz (1952)which provides a solid basis for portfolio analysis on the financial market. This thesis, divided into three chapters, contributes to this vast literature by proposing various economic tools to improve the process of selecting portfolios on the financial market in order to help stakeholders in this market. The first chapter, a joint paper with Marine Carrasco, addresses a portfolio selection problem with trading costs on stock market. More precisely, we develop a simple GMM-based test procedure to test the significance of trading costs effect in the economy regardless of the form of the transaction cost. In fact, most of the studies in the literature about trading costs effect depend largely on the form of the frictions assumed in the model (Dumas and Luciano (1991), Lynch and Balduzzi (1999), Lynch and Balduzzi (2000), Liu and Loewenstein (2002), Liu (2004), Lesmond et al. (2004), Buss et al. (2011), Gârleanu and Pedersen (2013), Heaton and Lucas (1996)). To overcome this problem, we develop a simple test procedure which allows us to test the significance of trading costs effect on a given asset in the economy without any assumption about the form of these frictions. Our test procedure relies on the assumption that the model estimated by GMM is correctly specified. A common test used to evaluate this assumption is the standard J-test proposed by Hansen (1982). However, when the true parameter is close to the boundary of the parameter space, the standard J-test based on the chi2 critical value suffers from overrejection. To overcome this problem, we propose a two-step procedure to test overidentifying restrictions when the parameter of interest approaches the boundary of the parameter space. In an empirical analysis, we apply our test procedures to the class of anomalies used in Novy-Marx and Velikov (2016). We show that transaction costs have a significant effect on investors' behavior for most anomalies. In that case, investors significantly improve out-of-sample performance by accounting for trading costs. The second chapter addresses a multi-period portfolio selection problem when the number of assets in the financial market is large. Using an exponential utility function, the optimal solution is shown to be a function of the inverse of the covariance matrix of asset returns. Nonetheless, when the number of assets grows, this inverse becomes unreliable, yielding a selected portfolio that is far from the optimal one. We propose two solutions to this problem. First, we penalize the norm of the portfolio weights in the dynamic problem and show that the selected strategy is asymptotically efficient. However, this method partially controls the estimation error in the optimal solution because it ignores the estimation error in the expected return, which may also be important when the number of assets in the financial market increases considerably. We propose an alternative method that consists of penalizing the norm of the difference of successive portfolio weights in the dynamic problem to guarantee that the optimal portfolio composition does not fluctuate widely between periods. We show, under appropriate regularity conditions, that we better control the estimation error in the optimal portfolio with this new procedure. This second method helps investors to avoid high trading costs in the financial market by selecting stable strategies over time. Extensive simulations and empirical results confirm that our procedures considerably improve the performance of the dynamic portfolio. In the third chapter, we use various regularization (or stabilization) techniques borrowed from the literature on inverse problems to estimate the maximum diversification as defined by Choueifaty (2011). In fact, the maximum diversification portfolio depends on the vector of asset volatilities and the inverse of the covariance matrix of assets distribution. In practice, these two quantities need to be replaced by their sample counterparts. This results in estimation error which is amplified by the fact that the sample covariance matrix may be close to a singular matrix in a large financial market, yielding a selected portfolio far from the optimal one with very poor performance. To address this problem, we investigate three regularization techniques, such as the ridge, the spectral cut-off, and the Landweber-Fridman, to stabilize the inverse of the covariance matrix in the investment process. These regularization schemes involve a tuning parameter that needs to be chosen. So, we propose a data-driven method for selecting the tuning parameter in an optimal way. The resulting regularized rules are compared to several strategies such as the most diversified portfolio, the target portfolio, the global minimum variance portfolio, and the naive 1/N strategy in terms of in-sample and out-of-sample Sharpe ratio.
8

Estimation Problems Related to Random Matrix Ensembles / Schätzprobleme für Ensembles zufälliger Matrizen

Matić, Rada 06 July 2006 (has links)
No description available.

Page generated in 0.073 seconds