• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 6
  • 6
  • 5
  • 4
  • 4
  • 1
  • 1
  • Tagged with
  • 42
  • 42
  • 9
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

信用違約機率之預測─Robust Logitstic Regression

林公韻, Lin,Kung-yun Unknown Date (has links)
本研究所使用違約機率(Probability of Default, 以下簡稱PD)的預測方法為Robust Logistic Regression(穩健羅吉斯迴歸),本研究發展且應用這個方法是基於下列兩個觀察:1. 極端值常常出現在橫剖面資料,而且對於實證結果往往有很大地影響,因而極端值必須要被謹慎處理。2. 當使用Logit Model(羅吉斯模型)估計違約率時,卻忽略極端值。試圖不讓資料中的極端值對估計結果產生重大的影響,進而提升預測的準確性,是本研究使用Logit Model並混合Robust Regression(穩健迴歸)的目的所在,而本研究是第一篇使用Robust Logistic Regression來進行PD預測的研究。 變數的選取上,本研究使用Z-SCORE模型中的變數,此外,在考慮公司的營收品質之下,亦針對公司的應收帳款週轉率而對相關變數做了調整。 本研究使用了一些信用風險模型效力驗證的方法來比較模型預測效力的優劣,本研究的實證結果為:針對樣本內資料,使用Robust Logistic Regression對於整個模型的預測效力的確有提升的效果;當營收品質成為模型變數的考量因素後,能讓模型有較高的預測效力。最後,本研究亦提出了一些重要的未來研究建議,以供後續的研究作為參考。 / The method implemented in PD calculation in this study is “Robust Logistic Regression”. We implement this method based on two reasons: 1. In panel data, outliers usually exist and they may seriously influence the empirical results. 2. In Logistic Model, outliers are not taken into consideration. The main purpose of implementing “Robust Logistic Regression” in this study is: eliminate the effects caused by the outliers in the data and improve the predictive ability. This study is the first study to implement “Robust Logistic Regression” in PD calculation. The same variables as those in Z-SCORE model are selected in this study. Furthermore, the quality of the revenue in a company is also considered. Therefore, we adjust the related variables with the company’s accounts receivable turnover ratio. Some validation methodologies for default risk models are used in this study. The empirical results of this study show that: In accordance with the in-sample data, implementing “Robust Logistic Regression” in PD calculation indeed improves the predictive ability. Besides, using the adjusted variables can also improve the predictive ability. In the end of this study, some important suggestions are given for the subsequent studies.
42

Tail behaviour analysis and robust regression meets modern methodologies

Wang, Bingling 11 March 2024 (has links)
Diese Arbeit stellt Modelle und Methoden vor, die für robuste Statistiken und ihre Anwendungen in verschiedenen Bereichen entwickelt wurden. Kapitel 2 stellt einen neuartigen Partitionierungs-Clustering-Algorithmus vor, der auf Expectiles basiert. Der Algorithmus bildet Cluster, die sich an das Endverhalten der Clusterverteilungen anpassen und sie dadurch robuster machen. Das Kapitel stellt feste Tau-Clustering- und adaptive Tau-Clustering-Schemata und ihre Anwendungen im Kryptowährungsmarkt und in der Bildsegmentierung vor. In Kapitel 3 wird ein faktorerweitertes dynamisches Modell vorgeschlagen, um das Tail-Verhalten hochdimensionaler Zeitreihen zu analysieren. Dieses Modell extrahiert latente Faktoren, die durch Extremereignisse verursacht werden, und untersucht ihre Wechselwirkung mit makroökonomischen Variablen mithilfe des VAR-Modells. Diese Methodik ermöglicht Impuls-Antwort-Analysen, Out-of-Sample-Vorhersagen und die Untersuchung von Netzwerkeffekten. Die empirische Studie stellt den signifikanten Einfluss von durch finanzielle Extremereignisse bedingten Faktoren auf makroökonomische Variablen während verschiedener Wirtschaftsperioden dar. Kapitel 4 ist eine Pilotanalyse zu Non Fungible Tokens (NFTs), insbesondere CryptoPunks. Der Autor untersucht die Clusterbildung zwischen digitalen Assets mithilfe verschiedener Visualisierungstechniken. Die durch CNN- und UMAP-Regression identifizierten Cluster werden mit Preisen und Merkmalen von CryptoPunks in Verbindung gebracht. Kapitel 5 stellt die Konstruktion eines Preisindex namens Digital Art Index (DAI) für den NFT-Kunstmarkt vor. Der Index wird mithilfe hedonischer Regression in Kombination mit robusten Schätzern für die Top-10-Liquid-NFT-Kunstsammlungen erstellt. Es schlägt innovative Verfahren vor, nämlich Huberisierung und DCS-t-Filterung, um abweichende Preisbeobachtungen zu verarbeiten und einen robusten Index zu erstellen. Darüber hinaus werden Preisdeterminanten des NFT-Marktes analysiert. / This thesis provides models and methodologies developed on robust statistics and their applications in various domains. Chapter 2 presents a novel partitioning clustering algorithm based on expectiles. The algorithm forms clusters that adapt to the tail behavior of the cluster distributions, making them more robust. The chapter introduces fixed tau-clustering and adaptive tau-clustering schemes and their applications in crypto-currency market and image segmentation. In Chapter 3 a factor augmented dynamic model is proposed to analyse tail behavior of high-dimensional time series. This model extracts latent factors driven by tail events and examines their interaction with macroeconomic variables using VAR model. This methodology enables impulse-response analysis, out-of-sample predictions, and the study of network effects. The empirical study presents significant impact of financial tail event driven factors on macroeconomic variables during different economic periods. Chapter 4 is a pilot analysis on Non Fungible Tokens (NFTs) specifically CryptoPunks. The author investigates clustering among digital assets using various visualization techniques. The clusters identified through regression CNN and UMAP are associated with prices and traits of CryptoPunks. Chapter 5 introduces the construction of a price index called the Digital Art Index (DAI) for the NFT art market. The index is created using hedonic regression combined with robust estimators on the top 10 liquid NFT art collections. It proposes innovative procedures, namely Huberization and DCS-t filtering, to handle outlying price observations and create a robust index. Furthermore, it analyzes price determinants of the NFT market.

Page generated in 0.0526 seconds