• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 1
  • Tagged with
  • 28
  • 21
  • 17
  • 11
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Deep Learning for Uncertainty Measurement

Kim, Alisa 12 February 2021 (has links)
Diese Arbeit konzentriert sich auf die Lösung des Problems der Unsicherheitsmessung und ihrer Auswirkungen auf Geschäftsentscheidungen, wobei zwei Ziele verfolgt werden: Erstens die Entwicklung und Validierung robuster Modelle zur Quantifizierung der Unsicherheit, wobei insbesondere sowohl die etablierten statistischen Modelle als auch neu entwickelte maschinelle Lernwerkzeuge zum Einsatz kommen. Das zweite Ziel dreht sich um die industrielle Anwendung der vorgeschlagenen Modelle. Die Anwendung auf reale Fälle bei der Messung der Volatilität oder bei einer riskanten Entscheidung ist mit einem direkten und erheblichen Gewinn oder Verlust verbunden. Diese These begann mit der Untersuchung der impliziten Volatilität (IV) als Proxy für die Wahrnehmung der Unsicherheit von Anlegern für eine neue Klasse von Vermögenswerten - Kryptowährungen. Das zweite Papier konzentriert sich auf Methoden zur Identifizierung risikofreudiger Händler und nutzt die DNN-Infrastruktur, um das Risikoverhalten von Marktakteuren, das auf Unsicherheit beruht und diese aufrechterhält, weiter zu untersuchen. Das dritte Papier befasste sich mit dem herausfordernden Bestreben der Betrugserkennung 3 und bot das Entscheidungshilfe-modell, das eine genauere und interpretierbarere Bewertung der zur Prüfung eingereichten Finanzberichte ermöglichte. Angesichts der Bedeutung der Risikobewertung und der Erwartungen der Agenten für die wirtschaftliche Entwicklung und des Aufbaus der bestehenden Arbeiten von Baker (2016) bot das vierte Papier eine neuartige DL-NLP-basierte Methode zur Quantifizierung der wirtschaftspolitischen Unsicherheit. Die neuen Deep-Learning-basierten Lösungen bieten eine überlegene Leistung gegenüber bestehenden Ansätzen zur Quantifizierung und Erklärung wirtschaftlicher Unsicherheiten und ermöglichen genauere Prognosen, verbesserte Planungskapazitäten und geringere Risiken. Die angebotenen Anwendungsfälle bilden eine Plattform für die weitere Forschung. / This thesis focuses on solving the problem of uncertainty measurement and its impact on business decisions while pursuing two goals: first, develop and validate accurate and robust models for uncertainty quantification, employing both the well established statistical models and newly developed machine learning tools, with particular focus on deep learning. The second goal revolves around the industrial application of proposed models, applying them to real-world cases when measuring volatility or making a risky decision entails a direct and substantial gain or loss. This thesis started with the exploration of implied volatility (IV) as a proxy for investors' perception of uncertainty for a new class of assets - crypto-currencies. The second paper focused on methods to identify risk-loving traders and employed the DNN infrastructure for it to investigate further the risk-taking behavior of market actors that both stems from and perpetuates uncertainty. The third paper addressed the challenging endeavor of fraud detection and offered the decision support model that allowed a more accurate and interpretable evaluation of financial reports submitted for audit. Following the importance of risk assessment and agents' expectations in economic development and building on the existing works of Baker (2016) and their economic policy uncertainty (EPU) index, it offered a novel DL-NLP-based method for the quantification of economic policy uncertainty. In summary, this thesis offers insights that are highly relevant to both researchers and practitioners. The new deep learning-based solutions exhibit superior performance to existing approaches to quantify and explain economic uncertainty, allowing for more accurate forecasting, enhanced planning capacities, and mitigated risks. The offered use-cases provide a road-map for further development of the DL tools in practice and constitute a platform for further research.
22

Studies on two specific inverse problems from imaging and finance

Rückert, Nadja 20 July 2012 (has links) (PDF)
This thesis deals with regularization parameter selection methods in the context of Tikhonov-type regularization with Poisson distributed data, in particular the reconstruction of images, as well as with the identification of the volatility surface from observed option prices. In Part I we examine the choice of the regularization parameter when reconstructing an image, which is disturbed by Poisson noise, with Tikhonov-type regularization. This type of regularization is a generalization of the classical Tikhonov regularization in the Banach space setting and often called variational regularization. After a general consideration of Tikhonov-type regularization for data corrupted by Poisson noise, we examine the methods for choosing the regularization parameter numerically on the basis of two test images and real PET data. In Part II we consider the estimation of the volatility function from observed call option prices with the explicit formula which has been derived by Dupire using the Black-Scholes partial differential equation. The option prices are only available as discrete noisy observations so that the main difficulty is the ill-posedness of the numerical differentiation. Finite difference schemes, as regularization by discretization of the inverse and ill-posed problem, do not overcome these difficulties when they are used to evaluate the partial derivatives. Therefore we construct an alternative algorithm based on the weak formulation of the dual Black-Scholes partial differential equation and evaluate the performance of the finite difference schemes and the new algorithm for synthetic and real option prices.
23

Studies on two specific inverse problems from imaging and finance

Rückert, Nadja 16 July 2012 (has links)
This thesis deals with regularization parameter selection methods in the context of Tikhonov-type regularization with Poisson distributed data, in particular the reconstruction of images, as well as with the identification of the volatility surface from observed option prices. In Part I we examine the choice of the regularization parameter when reconstructing an image, which is disturbed by Poisson noise, with Tikhonov-type regularization. This type of regularization is a generalization of the classical Tikhonov regularization in the Banach space setting and often called variational regularization. After a general consideration of Tikhonov-type regularization for data corrupted by Poisson noise, we examine the methods for choosing the regularization parameter numerically on the basis of two test images and real PET data. In Part II we consider the estimation of the volatility function from observed call option prices with the explicit formula which has been derived by Dupire using the Black-Scholes partial differential equation. The option prices are only available as discrete noisy observations so that the main difficulty is the ill-posedness of the numerical differentiation. Finite difference schemes, as regularization by discretization of the inverse and ill-posed problem, do not overcome these difficulties when they are used to evaluate the partial derivatives. Therefore we construct an alternative algorithm based on the weak formulation of the dual Black-Scholes partial differential equation and evaluate the performance of the finite difference schemes and the new algorithm for synthetic and real option prices.
24

Country size, growth and the economic and monetary union

Alouini, Olfa 12 June 2012 (has links)
Der Zweck dieser Arbeit ist es, die Beziehung zwischen die Größe des Landes und das Wachstum auf internationaler Ebene und vergleichsweise in der Wirtschafts-und Währungsunion zu untersuchen und erarbeiten ihre Folgen für das Verhalten der wachstumsorientierte Finanzpolitik. Um ein globales Verständnis des Zusammenhangs zwischen Größe des Landes und das Wachstum in der EWU weiter verfolgen wir einen interdisziplinären Ansatz, einschließlich der makroökonomischen Modellierung (DSGE), Ökonometrie und Analyse der politischen Ökonomie. Die Kombination dieser Untersuchungen schließen wir, dass die Größe des Landes einen Einfluss auf die wirtschaftlichen Strukturen der Nationen, die Auswirkungen ihrer Politik und damit auf ihre Wachstumsdynamik hat. Aus diesem Grund ist es notwendig, die Bedeutung der Größe des Landes und ihre Folgen für die WWU wieder. / The purpose of this dissertation is to investigate the relationship between country size and growth at the international level and comparatively in the Economic and Monetary Union, and to draw up its consequences for the conduct of growth-orientated fiscal policies. To further a global understanding of the link between country size and growth in the EMU, we follow an interdisciplinary approach, including macro-economic modelling (DSGE), econometrics and political economy analysis. Combining these analyses, we conclude that country size has an incidence on the economic structures of nations, the effects of their policies and therefore on their pace of growth. For this reason there is a need to reinstate the importance of country size and its consequences for the EMU.
25

Applications of Advanced Time Series Models to Analyze the Time-varying Relationship between Macroeconomics, Fundamentals and Pan-European Industry Portfolios / Anwendungen moderner Zeitreihenverfahren zur Analyse zeitvariabler Zusammenhänge zwischen gesamtwirtschaftlichen Entwicklungen, Fundamentaldaten und europäischen Branchenportfolios

Mergner, Sascha 04 March 2008 (has links)
No description available.
26

Effects of regulatory policies on bank-specific risk and financial stability

Ludolph, Melina 23 August 2021 (has links)
Diese Arbeit umfasst drei unabhängige Aufsätze, welche die Auswirkungen verschiedener regulatorischer Maßnahmen auf das Bankenrisiko und/oder die Finanzstabilität untersuchen. Zunächst wird der Einfluss von Eigenkapitalanforderungen auf den Zusammenhang zwischen Bankgröße und Volatilität analysiert. Unsere Panel-Datenanalyse zeigt, dass strengere Eigenkapitalanforderungen den Nexus zwischen Größe und Volatilität schwächt. Große Banken haben, ceteris paribus, einen weniger volatilen Kreditbestand, wenn sie strengerer Kapitalregulierung ausgesetzt sind. Gemäß dem Granularitätskonzept kann dies ebenfalls die makroökonomische Stabilität erhöhen. Als Nächstes untersuche ich, ob MiFID II die frühzeitige Informationsweitergabe über Änderungen von Analystenempfehlungen an einzelne Anleger, genannt Tipping, reduziert hat. Die Ergebnisse zeigen, dass die absoluten Renditen und Handelsvolumina einen Tag vor Veröffentlichung einer Hoch- oder Herabstufung vor und nach Inkrafttreten von MiFID II signifikant ansteigen. Da die Aktienkurse am Veröffentlichungstag weiter steigen bzw. fallen, profitieren ausgewählte Anleger trotz der regulatorischen Änderung weiterhin von einem Informationsvorteil. Dies hat vermutlich negative Auswirkungen auf den Finanzmarkt insgesamt. Zuletzt untersuche ich wie sich die Ausgabe von Contingent Convertible (CoCo) Anleihen, die als regulatorisches zusätzliches Kernkapital (AT1) geltend gemacht werden können, auf das Bankenrisiko auswirkt. Meine Analyse zeigt, dass AT1-CoCo-Anleihen ein bis drei Jahre nach Ausgabe zu einem signifikant höheren Bankenrisiko führen. Übereinstimmend mit theoretischen Studien deutet dies darauf hin, dass CoCo-Anleihen ihr Potenzial zur Stärkung der Eigenkapitalbasis der Banken durch die regulatorischen Anforderungen genommen wurde. / This thesis comprises three independent essays evaluating the impact of different regulatory policies on bank risk and/or financial stability. First, we examine the effects of capital regulation on the link between bank size and volatility. Our panel data analysis reveals that more stringent capital regulation weakens the size-volatility nexus. Hence, large banks show, ceteris paribus, lower loan portfolio volatility when facing more stringent capital regulation. According to the granularity concept, that can increase macroeconomic stability. Next, I evaluate if MiFID II reduced the early information disclosure on analyst recommendation changes to selected investors - so-called tipping. I find absolute returns and turnover rise significantly on the day preceding the up- or downgrade release before and after MiFID II became law. Given that stock prices move further in the revision direction on publication day, selected investors continue to profit from an informational advantage, notwithstanding the regulatory change. That is likely harmful to the financial market overall. Lastly, I examine the impact of issuing contingent convertible (CoCo) bonds that qualify as regulatory additional tier 1 (AT1) capital on bank risk. My treatment effects analysis reveals that issuing AT1 CoCo bonds results in significantly higher risk-taking one to three years after the issuance. That is in line with previous theoretical studies suggesting that regulators have stripped CoCo bonds of their potential to strengthen the banks’ capital bases.
27

Dynamic semiparametric factor models

Borak, Szymon 11 July 2008 (has links)
Hochdimensionale Regressionsprobleme, die sich dynamisch entwickeln, sind in zahlreichen Bereichen der Wissenschaft anzutreffen. Die Dynamik eines solchen komplexen Systems wird typischerweise mittels der Zeitreiheneigenschaften einer geringen Anzahl von Faktoren analysiert. Diese Faktoren wiederum sind mit zeitinvarianten Funktionen von explikativen Variablen bewichtet. Diese Doktorarbeit beschäftigt sich mit einem dynamischen semiparametrischen Faktormodell, dass nichtparametrische Bewichtungsfunktionen benutzt. Zu Beginn sollen kurz die wichtigsten statistischen Methoden diskutiert werden um dann auf die Eigenschaften des verwendeten Modells einzugehen. Im Anschluss folgt die Diskussion einiger Anwendungen des Modellrahmens auf verschiedene Datensätze. Besondere Aufmerksamkeit wird auf die Dynamik der so genannten Implizierten Volatilität und das daraus resultierende Faktor-Hedging von Barrier Optionen gerichtet. / High-dimensional regression problems which reveal dynamic behavior occur frequently in many different fields of science. The dynamics of the whole complex system is typically analyzed by time propagation of few number of factors, which are loaded with time invariant functions of exploratory variables. In this thesis we consider dynamic semiparametric factor model, which assumes nonparametric loading functions. We start with a short discussion of related statistical techniques and present the properties of the model. Additionally real data applications are discussed with particular focus on implied volatility dynamics and resulting factor hedging of barrier options.
28

Confidence bands in quantile regression and generalized dynamic semiparametric factor models

Song, Song 01 November 2010 (has links)
In vielen Anwendungen ist es notwendig, die stochastische Schwankungen der maximalen Abweichungen der nichtparametrischen Schätzer von Quantil zu wissen, zB um die verschiedene parametrische Modelle zu überprüfen. Einheitliche Konfidenzbänder sind daher für nichtparametrische Quantil Schätzungen der Regressionsfunktionen gebaut. Die erste Methode basiert auf der starken Approximation der empirischen Verfahren und Extremwert-Theorie. Die starke gleichmäßige Konsistenz liegt auch unter allgemeinen Bedingungen etabliert. Die zweite Methode beruht auf der Bootstrap Resampling-Verfahren. Es ist bewiesen, dass die Bootstrap-Approximation eine wesentliche Verbesserung ergibt. Der Fall von mehrdimensionalen und diskrete Regressorvariablen wird mit Hilfe einer partiellen linearen Modell behandelt. Das Verfahren wird mithilfe der Arbeitsmarktanalysebeispiel erklärt. Hoch-dimensionale Zeitreihen, die nichtstationäre und eventuell periodische Verhalten zeigen, sind häufig in vielen Bereichen der Wissenschaft, zB Makroökonomie, Meteorologie, Medizin und Financial Engineering, getroffen. Der typische Modelierungsansatz ist die Modellierung von hochdimensionalen Zeitreihen in Zeit Ausbreitung der niedrig dimensionalen Zeitreihen und hoch-dimensionale zeitinvarianten Funktionen über dynamische Faktorenanalyse zu teilen. Wir schlagen ein zweistufiges Schätzverfahren. Im ersten Schritt entfernen wir den Langzeittrend der Zeitreihen durch Einbeziehung Zeitbasis von der Gruppe Lasso-Technik und wählen den Raumbasis mithilfe der funktionalen Hauptkomponentenanalyse aus. Wir zeigen die Eigenschaften dieser Schätzer unter den abhängigen Szenario. Im zweiten Schritt erhalten wir den trendbereinigten niedrig-dimensionalen stochastischen Prozess (stationär). / In many applications it is necessary to know the stochastic fluctuation of the maximal deviations of the nonparametric quantile estimates, e.g. for various parametric models check. Uniform confidence bands are therefore constructed for nonparametric quantile estimates of regression functions. The first method is based on the strong approximations of the empirical process and extreme value theory. The strong uniform consistency rate is also established under general conditions. The second method is based on the bootstrap resampling method. It is proved that the bootstrap approximation provides a substantial improvement. The case of multidimensional and discrete regressor variables is dealt with using a partial linear model. A labor market analysis is provided to illustrate the method. High dimensional time series which reveal nonstationary and possibly periodic behavior occur frequently in many fields of science, e.g. macroeconomics, meteorology, medicine and financial engineering. One of the common approach is to separate the modeling of high dimensional time series to time propagation of low dimensional time series and high dimensional time invariant functions via dynamic factor analysis. We propose a two-step estimation procedure. At the first step, we detrend the time series by incorporating time basis selected by the group Lasso-type technique and choose the space basis based on smoothed functional principal component analysis. We show properties of this estimator under the dependent scenario. At the second step, we obtain the detrended low dimensional stochastic process (stationary).

Page generated in 0.0456 seconds