Spelling suggestions: "subject:"angewandte mathematik"" "subject:"angewandte biomathematik""
41 |
Four Essays on Language Competition and Dynamic Language Policy EvaluationTemplin, Torsten 25 September 2019 (has links)
Diese Dissertation beschäftigt sich mit der Evaluation von Sprachpolitiken mit Hilfe von Sprachdynamik Modellen. Da sprachliche Diversität ein zentrales Merkmal moderner Gesellschaften darstellt, müssen Staaten und Administrationen Sprachpolitiken sorgfältig gestalten und evaluieren. Mögliche Effekte, Nutzen und Kosten von Politiken müssen bewertet und gegeneinander abgewogen werden. Eine wichtige Eigenschaft von Sprachpolitiken ist dabei, dass sich die Anzahl derer, die von ihnen profitieren, sowie deren Kosten über die Zeit stark verändern können. Um dies zu berücksichtigen, präsentiert die Dissertation eine Kombination aus klassischen Politikanalyse Werkzeugen und neuen Sprachdynamik Modellen. Im Gegensatz zu bereits existierenden Modellen, können in den neu entwickelten Modellen Parameter aus empirischen Daten geschätzt werden. Dies ist eine Voraussetzung, um langfristige Effekte von Politiken realistisch abbilden zu können.
Die Dissertation besteht aus vier eigenständigen Aufsätzen. Im ersten Aufsatz wird mit einem abstrakten Modell gezeigt, dass es für einen Staat optimal sein kann die Minderheitensprache in Form von Bilingualität am Leben zu erhalten. In den folgenden beiden Aufsätzen werden realistischere Modelle entwickelt und damit zwei empirische Fälle analysiert. Im letzten Aufsatz werden Erweiterungen der vorherigen Modelle auf den Fall multipler Minderheitensprachen vorgestellt. / This thesis deals with language policy evaluation from a language dynamics modeling perspective. As linguistic diversity is an essential feature of most modern societies, states and administrations have to thoroughly design and analyze language policies. Potential effects, benefits and costs have to be assessed and weighted against one another. A pivotal characteristic of language policies is that the numbers of their beneficiaries and costs can change dramatically over time. To account for these changes, the thesis proposes a combination of traditional policy evaluation techniques with well designed language dynamics models. In contrast to previous models in the literature, the thesis proposes and analyzes models based on parameters obtainable from empirical data. It is argued that this is a prerequisite to analyze the long term effects of policies in a realistic fashion.
This thesis consists of four self-contained essays. In the first essay we show with the help of an abstract model that it can be optimal for the state to keep a minority language alive in the form of bilingualism. In the next two essays more realistic models are developed and applied to the empirical cases. In the last essay extensions of the previous models to the case of several minority languages are presented. Read more
|
42 |
Analysis of survey data in the presence of non-ignorable missing-data and selection mechanismsHammon, Angelina 04 July 2023 (has links)
Diese Dissertation beschäftigt sich mit Methoden zur Behandlung von nicht-ignorierbaren
fehlenden Daten und Stichprobenverzerrungen – zwei häufig auftretenden Problemen bei
der Analyse von Umfragedaten. Beide Datenprobleme können die Qualität der Analyseergebnisse erheblich beeinträchtigen und zu irreführenden Inferenzen über die Population führen. Daher behandle ich innerhalb von drei verschiedenen Forschungsartikeln,
Methoden, die eine Durchführung von sogenannten Sensitivitätsanalysen in Bezug auf
Missing- und Selektionsmechanismen ermöglichen und dabei auf typische Survey-Daten
angewandt werden können. Im Rahmen des ersten und zweiten Artikels entwickele ich Verfahren zur multiplen Imputation von binären und ordinal Mehrebenen-Daten, welche es zulassen, einen potenziellen Missing Not at Random (MNAR) Mechanismus zu berücksichtigen. In unterschiedlichen Simulationsstudien konnte bestätigt werden, dass die neuen Imputationsmethoden in der Lage sind, in allen betrachteten Szenarien unverzerrte sowie effiziente Schätzungen zuliefern. Zudem konnte ihre Anwendbarkeit auf empirische Daten aufgezeigt werden.
Im dritten Artikel untersuche ich ein Maß zur Quantifizierung und Adjustierung von nicht ignorierbaren Stichprobenverzerrungen in Anteilswerten, die auf der Basis von nicht-probabilistischen Daten geschätzt wurden. Es handelt sich hierbei um die erste Anwendung des Index auf eine echte nicht-probabilistische Stichprobe abseits der Forschergruppe, die das Maß entwickelt hat. Zudem leite ich einen allgemeinen Leitfaden für die
Verwendung des Index in der Praxis ab und validiere die Fähigkeit des Maßes vorhandene
Stichprobenverzerrungen korrekt zu erkennen.
Die drei vorgestellten Artikel zeigen, wie wichtig es ist, vorhandene Schätzer auf ihre Robustheit hinsichtlich unterschiedlicher Annahmen über den Missing- und Selektionsmechanismus zu untersuchen, wenn es Hinweise darauf gibt, dass die Ignorierbarkeitsannahme verletzt sein könnte und stellen erste Lösungen zur Umsetzung bereit. / This thesis deals with methods for the appropriate handling of non-ignorable missing
data and sample selection, which are two common challenges of survey data analysis.
Both issues can dramatically affect the quality of analysis results and lead to misleading
inferences about the population. Therefore, in three different research articles, I treat
methods for the performance of so-called sensitivity analyses with regards to the missing data and selection mechanism that are usable with typical survey data.
In the first and second article, I provide novel procedures for the multiple imputation
of binary and ordinal multilevel data that are supposed to be Missing not At Random
(MNAR). The methods’ suitability to produce unbiased and efficient estimates could be
demonstrated in various simulation studies considering different data scenarios. Moreover,
I could show their applicability to empirical data.
In the third article, I investigate a measure to quantify and adjust non-ignorable selection
bias in proportions estimated based on non-probabilistic data. In doing so, I provide
the first application of the suggested index to a real non-probability sample outside its
original research group. In addition, I derive general guidelines for its usage in practice,
and validate the measure’s performance in properly detecting selection bias.
The three presented articles highlight the necessity to assess the sensitivity of estimates
towards different assumptions about the missing-data and selection mechanism if it seems
realistic that the ignorability assumption might be violated, and provide first solutions to
enable such robustness checks for specific data situations. Read more
|
43 |
Non-Smooth Optimization by Abs-Linearization in Reflexive Function SpacesWeiß, Olga 11 March 2022 (has links)
Nichtglatte Optimierungsprobleme in reflexiven Banachräumen treten in vielen Anwendungen auf. Häufig wird angenommen, dass alle vorkommenden Nichtdifferenzierbarkeiten durch Lipschitz-stetige Operatoren wie abs, min und max gegeben sind. Bei solchen Problemen kann es sich zum Beispiel um optimale Steuerungsprobleme mit möglicherweise nicht glatten Zielfunktionen handeln, welche durch partielle Differentialgleichungen (PDG) eingeschränkt sind, die ebenfalls nicht glatte Terme enthalten können.
Eine effiziente und robuste Lösung erfordert eine Kombination numerischer Simulationen und spezifischer Optimierungsalgorithmen.
Lokal Lipschitz-stetige, nichtglatte Nemytzkii-Operatoren, welche direkt in der Problemformulierung auftreten, spielen eine wesentliche Rolle in der Untersuchung der zugrundeliegenden Optimierungsprobleme.
In dieser Dissertation werden zwei spezifische Methoden und Algorithmen zur Lösung solcher nichtglatter Optimierungsprobleme in reflexiven Banachräumen vorgestellt und diskutiert.
Als erste Lösungsmethode wird in dieser Dissertation die Minimierung von nichtglatten Operatoren in reflexiven Banachräumen mittels sukzessiver quadratischer Überschätzung vorgestellt, SALMIN.
Ein neuartiger Optimierungsansatz für Optimierungsprobleme mit nichtglatten elliptischen PDG-Beschränkungen, welcher auf expliziter Strukturausnutzung beruht, stellt die zweite Lösungsmethode dar, SCALi.
Das zentrale Merkmal dieser Methoden ist ein geeigneter Umgang mit Nichtglattheiten. Besonderes Augenmerk liegt dabei auf der zugrundeliegenden nichtglatten Struktur des Problems und der effektiven Ausnutzung dieser, um das Optimierungsproblem auf angemessene und effiziente Weise zu lösen. / Non-smooth optimization problems in reflexive Banach spaces arise in many applications. Frequently, all non-differentiabilities involved are assumed to be given by Lipschitz-continuous operators such as abs, min and max. For example, such problems can refer to optimal control problems with possibly non-smooth objective functionals constrained by partial differential equations (PDEs) which can also include non-smooth terms. Their efficient as well as robust solution requires numerical simulations combined with specific optimization algorithms.
Locally Lipschitz-continuous non-smooth non-linearities described by appropriate Nemytzkii operators which arise directly in the problem formulation play an essential role in the study of the underlying optimization problems.
In this dissertation, two specific solution methods and algorithms to solve such non-smooth optimization problems in reflexive Banach spaces are proposed and discussed.
The minimization of non-smooth operators in reflexive Banach spaces by means of successive quadratic overestimation is presented as the first solution method, SALMIN.
A novel structure exploiting optimization approach for optimization problems with non-smooth elliptic PDE constraints constitutes the second solution method, SCALi.
The central feature of these methods is the appropriate handling of non-differentiabilities. Special focus lies on the underlying structure of the problem stemming from the non-smoothness and how it can be effectively exploited to solve the optimization problem in an appropriate and efficient way. Read more
|
44 |
High Dimensional Financial Engineering: Dependence Modeling and Sequential SurveillanceXu, Yafei 07 February 2018 (has links)
Diese Dissertation konzentriert sich auf das hochdimensionale Financial Engineering, insbesondere in der Dependenzmodellierung und der sequentiellen Überwachung.
Im Bereich der Dependenzmodellierung wird eine Einführung hochdimensionaler Kopula vorgestellt, die sich auf den Stand der Forschung in Kopula konzentriert.
Eine komplexere Anwendung im Financial Engineering, bei der eine hochdimensionale Kopula verwendet wird, konzentriert sich auf die Bepreisung von Portfolio-ähnlichen Kreditderivaten, d. h. CDX-Tranchen (Credit Default Swap Index). In diesem Teil wird die konvexe Kombination von Kopulas in der CDX-Tranche mit Komponenten aus der elliptischen Kopula-Familie (Gaussian und Student-t), archimedischer Kopula-Familie (Frank, Gumbel, Clayton und Joe) und hierarchischer archimedischer Kopula-Familie vorgeschlagen.
Im Abschnitt über finanzielle Überwachung konzentriert sich das Kapitel auf die Überwachung von hochdimensionalen Portfolios (in den Dimensionen 5, 29 und 90) durch die Entwicklung eines nichtparametrischen multivariaten statistischen Prozesssteuerungsdiagramms, d.h. eines Energietest-basierten Kontrolldiagramms (ETCC).
Um die weitere Forschung und Praxis der nichtparametrischen multivariaten statistischen Prozesskontrolle zu unterstützen, die in dieser Dissertation entwickelt wurde, wird ein R-Paket "EnergyOnlineCPM" entwickelt. Dieses Paket wurde im Moment akzeptiert und veröffentlicht im Comprehensive R Archive Network (CRAN), welches das erste Paket ist, das die Verschiebung von Mittelwert und Kovarianz online überwachen kann. / This dissertation focuses on the high dimensional financial engineering, especially in dependence modeling and sequential surveillance.
In aspect of dependence modeling, an introduction of high dimensional copula concentrating on state-of-the-art research in copula is presented.
A more complex application in financial engineering using high dimensional copula is concentrated on the pricing of the portfolio-like credit derivative, i.e. credit default swap index (CDX) tranches. In this part, the convex combination of copulas is proposed in CDX tranche pricing with components stemming from elliptical copula family (Gaussian and Student-t), Archimedean copula family (Frank, Gumbel, Clayton and Joe) and hierarchical Archimedean copula family used in some publications.
In financial surveillance part, the chapter focuses on the monitoring of high dimensional portfolios (in 5, 29 and 90 dimensions) by development of a nonparametric multivariate statistical process control chart, i.e. energy test based control chart (ETCC).
In order to support the further research and practice of nonparametric multivariate statistical process control chart devised in this dissertation, an R package "EnergyOnlineCPM" is developed. At moment, this package has been accepted and published in the Comprehensive R Archive Network (CRAN), which is the first package that can online monitor the shift in mean and covariance jointly. Read more
|
45 |
Modelling and Quantification of scRNA-seq Experiments and the Transcriptome Dynamics of the Cell CycleLaurentino Schwabe, Daniel 26 October 2022 (has links)
In dieser Dissertation modellieren und analysieren wir scRNA-Seq-Daten, um Mechanismen, die biologischen Prozessen zugrunde liegen, zu verstehen
In scRNA-Seq-Experimenten wird biologisches Rauschen mit technischem Rauschen vermischt. Mittels eines vereinfachten scRNA-Seq-Modells leiten wir eine analytische Verteilungsfunktion für die beobachtete Verteilung unter Kenntnis einer Ausgangsverteilung her. Charakteristiken und sogar ein allgemeines Moment der Ausgangsverteilung können aus der beobachteten Verteilung berechnet werden. Unsere Formeln stellen den Ausgangspunkt zur Quantifizierung von Zellvariabilität dar.
Wir haben eine vollständig lineare Analyse von Transkriptomdaten entwickelt, die zeigt, dass sich Zellen während des Zellzyklus auf einer ebenen zirkulären Trajektorie im Transkriptomraum bewegen. In immortalisierten Zelllinien stellen wir fest, dass die Transkriptomdynamiken des Zellzyklus hauptsächlich unabhängig von den Dynamiken anderer Zellprozesse stattfinden. Unser Algorithmus (“Revelio”) bringt eine einfache Methode mit sich, um unsynchronisierte Zellen nach der Zeit zu ordnen und ermöglicht das exakte Entfernen von Zellzykluseffekten. Die Form der Zellzyklus-Trajektorie zeigt, dass der Zellzyklus sich dazu entwickelt hat, Änderungen der transkriptionellen Aktivitäten und der damit verbundenen regulativen Anstrengungen zu minimieren. Dieses Konstruktionsprinzip könnte auch für andere Prozesse relevant sein.
Durch die Verwendung von metabolischer Molekülmarkierung erweitern wir Modelle zur mRNA-Kinetik, um dynamische mRNA-Ratenparameter für Transkription, Splicing und Degradation zu erhalten und die Lösungen auf den Zellzyklus anzuwenden. Wir zeigen, dass unser Modell zwischen Genen mit ähnlicher Genexpression aber unterschiedlicher Genregulation unterscheiden kann. Zwar enthalten scRNA-Seq-Daten aktuell noch zu viel technisches Rauschen, unser Modell wird jedoch für das zukünftige Errechnen von dynamischen mRNA-Ratenparametern von großem Nutzen sein. / In this dissertation, we model and analyse scRNA-seq data to understand mechanisms underlying biological processes.
In scRNA-seq experiments, biological noise gets convoluted with various sources of technical noise. With the help of a simplified scRNA-seq model, we derive an analytical probability distribution function for the observed output distribution given a true input distribution. We find that characteristics and even general moments of the input distribution can be calculated from the output distribution. Our formulas are a starting point for the quantification of cell-to-cell variability.
We developed a fully linear analysis of transcriptome data which reveals that cells move along a planar circular trajectory in transcriptome space during the cell cycle. Additionally, we find in immortalized cell lines that cell cycle transcriptome dynamics occur largely independently from other cellular processes. Our algorithm (“Revelio”) offers a simple method to order unsynchronized cells in time and enables the precise removal of cell cycle effects from the data. The shape of the cell cycle trajectory indicates that the cell cycle has evolved to minimize changes of transcriptional activity and their related regulatory efforts. This design principle may be of relevance to other cellular processes.
By considering metabolic labelling, we extend existing mRNA kinetic models to obtain dynamic mRNA rate parameters for transcription, splicing and degradation and apply our solutions to the cell cycle. We can distinguish genes with similar expression values but different gene regulation strategies. While current scRNA-seq data contains too much technical noise, the model will be of great value for inferring dynamic mRNA rate parameters in future research. Read more
|
46 |
Tail Risk Protection via reproducible data-adaptive strategiesSpilak, Bruno 15 February 2024 (has links)
Die Dissertation untersucht das Potenzial von Machine-Learning-Methoden zur Verwaltung von Schwanzrisiken in nicht-stationären und hochdimensionalen Umgebungen. Dazu vergleichen wir auf robuste Weise datenabhängige Ansätze aus parametrischer oder nicht-parametrischer Statistik mit datenadaptiven Methoden. Da datengetriebene Methoden reproduzierbar sein müssen, um Vertrauen und Transparenz zu gewährleisten, schlagen wir zunächst eine neue Plattform namens Quantinar vor, die einen neuen Standard für wissenschaftliche Veröffentlichungen setzen soll. Im zweiten Kapitel werden parametrische, lokale parametrische und nicht-parametrische Methoden verglichen, um eine dynamische Handelsstrategie für den Schutz vor Schwanzrisiken in Bitcoin zu entwickeln. Das dritte Kapitel präsentiert die Portfolio-Allokationsmethode NMFRB, die durch eine Dimensionsreduktionstechnik hohe Dimensionen bewältigt. Im Vergleich zu klassischen Machine-Learning-Methoden zeigt NMFRB in zwei Universen überlegene risikobereinigte Renditen. Das letzte Kapitel kombiniert bisherige Ansätze zu einer Schwanzrisikoschutzstrategie für Portfolios. Die erweiterte NMFRB berücksichtigt Schwanzrisikomaße, behandelt nicht-lineare Beziehungen zwischen Vermögenswerten während Schwanzereignissen und entwickelt eine dynamische Schwanzrisikoschutzstrategie unter Berücksichtigung der Nicht-Stationarität der Vermögensrenditen. Die vorgestellte Strategie reduziert erfolgreich große Drawdowns und übertrifft andere moderne Schwanzrisikoschutzstrategien wie die Value-at-Risk-Spread-Strategie. Die Ergebnisse werden durch verschiedene Data-Snooping-Tests überprüft. / This dissertation shows the potential of machine learning methods for managing tail risk in a non-stationary and high-dimensional setting. For this, we compare in a robust manner data-dependent approaches from parametric or non-parametric statistics with data-adaptive methods. As these methods need to be reproducible to ensure trust and transparency, we start by proposing a new platform called Quantinar, which aims to set a new standard for academic publications. In the second chapter, we dive into the core subject of this thesis which compares various parametric, local parametric, and non-parametric methods to create a dynamic trading strategy that protects against tail risk in Bitcoin cryptocurrency. In the third chapter, we propose a new portfolio allocation method, called NMFRB, that deals with high dimensions thanks to a dimension reduction technique, convex Non-negative Matrix Factorization. This technique allows us to find latent interpretable portfolios that are diversified out-of-sample. We show in two universes that the proposed method outperforms other classical machine learning-based methods such as Hierarchical Risk Parity (HRP) concerning risk-adjusted returns. We also test the robustness of our results via Monte Carlo simulation. Finally, the last chapter combines our previous approaches to develop a tail-risk protection strategy for portfolios: we extend the NMFRB to tail-risk measures, we address the non-linear relationships between assets during tail events by developing a specific non-linear latent factor model, finally, we develop a dynamic tail risk protection strategy that deals with the non-stationarity of asset returns using classical econometrics models. We show that our strategy is successful at reducing large drawdowns and outperforms other modern tail-risk protection strategies such as the Value-at-Risk-spread strategy. We verify our findings by performing various data snooping tests. Read more
|
47 |
Dimension Flexible and Adaptive Statistical LearningKhowaja, Kainat 02 March 2023 (has links)
Als interdisziplinäre Forschung verbindet diese Arbeit statistisches Lernen mit aktuellen fortschrittlichen Methoden, um mit hochdimensionalität und Nichtstationarität umzugehen. Kapitel 2 stellt Werkzeuge zur Verfügung, um statistische Schlüsse auf die Parameterfunktionen von Generalized Random Forests zu ziehen, die als Lösung der lokalen Momentenbedingung identifiziert wurden. Dies geschieht entweder durch die hochdimensionale Gaußsche Approximationstheorie oder durch Multiplier-Bootstrap. Die theoretischen Aspekte dieser beiden Ansätze werden neben umfangreichen Simulationen und realen Anwendungen im Detail diskutiert. In Kapitel 3 wird der lokal parametrische Ansatz auf zeitvariable Poisson-Prozesse ausgeweitet, um ein Instrument zur Ermittlung von Homogenitätsintervallen innerhalb der Zeitreihen von Zähldaten in einem nichtstationären Umfeld bereitzustellen. Die Methodik beinhaltet rekursive Likelihood-Ratio-Tests und hat ein Maximum in der Teststatistik mit unbekannter Verteilung. Um sie zu approximieren und den kritischen Wert zu finden, verwenden wir den Multiplier-Bootstrap und demonstrieren den Nutzen dieses Algorithmus für deutsche M\&A Daten. Kapitel 4 befasst sich mit der Erstellung einer niedrigdimensionalen Approximation von hochdimensionalen Daten aus dynamischen Systemen. Mithilfe der Resampling-Methoden, der Hauptkomponentenanalyse und Interpolationstechniken konstruieren wir reduzierte dimensionale Ersatzmodelle, die im Vergleich zu den ursprünglichen hochauflösenden Modellen schnellere Ausgaben liefern. In Kapitel 5 versuchen wir, die Verteilungsmerkmale von Kryptowährungen mit den von ihnen zugrunde liegenden Mechanismen zu verknüpfen. Wir verwenden charakteristikbasiertes spektrales Clustering, um Kryptowährungen mit ähnlichem Verhalten in Bezug auf Preis, Blockzeit und Blockgröße zu clustern, und untersuchen diese Cluster, um gemeinsame Mechanismen zwischen verschiedenen Krypto-Clustern zu finden. / As an interdisciplinary research, this thesis couples statistical learning with current advanced methods to deal with high dimensionality and nonstationarity. Chapter 2 provides tools to make statistical inference (uniformly over covariate space) on the parameter functions from Generalized Random Forests identified as the solution of the local moment condition. This is done by either highdimensional Gaussian approximation theorem or via multiplier bootstrap. The theoretical aspects of both of these approaches are discussed in detail alongside extensive simulations and real life applications. In Chapter 3, we extend the local parametric approach to time varying Poisson processes, providing a tool to find intervals of homogeneity within the time series of count data in a nonstationary setting. The methodology involves recursive likelihood ratio tests and has a maxima in test statistic with unknown distribution. To approximate it and find the critical value, we use multiplier bootstrap and demonstrate the utility of this algorithm on German M\&A data. Chapter 4 is concerned with creating low dimensional approximation of high dimensional data from dynamical systems. Using various resampling methods, Principle Component Analysis, and interpolation techniques, we construct reduced dimensional surrogate models that provide faster responses as compared to the original high fidelity models. In Chapter 5, we aim to link the distributional characteristics of cryptocurrencies to their underlying mechanism. We use characteristic based spectral clustering to cluster cryptos with similar behaviour in terms of price, block time, and block size, and scrutinize these clusters to find common mechanisms between various crypto clusters. Read more
|
48 |
Measures of University Research OutputZharova, Alona 14 February 2018 (has links)
New Public Management unterstützt Universitäten und Forschungseinrichtungen dabei, in einem stark wettbewerbsorientierten Forschungsumfeld zu bestehen. Entscheidungen unter Unsicherheit, z.B. die Verteilung von Mitteln für den Forschungsbedarf und Forschungszwecke, erfordert von Politik und Hochschulmanagement, die Beziehungen zwischen den Dimensionen der Forschungsleistung und den resultierenden oder eingehenden Zuschüssen zu verstehen. Hierfür ist es wichtig, die Variablen der wissenschaftlichen Wissensproduktion auf der Ebene von Individuen, Forschungsgruppen und Universitäten zu untersuchen.
Das Kapitel 2 dieser Arbeit analysiert die Ebene der Individuen. Es verwendet die Beobachtungen der Forscherprofile von Handelsblatt (HB), Research Papers in Economics (RePEc, hier RP) und Google Scholar (GS) als meist verbreitete Ranking-Systeme in BWL und VWL im deutschsprachigen Raum.
Das Kapitel 3 liefert eine empirische Evidenz für die Ebene von Forschungsgruppen und verwendet die Daten eines Sonderforschungsbereichs (SFB) zu Finanzinputs und Forschungsoutput von 2005 bis 2016. Das Kapitel beginnt mit der Beschreibung passender Performanzindikatoren, gefolgt von einer innovativen visuellen Datenanalyse. Im Hauptteil des Kapitels untersucht die Arbeit mit Hilfe eines Zeit-Fixed-Effects-Panel- Modells und eines Fixed-Effects-Poisson-Modells den Zusammenhang zwischen finanziellen Inputs und Forschungsoutputs.
Das Kapitel 4 beschäftigt sich mit dem Niveau der Universitäten und untersucht die Interdependenzstruktur zwischen Drittmittelausgaben, Publikationen, Zitationen und akademischem Alter mit Hilfe eines PVARX-Modells, einer Impulsantwort und einer Zerlegung der Prognosefehlervarianz. Abschließend befasst sich das Kapitel mit den möglichen Implikationen für Politik und Entscheidungsfindung und schlägt Empfehlungen für das universitäre Forschungsmanagement vor. / New Public Management helps universities and research institutions to perform in a highly competitive research environment. Decision making in the face of uncertainty, for example distribution of funds for research needs and purposes, urges research policy makers and university managers to understand the relationships between the dimensions of research performance and the resulting or incoming grants. Thus, it is important to accurately reflect the variables of scientific knowledge production on the level of individuals, research groups and universities.
Chapter 2 of this thesis introduces an analysis on the level of individuals. The data are taken from the three widely-used ranking systems in the economic and business sciences among German-speaking countries: Handelsblatt (HB), Research Papers in Economics (RePEc, here RP) and Google Scholar (GS). It proposes a framework for collating ranking data for comparison purposes.
Chapter 3 provides empirical evidence on the level of research groups using data from a Collaborative Research Center (CRC) on financial inputs and research output from 2005 to 2016. First, suitable performance indicators are discussed. Second, main properties of the data are described using visualization techniques. Finally, the time fixed effects panel data model and the fixed effects Poisson model are used to analyze an interdependency between financial inputs and research outputs.
Chapter 4 examines the interdependence structure between third-party expenses (TPE), publications, citations and academic age using university data on individual performance in different scientific areas. A panel vector autoregressive model with exogenous variables (PVARX), impulse response functions and a forecast error variance decomposition help to capture the relationships in the system. To summarize, the chapter addresses the possible implications for policy and decision making and proposes recommendations for university research management. Read more
|
49 |
Econometric Measures of Financial Risk in High DimensionsChen, Shi 09 January 2018 (has links)
Das moderne Finanzsystem ist komplex, dynamisch, hochdimensional und oftmals nicht stationär. All diese Faktoren stellen große Herausforderungen beim Messen des zugrundeliegenden Finanzrisikos dar, das speziell für Marktteilnehmer von oberster Priorität ist. Hochdimensionalität, die aus der ansteigenden Vielfalt an Finanzprodukten entsteht, ist ein wichtiges Thema für Ökonometriker. Ein Standardansatz, um mit hoher Dimensionalität umzugehen, ist es, Schlüsselvariablen auszuwählen und kleine Koeffizientenen auf null zu setzen, wie etwa Lasso. In der Finanzmarktanalyse kann eine solche geringe Annahme helfen, die führenden Risikofaktoren aus dem extrem großen Portfolio, das letztendlich das robuste Maß für finanzielles Risiko darstellt, hervorzuheben. In dieser Arbeit nutzen wir penalisierte Verfahren, um die ökonometrischen Maße für das finanzielle Risiko in hoher Dimension zu schätzen, sowohl mit nieder-, als auch hochfrequenten Daten. Mit Fokus auf dem Finanzmarkt, können wir das Risikonetzwerk des ganzen Systems konstruieren, das die Identifizierung individualspezifischen Risikos erlaubt. / Modern financial system is complex, dynamic, high-dimensional and often possibly non-stationary. All these factors pose great challenges in measuring the underlying financial risk, which is of top priority especially for market participants. High-dimensionality, which arises from the increasing variety of the financial products, is an important issue among econometricians. A standard approach dealing with high dimensionality is to select key variables and set small coefficient to zero, such as lasso. In financial market analysis, such sparsity assumption can help highlight the leading risk factors from the extremely large portfolio, which constitutes the robust measure for financial risk in the end. In this paper we use penalized techniques to estimate the econometric measures of financial risk in high dimensional, with both low-frequency and high-frequency data. With focus on financial market, we could construct the risk network of the whole system which allows for identification of individual-specific risk. Read more
|
50 |
Variational and Ergodic Methods for Stochastic Differential Equations Driven by Lévy ProcessesGairing, Jan Martin 03 April 2018 (has links)
Diese Dissertation untersucht Aspekte des Zusammenspiels von ergodischem Langzeitver-
halten und der Glättungseigenschaft dynamischer Systeme, die von stochastischen Differen-
tialgleichungen (SDEs) mit Sprüngen erzeugt sind. Im Speziellen werden SDEs getrieben
von Lévy-Prozessen und der Marcusschen kanonischen Gleichung untersucht. Ein vari-
ationeller Ansatz für den Malliavin-Kalkül liefert eine partielle Integration, sodass eine
Variation im Raum in eine Variation im Wahrscheinlichkeitsmaß überführt werden kann.
Damit lässt sich die starke Feller-Eigenschaft und die Existenz glatter Dichten der zuge-
hörigen Markov-Halbgruppe aus einer nichtstandard Elliptizitätsbedingung an eine Kom-
bination aus Gaußscher und Sprung-Kovarianz ableiten. Resultate für Sprungdiffusionen
auf Untermannigfaltigkeiten werden aus dem umgebenden Euklidischen Raum hergeleitet.
Diese Resultate werden dann auf zufällige dynamische Systeme angewandt, die von lin-
earen stochastischen Differentialgleichungen erzeugt sind. Ruelles Integrierbarkeitsbedin-
gung entspricht einer Integrierbarkeitsbedingung an das Lévy-Maß und gewährleistet die
Gültigkeit von Oseledets multiplikativem Ergodentheorem. Damit folgt die Existenz eines
Lyapunov-Spektrums. Schließlich wird der top Lyapunov-Exponent über eine Formel der
Art von Furstenberg–Khasminsikii als ein ergodisches Mittel der infinitesimalen Wachs-
tumsrate über die Einheitssphäre dargestellt. / The present thesis investigates certain aspects of the interplay between the ergodic long
time behavior and the smoothing property of dynamical systems generated by stochastic
differential equations (SDEs) with jumps, in particular SDEs driven by Lévy processes and
the Marcus’ canonical equation. A variational approach to the Malliavin calculus generates
an integration-by-parts formula that allows to transfer spatial variation to variation in the
probability measure. The strong Feller property of the associated Markov semigroup and
the existence of smooth transition densities are deduced from a non-standard ellipticity
condition on a combination of the Gaussian and a jump covariance. Similar results on
submanifolds are inferred from the ambient Euclidean space.
These results are then applied to random dynamical systems generated by linear stochas-
tic differential equations. Ruelle’s integrability condition translates into an integrability
condition for the Lévy measure and ensures the validity of the multiplicative ergodic theo-
rem (MET) of Oseledets. Hence the exponential growth rate is governed by the Lyapunov
spectrum. Finally the top Lyapunov exponent is represented by a formula of Furstenberg–
Khasminskii–type as an ergodic average of the infinitesimal growth rate over the unit
sphere. Read more
|
Page generated in 0.0835 seconds