• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 40
  • Tagged with
  • 179
  • 179
  • 178
  • 164
  • 41
  • 24
  • 22
  • 20
  • 20
  • 18
  • 17
  • 17
  • 17
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Functional data analysis with applications in finance

Benko, Michal 26 January 2007 (has links)
An vielen verschiedenen Stellen der angewandten Statistik sind die zu untersuchenden Objekte abhängig von stetigen Parametern. Typische Beispiele in Finanzmarktapplikationen sind implizierte Volatilitäten, risikoneutrale Dichten oder Zinskurven. Aufgrund der Marktkonventionen sowie weiteren technisch bedingten Gründen sind diese Objekte nur an diskreten Punkten, wie zum Beispiel an Ausübungspreise und Maturitäten, für die ein Geschäft in einem bestimmten Zeitraum abgeschlossen wurde, beobachtbar. Ein funktionaler Datensatz ist dann vorhanden, wenn diese Funktionen für verschiedene Zeitpunkte (z.B. Tage) oder verschiedene zugrundeliegende Aktiva gesammelt werden. Das erste Thema, das in dieser Dissertation betrachtet wird, behandelt die nichtparametrischen Methoden der Schätzung dieser Objekte (wie z.B. implizierte Volatilitäten) aus den beobachteten Daten. Neben den bekannten Glättungsmethoden wird eine Prozedur für die Glättung der implizierten Volatilitäten vorgeschlagen, die auf einer Kombination von nichtparametrischer Glättung und den Ergebnissen der arbitragefreien Theorie basiert. Der zweite Teil der Dissertation ist der funktionalen Datenanalyse (FDA), speziell im Zusammenhang mit den Problemen, der empirischen Finanzmarktanalyse gewidmet. Der theoretische Teil der Arbeit konzentriert sich auf die funktionale Hauptkomponentenanalyse -- das funktionale Ebenbild der bekannten Dimensionsreduktionstechnik. Ein umfangreicher überblick der existierenden Methoden wird gegeben, eine Schätzmethode, die von der Lösung des dualen Problems motiviert ist und die Zwei-Stichproben-Inferenz basierend auf der funktionalen Hauptkomponentenanalyse werden behandelt. Die FDA-Techniken sind auf die Analyse der implizierten Volatilitäten- und Zinskurvendynamik angewandt worden. Darüber hinaus, wird die Implementation der FDA-Techniken zusammen mit einer FDA-Bibliothek für die statistische Software Xplore behandelt. / In many different fields of applied statistics an object of interest is depending on some continuous parameter. Typical examples in finance are implied volatility functions, yield curves or risk-neutral densities. Due to the different market conventions and further technical reasons, these objects are observable only on a discrete grid, e.g. for a grid of strikes and maturities for which the trade has been settled at a given time-point. By collecting these functions for several time points (e.g. days) or for different underlyings, a bunch (sample) of functions is obtained - a functional data set. The first topic considered in this thesis concerns the strategies of recovering the functional objects (e.g. implied volatilities function) from the observed data based on the nonparametric smoothing methods. Besides the standard smoothing methods, a procedure based on a combination of nonparametric smoothing and the no-arbitrage-theory results is proposed for implied volatility smoothing. The second part of the thesis is devoted to the functional data analysis (FDA) and its connection to the problems present in the empirical analysis of the financial markets. The theoretical part of the thesis focuses on the functional principal components analysis -- functional counterpart of the well known multivariate dimension-reduction-technique. A comprehensive overview of the existing methods is given, an estimation method based on the dual problem as well as the two-sample inference based on the functional principal component analysis are discussed. The FDA techniques are applied to the analysis of the implied volatility and yield curve dynamics. In addition, the implementation of the FDA techniques together with a FDA library for the statistical environment XploRe are presented.
92

Stock picking via nonsymmetrically pruned binary decision trees with reject option

Andriyashin, Anton 06 July 2010 (has links)
Die Auswahl von Aktien ist ein Gebiet der Finanzanalyse, die von speziellem Interesse sowohl für viele professionelle Investoren als auch für Wissenschaftler ist. Empirische Untersuchungen belegen, dass Aktienerträge vorhergesagt werden können. Während verschiedene Modellierungstechniken zur Aktienselektion eingesetzt werden könnten, analysiert diese Arbeit die meist verbreiteten Methoden, darunter allgemeine Gleichgewichtsmodelle und Asset Pricing Modelle; parametrische, nichtparametrische und semiparametrische Regressionsmodelle; sowie beliebte Black-Box Klassifikationsmethoden. Aufgrund vorteilhafter Eigenschaften binärer Klassifikationsbäume, wie zum Beispiel einer herausragenden Interpretationsmöglichkeit von Entscheidungsregeln, wird der Kern des Handelsalgorithmus unter Verwendung dieser modernen, nichtparametrischen Methode konstruiert. Die optimale Größe des Baumes wird als der entscheidende Faktor für die Vorhersageperformance von Klassifikationsbäumen angesehen. Während eine Vielfalt alternativer populärer Bauminduktions- und Pruningtechniken existiert, die in dieser Studie kritisch gewürdigt werden, besteht eines der Hauptanliegen dieser Arbeit in einer neuartigen Methode asymmetrischen Baumprunings mit Abweisungsoption. Diese Methode wird als Best Node Selection (BNS) bezeichnet. Eine wichtige inverse Fortpflanzungseigenschaft der BNS wird bewiesen. Diese eröffnet eine einfache Möglichkeit, um die Suche der optimalen Baumgröße in der Praxis zu implementieren. Das traditionelle costcomplexity Pruning zeigt eine ähnliche Performance hinsichtlich der Baumgenauigkeit verglichen mit beliebten alternativen Techniken, und es stellt die Standard Pruningmethode für viele Anwendungen dar. Die BNS wird mit cost-complexity Pruning empirisch verglichen, indem zwei rekursive Portfolios aus DAX-Aktien zusammengestellt werden. Vorhersagen über die Performance für jede einzelne Aktie werden von Entscheidungsbäumen gemacht, die aktualisiert werden, sobald neue Marktinformationen erhältlich sind. Es wird gezeigt, dass die BNS der traditionellen Methode deutlich überlegen ist, und zwar sowohl gemäß den Backtesting Ergebnissen als auch nach dem Diebold-Marianto Test für statistische Signifikanz des Performanceunterschieds zwischen zwei Vorhersagemethoden. Ein weiteres neuartiges Charakteristikum dieser Arbeit liegt in der Verwendung individueller Entscheidungsregeln für jede einzelne Aktie im Unterschied zum traditionellen Zusammenfassen lernender Muster. Empirische Daten in Form individueller Entscheidungsregeln für einen zufällig ausgesuchten Zeitpunkt in der Überprüfungsreihe rechtfertigen diese Methode. / Stock picking is the field of financial analysis that is of particular interest for many professional investors and researchers. There is a lot of research evidence supporting the fact that stock returns can effectively be forecasted. While various modeling techniques could be employed for stock price prediction, a critical analysis of popular methods including general equilibrium and asset pricing models; parametric, non- and semiparametric regression models; and popular black box classification approaches is provided. Due to advantageous properties of binary classification trees including excellent level of interpretability of decision rules, the trading algorithm core is built employing this modern nonparametric method. Optimal tree size is believed to be the crucial factor of forecasting performance of classification trees. While there exists a set of widely adopted alternative tree induction and pruning techniques, which are critically examined in the study, one of the main contributions of this work is a novel methodology of nonsymmetrical tree pruning with reject option called Best Node Selection (BNS). An important inverse propagation property of BNS is proven that provides an easy way to implement the search for the optimal tree size in practice. Traditional cost-complexity pruning shows similar performance in terms of tree accuracy when assessed against popular alternative techniques, and it is the default pruning method for many applications. BNS is compared with costcomplexity pruning empirically by composing two recursive portfolios out of DAX30 stocks. Performance forecasts for each of the stocks are provided by constructed decision trees that are updated when new market information becomes available. It is shown that BNS clearly outperforms the traditional approach according to the backtesting results and the Diebold-Mariano test for statistical significance of the performance difference between two forecasting methods. Another novel feature of this work is the use of individual decision rules for each stock as opposed to pooling of learning samples, which is done traditionally. Empirical data in the form of provided individual decision rules for a randomly selected time point in the backtesting set justify this approach.
93

Valuation of properties and economic models of real estate markets

Schulz, Rainer 05 February 2003 (has links)
Bewertungen von Immobilien sollen den Marktwert einschätzen und sind notwendig für Kauf-, Verkaufs- und Bauentscheidungen, für die Kreditvergabe und für die Besteuerung. Trotz dieser eindeutigen Aufgabenstellung existierten unterschiedliche Verfahren, mit welchen Marktwerte ermittelt werden können. Ein Bewertungsverfahren soll einerseits mit ökonomischer Theorie vereinbar sein und andererseits Bewertungen generieren, die beobachtete Transaktionspreise gut vorhersagen. Die Dissertation analysiert die drei wichtigsten Bewertungsansätze Sachwert-, Vergleichswert- und Ertragswertverfahren, zeigt das jeweils zugrundeliegende Marktmodell und evaluiert die kodifizierten Verfahren nach der Wertermittlungsverordnung (WertV) anhand von beobachteten Transaktionen. Darüber hinaus gibt die Dissertation einen Überblick zu Immobilienpreisindizes und zu hedonischen Methoden. Für die ökonometrischen Analysen wurden umfangreiche Daten zum Berliner Immobilienmarkt verwendet. / Appraisals should assess the market value of properties and are necessary for buying, selling or building decisions, for lending and for taxation. Despite this unambiguous task different techniques exist for ascertaining market values. An valuation approach should be in accordance with economic theory and should generate appraisals, which are reliable estimates for transaction prices. This dissertation analyzes the three most important valuation approaches, i.e. cost, sales comparison, and income approach, shows the underlying market models and evaluates the valuation techniques that are codified in the German Regulation on Valuation (WertV). For the latter evaluations, appraisals are compared with observed transaction prices. In addition, the dissertation gives an overview on real estate price indices and on the hedonic approach. Extensive data on Berlin's real estate market are used for the econometric analysis.
94

Equity derivatives markets

Detlefsen, Kai 19 October 2007 (has links)
Seit der Entdeckung der arbitragefreien Bewertung hat sich das Gebiet finance grundlegend geändert - sowohl in der Theorie als auch in der Anwendung. Märkte für Derivate haben sich entwickelt und Optionen dienen heutzutage als Basis- und als Absicherungsinstrumente. In dieser Dissertation betrachten wir einige Märkte für Aktienderivate. Wir beginnen mit statistischen Analysen des Marktes für europäische Optionen und des Marktes für Varianzswaps, weil diese Produkte die hauptsächlichen Absicherungsinstrumente für komplexe Optionen sind. Dann betrachten wir verschiedene Optionspreismodelle und ihre Kalibrierung an beobachtete Preisoberflächen. Schließlich untersuchen wir die Verbindung zwischen Optionspreisen und dem grundlegenden ökonomischen Konzept der Risikoaversion anhand des empirischen Preiskernes. / Since the ideas of arbitrage free pricing were born, finance has changed radically - both in theory and practice. Derivatives markets have evolved and options serve nowadays as underlyings and as hedging instruments. In this thesis, we consider some markets for equity derivatives. We start by statistical analysis of the markets for European options and variance swaps because these products are important for hedging more complex claims. Then we consider different option pricing models and their calibration to observed price surfaces. Finally, we investigate the connection between option prices and the fundamental economic concept of risk aversion by the empirical pricing kernel.
95

Tracking domain knowledge based on segmented textual sources

Kalledat, Tobias 11 May 2009 (has links)
Die hier vorliegende Forschungsarbeit hat zum Ziel, Erkenntnisse über den Einfluss der Vorverarbeitung auf die Ergebnisse der Wissensgenerierung zu gewinnen und konkrete Handlungsempfehlungen für die geeignete Vorverarbeitung von Textkorpora in Text Data Mining (TDM) Vorhaben zu geben. Der Fokus liegt dabei auf der Extraktion und der Verfolgung von Konzepten innerhalb bestimmter Wissensdomänen mit Hilfe eines methodischen Ansatzes, der auf der waagerechten und senkrechten Segmentierung von Korpora basiert. Ergebnis sind zeitlich segmentierte Teilkorpora, welche die Persistenzeigenschaft der enthaltenen Terme widerspiegeln. Innerhalb jedes zeitlich segmentierten Teilkorpus können jeweils Cluster von Termen gebildet werden, wobei eines diejenigen Terme enthält, die bezogen auf das Gesamtkorpus nicht persistent sind und das andere Cluster diejenigen, die in allen zeitlichen Segmenten vorkommen. Auf Grundlage einfacher Häufigkeitsmaße kann gezeigt werden, dass allein die statistische Qualität eines einzelnen Korpus es erlaubt, die Vorverarbeitungsqualität zu messen. Vergleichskorpora sind nicht notwendig. Die Zeitreihen der Häufigkeitsmaße zeigen signifikante negative Korrelationen zwischen dem Cluster von Termen, die permanent auftreten, und demjenigen das die Terme enthält, die nicht persistent in allen zeitlichen Segmenten des Korpus vorkommen. Dies trifft ausschließlich auf das optimal vorverarbeitete Korpus zu und findet sich nicht in den anderen Test Sets, deren Vorverarbeitungsqualität gering war. Werden die häufigsten Terme unter Verwendung domänenspezifischer Taxonomien zu Konzepten gruppiert, zeigt sich eine signifikante negative Korrelation zwischen der Anzahl unterschiedlicher Terme pro Zeitsegment und den einer Taxonomie zugeordneten Termen. Dies trifft wiederum nur für das Korpus mit hoher Vorverarbeitungsqualität zu. Eine semantische Analyse auf einem mit Hilfe einer Schwellenwert basierenden TDM Methode aufbereiteten Datenbestand ergab signifikant unterschiedliche Resultate an generiertem Wissen, abhängig von der Qualität der Datenvorverarbeitung. Mit den in dieser Forschungsarbeit vorgestellten Methoden und Maßzahlen ist sowohl die Qualität der verwendeten Quellkorpora, als auch die Qualität der angewandten Taxonomien messbar. Basierend auf diesen Erkenntnissen werden Indikatoren für die Messung und Bewertung von Korpora und Taxonomien entwickelt sowie Empfehlungen für eine dem Ziel des nachfolgenden Analyseprozesses adäquate Vorverarbeitung gegeben. / The research work available here has the goal of analysing the influence of pre-processing on the results of the generation of knowledge and of giving concrete recommendations for action for suitable pre-processing of text corpora in TDM. The research introduced here focuses on the extraction and tracking of concepts within certain knowledge domains using an approach of horizontally (timeline) and vertically (persistence of terms) segmenting of corpora. The result is a set of segmented corpora according to the timeline. Within each timeline segment clusters of concepts can be built according to their persistence quality in relation to each single time-based corpus segment and to the whole corpus. Based on a simple frequency measure it can be shown that only the statistical quality of a single corpus allows measuring the pre-processing quality. It is not necessary to use comparison corpora. The time series of the frequency measure have significant negative correlations between the two clusters of concepts that occur permanently and others that vary within an optimal pre-processed corpus. This was found to be the opposite in every other test set that was pre-processed with lower quality. The most frequent terms were grouped into concepts by the use of domain-specific taxonomies. A significant negative correlation was found between the time series of different terms per yearly corpus segments and the terms assigned to taxonomy for corpora with high quality level of pre-processing. A semantic analysis based on a simple TDM method with significant frequency threshold measures resulted in significant different knowledge extracted from corpora with different qualities of pre-processing. With measures introduced in this research it is possible to measure the quality of applied taxonomy. Rules for the measuring of corpus as well as taxonomy quality were derived from these results and advice suggested for the appropriate level of pre-processing.
96

Reversible Jump Markov Chain Monte Carlo

Neuhoff, Daniel 15 March 2016 (has links)
Die vier in der vorliegenden Dissertation enthaltenen Studien beschäftigen sich vorwiegend mit dem dynamischen Verhalten makroökonomischer Zeitreihen. Diese Dynamiken werden sowohl im Kontext eines einfachen DSGE Modells, als auch aus der Sichtweise reiner Zeitreihenmodelle untersucht. / The four studies of this thesis are concerned predominantly with the dynamics of macroeconomic time series, both in the context of a simple DSGE model, as well as from a pure time series modeling perspective.
97

Innovation, research joint ventures, and multiproduct competition

Siebert, Ralph 18 April 2000 (has links)
In dieser Studie analysieren wir die Interaktionen zwischen Multiproduktwettbewerb und drei Aspekten von Innovation: Research Joint Ventures mit asymmetrischen Unternehmen, Neue Produkteinführung, und Innovation mit Multiproduktunternehmen. Wir untersuchen Mechanismen und Effekte, die einen Einfluß auf die Marktstruktur, das Marktverhalten und das Marktergebnis ausüben, indem wir theoretische Modelle analysieren und empirische strukturelle Modelle schätzen. Diese Arbeit gliedert sich wie folgt: Kapitel 2 verdeutlicht die Interaktion von Multiproduktwettbewerb und der Innovationstätigkeit von Unternehmen. Wir präsentieren die gegenwärtigen theoretischen and empirischen Arbeiten auf dem Gebiet der Innovationen. In Kapitel 3 analysieren wir die Effekte zwischen Multiproduktwettbewerb und Anreize von asymmetrischen Unternehmen, Innovationen zu betreiben und Research Joint Ventures zu gründen. In Kapitel 4 und 5 konzentrieren wir uns auf die Interaktion zwischen Multiproduktwettbewerb und neuer Produkteinführung. Wir präsentieren zwei theoretische Modelle über vertikale Produktdifferenzierung und untersuchen die Anreize für die etablierten Unternehmen neue Produkte mit unterschiedlicher Qualität in den Markt einzuführen. Unternehmen können hierbei entscheiden, ob sie die vorigen Produkte weiterhin im Markt anbieten oder aus dem Markt ziehen. In Kapitel 6 untersuchen wir den Zusammenhang zwischen Multiproduktwettbewerb und Innovation mit Multiproduktunternehmen. Das Verhalten von Multiproduktunternehmen unterscheidet sich von Einzelproduktunternehmen, da Output- und Produkteinführungsentscheidungen auf zentraler Ebene getroffen werden. Wir analysieren die ,Dynamic Random Access Memory' Industrie (DRAM chips sind Halbleiterchips) mit Berücksichtigung von Multiproduktunternehmen und untersuchen Spillovers, Skalenerträge und Lerneffekte, als auch das Verhalten der Unternehmen im Produktmarkt und die Dynamik über den Produktlebenszyklus. In Kapitel 7 fassen wir die Forschungsergebnisse zusammen und bewerten diese im Kontext der gegenwärtigen Forschung. Darüber hinaus schlagen wir weitere Aspekte für zukünftige Forschungsarbeiten auf diesem Gebiet vor. Schließlich beschreiben wir in Kapitel 8 die Datenbanken, die in unseren empirischen Analysen Anwendung finden. email: siebert@medea.wz-berlin.de / In this study we theoretically and empirically analyze the interactions between multiproduct competition and three aspects of innovation: Research Joint Ventures with asymmetric firms, new product introduction, and innovation with multiproduct firms. We investigate the main mechanisms and effects that impact on market structure, behavior and performance by analyzing theoretical and estimating structural models.The thesis is structured as follows: Chapter 2 provides insights into how multiproduct competition may interact with innovation. We survey current theoretical and empirical results on the literature of innovation. In Chapter 3, we analyze the effect of multiproduct competition on the incentives of asymmetric firms to innovate and to form a Research Joint Venture. In Chapters 4 and 5 we concentrate on the interrelation between multiproduct competition and new product introduction. We present two theoretical models of vertical product differentiation and investigate the incentives for incumbent firms to introduce new products in different quality areas. Firms are allowed to keep or withdraw their original products from the market. In Chapter 6 we will focus on the link between multiproduct competition and innovation with multiproduct firms. Multiproduct firms behave differently in the product market compared to single product firms. Decisions for product innovation or output are taken at a centralized level, so that a multiproduct firm takes the effects on other products into account. We analyze the Dynamic Random Access Memory industry (DRAM chips are semiconductor chips) with respect to multiproduct firms and investigate the Spillover, Economies of Scale, and Learning by Doing effects, as well as firms' behaviour in the product market, and the dynamics over the product life cycle. In Chapter 7 we summarize the results, assess the new research findings in the context of contributions to current research, and provide suggestions for future research. Finally, in Chapter 8 we provide a description of the databases we used in our empirical studies. email: siebert@medea.wz-berlin.de
98

Three essays on the econometric analysis of high-frequency data

Malec, Peter 27 June 2013 (has links)
Diese Dissertation behandelt die ökonometrische Analyse von hochfrequenten Finanzmarktdaten. Kapitel 1 stellt einen neuen Ansatz zur Modellierung von seriell abhängigen positiven Variablen, die einen nichttrivialen Anteil an Nullwerten aufweisen, vor. Letzteres ist ein weitverbreitetes Phänomen in hochfrequenten Finanzmarktzeitreihen. Eingeführt wird eine flexible Punktmassenmischverteilung, ein maßgeschneiderter semiparametrischer Spezifikationstest sowie eine neue Art von multiplikativem Fehlermodell (MEM). Kapitel 2 beschäftigt sich mit dem Umstand, dass feste symmetrische Kerndichteschätzer eine geringe Präzision aufweisen, falls eine positive Zufallsvariable mit erheblicher Wahrscheinlichkeitsmasse nahe Null gegeben ist. Wir legen dar, dass Gammakernschätzer überlegen sind, wobei ihre relative Präzision von der genauen Form der Dichte sowie des Kerns abhängt. Wir führen einen verbesserten Gammakernschätzer sowie eine datengetriebene Methodik für die Wahl des geeigneten Typs von Gammakern ein. Kapitel 3 wendet sich der Frage nach dem Nutzen von Hochfrequenzdaten für hochdimensionale Portfolioallokationsanwendungen zu. Wir betrachten das Problem der Konstruktion von globalen Minimum-Varianz-Portfolios auf der Grundlage der Konstituenten des S&P 500. Wir zeigen auf, dass Prognosen, welche auf Hochfrequenzdaten basieren, im Vergleich zu Methoden, die tägliche Renditen verwenden, eine signifikant geringere Portfoliovolatilität implizieren. Letzteres geht mit spürbaren Nutzengewinnen aus der Sicht eines Investors mit hoher Risikoaversion einher. / In three essays, this thesis deals with the econometric analysis of financial market data sampled at intraday frequencies. Chapter 1 presents a novel approach to model serially dependent positive-valued variables realizing a nontrivial proportion of zero outcomes. This is a typical phenomenon in financial high-frequency time series. We introduce a flexible point-mass mixture distribution, a tailor-made semiparametric specification test and a new type of multiplicative error model (MEM). Chapter 2 addresses the problem that fixed symmetric kernel density estimators exhibit low precision for positive-valued variables with a large probability mass near zero, which is common in high-frequency data. We show that gamma kernel estimators are superior, while their relative performance depends on the specific density and kernel shape. We suggest a refined gamma kernel and a data-driven method for choosing the appropriate type of gamma kernel estimator. Chapter 3 turns to the debate about the merits of high-frequency data in large-scale portfolio allocation. We consider the problem of constructing global minimum variance portfolios based on the constituents of the S&P 500. We show that forecasts based on high-frequency data can yield a significantly lower portfolio volatility than approaches using daily returns, implying noticeable utility gains for a risk-averse investor.
99

State aid and competition policy

Glowicka, Elzbieta 18 July 2008 (has links)
Die Regierungen in der Europäischen Union retten Unternehmen in Schwierigkeiten durch staatliche Rettungs- und Umstrukturierungsbeihilfen. Diese Dissertation besteht aus drei Kapiteln, die solche Beihilfen analysieren. Im ersten Kapitel nutze ich Daten von 86 Fällen aus den Jahren 1995-2003 um zu prüfen, wie wirksam die Beihilfen bei der Konkursprävention sind. Es gibt drei Ergebnisse. Erstens steigt die geschätzte diskrete hazard rate in den ersten vier Jahren nach der Subvention und sinkt danach, was nahelegt, dass einige Sanierungen den Konkurs eher verzögern als verhindern. Zweitens, Regierungen favorisieren staatliche Unternehmen bei Beihilfeentscheidungen, obwohl diese keine besseren Überlebenschancen haben. Drittens, die Wahl, ob Rettungs- oder Umstrukturierungsbeihilfe gewärt wird, ist eine endogene Variable in der Analyse. Wenn man sie als exogen betrachtet, unterschätzt man die Auswirkungen auf die Konkurswahrscheinlichkeit. Das zweite Kapitel ist eine Studie über die Auswirkungen von Bailouts auf Marktstruktur und Wohlfahrt in einem internationalen, asymmetrischen Cournot -- Duopol. Es wird gezeigt, dass die optimale Beihilfe positiv ist, auch wenn der Marktaustritt einer Firma nicht verhindert werden kann. Der Grund hierfür ist ein strategischer Effekt, der die effizientere Firma zu einer zusätzlichen kostenreduzierenden Maßnahme veranlasst. Wird der Marktaustritt verhindert, ist Effizienz geringer. Das dritte Kapitel enthält empirische Belege der politischen, institutionellen und wirtschaftlichen Determinanten der Sanierungsubventionspolitik. Ich nutze einen neuen Datensatz über Entscheidungen über Rettungs- und Umstrukturierungsbeihilfen während der Jahre 1995-2003 zusammen mit Informationen über Wahlergebnisse in den Europäischen Ländern. Das wichtigste Ergebnis ist, dass die Beihilfen in Ländern mit Mehrheitswahlsystem wahrscheinlicher sind, insbesondere während der Jahre vor Wahlen. / Governments in the European Union bail out firms in distress by granting Rescue and Restructuring Subsidies. This thesis consists of three chapters analyzing European bailouts. In the first chapter, I use data from 86 cases during the years 1995-2003 to examine the effectiveness of bailouts in preventing bankruptcy. The results are threefold. First, the estimated discrete-time hazard rate increases during the first four years after the subsidy and drops after that, suggesting that some bailouts only delayed exit instead of preventing it. Second, governments'' bailout decisions favored state-owned firms, even though state-owned firms did not outperform private ones in the survival chances. Third, subsidy choice is an endogenous variable and treating it as exogenous underestimates its impact on the bankruptcy probability. Policy implications are discussed in the chapter. The second chapter is a study of the effects of bailouts on market structure and welfare in an international asymmetric Cournot duopoly. I show that the subsidy is positive also when it fails to prevent the exit. The reason is a strategic effect, which forces the more efficient firm to make additional cost-reducing effort. When the exit is prevented, allocative and productive efficiencies are lower than in case of exit. The third chapter provides evidence of political, institutional and economic determinants of bailout policies. I use a new data set based on rescue and restructuring aid decisions during the years 1995-2003 merged with information about electoral outcomes in European countries. The main finding is that in countries with majoritarian democratic institutions bailouts are more likely, in particular during years preceding elections. Since bailouts are a targeted fiscal policy, the evidence supports the theory of Persson and Tabellini (2000) predicting that electoral systems shape incentives for fiscal policy choices.
100

Six essays on stochastic and deterministic dynamic pricing and advertising models

Schlosser, Rainer 03 June 2014 (has links)
Die kumulative Dissertation beschäftigt sich mit stochastischen und deterministischen dynamischen Verkaufsmodellen für langlebige sowie verderbliche Güter. Die analysierten dynamischen Modelle sind durch die Möglichkeit der simultanen Variation von Preis und Werbung in stetiger Zeit charakterisiert und folgen den aktuellen Entwicklungen der Dynamischen Preissetzung. Dabei steht die Berücksichtigung und Analyse von (i) Zeitinhomogenitäten, (ii) Adoptionseffekten, (iii) Oligopolwettbewerb und (iv) der Risikoaversion des Entscheiders im Zentrum der Arbeit. Für die Spezialfälle isoelastischer und exponentieller Nachfrage in Verbindung mit isoelastischer Werbewirkung gelingt es explizite Lösungen der optimalen Preis- und Werbekontrollen herzuleiten. Die optimal gesteuerten Verkaufsprozesse können analytisch beschrieben und ausgewertet werden. Insbesondere werden neben erwarteten Preis- und Restbestandsentwicklungen auch assoziierte Gewinnverteilungen untersucht und Sensitivitätsresultate hergeleitet. Darüber hinaus wird analysiert unter welchen Bedingungen monopolistische Strategien sozial effizient sind und welche Besteuerungs- und Subventionsmechanismen geeignet sind um Effizienz herzustellen. Die Ergebnisse sind in sechs Artikel gefasst und bieten ökonomische Einsichten in verschiedene praktische Verkaufsanwendungen, speziell im Bereich des elektronischen Handels. / The cumulative dissertation deals with stochastic and deterministic dynamic sales models for durable as well as perishable products. The models analyzed are characterized by simultaneous dynamic pricing and advertising controls in continuous time and are in line with recent developments in dynamic pricing. They include the modeling of multi-dimensional decisions and take (i) time dependencies, (ii) adoption effects (iii), competitive settings and (iv) risk aversion, explicitly into account. For special cases with isoelastic demand functions as well as with exponential ones explicit solution formulas of the optimal pricing and advertising feedback controls are derived. Moreover, optimally controlled sales processes are analytically described. In particular, the distribution of profits, the expected evolution of prices as well as inventory levels are analyzed in detail and sensitivity results are obtained. Furthermore, we consider the question whether or not monopolistic policies are socially efficient; in special cases, we propose taxation/subsidy mechanisms to establish efficiency. The results are presented in six articles and provide economic insights into a variety of dynamic sales applications of the business world, especially in the area of e-commerce.

Page generated in 0.0626 seconds