• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2698
  • 1264
  • 1125
  • 1
  • 1
  • 1
  • Tagged with
  • 5032
  • 5032
  • 3147
  • 3143
  • 3143
  • 1200
  • 1062
  • 1002
  • 998
  • 992
  • 988
  • 976
  • 802
  • 744
  • 628
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Essays on Strategic Behavior and Dynamic Oligopoly Competition / Beiträge zu strategischem Verhalten und dynamischem oligopolistischem Wettbewerb

Steinmetz, Alexander January 2009 (has links) (PDF)
This thesis deals with three selected dimensions of strategic behavior, namely investment in R&D, mergers and acquisitions, and inventory decisions in dynamic oligopolies. The question the first essay addresses is how the market structure evolves due to innovative activities when firms' level of technological competence is valuable for more than one project. The focus of the work is the analysis of the effect of learning-by-doing and organizational forgetting in R&D on firms' incentives to innovate. A dynamic step-by-step innovation model with history dependency is developed. Firms can accumulate knowledge by investing in R&D. As a benchmark without knowledge accumulation it is shown that relaxing the usual assumption of imposed imitation yields additional strategic effects. Therefore, the leader's R&D effort increases with the gap as she is trying to avoid competition in the future. When firms gain experience by performing R&D, the resulting effect of knowledge induces technological leaders to rest on their laurels which allows followers to catch up. Contrary to the benchmark case the leader's innovation effort declines with the lead. This causes an equilibrium where the incentives to innovate are highest when competition is most intense. Using a model of oligopoly in general equilibrium the second essay analyzes the integration of economies that might be accompanied by cross-border merger waves. Studying economies which prior to trade were in stable equilibrium where mergers were not profitable, we show that globalization can trigger cross-border merger waves for a sufficiently large heterogeneity in marginal cost. In partial equilibrium, consumers benefit from integration even when a merger wave is triggered which considerably lowers intensity of competition. Welfare increases. In contrast, in general equilibrium where interactions between markets and therefore effects on factor prices are considered, gains from trade can only be realized by reallocation of resources. The higher the technological dissimilarity between countries the better can efficiency gains be realized in integrated general equilibrium. The overall welfare effect of integration is positive when all firms remain active but indeterminate when firms exit or are absorbed due to a merger wave. It is possible for decreasing competition to dominate the welfare gain from more efficient resource allocation across sectors. Allowing for firms' entry alters results as in an integrated world coexistence of firms of different countries is never possible. Comparative advantages with respect to entry and production are important for realizing efficiency gains from trade. The third essay analyzes the interaction between price and inventory decisions in an oligopoly industry and its implications for the dynamics of prices. The work extends existing literature and especially the work of Hall and Rust (2007) to endogenous prices and strategic oligopoly competition. We show that the optimal decision rule is an (S,s) order policy and prices and inventories are strategic substitutes. Fixed ordering costs generate infrequent orders. Additionally, with strategic competition in prices, (S,s) inventory behavior together with demand uncertainty generates cyclical pattern in prices The last chapter presents some concluding remarks on the results of the essays. / Die Dissertation „Essays on Strategic Behavior and Dynamic Oligopoly Competition“ befasst sich mit strategischem Verhalten und dynamischem Wettbewerb in Oligopolen. In drei einzelnen Arbeiten werden spezielle Fragestellungen eingehend analysiert. Die erste Arbeit befasst sich mit der Frage, wie sich die Marktstruktur durch Forschungsaktivitäten der Unternehmen entwickelt, wenn die Forschungskompetenz der Unternehmen für mehrere Projekte von Bedeutung ist. Der Fokus der Arbeit liegt auf der Analyse der Effekte des Lernens und Vergessens bei Forschung und Entwicklung auf die Innovationsanreize der Unternehmen. Es wird ein dynamisches Innovationsmodell entwickelt, in dem Unternehmen durch Investitionen in Forschungsprojekte Erfahrungen sammeln können. Als Referenzfall wird im Modell ohne die Möglichkeit des Lernens gezeigt, dass die Lockerung der typischen, aber strengen Annahme, dass der Marktfolger die führende Technologie immer imitiert, zu neuen strategischen Effekten führt. Weil der Marktführer versucht starken Produktmarktwettbewerb in der Zukunft zu vermeiden, steigt sein Innovationsanreiz mit der Verbesserung seiner Position. Haben die Firmen dagegen die Möglichkeit durch Forschungsprojekte zu lernen, führt der daraus resultierende Effekt der Forschungswissensbildung dazu, dass sich der Marktführer auf seinen Lorbeeren ausruht, was dem Marktfolger ermöglicht aufzuholen. Im Gegensatz zum Referenzfall fällt der Innovationsanreiz des Marktführers mit der Verbesserung seiner Position. Dieses Verhalten führt zu einem Gleichgewicht, in dem die Innovationsanreize am höchsten sind, wenn der Produktmarktwettbewerb am stärksten ist. Mit Hilfe eines allgemeinen Gleichgewichtsmodells, welches die Modellierung oligopolistischen Wettbewerbs erlaubt, analysiert die zweite Arbeit die Integration von Ökonomien, die von grenzüberschreitenden Fusionswellen begleitet sein können. Die Untersuchung von Ökonomien, die sich vor der Integration in stabilen Gleichgewichten befunden haben, in denen keine profitablen Fusionen möglich waren, zeigt, dass Globalisierung grenzüberschreitende Fusionswellen auslöst, wenn die Unternehmen hinreichend heterogen bezüglich ihrer Kostenstruktur sind. Im partiellen Gleichgewicht profitieren Konsumenten von der Integration auch dann, wenn eine Fusionswelle ausgelöst wird und alle einheimischen Unternehmen übernommen werden und damit die Wettbewerbsintensität deutlich sinkt. Die Wohlfahrt steigt. Im Gegensatz dazu sind im allgemeinen Gleichgewicht, in dem das Zusammenspiel der Märkte und damit Effekte auf Faktorpreise berücksichtigt werden, Globalisierungsgewinne nur durch die Reallokation von Ressourcen möglich. Je größer die technologischen Unterschiede der Länder, umso besser können diese Effizienzgewinne der Integration im allgemeinen Gleichgewicht realisiert werden. Der Effekt der Globalisierung für die Wohlfahrt ist positiv, wenn alle Firmen im Markt aktiv bleiben, aber unbestimmt, wenn Firmen den Markt verlassen oder aufgekauft werden. Es ist möglich, dass der negative Wohlfahrtseffekt der fallenden Wettbewerbsintensität den positiven Effekt der effizienteren Ressourcenallokation dominiert. Das Zulassen von Eintritt verändert die Ergebnisse drastisch, da in diesem Fall Firmen unterschiedlicher Herkunft in einer integrierten Volkswirtschaft nicht koexistieren können. Komparative Vorteile in Bezug auf Eintrittsmöglichkeiten und Produktion sind dann umso wichtiger für die Realisierung von Wohlfahrtsgewinnen. Die dritte Arbeit analysiert das Zusammenspiel von Preis- und Lagerbestandsentscheidungen unter oligopolistischem Wettbewerb und dessen Implikationen für die Dynamik der Preise. Die Arbeit erweitert existierende Literatur um endogene Preise und unvollständigen strategischen Wettbewerb im Oligopol. Es wird gezeigt, dass bestellfixe Kosten dazu führen, dass selten bestellt wird und die optimale Bestellpolitik eine (S,s)-Politik ist. Für die Unternehmen bilden Preise und Lagerbestand strategische Substitute. Insgesamt erzeugt die (S,s)-Bestellpolitik zusammen mit der unsicheren Nachfrage bei strategischem Preiswettbewerb zyklische Preisschwankungen. Die Dissertation schließt mit einigen kurzen Bemerkungen zu den entwickelten Modellen und deren Ergebnissen.
12

Foreign Exchange Market Interventions: New Empirical Views of Emerging Markets / Devisenmarktinterventionen: Neue Empirische Ansichten von Schwellenländern

Brause, Alexander F. January 2010 (has links) (PDF)
Since the beginning, central banks have used a wide range of instruments to achieve their ultimate purpose of price stability. One measure in the authorities’ toolbox is a foreign exchange market intervention. The discussion about this instrument has come a long way. So far, the discussion relied mainly on industrialized countries'’ experiences. The negative outcomes of most studies with respect to the effectiveness of the intervention tool, opened up a discussion, whether interventions should be used by the authorities to manage exchange rate aspects. Consequently, the question about the dynamics of foreign exchange market interventions is now open to the subject-matter of developing and emerging market countries. Monetary policy in those countries often constitutes an active management of exchange rates. However, the basic discussions about intervention dynamics have had one essential drawback. Neither the primary literature of industrialized countries nor studies dealing with developing countries have considered the fact that intervention purposes and the corresponding effects are likely to vary over time. This thesis is designed to provide the reader with essential issues of central bank interventions, and aims to give further, as well as new contributions, in terms of empirical research on interventions in emerging markets. The main objectives of this study are the analysis of central bank intervention motives, and the corresponding effects on exchange rates in emerging markets. The time dependency of both issues is explicitly considered, which states a novelty in academic research of central bank interventions. Additionally, the outcomes are discussed against the background of underlying economic and monetary policy fundamentals. This could well serve as a starting point for further research. / Seit jeher haben Notenbanker eine Vielzahl von Maßnahmen zur Sicherstellung ihres Hauptziels der Preisniveaustabilität eingesetzt. Ein Instrument aus dem Werkzeugkasten von Notenbanken ist die Devisenmarktintervention. Der Großteil der akademischen Diskussion bezog sich bei der Analyse dieses Instruments bisher auf die Erfahrungen von Industrienationen. Die negativen Ergebnisse dieser Studien führten in den letzten Jahren zu der weitverbreiteten Meinung, dass Interventionen am Devisenmarkt kein geeignetes Instrument zur Steuerung von Wechselkursen darstellen. Folglich befasst sich die empirische Literatur mehr und mehr mit den Interventionserfahrungen von Emerging Markets. Geldpolitik in Emerging Markets zeichnet sich oftmals durch eine aktive Wechelkursteuerung aus. Die aktuelle akademische Diskussion über Interventionsdynamiken (Motive und Effektivität) hat bisher jedoch einen zentralen Aspekt vernachlässigt. Weder die Analysen von Industrienationen, noch aktuelle Studien zu Emerging Markets berücksichtigen die Möglichkeit, dass Interventionsmotive und die Effekte von Devisenmarkttransaktionen über die Zeit hinweg variieren. Diese Arbeit zielt darauf ab, dem Leser die elementaren Bestandteile der aktuellen Diskussion über Notenbankinterventionen am Devisenmarkt näher zu bringen und neue Aspekte in Bezug auf Emerging Markets zu diskutieren. Der Kernpunkt befasst sich mit der Frage, warum Notenbanken in Emerging Markets am Devisenmarkt intervenieren und ob diese Interventionen effektiv sind. Darüber hinaus wird der Aspekt der zeitlichen Veränderung von Interventionsmotiven und deren Auswirkungen auf den Wechselkurs untersucht. Die erzielten Ergebnisse werden danach vor dem Hintergund der ökonomischen und geldpolitischen Rahmenbedingungen diskutiert. Dieser letzte Punkt soll als Startschuss für die mögliche, zukünftige empirische Diskussion über die Gründe für Interventionsmotive und Interventionseffekte angesehen werden.
13

Die Wirkung flexibler Entgeltkomponenten auf den Arbeitsmarkt unter Berücksichtigung betriebswirtschaftlicher Aspekte / The value of flexible payment components with regards to business aspects

Schlegtendal, Götz January 2003 (has links) (PDF)
Untersuchungsgegenstand dieser Arbeit sind die Wirkungen flexibler Entgeltkomponenten (Leistungslohn, Erfolgsbeteiligung, Kapitalbeteiligung) auf der betriebs- und volkswirtschaftlichen Ebene. Ausgangspunkt ist dabei die Analyse der herrschenden Arbeitslosigkeit im Hinblick auf die Ursachen und die Gründe ihrer Verfestigung und Persistenz. Dabei wird festgestellt, dass die existierende Arbeitslosigkeit über verschiedene Theorien erklärt und in mehrere Bestandteile zerlegt werden kann. Ein erheblicher Teil der Arbeitslosigkeit kann auf unflexible, überhöhte Reallöhne zurückgeführt werden. Unterschiedliche Einflüsse verhindern dann ein Absinken des Lohnniveaus auf ein vollbeschäftigungskonformes Niveau. Strukturelle Ursachen, i. S. v. Fehlentwicklungen auf dem Arbeitsmarkt und ungenügenden Anpassungskapazitäten an veränderte Rahmenbedingungen sind eine weitere Begründung für die hohe und nachhaltige Arbeitslosigkeit. Entgelte, die in ihrer Höhe und in ihrer sektoralen, regionalen und berufsbezogenen Ausrichtungen flexibel sind, können einen maßgeblichen Beitrag zum Abbau dieser Arbeitslosigkeit leisten. Aufbauend auf diese volkswirtschaftlichen Ansatz werden im folgenden Kapitel wesentliche betriebswirtschaftlichen Aspekte aus Sicht von Unternehmern und Arbeitnehmer dargestellt. Auf diesen Grundlagen aufbauend werden 3 Formen der Entgeltflexibilisierung im Hinblick auf ihre gesamt- und betriebswirtschaftlichen Wirkungen betrachtet. Leistungslöhne orientieren sich entweder am quantitativ messbaren Output oder der qualitativen Arbeitsbewertung eines Arbeitnehmers. Sie tragen somit unmittelbar zu einer produktivitätsorientierten Entlohnung bei, mit positiven Effekten für Unternehmen und Gesamtwirtschaft. Seit Martin Weitzman‘s kontrovers diskutierter "Beteiligungsgesellschaft" werden Erfolgsbeteiligungen als ein Weg gesehen um Arbeitslosigkeit abzubauen. Von der Verbindung zwischen Unternehmenserfolg und Entlohnung profitieren Arbeitnehmer, Unternehmen und Arbeitslose. Kapitalbeteiligungen haben keinen direkten Einfluss auf die Arbeitslosigkeit. Indirekt tragen sie jedoch zur erhöhter Motivation und Identifikation in den Unternehmen bei. Auch die Bereitstellung von Kapital kann je nach Modell Arbeitsplätze sichern. Neben diesen drei Hauptformen werden auch Investivlöhne und Aktienoptionen als Wege der Flexibilisierung betrachtet. Dabei war festzustellen, Investivlöhne (zur Überwindung des Eigenkapitalmangels vieler Unternehmen) analoge Wirkungen zu Erfolgs- und Kapitalbeteiligung aufweist. Aktienoptionen hingegen betreffen in der Regel nur kleiner Gruppen von Arbeitnehmern und Führungskräften. Ein letztes Kapitel zeigt die Gestaltung eines optimalen Entgeltsystems. Dieses weist neben einen Grundentgelt, einen Leistungslohn sowie eine Erfolgsbeteiligung auf, die durch eine optionale Kapitalbeteiligung ergänzt werden können. Dabei wird noch einmal betont, dass eine flexiblere Gestaltung von Entgelten keine alleinige Lösung der Arbeitslosigkeit bietet. Vielmehr müssen strukturelle Reformen, die die Machtstrukturen am Arbeitsmarkt, die Höhe und Ausgestaltung der Lohnersatzleistungen sowie die Stärkung des Wirtschaftswachstums mit der Flexibilisierung Hand in Hand gehen. / Subject of this study are the impacts of flexible compensation components (incentive wage, profit-sharing, employee share ownership) at the industry and economy level. Starting point is the analysis of existing unemployment with regards to original causes and the reasons for persistency. The conclusion is that existing unemployment can be explained by several theories and may be divided into various A major part of the unemployment can be explained by unflexible, exzessive real wages. Various influences prevent the wages to drop to a level conform with full employment.parts. Structural causes like misdevelopments at the labour market and insufficient capacities to adapt to a new environment are another reason for high and sustainable unemployment. Wages, which are flexible in their sectoral, regional and professional dimension, can have a major contribution to reduce unemployment. Following this economic approach the next chapter is focused on the industrial aspects of compensation in the view of enterprises and employees. Following these basis three different options to make compensation flexible with respect to industrial and economical effects will be analysed. Incentives wages respect either the quantity or the quality of work. In this sense they contribute to a compensation linked to productivity, with positive impact to companies and the total economy. Since Weitzman`s controversal "Share Economy" profit-sharing is viewed as a way to reduce unemployment. The linkage between company success and compensation seems to have positive results for employees, companies and the unemployed. Employee share ownership seems to be no way to influence unemployment directly. On the other hand positive relation between motivation and participation might reduce the risk of rising unemployment. The money raised by participation might secure employment depending on the rules. Investive wages (Investivlöhne) and stock options might be another way to make compensation more flexible. Investive wages (often used to overcome the lack of equity in companies) have similiar effects to profit-sharing and share ownership whereas stock options only adress smaller groups of employees and managers. The final chapter describes the optimal composition of a compensation model. It concludes a basic wage, an incentive wage and some kind of profit-sharing. Employee share ownership might be an optional part of it. Once again will be emphasized, that a flexible form of compensation is not an isolated way to reduce unemployment. In fact it must be accompagnied by structurell reforms as adressing the balance of power at the labour market, the level and rules of social welfare and the strengthening of economic growth.
14

Rationales Herdenverhalten - Theorie, Empirie und Lösungsansätze / Rational Herd Behaviour - Theory, Empirical Results and Methods of Solution

Freiberg, Nicole January 2004 (has links) (PDF)
Im Rahmen dieser Arbeit wird rationales Herdenverhalten anhand der Informationskaskadenmodelle sowie der Reputationsmodelle (Prinzipal-Agent-Kontext bei Existenz relativer Leistungsbewertung) analysiert. Im Bereich der Theorie wird die Frage beantwortet, welche Annahmen unverzichtbar sind für das Auftreten von Herdenverhalten. Bezüglich der Empirie werden zwei Fragestellungen untersucht. Zum einen wird analysiert, dass vorliegende, spezifische empirische Befunde zum Herdenverhalten eher mit Hypothesen vereinbar sind, die aus dem Informationskaskadenmodell abgeleitet werden. Zum anderen wird dargestellt, dass die empirisch festgestellte, unterschiedliche Neigung zum Herdenverhalten für Fondsmanager, Analysten und Topmanager mit der Vergütungsstruktur dieser Akteure erklärt werden kann. Zuletzt wird bei der Untersuchung von Lösungsansätzen bei beiden Modellansätzen nach Mechanismen gesucht, die die negativen Konsequenzen aus dem Auftreten von rationalem Herdenverhalten abmildern können. Hierbei werden verschiedene Ansätze diskutiert. Beispielsweise können im Informationskaskadenmodell Fehlentscheidungen der Akteure verhindert werden, wenn öffentlich verfügbare Information zur Verfügung gestellt wird. Das Hauptergebnis der Analyse ist, dass bei der Diskussion von Lösungsansätzen ein Kosten/Nutzen-Kalkül beachtet werden muss. / This thesis analyzes two major theories of rational herding: information cascade models and reputational models (principal-agent models with relative performance evaluation). Assumptions that are needed to generate herd behaviour are investigated on a theoretical basis. Furthermore, two major problems concerning empirical results about herd behaviour are analyzed. Firstly, existing different empirical results about herd behaviour are most consistent with hypotheses derived from information cascade models. Secondly, the specific compensation structure of fund managers, analysts and top managers can explain their inclination to herd. Finally, methods of solution are needed that can attenuate the negative consequences arising from rational herding. Different mechanisms are discussed, for example the role of publicly available information in preventing wrong decisions in information cascade models. A major result of the analysis is that costs and benefits of different methods of solutions must be carefully examined.
15

New Keynesian Perspectives on Monetary Policy and the Business Cycle in Closed Economies and Monetary Unions

Mayer, Eric January 2006 (has links) (PDF)
No abstract available / Die vorliegende Arbeit verwendet und erweitert einen neukeynesianischen Analyserahmen (Woodford, 2003), um zentrale Fragestellungen des geld- und fiskalpolitischen Designs in geschlossenen Währungsräumen und Währungsunionen zu thematisieren. Der Verfasser stellt dar, dass die neukeynesianische Theorie es möglich macht, mikrofundiert und keynesianisch zugleich zu denken. Ausgangspunkt ist eine stilisierte, dynamisch-stochastische Ökonomie, in der repräsentative Haushalte und Unternehmen in einem allgemeinen Gleichgewichtsrahmen interagieren. Die Einführung von Preisrigiditäten bei monopolistischer Konkurrenz ist von zentraler Bedeutung. Die Notenbank kann bei rigiden Preisen durch geschickte Zinspolitik jener Allokation nahe kommen, die sich ergeben hätte, wenn Preise flexible gewesen wären. Die Innovation in Kapital 2 besteht darin, dass das neukeynesianische Modell in einen statischen Modellrahmen überführt wird, ohne dass zentrale Einsichten verloren gehen. Der so abgeleitete Analyserahmen bietet eine Alternative zum IS/LM-AS/AD Model und ermöglicht eine überzeugende Analyse geldpolitischer Strategien, wie etwa der des „Inflation-Targetings“. In Kapitel 3 wird dieser Modellrahmen zur Analyse von geld- und fiskalpolitischer Interaktion mit dezentralen fiskalpolitischen Akteuren für den Euroraum herangezogen. Die Referenzliteratur ist Dixit und Lambertini (2003). Es wird gezeigt, dass nationale Autoritäten bei asymmetrischen Schocks und nicht integrierten Produktmärkten eine bedeutsame stabilisierungspolitische Aufgabe haben. Insbesondere Angebotschocks in einzelnen Teilnehmerstaaten haben dramatisch andere Wirkungen auf den Konjunkturzyklus, als in einem geschlossenen Währungsraum. Diese angebotsseitigen Effekte werden in der relevanten Literatur vollständig ausgeblendet. In Kapitel 4 werden neukeynesianische Makromodelle für relativ geschlossene Volkswirtschaften (USA) und Währungsräume (Europäische Währungsgemeinschaft) verwand, um ein geeignetes makroökonomisches Design aus neukeynesianischer Perspektive abzuleiten. Das Model wird mittels eines Minimum Distance Ansatzes geschätzt (Christiano, Eichnbaum, Evans, 2005). Es lassen sich folgende Ergebnisse zusammenfassen. Für die USA wurde gezeigt, dass das neukeynesianische Modell eine ausgewogene Mischung aus rückwertsschauenden und vorausschauenden Akteuren benötigt, um die Daten adäquat abzubilden. Der Schwerpunkt der amerikanischen Notenbankpolitik liegt auf der Stabilisierung der Inflationsrate um das Inflationsziel. Darüber hinaus führt die Implementierung einer stabilisierenden Regel zu sich selbst stabilisierenden Erwartungen und dadurch zu einem stabileren Konjunkturzyklus. Für den Euroraum wurde untersucht, ob der Stabilitäts- und Wachstumspakt die Risiken und Chancen die eine aktivistische Fiskalpolitik beinhaltet hinreichend austariert. Hierbei kommt der Verfasser zu dem Ergebnis, dass die gegenwärtige Ausgestaltung des Stabilitäts- und Wachstumspaktes keine tragfähige Lösung darstellt, da bei realistischen Annahmen über die Größe und Verteilung der Störgrößen es sehr wahrscheinlich ist, dass sachlich ungerechtfertigte Sanktionsmechanismen gegen einzelne Teilnehmerstaaten in Gang gesetzt werden. Insofern schlägt der Verfasser vor, den Stabilitäts- und Wachstumspakt dahingehend zu ändern, dass man nicht auf die fiskalpolitische Instrumentenebene abstellt, sondern auf die Zielebene. Sanktionen sollten demnach nur dann verhangen werden, wenn simultan hohe Inflationsraten und hohe Defizite attestiert werden können. Dieser „Inflation-Targeting“ Ansatz reduziert die Wahrscheinlichkeit, dass irrtümlicherweise Sanktionen verhangen werden. Im abschließenden Kapitel werden die zentralen Einsichten zusammengefasst. Hierbei wird noch einmal darauf verwiesen, dass Schätzungen darauf hindeuten (Canzoneri, Cumby and Diba, 2004), dass ein repräsentativer Haushalt bereit wäre bis zu drei Prozent seines Einkommens für eine wirksame Stabilisierungspolitik zu zahlen. Literaturhinweise CANZONERI, MATHEW B., ROBERT E CUMBY, AND BEHZAD T. DIBA (2004), The Costs of Nominal Inertia in NNS Models, NBER Working Paper No. 10889, November 2004. CHRISTIANO, J. LARRY, MARTIN EICHENBAUM, AND CHARLES EVANS (2005), Nominal Rigidities and the Dynamic Effects of a Shock to Monetary Policy, Journal of Political Economy, vol.113, no.1, pp. 1-45. DIXIT, AVINASH K, AND LUISA LAMBERTINI (2003), Symbiosis of Monetary and Fiscal Policies in a Monetary Union, Journal of International Economics, vol. 60 no. 2, pp. 235-247. WOODFORD, MICHAEL (2003), Interest and Prices, Foundations of a Theory of Monetary Policy, Princeton University Press, Princeton 2003.
16

Monetary Policy in China: Institutions, Targets, Instruments and Strategies / Geldpolitik in China: Institutionen, Ziele, Instrumente und Strategien

Geiger, Michael January 2010 (has links) (PDF)
China’s monetary policy aims to reach two final targets: a paramount economical target (i.e. price stability) and a less important political target (i.e. economic growth). The main actor of monetary policy is the central bank, the People’s Bank of China (PBC). But the PBC is a non-independent central bank. The State Council approves the goals of monetary policy. Very limited instrument independence means that interest rates cannot be set at the PBC’s discretion, and in-sufficient personal independence fails to insulate central bank officials from political influence. Monetary policy in China applies to two sets of monetary policy instruments: (i) instruments of the PBC; and (ii) non-central bank policy instruments. The instruments of the PBC include price-based indirect and quantity-based direct instruments. Non-central bank policy instruments include price and wage controls. The simultaneous usage of all these instruments leads to various distortions that ultimately prevent the interest rate channel of monetary transmission from functioning. Moreover, the strong influences of quantity-based direct instruments and non-central bank policy instruments bring into question the approach of indirect monetary policy in general. The PBC officially follows the monetary targeting approach with monetary aggregates as intermediate targets. Domestic loan growth and the exchange rate are defined as additional intermediate targets. In an in-depth analysis of the intermediate targets two main issues are primarily explored: (i) Are the intermediate targets of the Chinese monetary policy controllable? (ii) Is a sufficient relationship between these targets and the inflation rate observable? It is then shown that monetary aggregates are very difficult to control, but they have a satisfactory relationship with the inflation rate. Similarly, domestic loan growth is difficult to control – a fact largely attributed to the interest rate elasticity of loans – while there is a particularly close relationship between credit growth and the inflation rate. The exchange rate as an intermediate target can be controlled through foreign exchange market interventions; at the same time the exchange rate appears to have a significant relationship to the domestic inflation rate. Discussing the special issue of sterilizing foreign exchange inflows, the study concludes that between 2002 and 2008 not only no costs were incurred by sterilization operations, but that the central bank was actually able to realize a profit through foreign exchange market interventions. Based on this, it is concluded that the exchange rate target has not adversely affected the domestic orientation of monetary policy on the whole. The final part of the study examines whether there are any alternative monetary policy approaches that may be able to describe the policy approach in China; special focus is placed on nominal GDP targeting, the Taylor rule, and inflation targeting. A literature review reveals that the concept of nominal GDP targeting may be able to detect inflationary tendencies in the economy and, in combination with other indicators, it could be a suitable concept to assess the overall economic situation. The author calculates a Taylor rule for China from 1994 to 2008 and concludes that there is no close relationship between the PBC lending and the Taylor rate. The author then designs an augmented Taylor rule expanded to include a credit component (credit-augmented Taylor rule). The study shows that the augmented Taylor rule does not perform much better than the original one, but that it maps high inflationary periods relatively well. This is attributed to direct interventions into the credit markets, which have played a major role in combating inflationary cycles over the past decades. The analysis ends with an introduction of the concept of inflation targeting and an examination of whether this could describe monetary policy in China. It is clear that the PBC does not currently follow the inflation targeting approach, although the Chinese authorities could actually be able to influence inflation expectations effectively, not least through direct instruments such as price controls. The author notes that the PBC indeed had a good track record of fighting inflation between 1994 and 2008, and that this may now indicate a good time to think about introducing inflation targeting in China. The central conclusion of the study is that the proven gradual approach to economic and monetary reforms in China is reaching its limit. To break the vicious cycle that relies on the continuous use of quantity-based instruments to compensate for the ineffective price-based instruments – which in turn arises from the simultaneous use of both types of instruments – a complete shift away from quantity-based instruments is needed. Only then the approach of indirect monetary policy, which was officially introduced in 1998, could come into full play. / Chinas Geldpolitik verfolgt zwei Endziele: Ein alles überragendes wirtschaftliches Ziel (d.h. Preisstabilität) und ein weniger wichtiges politisches Ziel (d.h. Wirtschaftswachstum). Der Hauptakteur der Geldpolitik ist die Zentralbank, die People's Bank of China (PBC). Aber die PBC ist eine nicht-unabhängige Zentralbank. Der Staatsrat genehmigt die Ziele der Geldpolitik, und eine sehr begrenzte Instrumenten-Unabhängigkeit bedeutet, dass die Zinsen nicht vollständig nach dem Ermessen der PBC festgelegt werden können. Die ungenügende personelle Unabhängigkeit der Zentralbank schafft es nicht, die Amtsträger dem politischen Einfluss zu entziehen. Der Geldpolitik in China stehen zwei Arten von geldpolitischen Instrumenten zur Verfügung: (i) Instrumente der PBC; und (ii) Politische nicht-Notenbank Instrumente. Die Instrumente der PBC beinhalten preis-basierte indirekte und quantität-basierte direkte Instrumente. Zu den politischen nicht-Notenbank Instrumenten zählen Preis- und Lohnkontrollen. Die gleichzeitige Nutzung dieser Instrumente führt zu vielerei Verzerrungen, die letztlich verhindern, dass der Zinskanal des monetären Transmissionsmechanismus funktionieren kann. Darüber hinaus stellen die starken Einflüsse der quantität-basierten direkten Instrumente und der politischen nicht-Notenbank Instrumente den Ansatz der indirekten Geldpolitik im Allgemeinen in Frage.
17

Three Essays on the Enforcement of Accounting Standards in Germany / Drei Studien zur Durchsetzung der Rechnungslegung in Deutschland

Strohmenger, Manuel January 2014 (has links) (PDF)
The dissertation at hand focuses on the enforcement of accounting standards in Germany. The legal basis of the external enforcement of accounting standards in Germany was created by the „Bilanzkontrollgesetz” (Financial Reporting Enforcement Act) at the end of 2004. An enforcement mechanism was installed to enforce accounting standard compliance by regular reviews of disclosed financial statements. The system was established as implementation of EU guidelines. Since 2005, International Financial Reporting Standards (IFRS) shall be applied for consolidated financial statement of firms listed on a regulated market segment within the European Union (EU) (Regulation EC No. 1606/2002). Simultaneously to the harmonization of accounting standards, the EU fostered the standardization of enforcement systems to ensure compliance with international accounting standards. Par. 16 of the so-called “IAS Regulation” mandates the “Committee of European Securities Regulators” (CESR) to “develop a common approach to enforcement". Germany’s unique two-tiered system operates since July 2005; it involves the “Deutsche Pruefstelle fuer Rechnungslegung” (Financial Reporting Enforcement Panel), a newly established private organization primarily assigned to conduct the reviews. As the second tier, the „Bundesanstalt fuer Finanzdienstleistungsaufsicht” (Federal Financial Supervisory Authority) has the sovereign authority to order the publication of errors („error announcements“) and if necessary, to force the cooperation of firms in the review process. The dissertation is structured as follows. A general introduction focuses on the theoretical background and the reasoning for the need of external enforcement mechanisms. The common approach to enforcement in the European Union is described. Building on this, the thesis consists of three individual essays that analyze three specific questions in the context of the enforcement of financial reporting standards in Germany. The first paper focuses on the systematical evaluation of the information contained in 100 selected error announcements (from a total population of 151 evaluable announcements). The study finds that error announcements on average contain 3.64 single errors and 77% affect the reported profit. Relatively small as well as big, highly levered and rather unprofitable firms are overrepresented in the sample of misstatement firms. In a second step, the essay investigates the development of censured firms over time; the pre- and post-misstatement development of the firms in terms of balance sheet data, financial ratios and (real) earnings management are tracked. The analysis detects increasing leverage ratios and a decline in profitability over time. In the year of misstatement firms report large total and discretionary accruals, indicating earnings management. Compared to matched control firms, significant differences in profitability, market valuation, earnings management and real activities manipulations are observable. A major contribution of this first study is the examination of trends in financial data and (real) earnings management over a number of years surrounding misstatements as well as the elaboration of the distinction to non-misstating firms. The results show the meaning of the enforcement of IFRS for the quality of financial reporting to standard setters, policy makers, and investors in Germany. The second paper examines the interrelation of enforcement releases, firm characteristics and earnings quality. Prior literature documents the correlation between underperformance in financial ratios and the probability of erroneous disclosure of financial statements; this study provides evidence for differences in characteristics between firms with enforcement releases and control firms as well as a broad sample of German publicly traded firms (4,730 firm-year observations). Furthermore, research affirms the connection of financial ratios to earnings quality metrics. The accuracy of financial information is considered to be correlated with its quality and therefore the differences in earnings quality between various sub-samples is examined. Overall, the results document the underperformance in important financial ratios as well as indicate an inferior earnings quality of firms subject to enforcement releases vis-a-vis the control groups. These results hold with regard to both different earnings quality specifications and different periods observed. This study appends the earnings quality discussion and contributes to develop a comprehensive picture of accounting quality for the unique institutional settings of Germany. The paper shows that a conjoint two-tier public and private enforcement system is effective and might be an adequate model for other countries. Implications for the regulation of corporate governance, the enforcement panel and the auditor are identified. The third essay additionally considers the role of the auditor. The firms subject to error announcements are used to evaluate the consequences of increasing earnings management over time on enforcement releases and their recognition in audit fees. Prior literature provides evidence on a phenomenon called „balance sheet bloat” that is due to income increasing earnings management and later influences the disclosure of misstated financial statements. The evidence of earnings management recognition in audit fees and findings on the content of future information in audit fees leads to the hypothesis that auditors recognize increasing audit risk in fees before the enforcement process starts. The study extends related earnings management and audit fee literature by modeling the development of earnings management within the misstatement firms and systematically link it to auditor reactions. Significant predictive power of different commonly used accrual measures for enforcement releases in the period prior and up to the misstatement period are found by the study. In the same period of time an increase in audit fees, e.g. the recognition of increased audit risk, can be observed. A possible audit fee effect after the misstatement period is investigated, but no significant relation is obtained. The dissertation closes with a summary of the main findings, a conclusion to the connection of the three essays as well as subsumption of findings in the accounting literature. / Die vorliegende Dissertation befasst sich mit der Prüfung der Rechnungslegung von deutschen Unternehmen (Enforcement). Die gesetzliche Grundlage des Enforcement-Verfahrens wurde durch das Bilanzkontrollgesetz von 2004 geschaffen; es soll die Einhaltung der Rechnungslegungsstandards (insbesondere der International Financial Reporting Standards (IFRS)) durch regelmäßige Durchsicht und Prüfung der offengelegten Rechnungslegung durchsetzen. Das System wurde als Umsetzung einer EU-Verordnung eingeführt: Seit 2005 müssen kapitalmarktorientierte Unternehmen mit Sitz in der EU die IFRS bei der Erstellung ihrer Konzernabschlüsse anwenden. (Verordnung EG Nr. 1606/2002). Zeitgleich zur Harmonisierung der anzuwendenden Rechnungslegungsstandards strengte die EU eine Standardisierung der Durchsetzung (Enforcement) dieser Normen an, um deren Einhaltung zu garantieren. Absatz 16 der oben genannten „IAS-Verordnung“ beauftragt die europäische Wertpapierregulierungsbehörde (CESR) „ein gemeinsames Konzept für die Durchsetzung zu entwickeln“. Das einzigartig ausgestaltete deutsche Enforcement-System ist seit Juli 2005 in Kraft gesetzt. Die neue gegründete, privatrechtlich organisierte Deutsche Prüfstelle für Rechnungslegung (DPR) prüft in erster Instanz die Rechnungslegung der Unternehmen. Auf einer zweiten Stufe ist die, mit hoheitlichen Mitteln ausgestattete, Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) beteiligt. Sie kann die Kooperation der Unternehmen verfügen und die Veröffentlichung von aufgedeckten Verstößen verbindlich anordnen. Die vorliegende Dissertation ist wie folgt strukturiert: Eine allgemeine Einführung zeigt theoretischen Hintergründe auf und legt die Begründung für die Notwendigkeit einer strikten Durchsetzung von Rechnungslegungsstandards dar. Des Weiteren werden die gesetzlichen Grundlagen des Enforcements aus einer europäischen Perspektive aufgezeigt. Hierauf aufbauend werden in drei Studien spezielle Fragestellungen im Kontext des deutschen Enforcement-Verfahrens analysiert. Die erste Studie konzentriert sich zunächst auf die systematische Auswertung der Information, die in den 100 veröffentlichten Fehlermitteilungen aus dem Enforcement-Verfahren (151 Fehlermitteilungen wurden zur Evaluierung herangezogen) enthalten ist. Diese Mitteilungen beinhalten im Durchschnitt 3,64 einzelne Fehler; sowohl relativ kleine als auch sehr große, hoch verschuldete und relativ unprofitable Unternehmen sind in dieser Stichprobe überrepräsentiert. In einem zweiten Schritt wird die zeitliche Entwicklung dieser Unternehmen näher betrachtet. Bilanzielle Daten und Kennzahlen sowie das Ausmaß an realer und buchmäßiger Bilanzpolitik werden von den Jahren vor einer Fehlerveröffentlichung, bis in die Zeit nach der Veröffentlichung ausgewertet. Diese Analyse zeigt ein ansteigendes Maß an Verschuldung und eine Abnahme der Profitabilität der Unternehmen. Im Jahr der fehlerhaften Rechnungslegung zeigt sich ein hohes Maß an totalen sowie diskretionären Periodenabgrenzungen, ein Hinweis auf ausgeprägte Bilanzpolitik. Verglichen mit Kontrollunternehmen werden signifikante Unterschiede bezüglich der Profitabilität, der Bewertung am Kapitalmarkt und der Bilanzpolitik deutlich. Die Studie leistet eine Beitrag zur vorhanden Literatur, da sie erstmals die bilanziellen Daten und das Ausmaß an Bilanzpolitik der zur Veröffentlichung von Fehlern gezwungenen Unternehmen im Zeitablauf betrachtet und systematisch auswertet. Auch werden Unterschiede zu nicht fehlerhaft berichtenden Unternehmen aufgezeigt. Die Ergebnisse zeigen die hohe Bedeutung der konsequenten Durchsetzung der Rechnungslegungsnormen für die Qualität der Finanzberichte. Die Erkenntnisse sind von Interesse für die internationalen Regulierungsbehörden, die national Politik und für Investoren am Kapitalmarkt. Die zweite Studie untersucht das Zusammenspiel des Enforcements, bzw. der Fehlerveröffentlichungen, mit finanziellen Kennzahlen und der Ergebnisqualität (Earnings Quality) der Unternehmen. Die wissenschaftliche Literatur liefert empirische Ergebnisse, dass die Offenlegung von fehlerhafter Rechnungslegung stark mit schlechten Finanzkennzahlen korreliert ist. Dieses zweite Papier liefert dazu Erkenntnisse im deutschen Kontext: Die Kennzahlen der von der DPR beanstandeten Unternehmen werden mit denen von Kontrollfirmen sowie allen am geregelten Markt gehandelten Unternehmen (4.730 Firmenjahre) verglichen und Unterschiede herausgearbeitet. Des Weiteren zeigen vorausgegangene Studien den Zusammenhang zwischen Finanzkennzahlen und der Ergebnisqualität. Folglich wird in dieser Studie der Zusammenhang zwischen Richtigkeit der veröffentlichten Informationen und den akademischen Maßgrößen zu deren Qualität betrachtet. Die Ergebnisse zeigen sowohl das schlechtere Abschneiden der „DPR-Unternehmen“ im Sinne der finanziellen Kennzahlen, als auch eine schlechtere Ergebnisqualität der Rechnungslegung im Verglich zu Kontrollunternehmen. Diese Erkenntnisse sind stabil gegenüber Variationen der Messgrößen der Ergebnisqualität sowie gegenüber Veränderungen des Beobachtungszeitraums. Die Resultate tragen zur Diskussion um die Ergebnisqualität bei und ergänzen die wissenschaftliche Forschung hin zu einem umfassenden Bild der Qualität der Rechnungslegung in Deutschland. Die Studie zeigt, dass sich das deutsche Enforcement-Modell, mit privatrechtlich gestalteter DPR und staatlich organisierter BaFin, auch für eine Übertragung auf andere Länder eignen könnte. Die dritte Studie befasst sich mit der Effektivität des deutschen Enforcement-Systems, dem Einfluss von Bilanzpolitik und dessen Antizipation in den Prüfungskosten der Wirtschaftsprüfer. Die Untersuchung analysiert den zeitlichen Aspekt von Bilanzpolitik auf Fehlerveröffentlichungen in späteren Perioden. Es besteht die Möglichkeit die Verschlechterung der wirtschaftlichen Situation eines Unternehmens durch Bilanzpolitik zu verdecken. Ohne Verbesserung der wirtschaftlichen Lage des Unternehmens führt dieses Verhalten zu einem Bilanzpolitikausmaß außerhalb des gesetzlichen Rahmens und folglich zu einer hohen Wahrscheinlichkeit der Fehlerentdeckung bei DPR Untersuchungen. Die Entwicklung der Bilanzpolitik eines solchen Unternehmens müsste im zweiten Schritt mit der Risikokomponente in den Prüfungskosten des Wirtschaftsprüfers in Verbindung stehen. Der risikoorientierte Prüfungsansatz und die Antizipation von Bilanzpolitik in den Prüfungskosten sollte demnach vor Fehlerbekanntmachung zu einem Anstieg der Prüfungskosten führen. Zusätzlich ist nach offizieller Fehlerveröffentlichung und somit durch eine objektiv beobachtbare Schwäche im Rechnungslegungssystem oder einem hohen Ausmaß an Bilanzpolitik ein Risikoaufschlag zu vermuten. Im letzten Kapitel werden die wichtigsten Aussagen und Erkenntnisse der Dissertation zusammengefasst sowie in abschließenden Bemerkungen der Zusammenhang der Ergebnisse erläutert.
18

Essays in Industrial Organization: Intermediation, Marketing, and Strategic Pricing / Aufsätze in Industrieökonomik: Intermediation, Marketing und Strategische Preissetzung

Wismer, Sebastian January 2013 (has links) (PDF)
This dissertation deals with certain business strategies that have become particularly relevant with the spread and development of new information technologies. The introduction explains the motivation, discusses different ways of defining the term "two-sided market", and briefly summarizes the subsequent essays. The first essay examines the effects of product information on the pricing and advertising decision of a seller who offers an experience good whose quality is unknown to consumers prior to purchase. It comprises of two theoretical models which differ with respect to their view on advertising. The analysis addresses the question how the availability of additional, potentially misleading information affects the seller's quality-dependent pricing and advertising decision. In the first model, in which both advertising and product reviews make consumers aware about product existence, the seller's optimal price turns out to be increasing in product quality. However, under certain circumstances, also the seller of a low-quality product prefers setting a high price. Within the given framework, the relationship between product quality and advertising depends on the particular parameter constellation. In the second model, some consumers are assumed to interpret price as a signal of quality, while others rely on information provided by product reviews. Consequently, and differently from the first part, pricing may indirectly inform consumers about product quality. On the one hand, in spite of asymmetric information on product quality, equilibria exist that feature full information pricing, which is in line with previous results presented by the signaling literature. On the other hand, potentially misleading product reviews may rationalize further pricing patterns. Moreover, assuming that firms can manipulate product reviews by investing in concealed marketing, equilibria can arise in which a high price signals low product quality. However, in these extreme cases, only a few (credulous) consumers consider buying the product. The second essay deals with trade platforms whose operators not only allow sellers to offer their products to consumers, but also offer products themselves. In this context, the platform operator faces a hold-up problem if he sets classical two-part tariffs (on which previous literature on two-sided markets focussed) as potential competition between the platform operator and sellers reduces platform attractiveness. Since some sellers refuse to join the platform, products whose existence is not known to the platform operator in the first place and which can only be established by better informed sellers may not be offered at all. However, revenue-based fees lower the platform operator's incentives to compete with sellers, increasing platform attractiveness. Therefore, charging such proportional fees can be profitable, what may explain why several trade platforms indeed do charge proportional fees. The third essay examines settings in which sellers can be active both on an intermediary's trade platform and in other sales channels. It explores the sellers' incentives to set different prices across sales channels within the given setup. Afterwards, it analyzes the intermediary's tariff decision, taking into account the implications on consumers' choice between different sales channels. The analysis particularly focusses on the effects of a no-discrimination rule which several intermediaries impose, but which appears to be controversial from a competition policy view. It identifies under which circumstances the intermediary prefers restricting sellers' pricing decisions by imposing a no-discrimination rule, attaining direct control over the split-up of customers on sales channels. Moreover, it illustrates that such rules can have both positive and negative effects on welfare within the given framework. / Die vorliegende Dissertation beschäftigt sich mit ausgewählten Unternehmensstrategien, die insbesondere mit der Entwicklung neuer Informationstechnologien verbreitet Anwendung finden. In der Einleitung wird die Motivation dargelegt und kurz auf Definitionsmöglichkeiten des Begriffs "zweiseitiger Markt" eingegangen sowie eine knappe Zusammenfassung der nachfolgenden Essays gegeben. Der erste Essay beschäftigt sich mit dem Einfluss von Produktinformationen auf die Preis- und Werbeentscheidung des Anbieters eines Erfahrungsgutes dessen Qualität potenzielle Käufer vor dem Kauf nicht kennen. In zwei Modellen, welche sich insbesondere in der vorherrschenden Rolle von Werbung unterscheiden, wird analysiert, wie sich die Verfügbarkeit von zusätzlichen Informationen, welche allerdings möglicherweise irreführend sein können, auf die von der tatsächlichen Produktqualität abhängige Preissetzung und Werbeinvestition auswirkt. Im ersten Modell, in welchem unterstellt wird, dass sowohl Werbung als auch andere Produktinformationen auf die Existenz von Produkten aufmerksam machen, stellt sich heraus, dass der vom Anbieter gewählte Preis positiv mit der tatsächlichen Qualität zusammenhängt, allerdings unter gewissen Umständen ein Anbieter eines Produkts niedriger Qualität profitabel einen hohen Preis setzen kann. Der Zusammenhang zwischen Produktqualität und Werbung hängt von der vorliegenden Parameterkonstellation ab. Im zweiten Modell wird - anders als zuvor - angenommen, dass die Preissetzungsentscheidung indirekt Informationen bzgl. der Produktqualität vermitteln kann, d.h. einige Konsumenten den Preis als Signal interpretieren, während andere Konsumenten ihre Einschätzung über Produktqualität direkt aus evtl. verfügbaren anderen Informationen beziehen. Einerseits ergibt sich unter bestimmten Umständen das aus der Signalisierungsliteratur bekannte Ergebnis, dass sich trotz asymmetrischer Information dieselben Preise wie unter vollständiger Information einstellen können. Andererseits zeigt sich, dass sich bei möglicherweise irreführender Produktinformation weitere Preissetzungsmuster ergeben können. Darüber hinaus wird unterstellt, dass Unternehmen durch unbeobachtbare Marketinginvestitionen Einfluss auf Produktinformationen nehmen können, was im Extremfall dazu führen kann, dass ein hoher Preis niedrige Produktqualität signalisiert, wobei bei diesem Preis nur ein Teil der Konsumenten einen Kauf in Betracht zieht. Im zweiten Essay werden Handelsplattformen untersucht, welche die spezielle Eigenschaft haben, dass deren Betreiber nicht nur Verkäufern die Möglichkeit einräumen, Käufern über die Plattform Produkte anzubieten, sondern auch selbst Produkte als Händler vertreiben können. Es wird zunächst aufgezeigt, dass im unterstellten Rahmen unter den bisher von der Literatur schwerpunktmäßig behandelten klassischen zweistufigen Tarifen das Problem besteht, dass der drohende Wettbewerb zwischen Plattformbetreiber und Verkäufern die Plattform unattraktiv macht. Produkte, auf die der Plattformbetreiber erst durch Beitritt von anderen Verkäufern aufmerksam wird, werden somit möglicherweise nicht angeboten, da sich zu wenige Verkäufer der Plattform anschließen. Es wird jedoch aufgezeigt, dass umsatzabhängige Gebühren dazu führen, dass der Plattformbetreiber seltener in Wettbewerb mit Händlern tritt, und deren Einsatz daher profitabel sein kann. Dies liefert eine neue Erklärung dafür, warum insbesondere Handelsplattformen tatsächlich umsatzabhängige Gebühren verlangen. Der dritte Essay beschäftigt sich wiederum mit Handelsplattformen, betont aber, dass Verkäufer parallel auch weitere Vertriebskanäle nutzen können. Nachdem im gegebenen Rahmen mögliche Ursachen dafür aufgezeigt wurden, dass Verkäufer in verschiedenen Vertriebskanälen unterschiedliche Preise setzen, wird die Tarifentscheidung des Plattformbetreibers und deren Einfluss auf die Nutzung der verschiedenen Vertriebswege untersucht. Insbesondere wird die Wirkung von sog. Nichtdiskriminierungsregeln analysiert, welche in der Realität zu beobachten, aber wettbewerbspolitisch umstritten sind. Es wird identifiziert, unter welchen Umständen der Plattformbetreiber die Preissetzung von Verkäufern mit einer solchen Regel einschränkt, welche ihm insbesondere erlaubt, die Nutzung der verschiedenen Vertriebswege direkt zu kontrollieren. Darüber hinaus wird gezeigt, dass diese Regeln im gegebenen Rahmen sowohl positive als auch negative Folgen haben können.
19

Das Economic Lot Scheduling Problem bei überlappender Fertigung – Berücksichtigung von Transportvorgängen bei simultaner Losgrößen- und Reihenfolgeplanung mit zyklischen Auflagemustern / Lot streaming in the Economic Lot Scheduling Problem – Considering sub-batch shipments for a simultaneous lot-sizing and scheduling problem with cyclic patterns

Feser, Florian January 2016 (has links) (PDF)
Die Produktionsplanung und -steuerung (PPS) ist für nahezu jedes fertigende Unternehmen – sowohl im Hinblick auf Lagerbestands- und Kostenoptimierung, als auch für eine termintreue Lieferbereitschaft sowie die dadurch bedingte Kundenzufriedenheit – von zentraler Bedeutung und leistet somit einen erheblichen Beitrag für den Erhalt bzw. den Ausbau der Wettbewerbsfähigkeit. Dabei stellen die Interdependenzen der verschiedenen Teilbereiche innerhalb der PPS sowie zwischen den vor- und nachgelagerten Planungsaufgaben eine – im Zuge der zunehmend angestrebten Integration der gesamten Wertschöpfungskette – immer größer werdende Herausforderung dar. Diese Arbeit widmet sich mit der Planungsaufgabe der Ermittlung kostenminimaler Losgrößen bei simultaner Festlegung der optimalen Produktionsreihenfolge (Economic Lot Scheduling Problem (ELSP) oder Lossequenzproblem) einem zentralen Teilbereich der PPS. Diese Problemstellung ist insbesondere für den Fall einer Serien- und Sortenfertigung von Relevanz, bei dem mehrere, artverwandte Erzeugnisse im Wechsel auf einer Fertigungsanlage mit beschränkter Kapazität bearbeitet werden. Da die Bestimmung der Fertigungslosgrößen und der Produktionsreihenfolge bei der Ermittlung einer überschneidungsfreien Maschinenbelegung unmittelbar miteinander korrelieren, sollte deren Planung zur bestmöglichen Ausnutzung der Kapazitäten und Minimierung der Kosten nicht sukzessiv, sondern weitestgehend simultan erfolgen. Durch diesen Zusammenhang entsteht eine im Allgemeinen nicht triviale und lediglich mittels spezieller Heuristiken adäquat lösbare Planungsaufgabe. Letztere soll in dieser Arbeit um die Möglichkeit des Lossplittings im Sinne einer überlappenden Fertigung (Teil- oder Transportlosbildung) erweitert werden. Dieses logistische Konzept innerhalb der Produktion geht im Allgemeinen sowohl mit einer Verkürzung der Durchlaufzeiten, als auch mit einer Verringerung der Lagerbestände einher. Vor diesem Hintergrund findet eingangs zunächst eine allgemeine Einordung bzw. Abgrenzung der Aufgaben und des Umfelds der simultanen Losgrößen- und Reihenfolgeplanung im Rahmen der PPS statt. Anschließend werden die prinzipiell unterschiedlichen Ansätze zur Lösung des ELSP, mit ihren jeweils individuellen Annahmen und Eigenschaften dargestellt. Hierbei wird insbesondere auf die chronologische Entwicklung des Basisperiodenansatzes (BPA) in der Literatur eingegangen, da dieser im weiteren Verlauf der Arbeit eine zentrale Rolle einnimmt. Abschließend werden die Zusammenhänge zwischen den strukturell verschiedenen Lösungsansätzen zum ELSP nochmals zusammenfassend erörtert sowie eine Auswertung zu deren relativer Verbreitung in der wissenschaftlichen Literatur präsentiert. Nach der Erörterung zweier alternativer Lagerhaltungsmodelle zur Berücksichtigung von Lossplitting im Sinne einer überlappenden Fertigung bildet deren Integration in ausgewählte Lösungsansätze zum ELSP den Hauptteil der Arbeit. Hierfür wird zur Identifizierung und Eingrenzung potentiellen Forschungsbedarfs zunächst ein dedizierter Literaturüberblick gegeben, der eine Kategorisierung der bis dato im engeren Sinne relevanten Veröffentlichungen beinhaltet. Die daraus abgeleiteten Forschungsziele bzw. -fragen werden anschließend in fünf Punkten konkretisiert und beinhalten im Kern die Entwicklung von Modellen zur Berücksichtigung des Lossplittings im ELSP. Dabei wird sowohl das Common Cycle Modell (CCM), als auch der Ansatz variierender Losgrößen (TVL) einbezogen, jedoch steht vor allem eine Heuristik nach dem BPA im Fokus der Ausführungen. Des Weiteren werden bestehende Ansätze zur Integration der Teillosbildung im CCM aus einer neuen Perspektive betrachtet und bezüglich eines eventuellen Optimierungspotentials des Lösungswegs analysiert. Zu den neu entwickelten bzw. erweiterten Modellen werden für die Lösungsfindung Algorithmen formuliert und implementiert, die für beide Alternativen der Teillosbildung eine für alle Produkte einheitliche oder sortenindividuelle Transporthäufigkeit erlauben. Die Evaluation der entwickelten Modelle erfolgt sowohl anhand von ausgewählten Referenzdatensätzen aus der Literatur als auch auf Basis von insgesamt 4000 zufallsgenerierten Parameterkonstellationen. Dabei liegt der Schwerpunkt der Auswertungen auf einer Ergebnisanalyse hinsichtlich der Höhe des Kosteneinsparungspotentials, das durch die Teillosbildung im BPA zum einen gegenüber der „geschlossenen Fertigung“ und zum anderen im Vergleich zu bestehenden Ansätzen mit Lossplitting im CCM erzielbar ist. Die diesbezüglich gewonnenen Erkenntnisse sowie weitere, aus den Resultaten ableitbare Zusammenhänge werden umfassend diskutiert und interpretiert, so dass letztendlich eine Grundlage zur Ableitung von Handlungsempfehlungen gelegt wird. Die Arbeit schließt mit einem Resümee und der kritischen Würdigung der Forschungsziele bzw. -fragen sowie einem Ausblick auf weiteren Forschungsbedarf. / This work studies the Economic Lot Scheduling Problem (ELSP) under consideration of transportation processes in terms of lot streaming. Thus, inventory models with equal- and unequal sized sub-batches with global or sort- respectively position-specific transportation frequencies are integrated in the following ELSP solution approaches: (1) the Common Cycle Model of Hanssmann, (2) the Basic Period Approach of Haessler and (3) the Time-Varying Lot-Sizes Approach of Dobson. The new developed mathematical models are then implemented and illustrated using reference data sets as well as 4000 randomly generated data sets. The results are analysed and evaluated with a main focus on the cost efficiency (1) against a closed batches process (where only complete lots are transferred to the next stage) and (2) between the three considered ELSP solution approaches with the different opportunities of sub-batches and transportation frequencies.
20

Betriebswirtschaftliche Wissenspakete als Informationsträger der Softwareadaption

Hennermann, Frank January 2001 (has links) (PDF)
Moderne betriebswirtschaftliche Softwarelösungen speichern in den Systemeinstellungen und Tabelleneinträgen eine sehr große Menge des unternehmensspezifischen Wissens über Geschäftsabläufe und Organisationsstrukturen. Der vermehrte Einsatz unterschiedlicher Lösungen zur Abbildung der internen Prozesse auf der einen und zur Öffnung der Geschäftstätigkeiten im Bereich des Electronic Business (e-Business) auf der anderen Seite stellt neue Heraus-forderungen an die Methoden und Konzepte zur Einführung bzw. Betreuung der eingesetzten Systeme. Im Rahmen der Arbeit wird untersucht, welche Schritte notwendig sind, um eine transparente Speicherung und Nutzung des vorhandenen Wissens sowie der gesammelten Informationen system- bzw. methodenübergreifend sicherzustellen und wie die bestehenden Ansätze aus dem Bereich der Softwareadaption in den Gesamtkontext integriert werden können. Kernpunkte sind die methodische Unterstützung einer zielgerichteten Navigation durch die Informationsflut und die Entwicklung eines geeigneten Instrumentariums, das in der Lage ist, heterogene Softwarelandschaften abzubilden und als Dokumentationsbasis für zukünftige Systemmodifikationen zu dienen.

Page generated in 0.4135 seconds