• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 128
  • 98
  • 61
  • 41
  • 12
  • 11
  • 4
  • 3
  • 2
  • 1
  • Tagged with
  • 567
  • 141
  • 132
  • 122
  • 121
  • 114
  • 114
  • 113
  • 111
  • 110
  • 109
  • 108
  • 108
  • 93
  • 86
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Empirical studies in trade, structural change and growth

John, Allyson Alisha January 2016 (has links)
There is a general consensus regarding the positive relationship between trade and productivity growth. Openness to trade encourages an efficient allocation of the factors of production within that trade. This thesis encompasses three studies that analyse the relationships between trade policy and openness and economy-wide productivity growth and its components through different channels. In doing so, we attempt to add to the existing literature on international trade, while accounting for some observed shortcomings in the existing literature. Firstly, empirical studies examining relationships between trade, resource allocation and economy-wide productivity tend to focus only on developing economies and as such our studies comprise a mix of developed and developing nations. Furthermore, in the case of productivity growth, attention is usually biased in favour of looking at aggregate productivity, potentially missing important details at a disaggregated level. We account for this by conducting studies using disaggregated data so that we can identify any patterns or trends that may be masked by aggregate data. In addition to this, the trade-growth literature faces criticisms regarding its inability to identify an exogenous measure of trade and as such we employ the use of an exogenous instrument for trade to conduct a study on trade and productivity. In our first study (Chapter 2), we examine the relationship between trade liberalisation events and structural adjustment in employment and output. To conduct this study, we employ the 3-digit level of the International Standard Industrial Classification (ISIC), Revision 2 data for the manufacturing sector, covering the period 1976 to 2004 for a sample of 35 countries. We also investigate the conditioning effects of complementary policies, in particular institutional quality, on the trade-adjustment relationship. We use data on institutions from the Economic Freedom of the World Index. We find that the use of aggregate data indicates the absence of a systematic relationship between trade liberalisation and structural adjustment. However, through disaggregation, we find that the occurrence of a trade liberalisation event reduces adjustment in intermediate goods employment and output and increases adjustment in capital goods output. In our second study (Chapter 3), we use a panel of 38 countries and employ the 10-sector productivity database derived from the Groningen Growth and Development Centre (GGDC) for the period 1990 to 2005, in order to explain labour productivity gaps across developing regions. Specifically, we analyse patterns of economy-wide productivity and its two components across countries within Latin America, Africa and High-Income regional groupings. The first component, structural change, captures changing sectoral shares of employment as labour reallocates across sectors. The second component, the within component, captures the reallocation of resources within sectors as well as technological improvements occurring within sectors. Our findings suggest that differences in economic performances across regions are accounted for by negative structural change occurring in individual countries within these regions. This means a reallocation of employment from high productivity activities in favour of lower productivity ones, thereby contributing negatively to overall productivity growth. Furthermore external shocks such as falling oil prices appear to drive this type of growth reducing structural change. Finally in Chapter 4, we investigate the relationship between trade openness and economy-wide productivity and its structural change and within components as defined in Chapter 3. We use a panel of 38 countries, again employing the GGDC 10-sector productivity database for the period 1965 to 2006, along with the complete gravity dataset provided by Head, Mayer and Ries (2010). Our findings of this study support theories that suggest a positive relationship between trade and economy-wide productivity. Our results also indicate that it is the within component of economy-wide productivity that is driving this results.
212

The history of the book trade in Leicester to c1850

Hinks, John January 2002 (has links)
A study of the history of the book trade (printing, bookselling, stationery and publishing) in Leicester, from the medieval beginnings of the trade (parchment making etc. ) up to cl 850. The development of the book trade is examined in its local, regional and national contexts, including cultural, social and economic aspects, with the aim of contributing to the growing corpus of historical study of the provincial book trade in England, which has developed considerably over the last thirty years. Extensive use has been made of primary source material, not least the Borough Records of Leicester including the registers of freemen and apprentices, newspaper advertisements, extant locally-printed books and other material. More than three hundred book-trade individuals have been identified. The activities of the leading practitioners are explored, including the stock and services they provided, the economics of their trading activity, their standing in the town (many held civic office), and their interaction within the business community. The impact of the book trade and the printed word in Leicester are discussed, as are other significant aspects of the trade such as the importance of family businesses, the role of women, and the handing on of trade skills from master to apprentice. In the last decade of the eighteenth century and the first part of the nineteenth, the striking contrast between the conservatism of the old Corporation and the strident radicalism, and religious dissent, of many Leicester people provides a vibrant setting for the activities of booksellers, printers and newspaper publishers. Many of the town's leading book-trade practitioners were politically radical - an interesting and historically important dimension to the later development of the book trade in Leicester, to a degree seldom found elsewhere.
213

Sectoral systems of innovation : assessing the effect of firm age and strategic intent on system fit

McBride, Claire January 2014 (has links)
Innovation is fundamental to the firm and ultimately to national economic growth and stability. Systemic support for identified sectors assumes that innovation depends not only on how individual firm and non-firm actors perform but also on the dynamics of their interaction as parts of a system. To date, research within the Sectoral System of Innovation framework perceived fit as a function of enablement between the firm and the system based on industry type. This is problematic as assuming firms are homogenous overlooks the impact of critical micro level contingencies such as age and strategic intent in achieving fit, and in turn enabling innovation. Consistent with theory that organisational performance is a function of the fit between two or more factors within a system, this thesis departs from previous macro and meso system-level approaches by undertaking a micro level analysis of how fit is mediated by age and strategy contingencies in two contrasting sectors. Using interview and survey data of Irish software and manufacturing engineering companies, this represents the first empirical analysis of contingency-based system fit. This study reveals a detachment between the universality implied in the design of Sectoral Systems of Innovation and the heterogeneity of firm context. Importantly, this finding provides strong evidence supporting previously intuitive calls for policy makers to place greater emphasis on firm dynamics. The findings in relation to firm age and strategic intent demonstrate that the nature of value creation hinges significantly on firm-level contingencies. This new departure extends current thinking on Systems of Innovation by clearly demonstrating the effects of firm-level characteristics, adding to the explanatory breadth of the existing framework. This contribution to theory has important implications for both firm managers and policy makers, enabling more effective interventions in their efforts to drive and support innovation outcomes.
214

A cross-national comparative study of immigrant entrepreneurship in the United Kingdom, Denmark, and Norway : a qualitative investigation of business start-up experiences

Yasin, Naveed January 2014 (has links)
There is a significant need for a cross-national study in ethnic minority entrepreneurship, and in particular of a single migrant community's business start-up experiences across multiple national contexts (Basu, 2006; Greene, 1997; Ilhan-Nas et al., 2011; Legros et al., 2013; Light and Bhachu, 1993; Wood et al., 2012). This doctoral thesis provides a qualitative cross-national investigation concerning the business start-up experiences of immigrant Punjabi-Pakistani entrepreneurs and small business owners who have started businesses in three selected ethnic enclaves in the UK, Denmark, and Norway. This research builds on ethnic entrepreneurship theories by applying the mixed embeddedness perspective, push and pull theory, and the forms of capital approach to combine agency and structural perspectives for the purpose of developing a deeper and more holistic understanding of this phenomenon from the actors' perspectives. More precisely, this study comparatively draws on the enablers and constraints these migrants experience with respect to their migration context, business start-up motivations and the forms of capital available when starting a business in an ethnic enclave. This research draws on qualitative methods of inquiry through a social constructionist perspective by employing in-depth qualitative semi-structured interviews and observations of 45 immigrant Pakistani entrepreneurs and small business owners who have started businesses in the ethnic enclaves of Rusholme (Manchester, UK), Vesterbro (Copenhagen, Denmark) and Grønland (Oslo, Norway). The research access model proposed by Buchanan et al. (1988) is applied by using formal and informal methods to gain research access to these clustered but hard-to-reach communities based on a criterion sampling strategy. The data is analysed using qualitative Template Analysis to draw on thematic similarities and differences between the three sample groups represented in this study. The empirical finding of this study reveals that respondents in the UK experience more isolated and hostile business start-up experiences in comparison to respondents in Denmark and Norway. A closer examination across all three samples reveals sectoral and behavioural diversities among three different waves of migrants in their migration context and motivations for engaging in entrepreneurial activities and business start-up. The role of co-ethnic social capital is crucial to immigrant Pakistani entrepreneurs and small business owners in all three sample groups, and these are bound at a localised, regional, and transnational level. However, the national receptive context and structural features strongly influence and shape the migrants' entrepreneurial behaviour and experiences in the receiving society with respect to starting a business. This thesis provides qualitatively rich insights into immigrant business start-up experiences whilst also extending the spatial aspects in our understanding of immigrant entrepreneurship. The value of this thesis is inherent in its empirical focus on a disadvantaged community in new geographical territories, foregrounding of the respondents' perceptions, and innovative use of theoretical models from complementary disciplines.
215

The use of the Hypercube Queueing Model for the location optimization decision of Emergency Medical Service systems / Der Einsatz des Hypercube Queueing Modells zur optimalen Standortentscheidung von medizinischen Notfallsystemen

Blank, Felix January 2021 (has links) (PDF)
Die strategische Planung von medizinischen Notfallsystemen steht in einem unmittelbaren Zusammenhang mit der Überlebenswahrscheinlichkeit von betroffenen Patienten. Die Forschung hat zahlreiche Kenngrößen und Evaluationsparameter entwickelt, die zur Bewertung verwendet werden können. Darunter fallen beispielsweise die Reaktionszeit, die Systemauslastung, diverse Wartezeitenparameter sowie der Anteil der Nachfrage, der nicht unmittelbar bedient werden kann. Dabei ist das Hypercube Queueing Modell eines der am häufigsten verwendeten Modelle. Aufgrund seines theoretischen Hintergrundes und der damit verbundenen hohen notwendigen Rechenzeiten wurde das Hypercube Queueing Modell erst in der jüngeren Vergangenheit häufiger zur Optimierung von medizinischen Notfallsystemen verwendet. Gleichermaßen wurden nur wenige Systemparameter mit Hilfe des Modelles berechnet und das volle Potenzial demnach noch nicht ausgeschöpft. Die meisten der bereits vorhandenen Studien im Bereich der Optimierung unter Zuhilfenahme eines Hypercube Queueing Modells nutzen die zu erwartende Reaktionszeit des Systems als Zielparameter. Obwohl die Verwendung von diesem eine zumeist ausgeglichene Systemkonfiguration zur Folge hat, wurden andere Zielparameter identifziert. Die Verwendung des Hypercube Queueing Modells in den Modellen der robusten Optimierung sowie des robusten Goal Programmings haben versucht einen ganzheitlicheren Blick, durch die Verwendung von unterschiedlichen Tageszeiten, zu offerieren. Dabei hat sich gezeigt, dass das Verhalten von medizinischen Notfallsystemen sowie die Parameter stark von diesen abhängen. Daher sollte die Analyse und gegebenenfalls Optimierung dieser Systeme unterschiedliche Verteilungen der Nachfrage, in Abhängigkeit ihrer Menge und räumlichen Verteilung, unbedingt berücksichtigen um eine möglichst ganzheitliche Entscheidungsgrundlage zu garantieren. / The strategic planning of Emergency Medical Service systems is directly related to the probability of surviving of the affected humans. Academic research has contributed to the evaluation of these systems by defining a variety of key performance metrics. The average response time, the workload of the system, several waiting time parameters as well as the fraction of demand that cannot immediately be served are among the most important examples. The Hypercube Queueing Model is one of the most applied models in this field. Due to its theoretical background and the implied high computational times, the Hypercube Queueing Model has only been recently used for the optimization of Emergency Medical Service systems. Likewise, only a few system performance metrics were calculated with the help of the model and the full potential therefore has not yet been reached. Most of the existing studies in the field of optimization with the help of a Hypercube Queueing Model apply the expected response time of the system as their objective function. While it leads to oftentimes balanced system configurations, other influencing factors were identified. The embedding of the Hypercube Queueing Model in the Robust Optimization as well as the Robust Goal Programming intended to offer a more holistic view through the use of different day times. It was shown that the behavior of Emergency Medical Service systems as well as the corresponding parameters are highly subjective to them. The analysis and optimization of such systems should therefore consider the different distributions of the demand, with regard to their quantity and location, in order to derive a holistic basis for the decision-making.
216

Merger-specific Efficiency Gains / Fusionsbedingte Effizienzsteigerungen

Demmer, Claudia January 2019 (has links) (PDF)
The present thesis analyzes whether and - if so - under which conditions mergers result in merger-specific efficiency gains. The analysis concentrates on manufacturing firms in Europe that participate in horizontal mergers as either buyer or target in the years 2005 to 2014. The result of the present study is that mergers are idiosyncratic processes. Thus, the possibilities to define general conditions that predict merger-specific efficiency gains are limited. However, the results of the present study indicate that efficiency gains are possible as a direct consequence of a merger. Efficiency changes can be measured by a Total Factor Productivity (TFP) approach. Significant merger-specific efficiency gains are more likely for targets than for buyers. Moreover, mergers of firms that mainly operate in the same segment are likely to generate efficiency losses. Efficiency gains most likely result from reductions in material and labor costs, especially on a short- and mid-term perspective. The analysis of conditions that predict efficiency gains indicates that firm that announce the merger themselves are capable to generate efficiency gains in a short- and mid-term perspective. Furthermore, buyers that are mid-sized firms are more likely to generate efficiency gains than small or large buyers. Results also indicate that capital intense firms are likely to generate efficiency gains after a merger. The present study is structured as follows. Chapter 1 motivates the analysis of merger-specific efficiency gains. The definition of conditions that reasonably likely predict when and to which extent mergers will result in merger-specific efficiency gains, would improve the merger approval or denial process. Chapter 2 gives a literature review of some relevant empirical studies that analyzed merger-specific efficiency gains. None of the empirical studies have analyzed horizontal mergers of European firms in the manufacturing sector in the years 2005 to 2014. Thus, the present study contributes to the existing literature by analyzing efficiency gains from those mergers. Chapter 3 focuses on the identification of mergers. The merger term is defined according to the EC Merger Regulation and the Horizontal Merger Guidelines. The definition and the requirements of mergers according to legislation provides the framework of merger identification. Chapter 4 concentrates on the efficiency measurement methodology. Most empirical studies apply a Total Factor Productivity (TFP) approach to estimate efficiency. The TFP approach uses linear regression in combination with a control function approach. The estimation of coefficients is done by a General Method of Moments approach. The resulting efficiency estimates are used in the analysis of merger-specific efficiency gains in chapter 5. This analysis is done separately for buyers and targets by applying a Difference-In-Difference (DID) approach. Chapter 6 concentrates on an alternative approach to estimate efficiency, that is a Stochastic Frontier Analysis (SFA) approach. Comparable to the TFP approach, the SFA approach is a stochastic efficiency estimation methodology. In contrast to TFP, SFA estimates the production function as a frontier function instead of an average function. The frontier function allows to estimate efficiency in percent. Chapter 7 analyses the impact of different merger- and firm-specific characteristics on efficiency changes of buyers and targets. The analysis is based on a multiple regression, which is applied for short-, mid- and long-term efficiency changes of buyers and targets. Chapter 8 concludes. / Die Dissertation mit dem Titel 'Merger-specific Efficiency Gains' beschäftigt sich mit der Frage, ob und inwieweit Fusionen zu Effizienzsteigerungen der beteiligten Parteien beitragen. Die Analyse konzentriert sich dabei auf europäische Firmen im verarbeitenden Gewerbe, die im Zeitraum von 2005 bis einschließlich 2014 entweder als Käufer oder als Kaufobjekt an einer horizontalen Fusion beteiligt waren. Ergebnis dieser Dissertation ist, dass Fusionen einzigartige Prozesse sind. Allgemeingültige Aussagen hinsichtlich Zeitpunkt, Zeitraum und Umfang fusionsbedingter Effizienzgewinne sind daher nur bedingt möglich. Die Ergebnisse dieser Dissertation deuten darauf hin, dass Effienzgewinne als direkte Konsequenz einer Fusion möglich sind. Effizienzveränderungen können mithilfe einer Total Factor Productivity (TFP)-Methode gemessen werden. Signifikante fusionsbedingte Effizienzgewinne sind für gekaufte Unternehmen wahrscheinlicher als für Käufer. Desweiteren treten sie frühestens ab dem zweiten Jahr nach einer Fusion auf. Die Verschmelzung von zwei Unternehmen, die beide im gleichen Hauptsegment tätig sind, führt allerdings eher zu Effizienzverlusten als Effizienzgewinnen. Effizienzgewinne werden vor allem kurz- bis mittelfristig durch Veränderungen in den Material- und Personalkosten herbeigeführt. Insgesamt sind fusionsbedingte Effizienzgewinne eher von der Art der Firmen als von der Art der Fusion abhängig. Die Analyse der Gründe für fusionsbedingte Effizienzgewinne zeigt, dass Firmen, die die Information über die Fusion selber veröffentlichen, kurz- bis mittelfristig Effizienzgewinne generieren. Des Weiteren sind mittelgroße Käufer eher in der Lage Effizienzgewinne zu generieren als kleine oder große Käufer. Zudem zeigt die Untersuchung, dass kapitalintensivere Unternehmen häufig Effizienzgewinne nach einer Fusion generieren. Die Arbeit ist wie folgt strukturiert. In der Einleitung werden die Gründe für eine Beschäftigung mit der Frage nach fusionsbedingten Effizienzgewinnen dargelegt. Die Herausarbeitung von Faktoren, anhand derer sich der Zeitpunkt, der Umfang und der Zeitraum fusionsbedingter Effizienzgewinne bestimmen ließe, kann in der Praxis die Entscheidung für oder gegen eine Fusion erleichtern. Das zweite Kapitel beinhaltet einen Literaturüberblick über ausgewählte empirische Studien, die sich mit der Frage nach fusionsbedingten Effizienzgewinnen bereits befasst haben. Eine Studie, die horizontale Fusionen von europäischen Firmen im verarbeitenden Gewerbe zwischen 2005 und 2014 untersucht, liegt bisher nicht vor. Die vorliegende Arbeit leistet mit der Analyse von Effizienzgewinnen eben solcher Fusionen einen Beitrag zur vorhandenen Literatur. Das dritte Kapitel beschäftigt sich mit der Identifizierung von Fusionen. Die Fusionsdefinition entstammt der Europäischen Zusammenschlusskontrolle sowie den Richtlinien zur Bewertung horizontaler Fusionen. Anhand von Begriffsbestimmungen und festgelegten Kriterien schafft der europäische Gesetzgeber einen Rahmen zur Identifizierung von Fusionen. Im Fokus des vierten Kapitels steht die Effizienzschätzmethode. In empirischen Studien wird vorwiegend die TFP-Methode zur Schätzung der Effizienz eingesetzt. Die TFP-Methode bedient sich der ökonometrischen Methode der linearen Regression in Kombination mit einem Kontrollfunktionsansatz. Die Schätzung der Parameter erfolgt mit Hilfe der verallgemeinerten Momentenmethode. Die Ergebnisse der Effizienzschätzung gehen im fünften Kapitel in die Analyse fusionsbedinger Effizienzgewinne ein. Die Analyse erfolgt unter Zuhilfenahme der Difference-In-Difference (DID)-Methode und wird für Käufer und Gekaufte separat durchgeführt. Das sechste Kapitel beschäftigt sich mit einer alternativen Methode zur Effizienzschätzung, der Stochastic Frontier Analysis (SFA)-Methode. Vergleichbar zur TFP-Methode handelt es sich um eine stochastische Methode. Im Gegensatz zur TFP-Methode wird die Produktionsfunktion als Grenzfunktion und nicht als durchschnittliche Funktion geschätzt. So ist es möglich, Effizienz in Prozent auszudrücken. Es folgt im siebten Kapitel eine Analyse des Einflusses verschiedener fusions- und firmenspezifischer Faktoren auf die Effizienzveränderung bei Käufern und Gekauften. Die Analyse erfolgt mittels einer multiplen Regression und wird separat für kurz-, mittel- und langfristige Veränderung der Effizienz von Käufern und Gekauften durchgeführt. Im achten Kapitel folgt die Schlussbetrachtung.
217

From Small to Large Data: Leveraging Synthetic Data for Inventory Management / Von kleinen zu großen Daten: Die Nutzung von synthetischen Daten für das Bestandsmanagement

de Graaf [geb. Buttler], Simone Linda January 2024 (has links) (PDF)
In a world of constant change, uncertainty has become a daily challenge for businesses. Rapidly shifting market conditions highlight the need for flexible responses to unforeseen events. Operations Management (OM) is crucial for optimizing business processes, including site planning, production control, and inventory management. Traditionally, companies have relied on theoretical models from microeconomics, game theory, optimization, and simulation. However, advancements in machine learning and mathematical optimization have led to a new research field: data-driven OM. Data-driven OM uses real data, especially time series data, to create more realistic models that better capture decision-making complexities. Despite the promise of this new research area, a significant challenge remains: the availability of extensive historical training data. Synthetic data, which mimics real data, has been used to address this issue in other machine learning applications. Therefore, this dissertation explores how synthetic data can be leveraged to improve decisions for data-driven inventory management, focusing on the single-period newsvendor problem, a classic stochastic optimization problem in inventory management. The first article, "A Meta Analysis of Data-Driven Newsvendor Approaches", presents a standardized evaluation framework for data-driven prescriptive approaches, tested through a numerical study. Findings suggest model performance is not robust, emphasizing the need for a standardized evaluation process. The second article, "Application of Generative Adversarial Networks in Inventory Management", examines using synthetic data generated by Generative Adversarial Networks (GANs) for the newsvendor problem. This study shows GANs can model complex demand relationships, offering a promising alternative to traditional methods. The third article, "Combining Synthetic Data and Transfer Learning for Deep Reinforcement Learning in Inventory Management", proposes a method using Deep Reinforcement Learning (DRL) with synthetic and real data through transfer learning. This approach trains a generative model to learn demand distributions, generates synthetic data, and fine-tunes a DRL agent on a smaller real dataset. This method outperforms traditional approaches in controlled and practical settings, though further research is needed to generalize these findings. / In einer Welt des ständigen Wandels ist Unsicherheit zu einer alltäglichen Herausforderung für Unternehmen geworden. Die Covid-19-Pandemie hat deutlich gezeigt, wie schnell sich Marktumfelder verändern können und wie wichtig es ist, flexibel auf unvorhersehbare Ereignisse zu reagieren. In diesem komplexen Entscheidungsumfeld spielt das Operations Management (OM) eine entscheidende Rolle. Das Ziel des OM besteht darin, die Geschäftsprozesse von Unternehmen zu optimieren. Von der Standortplanung über die Produktionssteuerung bis hin zum Bestandsmanagement —OM befasst sich mit den strategischen und operativen Entscheidungen, die erforderlich sind, um den betrieblichen Erfolg sicherzustellen. Traditionell haben Unternehmen bei der Entscheidungsfindung theoretische Modelle aus Bereichen wie Mikroökonomie, Spieltheorie, Optimierung und Simulation genutzt (Mišić und Perakis, 2020). Doch angesichts der Fortschritte im Bereich des maschinellen Lernens und der mathematischen Optimierung der letzten Jahre eröffnete sich ein neues Forschungsgebiet: das datengetriebene OM. Im datengetriebenen OM werden reale Daten, insbesondere Zeitreihendaten, herangezogen, um realistischere Modelle zu entwickeln, welche die Komplexität der Entscheidungsfindung besser erfassen können. Diese Daten können wertvolle Einblicke in vergangene Kundennachfrage und relevante Einflussfaktoren, wie Wetterbedingungen oder Börsentrends, liefern. Durch die Kombination von realen Daten mit Optimierungs- und maschinellen Lernverfahren können Unternehmen fundiertere und präzisere Entscheidungen treffen. Jedoch besteht im Rahmen dieses neuen Forschungsgebiets eine Herausforderung: Studien haben gezeigt, dass einige Modelle optimale Lösungen liefern können, wenn diese eine umfangreiche Menge historischer Trainingsdaten zur Verfügung haben. Jedoch sieht die Realität häufig anders aus. Insbesondere in Teildisziplinen des OM, wie dem Kapazitäts- oder Bestandsmanagement, existiert häufig nur eine begrenzte Anzahl von historischen Beobachtungen, da Entscheidungen über den Einsatz von Ressourcen oder die Auffüllung des Bestands hier nicht in Echtzeit getroffen werden, sondern täglich, wöchentlich oder sogar nur monatlich stattfinden. In anderen Anwendungsbereichen des maschinellen Lernens, in denen die Verfügbarkeit von Daten zum Trainieren von Modellen ebenfalls ein Problem darstellt, hat man damit begonnen, reale Daten durch synthetische Daten zu ergänzen oder sogar zu ersetzen. Synthetische Daten sind künstlich generierte Daten, die die Eigenschaften und Muster realer Daten nachahmen. Neuste Ansätze zur Generierung synthetischer Daten haben zum Ziel, den Entstehungsprozess echter Daten nachzuahmen. Das Verständnis des Entstehungsprozesses von Daten ist auch deshalb so wichtig, weil er kausale Zusammenhänge aufzeigen kann, die es ermöglichen, universellere Modelle zu entwickeln. Verstehen wir beispielsweise den Entstehungsprozess von Nachfragedaten für Bäckereiprodukte, kann dieses Wissen bei jeder Bäckerei der Welt angewandt werden, um beispielsweise die Menge der zu backenden Brötchen zu optimieren. Diese Dissertation untersucht in drei inhaltlich abgeschlossenen Teilen, wie synthetische Daten genutzt werden können, um Trainingsdaten im Bereich des OM anzureichern und dadurch datengetriebene Modelle zur Entscheidungsunterstützung zu verbessern. Der Fokus liegt dabei auf dem Zeitungsjungenproblem, einem klassischen Problem der Bestandsplanung. Hierbei handelt es sich um ein einperiodiges Planungsproblem, bei dem es gilt, die optimale Bestellmenge zu ermitteln, sodass der Gewinn maximiert wird. Dabei muss berücksichtigt werden, dass unverkaufte Produkte am Ende des Tages einen Verlust bedeuten, aber auch ein zu schneller Ausverkauf potenzielle Einnahmen verpassen lässt. Der erste Artikel, „A Meta Analysis of Data-Driven Newsvendor Approaches“, Kapitel 2, dient als Vorstudie zur Verwendung synthetischer Daten. Obwohl bisher in der Literatur mehrere datengetriebene, präskripviii tive Ansätze vorgeschlagen wurden, ist es unklar, wie diese im Vergleich zueinander abschneiden. In dem Artikel wird ein reproduzierbares und einheitliches Bewertungsverfahren für datengetriebene, präskriptive Ansätze präsentiert. Das vorgestellte Bewertungsverfahren kann sowohl von Praktikern zur Modellauswahl als auch von Forschern zum Benchmarking neuer Ansätze verwendet werden. In diesem Artikel wird es in einer umfangreichen numerischen Studie verwendet, die mit einem großen und heterogenen Datensatz durchgeführt wird. Teil dieser Studie ist eine Robustheitsanalyse, um den Einfluss verschiedener Problemparameter zu bewerten, die die Leistung des Modells potenziell beeinflussen können, wie z.B. Eigenschaften des Datensatzes oder des zu lösenden Planungsproblems. Die Ergebnisse deuten darauf hin, dass die Leistung der evaluierten Modelle wenig robust ist und das zu verwendende Modell auf der Grundlage eines standardisierten Evaluierungsprozesses ausgewählt werden sollte, um bestmögliche Ergebnisse zu gewährleisten. Im zweiten Artikel, „Application of Generative Adversarial Networks in Inventory Management“, Kapitel 3, wird die Verwendung synthetischer Daten, die durch Generative Adversarial Networks (GANs) erzeugt wurden, zur Lösung des Zeitungsjungenproblems untersucht. Der Einsatz datengetriebener, präskriptiver Verfahren hat zu einem wachsenden Bedarf an relevanten Trainingsdaten geführt, insbesondere wenn zusätzliche Informationen (Features) eingebunden werden. Daraus ergibt sich ein Bedarf an Techniken, die komplexe Beziehungen zwischen Nachfrage und Zusatzinformationen modellieren können und mit denen große Mengen synthetischer Daten erzeugt werden können. In diesem Artikel wird gezeigt, wie solche synthetischen Daten mit Hilfe von GANs - einem Ansatz des Deep Learning - erzeugt werden können. Da die Leistung von GANs häufig instabil ist, wird eine Selektionsstrategie als Vorstufe zur Anwendung der GAN-generierten Daten im Planungsproblem entwickelt. In numerischen Experimenten wird der vorgeschlagene Ansatz im Praxiskontext einer Bäckereikette angewandt und unter Variation verschiedener Experimentparameter untersucht. Er wird mit traditionelleren Ansätzen, wie dem Distribution Fitting und der Sample Average Approximation (SAA), verglichen. Die Ergebnisse legen nahe, dass die Anwendung von GANs eine vielversprechende Alternative zu diesen traditionellen Ansätzen darstellt. Im dritten Artikel, „Combining Synthetic Data and Transfer Learning for Deep Reinforcement Learning in Inventory Management“, Kapitel 4, wird ein neuartiges, auf Deep Reinforcement Learning (DRL) basierendes Verfahren vorgeschlagen, das synthetische und reale Daten mittels Transfer Learning kombiniert, um OM-Entscheidungsprobleme zu lösen. Die Anwendung von DRL verspricht größere Flexibilität in der Problemdefinition als traditionellere, präskriptive Ansätze. Allerdings erfordert es auch große Mengen an Trainingsdaten. In diesem Artikel wird ein zweistufiges Verfahren vorgeschlagen, um mit weniger echten Trainingsdaten auszukommen. Zunächst wird ein generatives Modell trainiert, um die unbekannte gemeinsame Verteilung von Nachfrage und Features zu lernen. Dieses wird genutzt, um zusätzliche synthetische Trainingsdaten zu generieren. In einem zweiten Schritt wird ein DRL-Agent mit Hilfe des Transfer Learnings trainiert, wobei der DRL-Agent zunächst auf den synthetischen Daten vortrainiert wird und dann ein Feintuning auf der Grundlage eines kleineren realen Datensatzes erfolgt. Dieser Artikel evaluiert das vorgeschlagene Verfahren für ein Zeitungsjungenproblem in zwei verschiedenen numerischen Studiensettings. In dem kontrollierten Studiensetting ist die Verteilung der Daten bekannt, wodurch ein erster Schritt gemacht wird, zu verstehen, was die Leistung des vorgeschlagenen Verfahrens beeinflusst, z.B. die Qualität der generierten synthetischen Daten. Im Praxissetting, in dem die gemeinsame Verteilung der Daten unbekannt ist, wird das vorgeschlagene Verfahren auf Daten einer lokalen Bäckereikette angewandt. In beiden Fällen übertrifft das vorgeschlagene Verfahren die traditionelle präskriptive Methode. Es ist jedoch weitere Forschung erforderlich, um die Generalisierbarkeit dieser Ergebnisse zu beweisen. Insgesamt zeigen die Ergebnisse dieser Dissertation, dass der Einsatz von synthetischen Daten Potential hat, Praxisanwendungen des maschinellen Lernens zu unterstützen. Die untersuchte Methode der Datengenerierung mit GANs ermöglicht die Modellierung komplexer Zusammenhänge in den Daten und unterstützt damit selbst die Anwendung von datenhungrigen Verfahren, wie DRL, zur Lösung von Planungsproblemen. Die Wahl eines guten GAN-Modells ist jedoch mit hohem Aufwand verbunden, sodass Kosten und Nutzen synthetischer Daten bei jeder Anwendung abgewogen werden sollten. Weitere Forschung ist notwendig, um die Generalisierbarkeit der Ergebnisse zu gewährleisten.
218

Kultour-Zeit: Das Eventmagazin für Zwickau

15 December 2020 (has links)
No description available.
219

Kultour-Zeit: Das Eventmagazin für Zwickau

12 April 2021 (has links)
No description available.
220

Kultour-Zeit: Das Eventmagazin für Zwickau

28 January 2021 (has links)
No description available.

Page generated in 0.0169 seconds