1 |
The use of the Hypercube Queueing Model for the location optimization decision of Emergency Medical Service systems / Der Einsatz des Hypercube Queueing Modells zur optimalen Standortentscheidung von medizinischen NotfallsystemenBlank, Felix January 2021 (has links) (PDF)
Die strategische Planung von medizinischen Notfallsystemen steht in einem unmittelbaren Zusammenhang mit der Überlebenswahrscheinlichkeit von betroffenen Patienten. Die Forschung hat zahlreiche Kenngrößen und Evaluationsparameter entwickelt, die zur Bewertung verwendet werden können. Darunter fallen beispielsweise die Reaktionszeit, die Systemauslastung, diverse Wartezeitenparameter sowie der Anteil der Nachfrage, der nicht unmittelbar bedient werden kann. Dabei ist das Hypercube Queueing Modell eines der am häufigsten verwendeten Modelle. Aufgrund seines theoretischen Hintergrundes und der damit verbundenen hohen notwendigen Rechenzeiten wurde das Hypercube Queueing Modell erst in der jüngeren Vergangenheit häufiger zur Optimierung von medizinischen Notfallsystemen verwendet. Gleichermaßen wurden nur wenige Systemparameter mit Hilfe des Modelles berechnet und das volle Potenzial demnach noch nicht ausgeschöpft. Die meisten der bereits vorhandenen Studien im Bereich der Optimierung unter Zuhilfenahme eines Hypercube Queueing Modells nutzen die zu erwartende Reaktionszeit des Systems als Zielparameter. Obwohl die Verwendung von diesem eine zumeist ausgeglichene Systemkonfiguration zur Folge hat, wurden andere Zielparameter identifziert. Die Verwendung des Hypercube Queueing Modells in den Modellen der robusten Optimierung sowie des robusten Goal Programmings haben versucht einen ganzheitlicheren Blick, durch die Verwendung von unterschiedlichen Tageszeiten, zu offerieren. Dabei hat sich gezeigt, dass das Verhalten von medizinischen Notfallsystemen sowie die Parameter stark von diesen abhängen. Daher sollte die Analyse und gegebenenfalls Optimierung dieser Systeme unterschiedliche Verteilungen der Nachfrage, in Abhängigkeit ihrer Menge und räumlichen Verteilung, unbedingt berücksichtigen um eine möglichst ganzheitliche Entscheidungsgrundlage zu garantieren. / The strategic planning of Emergency Medical Service systems is directly related to the probability of surviving of the affected humans. Academic research has contributed to the evaluation of these systems by defining a variety of key performance metrics. The average response time, the workload of the system, several waiting time parameters as well as the fraction of demand that cannot immediately be served are among the most important examples. The Hypercube Queueing Model is one of the most applied models in this field. Due to its theoretical background and the implied high computational times, the Hypercube Queueing Model has only been recently used for the optimization of Emergency Medical Service systems. Likewise, only a few system performance metrics were calculated with the help of the model and the full potential therefore has not yet been reached. Most of the existing studies in the field of optimization with the help of a Hypercube Queueing Model apply the expected response time of the system as their objective function. While it leads to oftentimes balanced system configurations, other influencing factors were identified. The embedding of the Hypercube Queueing Model in the Robust Optimization as well as the Robust Goal Programming intended to offer a more holistic view through the use of different day times. It was shown that the behavior of Emergency Medical Service systems as well as the corresponding parameters are highly subjective to them. The analysis and optimization of such systems should therefore consider the different distributions of the demand, with regard to their quantity and location, in order to derive a holistic basis for the decision-making.
|
2 |
Merger-specific Efficiency Gains / Fusionsbedingte EffizienzsteigerungenDemmer, Claudia January 2019 (has links) (PDF)
The present thesis analyzes whether and - if so - under which conditions mergers result in merger-specific efficiency gains. The analysis concentrates on manufacturing firms in Europe that participate in horizontal mergers as either buyer or target in the years 2005 to 2014.
The result of the present study is that mergers are idiosyncratic processes. Thus, the possibilities to define general conditions that predict merger-specific efficiency gains are limited.
However, the results of the present study indicate that efficiency gains are possible as a direct consequence of a merger. Efficiency changes can be measured by a Total Factor Productivity (TFP) approach. Significant merger-specific efficiency gains are more likely for targets than for buyers. Moreover, mergers of firms that mainly operate in the same segment are likely to generate efficiency losses. Efficiency gains most likely result from reductions in material and labor costs, especially on a short- and mid-term perspective. The analysis of conditions that predict efficiency gains indicates that firm that announce the merger themselves are capable to generate efficiency gains in a short- and mid-term perspective. Furthermore, buyers that are mid-sized firms are more likely to generate efficiency gains than small or large buyers. Results also indicate that capital intense firms are likely to generate efficiency gains after a merger.
The present study is structured as follows.
Chapter 1 motivates the analysis of merger-specific efficiency gains. The definition of conditions that reasonably likely predict when and to which extent mergers will result in merger-specific efficiency gains, would improve the merger approval or denial process.
Chapter 2 gives a literature review of some relevant empirical studies that analyzed merger-specific efficiency gains. None of the empirical studies have analyzed horizontal mergers of European firms in the manufacturing sector in the years 2005 to 2014. Thus, the present study contributes to the existing literature by analyzing efficiency gains from those mergers.
Chapter 3 focuses on the identification of mergers. The merger term is defined according to the EC Merger Regulation and the Horizontal Merger Guidelines. The definition and the requirements of mergers according to legislation provides the framework of merger identification.
Chapter 4 concentrates on the efficiency measurement methodology. Most empirical studies apply a Total Factor Productivity (TFP) approach to estimate efficiency. The TFP approach uses linear regression in combination with a control function approach. The estimation of coefficients is done by a General Method of Moments approach.
The resulting efficiency estimates are used in the analysis of merger-specific efficiency gains in chapter 5. This analysis is done separately for buyers and targets by applying a Difference-In-Difference (DID) approach.
Chapter 6 concentrates on an alternative approach to estimate efficiency, that is a Stochastic Frontier Analysis (SFA) approach. Comparable to the TFP approach, the SFA approach is a stochastic efficiency estimation methodology. In contrast to TFP, SFA estimates the production function as a frontier function instead of an average function. The frontier function allows to estimate efficiency in percent.
Chapter 7 analyses the impact of different merger- and firm-specific characteristics on efficiency changes of buyers and targets. The analysis is based on a multiple regression, which is applied for short-, mid- and long-term efficiency changes of buyers and targets.
Chapter 8 concludes. / Die Dissertation mit dem Titel 'Merger-specific Efficiency Gains' beschäftigt sich mit der Frage, ob und inwieweit Fusionen zu Effizienzsteigerungen der beteiligten Parteien beitragen. Die Analyse konzentriert sich dabei auf europäische Firmen im verarbeitenden Gewerbe, die im Zeitraum von 2005 bis einschließlich 2014 entweder als Käufer oder als Kaufobjekt an einer horizontalen Fusion beteiligt waren.
Ergebnis dieser Dissertation ist, dass Fusionen einzigartige Prozesse sind. Allgemeingültige Aussagen hinsichtlich Zeitpunkt, Zeitraum und Umfang fusionsbedingter Effizienzgewinne sind daher nur bedingt möglich.
Die Ergebnisse dieser Dissertation deuten darauf hin, dass Effienzgewinne als direkte Konsequenz einer Fusion möglich sind. Effizienzveränderungen können mithilfe einer Total Factor Productivity (TFP)-Methode gemessen werden. Signifikante fusionsbedingte Effizienzgewinne sind für gekaufte Unternehmen wahrscheinlicher als für Käufer. Desweiteren treten sie frühestens ab dem zweiten Jahr nach einer Fusion auf. Die Verschmelzung von zwei Unternehmen, die beide im gleichen Hauptsegment tätig sind, führt allerdings eher zu Effizienzverlusten als Effizienzgewinnen. Effizienzgewinne werden vor allem kurz- bis mittelfristig durch Veränderungen in den Material- und Personalkosten herbeigeführt. Insgesamt sind fusionsbedingte Effizienzgewinne eher von der Art der Firmen als von der Art der Fusion abhängig. Die Analyse der Gründe für fusionsbedingte Effizienzgewinne zeigt, dass Firmen, die die Information über die Fusion selber veröffentlichen, kurz- bis mittelfristig Effizienzgewinne generieren. Des Weiteren sind mittelgroße Käufer eher in der Lage Effizienzgewinne zu generieren als kleine oder große Käufer. Zudem zeigt die Untersuchung, dass kapitalintensivere Unternehmen häufig Effizienzgewinne nach einer Fusion generieren.
Die Arbeit ist wie folgt strukturiert.
In der Einleitung werden die Gründe für eine Beschäftigung mit der Frage nach fusionsbedingten Effizienzgewinnen dargelegt. Die Herausarbeitung von Faktoren, anhand derer sich der Zeitpunkt, der Umfang und der Zeitraum fusionsbedingter Effizienzgewinne bestimmen ließe, kann in der Praxis die Entscheidung für oder gegen eine Fusion erleichtern.
Das zweite Kapitel beinhaltet einen Literaturüberblick über ausgewählte empirische Studien, die sich mit der Frage nach fusionsbedingten Effizienzgewinnen bereits befasst haben. Eine Studie, die horizontale Fusionen von europäischen Firmen im verarbeitenden Gewerbe zwischen 2005 und 2014 untersucht, liegt bisher nicht vor. Die vorliegende Arbeit leistet mit der Analyse von Effizienzgewinnen eben solcher Fusionen einen Beitrag zur vorhandenen Literatur.
Das dritte Kapitel beschäftigt sich mit der Identifizierung von Fusionen. Die Fusionsdefinition entstammt der Europäischen Zusammenschlusskontrolle sowie den Richtlinien zur Bewertung horizontaler Fusionen. Anhand von Begriffsbestimmungen und festgelegten Kriterien schafft der europäische Gesetzgeber einen Rahmen zur Identifizierung von Fusionen.
Im Fokus des vierten Kapitels steht die Effizienzschätzmethode. In empirischen Studien wird vorwiegend die TFP-Methode zur Schätzung der Effizienz eingesetzt. Die TFP-Methode bedient sich der ökonometrischen Methode der linearen Regression in Kombination mit einem Kontrollfunktionsansatz. Die Schätzung der Parameter erfolgt mit Hilfe der verallgemeinerten Momentenmethode.
Die Ergebnisse der Effizienzschätzung gehen im fünften Kapitel in die Analyse fusionsbedinger Effizienzgewinne ein. Die Analyse erfolgt unter Zuhilfenahme der Difference-In-Difference (DID)-Methode und wird für Käufer und Gekaufte separat durchgeführt.
Das sechste Kapitel beschäftigt sich mit einer alternativen Methode zur Effizienzschätzung, der Stochastic Frontier Analysis (SFA)-Methode. Vergleichbar zur TFP-Methode handelt es sich um eine stochastische Methode. Im Gegensatz zur TFP-Methode wird die Produktionsfunktion als Grenzfunktion und nicht als durchschnittliche Funktion geschätzt. So ist es möglich, Effizienz in Prozent auszudrücken.
Es folgt im siebten Kapitel eine Analyse des Einflusses verschiedener fusions- und firmenspezifischer Faktoren auf die Effizienzveränderung bei Käufern und Gekauften. Die Analyse erfolgt mittels einer multiplen Regression und wird separat für kurz-, mittel- und langfristige Veränderung der Effizienz von Käufern und Gekauften durchgeführt.
Im achten Kapitel folgt die Schlussbetrachtung.
|
3 |
From Small to Large Data: Leveraging Synthetic Data for Inventory Management / Von kleinen zu großen Daten: Die Nutzung von synthetischen Daten für das Bestandsmanagementde Graaf [geb. Buttler], Simone Linda January 2024 (has links) (PDF)
In a world of constant change, uncertainty has become a daily challenge for businesses. Rapidly shifting market conditions highlight the need for flexible responses to unforeseen events. Operations Management (OM) is crucial for optimizing business processes, including site planning, production control, and inventory management. Traditionally, companies have relied on theoretical models from microeconomics, game theory, optimization, and simulation. However, advancements in machine learning and mathematical optimization have led to a new research field: data-driven OM.
Data-driven OM uses real data, especially time series data, to create more realistic models that better capture decision-making complexities. Despite the promise of this new research area, a significant challenge remains: the availability of extensive historical training data. Synthetic data, which mimics real data, has been used to address this issue in other machine learning applications.
Therefore, this dissertation explores how synthetic data can be leveraged to improve decisions for data-driven inventory management, focusing on the single-period newsvendor problem, a classic stochastic optimization problem in inventory management.
The first article, "A Meta Analysis of Data-Driven Newsvendor Approaches", presents a standardized evaluation framework for data-driven prescriptive approaches, tested through a numerical study. Findings suggest model performance is not robust, emphasizing the need for a standardized evaluation process.
The second article, "Application of Generative Adversarial Networks in Inventory Management", examines using synthetic data generated by Generative Adversarial Networks (GANs) for the newsvendor problem. This study shows GANs can model complex demand relationships, offering a promising alternative to traditional methods.
The third article, "Combining Synthetic Data and Transfer Learning for Deep Reinforcement Learning in Inventory Management", proposes a method using Deep Reinforcement Learning (DRL) with synthetic and real data through transfer learning. This approach trains a generative model to learn demand distributions, generates synthetic data, and fine-tunes a DRL agent on a smaller real dataset. This method outperforms traditional approaches in controlled and practical settings, though further research is needed to generalize these findings. / In einer Welt des ständigen Wandels ist Unsicherheit zu einer alltäglichen Herausforderung für Unternehmen geworden. Die Covid-19-Pandemie hat deutlich gezeigt, wie schnell sich Marktumfelder verändern können und wie wichtig es ist, flexibel auf unvorhersehbare Ereignisse zu reagieren. In diesem komplexen Entscheidungsumfeld spielt das Operations Management (OM) eine entscheidende Rolle. Das Ziel des OM besteht darin, die Geschäftsprozesse von Unternehmen zu optimieren. Von der Standortplanung über die Produktionssteuerung bis hin zum Bestandsmanagement —OM befasst sich mit den strategischen und operativen Entscheidungen, die erforderlich sind, um den betrieblichen Erfolg sicherzustellen. Traditionell haben Unternehmen bei der Entscheidungsfindung theoretische Modelle aus Bereichen wie Mikroökonomie, Spieltheorie, Optimierung und Simulation genutzt (Mišić und Perakis, 2020). Doch angesichts der Fortschritte im Bereich des maschinellen Lernens und der mathematischen Optimierung der letzten Jahre eröffnete sich ein neues Forschungsgebiet: das datengetriebene OM. Im datengetriebenen OM werden reale Daten, insbesondere Zeitreihendaten, herangezogen, um realistischere Modelle zu entwickeln, welche die Komplexität der Entscheidungsfindung besser erfassen können. Diese Daten können wertvolle Einblicke in vergangene Kundennachfrage und relevante Einflussfaktoren, wie Wetterbedingungen oder Börsentrends, liefern. Durch die Kombination von realen Daten mit Optimierungs- und maschinellen Lernverfahren können Unternehmen fundiertere und präzisere Entscheidungen treffen. Jedoch besteht im Rahmen dieses neuen Forschungsgebiets eine Herausforderung: Studien haben gezeigt, dass einige Modelle optimale Lösungen liefern können, wenn diese eine umfangreiche Menge historischer Trainingsdaten zur Verfügung haben. Jedoch sieht die Realität häufig anders aus. Insbesondere in Teildisziplinen des OM, wie dem Kapazitäts- oder Bestandsmanagement, existiert häufig nur eine begrenzte Anzahl von historischen Beobachtungen, da Entscheidungen über den Einsatz von Ressourcen oder die Auffüllung des Bestands hier nicht in Echtzeit getroffen werden, sondern täglich, wöchentlich oder sogar nur monatlich stattfinden. In anderen Anwendungsbereichen des maschinellen Lernens, in denen die Verfügbarkeit von Daten zum Trainieren von Modellen ebenfalls ein Problem darstellt, hat man damit begonnen, reale Daten durch synthetische Daten zu ergänzen oder sogar zu ersetzen. Synthetische Daten sind künstlich generierte Daten, die die Eigenschaften und Muster realer Daten nachahmen. Neuste Ansätze zur Generierung synthetischer Daten haben zum Ziel, den Entstehungsprozess echter Daten nachzuahmen. Das Verständnis des Entstehungsprozesses von Daten ist auch deshalb so wichtig, weil er kausale Zusammenhänge aufzeigen kann, die es ermöglichen, universellere Modelle zu entwickeln. Verstehen wir beispielsweise den Entstehungsprozess von Nachfragedaten für Bäckereiprodukte, kann dieses Wissen bei jeder Bäckerei der Welt angewandt werden, um beispielsweise die Menge der zu backenden Brötchen zu optimieren. Diese Dissertation untersucht in drei inhaltlich abgeschlossenen Teilen, wie synthetische Daten genutzt werden können, um Trainingsdaten im Bereich des OM anzureichern und dadurch datengetriebene Modelle zur Entscheidungsunterstützung zu verbessern. Der Fokus liegt dabei auf dem Zeitungsjungenproblem, einem klassischen Problem der Bestandsplanung. Hierbei handelt es sich um ein einperiodiges Planungsproblem, bei dem es gilt, die optimale Bestellmenge zu ermitteln, sodass der Gewinn maximiert wird. Dabei muss berücksichtigt werden, dass unverkaufte Produkte am Ende des Tages einen Verlust bedeuten, aber auch ein zu schneller Ausverkauf potenzielle Einnahmen verpassen lässt. Der erste Artikel, „A Meta Analysis of Data-Driven Newsvendor Approaches“, Kapitel 2, dient als Vorstudie zur Verwendung synthetischer Daten. Obwohl bisher in der Literatur mehrere datengetriebene, präskripviii tive Ansätze vorgeschlagen wurden, ist es unklar, wie diese im Vergleich zueinander abschneiden. In dem Artikel wird ein reproduzierbares und einheitliches Bewertungsverfahren für datengetriebene, präskriptive Ansätze präsentiert. Das vorgestellte Bewertungsverfahren kann sowohl von Praktikern zur Modellauswahl als auch von Forschern zum Benchmarking neuer Ansätze verwendet werden. In diesem Artikel wird es in einer umfangreichen numerischen Studie verwendet, die mit einem großen und heterogenen Datensatz durchgeführt wird. Teil dieser Studie ist eine Robustheitsanalyse, um den Einfluss verschiedener Problemparameter zu bewerten, die die Leistung des Modells potenziell beeinflussen können, wie z.B. Eigenschaften des Datensatzes oder des zu lösenden Planungsproblems. Die Ergebnisse deuten darauf hin, dass die Leistung der evaluierten Modelle wenig robust ist und das zu verwendende Modell auf der Grundlage eines standardisierten Evaluierungsprozesses ausgewählt werden sollte, um bestmögliche Ergebnisse zu gewährleisten. Im zweiten Artikel, „Application of Generative Adversarial Networks in Inventory Management“, Kapitel 3, wird die Verwendung synthetischer Daten, die durch Generative Adversarial Networks (GANs) erzeugt wurden, zur Lösung des Zeitungsjungenproblems untersucht. Der Einsatz datengetriebener, präskriptiver Verfahren hat zu einem wachsenden Bedarf an relevanten Trainingsdaten geführt, insbesondere wenn zusätzliche Informationen (Features) eingebunden werden. Daraus ergibt sich ein Bedarf an Techniken, die komplexe Beziehungen zwischen Nachfrage und Zusatzinformationen modellieren können und mit denen große Mengen synthetischer Daten erzeugt werden können. In diesem Artikel wird gezeigt, wie solche synthetischen Daten mit Hilfe von GANs - einem Ansatz des Deep Learning - erzeugt werden können. Da die Leistung von GANs häufig instabil ist, wird eine Selektionsstrategie als Vorstufe zur Anwendung der GAN-generierten Daten im Planungsproblem entwickelt. In numerischen Experimenten wird der vorgeschlagene Ansatz im Praxiskontext einer Bäckereikette angewandt und unter Variation verschiedener Experimentparameter untersucht. Er wird mit traditionelleren Ansätzen, wie dem Distribution Fitting und der Sample Average Approximation (SAA), verglichen. Die Ergebnisse legen nahe, dass die Anwendung von GANs eine vielversprechende Alternative zu diesen traditionellen Ansätzen darstellt. Im dritten Artikel, „Combining Synthetic Data and Transfer Learning for Deep Reinforcement Learning in Inventory Management“, Kapitel 4, wird ein neuartiges, auf Deep Reinforcement Learning (DRL) basierendes Verfahren vorgeschlagen, das synthetische und reale Daten mittels Transfer Learning kombiniert, um OM-Entscheidungsprobleme zu lösen. Die Anwendung von DRL verspricht größere Flexibilität in der Problemdefinition als traditionellere, präskriptive Ansätze. Allerdings erfordert es auch große Mengen an Trainingsdaten. In diesem Artikel wird ein zweistufiges Verfahren vorgeschlagen, um mit weniger echten Trainingsdaten auszukommen. Zunächst wird ein generatives Modell trainiert, um die unbekannte gemeinsame Verteilung von Nachfrage und Features zu lernen. Dieses wird genutzt, um zusätzliche synthetische Trainingsdaten zu generieren. In einem zweiten Schritt wird ein DRL-Agent mit Hilfe des Transfer Learnings trainiert, wobei der DRL-Agent zunächst auf den synthetischen Daten vortrainiert wird und dann ein Feintuning auf der Grundlage eines kleineren realen Datensatzes erfolgt. Dieser Artikel evaluiert das vorgeschlagene Verfahren für ein Zeitungsjungenproblem in zwei verschiedenen numerischen Studiensettings. In dem kontrollierten Studiensetting ist die Verteilung der Daten bekannt, wodurch ein erster Schritt gemacht wird, zu verstehen, was die Leistung des vorgeschlagenen Verfahrens beeinflusst, z.B. die Qualität der generierten synthetischen Daten. Im Praxissetting, in dem die gemeinsame Verteilung der Daten unbekannt ist, wird das vorgeschlagene Verfahren auf Daten einer lokalen Bäckereikette angewandt. In beiden Fällen übertrifft das vorgeschlagene Verfahren die traditionelle präskriptive Methode. Es ist jedoch weitere Forschung erforderlich, um die Generalisierbarkeit dieser Ergebnisse zu beweisen. Insgesamt zeigen die Ergebnisse dieser Dissertation, dass der Einsatz von synthetischen Daten Potential hat, Praxisanwendungen des maschinellen Lernens zu unterstützen. Die untersuchte Methode der Datengenerierung mit GANs ermöglicht die Modellierung komplexer Zusammenhänge in den Daten und unterstützt damit selbst die Anwendung von datenhungrigen Verfahren, wie DRL, zur Lösung von Planungsproblemen. Die Wahl eines guten GAN-Modells ist jedoch mit hohem Aufwand verbunden, sodass Kosten und Nutzen synthetischer Daten bei jeder Anwendung abgewogen werden sollten. Weitere Forschung ist notwendig, um die Generalisierbarkeit der Ergebnisse zu gewährleisten.
|
4 |
Kultour-Zeit: Das Eventmagazin für Zwickau15 December 2020 (has links)
No description available.
|
5 |
Kultour-Zeit: Das Eventmagazin für Zwickau12 April 2021 (has links)
No description available.
|
6 |
Kultour-Zeit: Das Eventmagazin für Zwickau28 January 2021 (has links)
No description available.
|
7 |
Kultour-Zeit: Das Eventmagazin für Zwickau28 January 2021 (has links)
No description available.
|
8 |
Kultour-Zeit: Das Eventmagazin für Zwickau28 January 2021 (has links)
No description available.
|
9 |
Kultour-Zeit: Das Eventmagazin für Zwickau28 January 2021 (has links)
No description available.
|
10 |
Kultour-Zeit: Das Eventmagazin für Zwickau28 January 2021 (has links)
No description available.
|
Page generated in 0.0227 seconds