• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • Tagged with
  • 6
  • 6
  • 6
  • 6
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Analyse von Logistikdaten:

Schulze, Frank 18 April 2018 (has links) (PDF)
Motivation • Warum sollten wir Daten analysieren? Beyond Excel • Wie können wir Daten analysieren? Fallbeispiele • Welche Erkenntnisse haben wir gewonnen? • Flächenbedarf der Montage • Arbeitskräftebedarf in der Logistik • (Auto-) Korrelation
2

The impact of decentral dispatching strategies on the performance of intralogistics transport systems

Klein, Nils 17 July 2014 (has links) (PDF)
This thesis focuses on control strategies for intralogistics transport systems. It evaluates how switching from central to decentral dispatching approaches influences the performance of these systems. Many ideas and prototypes for implementing decentral control have been suggested by the scientific community. But usually only the qualitative advantages of this new paradigm are stated. The impact on the performance is not quantified and analyzed. Additionally, decentral control is often confused with distributed algorithms or uses the aggregation of local to global information. In the case of the latter, the technological limitations due to the communication overhead are not considered. The decentral prototypes usually only focus on routing. This paper takes a step back and provides a generic simulation environment which can be used by other researchers to test and compare control strategies in the future. The test environment is used for developing four truly decentral dispatching strategies which work only based on local information. These strategies are compared to a central approach for controlling transportation systems. Input data from two real-world applications is used for a series of simulation experiments with three different layout complexities. Based on the simulation studies neither the central nor the decentral dispatching strategies show a universally superior performance. The results depend on the combination of input data set and layout scenario. The expected efficiency loss for the decentral approaches can be confirmed for stable input patterns. Regardless of the layout complexity the decentral strategies always need more vehicles to reach the performance level of the central control rule when these input characteristics are present. In the case of varying input data and high throughput the decentral strategies outperform the central approach in simple layouts. They require fewer vehicles and less vehicle movement to achieve the central performance. Layout simplicity makes the central dispatching strategy prone to undesired effects. The simple-minded decentral decision rules can achieve a better performance in this kind of environment. But only complex layouts are a relevant benchmark scenario for transferring decentral ideas to real-world applications. In such a scenario the decentral performance deteriorates while the layout-dependent influences on the central strategy become less relevant. This is true for both analyzed input data sets. Consequently, the decentral strategies require at least 36% to 53% more vehicles and 20% to 42% more vehicle movement to achieve the lowest central performance level. Therefore their usage can currently not be justified based on investment and operating costs. The characteristics of decentral systems limit their own performance. The restriction to local information leads to poor dispatching decisions which in return induce self-enforcing inefficiencies. In addition, the application of decentral strategies requires bigger storage location capacity. In several disturbance scenarios the decentral strategies perform fairly well and show their ability to adapt to changed environmental conditions. However, their performance after the disturbance remains in some cases unpredictable and relates to the properties of self-organizing complex systems. A real-world applicability has to be called into question.
3

Beherrschung stark korrelierter Logistik- und Produktions-Prozesse

Rank, Sebastian, Uhlig, Tobias, Schmidt, Thorsten, Rose, Oliver 16 February 2018 (has links) (PDF)
Im Rahmen des Forschungsvorhabens wurde das Wirken von Autokorrelation auf das Verhalten von Materialflusssystemen anhand von Realdaten analysiert. Hintergrund waren theoretische Untersuchungen, die einen deutlichen Einfluss von abhängigen Ereignissen auf die Leistung von Materialflusssystemen erkennen lassen. Mit Hilfe der Projektpartner konnte eine große Menge von Echtdaten zusammengetragen werden. Insgesamt wurden 52 Datensätze auf zeitliche Abhängigkeiten der Ereignisse untersucht. Dabei bestätigte sich die Vermutung, dass Autokorrelation durch z. B. Batchbildung oder Prioritätsregeln allgegenwärtig in Erscheinung tritt. In ca. 95 % aller Datensätze konnte signifikant Autokorrelation nachgewiesen werden. Im Rahmen der Untersuchung konnten eine Reihe unterschiedlicher Korrelationsstrukturen nachgewiesen werden. Diese unterschieden sich sowohl in der Stärke, in der Ausprägung (positiv oder negativ) als auch im Abklingverhalten. Der größte Einfluss auf das Systemverhalten geht von der Stärke und der Ausprägung der Autokorrelationskoefizienten aus. Im Rahmen des Projektes konnten unterschiedliche Verfahren zur Erzeugung autokorrelierter Ereignisse identifiziert und bewertet werden. Beispielhaft zu erwähnen ist die TES-Methode, der Minification- bzw. Maxification-Ansatz oder spezielle Markov-Ketten. Als am besten geeignet hat sich der sog. ARTA-Ansatz herausgestellt. Der ARTA-Ansatz wurde in einer Java-basierenden Software-Bibliothek namens „JARTA“ umgesetzt. Diese ist frei verfügbar sowie variabel und einfach einsetzbar. Durch das Forschungsvorhaben wurde das Bewusstsein um das Auftreten und Wirken von Autokorrelation in logistischen Systemen geschärft. Projektpartner bestätigen, dass durch gezielte Untersuchung auf Abhängigkeiten Fehler bei der Systementwicklung und beim Systembetrieb verringert werden konnten.
4

A dynamic heuristics approach for proactive production scheduling under robustness targets

Zahid, Taiba 19 June 2017 (has links) (PDF)
In den vergangenen Jahrzehnten konzentrierte sich das Operations Management auf Optimierungsstrategien, insbesondere wurden Meta-Heuristiken für das komplexe, kombinatorische Problem der ressourcenbegrenzten Ablaufplanung erforscht. In einfachen Worten gehört dieses Problem zu den NP-schweren Problemen, die einen derart großen Lösungsraum besitzen, der mittels Enumerationverfahren rechnerisch unlösbar ist. Daher erfordert die Exploration von optimalen Lösungen andere Methoden als Zufallssuchverfahren. Solche Suchalgorithmen in Meta-Heuristik starten mit einer oder mehreren Ausgangslösung und erkunden den Suchraum nach optimalen Lösungen. Jedoch stellen die existierenden Forschungsansätze zur Lösungssuche nur diejenigen Lösungen bereit, die ausschließlich unter den gegebenen Eingangsbedingungen optimal sind. Diese Eingabebedingungen definieren einen Lösungsraum, in dem alles nach Plan geht. Jedoch ist das in der Praxis sicherlich nicht der Fall. Wie wir sagen, der Wandel ist die einzige Konstante in dieser Welt. Risiken und Unsicherheiten begegnen stets im täglichen Leben. Die vorliegende Dissertation untersucht Optimierungsansätze unter Unsicherheit. Der Forschungsbeitrag ist zweigeteilt. Wie bereits gesagt, wurden Optimierungsstrategien zum Durchsuchen des Lösungsraums in den letzten Jahren stark erforscht. Obwohl es eine anerkannte Tatsache ist, dass die Verbesserung und die Leistung von Optimierungsstrategien stark mit den Initiallösungen korreliert, scheint die Literatur diesbezüglich inexistent, während zumeist auf die Entwicklung von meta-heuristischen Algorithmen wie Genetische Algorithmen und Particle-Swarm-Optimierung fokussiert wird. Die Initiallösungen werden durch simulationsbasierte Strategien entwickelt, die typischerweise gierige Regeln und ereignisbasierte Simulation nutzen. Allerdings verhalten sich kommerzielle Basis-Softwareprodukte meist als Black-Box und stellen keine Informationen über das interne Verhalten bereit. Außerdem erfordern derartige Softwareprodukte meist spezielle Architekturen und missachten Ressourcenbeschränkungen. Die vorliegende Studie diskutiert die ressourcenbeschränkte Projektplanung mit alternativen Modi und schlägt ein simulationsbasiertes Rahmenwerk vor, mit dem ein heuristisches Multi-Pass-Verfahren zur Verfügung gestellt wird. Das erweiterte Multi-Modus-Problem ist in der Lage, den Produktionsbereich in einer besseren Art und Weise nachzubilden, bei dem eine Aktivität von mehreren Ressourcen unterschiedlicher Qualifikation ausgeführt werden kann. Der vorgeschlagene Rahmen diskutiert die Leistung von Algorithmen und verwendet hierfür Benchmark-Instanzen. Das Verhalten verschiedener Projektnetze und deren Eigenschaften werden auch innerhalb des vorgeschlagenen Rahmenwerks bewertet. Darüber hinaus hilft das offene Rahmenwerk, besondere Eigenschaften von Aktivitäten zu analysieren, um deren Verhalten im Fall von Störungen zu prognostizieren. Die traditionellen Methoden der Risikoanalyse schlagen Slack-basierte Maßzahlen vor, um die Effizienz von Basisplänen zu bestimmen. Das Rahmenwerk wird weiter entwickelt, um mit diesem einen Prüfstand zu gestalten, mit dem nicht-reguläre Maßzahlen bestimmt werden können. Diese Maßnahmen werden als Robustheitsindikatoren bezeichnet und korrelieren mit der Verzögerung derartiger Multi-Modus-Probleme. Solche Leistungsmaße können genutzt werden, um die Wirksamkeit von Basisplänen zu bewerten und ihr Verhalten unter Unsicherheiten zu prognostizieren. Die Ergebnisse dieser Tests werden als modifizierte Zielfunktion verwendet, in der ein bi-objektives Leistungsmaß aus Durchlaufzeit und Robustheit eingesetzt wird, um die Effizienz der vorgeschlagenen Heuristiken zu testen. Da diese Leistungsmaße das Verhalten von Aktivitäten unter Störungen zeigen, werden diese auch genutzt, um die Formfaktoren und Puffergrößen für die Entwicklung eines stochastischen Modells zu bestimmen. Die Analyse der Projektergebnisse, durchgeführt mittels Monte-Carlo-Simulationen, unterstützt das Argument von Teilpuffern für die Modellierung von Aktivitätsdauern anstatt Ansätze mit Extrempuffern und PERT-beta-Schätzungen. / Over the past decades, researches in the field of operations management have focused on optimization strategies based on meta-heuristics for the complex-combinatorial problem of resource constrained scheduling. In simple terms, the solution for this particular problem categorized as NP-hard problem, exhibits a large search space, is computationally intractable, and requires techniques other than random search. Meta-heuristic algorithms start with a single or multiple solutions to explore and optimize using deterministic data and retrieve a valid optimum only under specified input conditions. These input conditions define a solution search space for a theoretical world undergoing no disturbance. But change is inherent to the real world; one is faced with risks and uncertainties in everyday life. The present study explores solution methodologies in the face of uncertainties. The contributions of this thesis are two-fold. As mentioned earlier, existing optimization strategies have been vigorously investigated in the past decade with respect to exploring large solution search space. Although, it is an established fact that the improvement and performance of optimization strategies is highly correlated with the initial solutions, existing literature regarding this area is not exhaustive and mostly focuses on the development of meta-heuristic algorithms such as genetic algorithms and particle swarm optimization. The initial solutions are developed through simulation based strategies mainly based on greedy rules and event based simulation. However, the available commercial softwares are primarily modeled as a black box and provide little information as to internal processing. Additionally, such planners require special architecture and disregard resource constraints. The present study discusses the multi-mode resource constrained scheduling problem and proposes a simulation-based framework to provide a multi-pass heuristic method. The extended version of multi-mode problem is able to imitate production floor in an improved manner where a task can be performed with multiple resources with certain qualifications. The performance of the proposed framework was analyzed using benchmark instances. The behavior of different project networks and their characteristics is also evaluated within the proposed framework. In addition, the open framework aids in determining the particular characteristic of tasks in order to analyze and forecast their behavior in case of disruptions. The traditional risk analysis techniques suggest slack-based measures in order to determine the efficiency of baseline schedules. The framework is further developed to design a test bench in order to determine non-regular performance measures named as robustness indicators which correlate with the delay of such cases as multi-mode problem. Such performance measures can be used to indicate the effectiveness of baseline schedules and forecast their behavior. The outputs of these tests are used to modify the objective function which uses makespan and robustness indicators as a bi-objective performance measure in order to test the efficiency of proposed heuristics. Furthermore, since these measures indicate the behavior of tasks under disruptions, they are utilized in order to determine the shape factors and buffers for the development of a stochastic model. The analysis of project outcomes performed through Monte-Carlo simulations supports the argument of partial buffer sizing for modeling activity duration estimates rather than extreme buffer approaches proposed via PERT-beta estimates.
5

Modellierung modularer Materialfluss-Systeme mit Hilfe von künstlichen neuronalen Netzen / Modelling of material flow systems with artificial neural networks

Markwardt, Ulf 23 October 2004 (has links) (PDF)
Materialfluss-Systeme für den Stückgut-Transport auf der Basis von Stetigförderern sind meist modular aufgebaut. Das Verhalten gleichartiger Materialfluss-Elemente unterscheidet sich durch technische Parameter (z.B. geometrische Größen) und durch unterschiedliche logistische Belastungen der Elemente im System. Durch die in der Arbeit getroffenen Modellannahmen werden für die Elemente nur lokale Steuerungsregeln zugelassen und für das System Blockierfreiheit vorausgesetzt. Das Verhalten eines Materialfluss-Elements hängt dann nicht mehr von Zuständen anderer Elemente des Systems ab sondern nur noch von den stochastischen Prozessen des Eintreffens von Transporteinheiten. Die Auslastung eines Elements, die Quantile der Warteschlangenlängen an seinen Eingängen und die Variationskoeffizienten seiner Abgangsströme sind statistische Kenngrößen. Sie hängen im Wesentlichen nur von der Klasse des Elements, seinen technischen Parametern, den Parametern der Eingangsströme und der lokalen Transportmatrix ab. Diese funktionellen Abhängigkeiten sind im Allgemeinen nicht analytisch handhabbar. Da diese Funktionen stetig differenzierbar und beschränkt sind und von relativ viele Eingansgrößen anhängen, sind neuronale Netze gut geeignet für numerische Näherungen. Mit Hilfe von einfachen neuronalen Netzen können die statistischen Kenngrößen numerisch approximiert werden. Aus einzelnen Teilmodellen kann ein hybrides Modell des gesamten Systems zusammengesetzt werden. Anhand von einigen Beispielen wird die Güte der Modellierung bewertet. / Material flow systems are normally built with a modular structure. The behavoir of similar elements only differs by technical parameters (e.g. geometriy), and by different logistic loads of the elements in the system. In this paper, a new model is being developed for a non-blocking system with non-global control rules. The behavior of a flow of a material flow element is assumed not to depend on the conditions of other elements of the system, but only on stochastic processes of the arrival of transportation units. The rate of utilization of an element, the quantiles of the queue lengths at its inputs, and the dispersion of its output stream are statistic characteristics. They depend only on the type of the element, its technical parameters, the parameters of the input streams, and the local transportation matrix. These functional dependencies are not analytically manageable. But due to their properties, neural nets are well suited for numeric approximations of these statistic functions. The single models can be used to compose a hybrid model of the whole system. A few examples show the quality of the new modeling technique.
6

Eliminierung negativer Effekte autokorrelierter Prozesse an Zusammenführungen

Rank, Sebastian 11 July 2017 (has links) (PDF)
Im Kern der vorliegenden Arbeit wird eine neue Vorfahrtstrategie zur Steuerung von Materialflüssen an Zusammenführungen vorgestellt. Das Hauptanwendungsgebiet stellen innerbetriebliche Transportsysteme dar, wobei die Erkenntnisse auf beliebige Transport- bzw. Bediensysteme übertragbar sind. Die Arbeit grenzt sich mit der Annahme autokorrelierter Ankunftsprozesse von bisheriger Forschung und Entwicklung ab. Bis dato werden stets unkorrelierte Ströme angenommen bzw. findet keine spezielle Beachtung autokorrelierter Ströme bei der Vorfahrtsteuerung statt. Untersuchungen zeigen aber, dass zum einen mit hoher Konfidenz mit autokorrelierten Materialflüssen zu rechnen ist und in diesem Fall zum anderen von einem erheblichen Einfluss auf die Systemleistung ausgegangen werden muss. Zusammengefasst konnten im Rahmen der vorliegenden Arbeit 68 Realdatensätze verschiedener Unternehmen untersucht werden, mit dem Ergebnis, dass ca. 95% der Materialflüsse Autokorrelation aufweisen. Ferner wird hergeleitet, dass Autokorrelation intrinsisch in Materialflusssystemen entsteht. Die Folgen autokorrelierter Prozesse bestehen dabei in längeren Durchlaufzeiten, einem volatileren Systemverhalten und höheren Wahrscheinlichkeiten von Systemblockaden. Um die genannten Effekte an Zusammenführungen zu eliminieren, stellt die Arbeit eine neue Vorfahrtstrategie HAFI – Highest Autocorrelated First vor. Diese priorisiert die Ankunftsprozesse anhand deren Autokorrelation. Konkret wird die Vorfahrt zunächst so lange nach dem Prinzip First Come First Served gewährt, bis richtungsweise eine spezifische Warteschlangenlänge überschritten wird. Der jeweilige Wert ergibt sich aus der Höhe der Autokorrelation der Ankunftsprozesse. Vorfahrt bekommt der Strom mit der höchsten Überschreitung seines Grenzwertes. Die Arbeit stellt ferner eine Heuristik DyDeT zur automatischen Bestimmung und dynamischen Anpassung der Grenzwerte vor. Mit einer Simulationsstudie wird gezeigt, dass HAFI mit Anwendung von DyDeT die Vorzüge der etablierten Vorfahrtstrategien First Come First Served und Longest Queue First vereint. Dabei wird auch deutlich, dass die zwei letztgenannten Strategien den besonderen Herausforderungen autokorrelierter Ankunftsprozesse nicht gerecht werden. Bei einer Anwendung von HAFI zur Vorfahrtsteuerung können Durchlaufzeiten und Warteschlangenlängen auf dem Niveau von First Come First Served erreicht werden, wobei dieses ca. 10% unter dem von Longest Queue First liegt. Gleichzeitig ermöglicht HAFI, im Gegensatz zu First Come First Served, eine ähnlich gute Lastbalancierung wie Longest Queue First. Die Ergebnisse stellen sich robust gegenüber Änderungen der Auslastung sowie der Höhe der Autokorrelation dar. Gleichzeitig sind die Erkenntnisse unabhängig der Analyse einer isolierten Zusammenführung und der Anordnung mehrerer Zusammenführungen in einem Netzwerk. / The work at hand presents a novel strategy to control arrival processes at merges. The main fields of application are intralogistics transport systems. Nevertheless, the findings can be adapted to any queuing system. In contrast to further research and development the thesis assumes autocorrelated arrival processes. Up until now, arrivals are usually assumed to be uncorrelated and there are no special treatments for autocorrelated arrivals in the context of merge controlling. However, surveys show with high reliability the existence of autocorrelated arrivals, resulting in some major impacts on the systems\' performance. In detail, 68 real-world datasets of different companies have been tested in the scope of this work, and in 95% of the cases arrival processes significantly show autocorrelations. Furthermore, the research shows that autocorrelation comes from the system itself. As a direct consequence it was observed that there were longer cycle times, more volatile system behavior, and a higher likelihood of deadlocks. In order to eliminate these effects at merges, this thesis introduces a new priority rule called HAFI-Highest Autocorrelated First. It assesses the arrivals\' priority in accordance to their autocorrelation. More concretely, priority initially is given in accordance to the First Come First Served scheme as long as specific direction-wise queue lengths are not exceeded. The particular thresholds are determined by the arrival processes\' autocorrelation, wherein the process with the highest volume gets priority. Furthermore, the thesis introduces a heuristic to automatically and dynamically determine the specific thresholds of HAFI-so called DyDeT. With a simulation study it can be shown that HAFI in connection with DyDeT, combines the advantages of the well-established priority rules First Come First Served and Longest Queue First. It also becomes obvious that the latter ones are not able to deal with the challenges of autocorrelated arrival processes. By applying HAFI cycling times and mean queue lengths on the level of First Come First Served can be achieved. These are about 10% lower than for Longest Queue First. Concomitantly and in contrast to First Come First Served, HAFI also shows well balanced queues like Longest Queue First. The results are robust against different levels of throughput and autocorrelation, respectively. Furthermore, the findings are independent from analyzing a single instance of a merge or several merges in a network.

Page generated in 0.0246 seconds