• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 35
  • 25
  • 4
  • 2
  • Tagged with
  • 101
  • 24
  • 19
  • 17
  • 16
  • 14
  • 14
  • 14
  • 12
  • 11
  • 10
  • 10
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Computer Assisted Music Creation : A recollection of my work and thoughts on heuristic algorithms, aesthetics, and technology.

Ohlsson, Patrik January 2016 (has links)
Denna text är delvis en dokumentation av min egna resa inom datorbaserat tonsättande, specifikt inom algoritmisk komposition. Det är även ett utforskande av den tankevärld som finns i anknytning till dessa metoder – där estetiska koncept och konsekvenser diskuteras. Texten kommer huvudsakligen att beröra metoder som gynnas av eller möjliggörs av teknologi. Jag har försökt att närma mig dessa ämnen holistiskt genom att diskutera allt från estetik, teknik, till konkreta realiseringar av särskilda musikaliska idéer. Till detta tillkommer även många notexempel, lite kod, och illustrationer – specifikt för att stödja förklaringarna av, för många musikstudenter, främmande utommusikaliska koncept.
42

Improved Heuristics for Partitioned Multiprocessor Scheduling Based on Rate-Monotonic Small-Tasks

Müller, Dirk, Werner, Matthias 01 November 2012 (has links) (PDF)
Partitioned preemptive EDF scheduling is very similar to bin packing, but there is a subtle difference. Estimating the probability of schedulability under a given total utilization has been studied empirically before. Here, we show an approach for closed-form formulae for the problem, starting with n = 3 tasks on m = 2 processors.
43

Effiziente Heuristiken für das Textile Nesting Problem : das nichtkonvexe Schnittproblem im R 2 /

Kubitschek, Frank. January 2005 (has links) (PDF)
Helmut-Schmidt-Univ./Univ. der Bundeswehr, Diss.--Hamburg, 2005.
44

Optimales Gatewaydesign mit genetischem Algorithmus und ganzzahliger linearer Programmierung

Hauer, Wolfgang, January 2008 (has links)
Ulm, Univ., Diss., 2008.
45

Leaning search control knowlledge for equational deduction /

Schulz, Stephan. January 2000 (has links)
Thesis (Dr. rer. nat.)--Technische Universität München, 2000. / "Infix"--Cover. Includes bibliographical references (p. [164]-175) and index.
46

Heuristische Suche in komplexen Strukturen zur Verwendung Genetischer Algorithmen bei der Auftragseinplanung in der Automobilindustrie /

Fritzsche, Albrecht. January 2009 (has links)
Diss. Univ. Hohenheim, 2008. / Business and Economics (German Language) (Springer-11775) (GWV).
47

Heuristische Suche in komplexen Strukturen zur Verwendung Genetischer Algorithmen bei der Auftragseinplanung in der Automobilindustrie /

Fritzsche, Albrecht. January 2009 (has links)
Diss. Univ. Hohenheim, 2008. / Business and Economics (German Language) (Springer-11775) (GWV).
48

Tolkning av stokastiska utfall : Heuristik och bias i kontextuell slumpmässighet / Interpetation of stochastic outcomes : Heuristics and bias in contextual randomness

Åhlander, Johan January 2018 (has links)
Slumpmässighet är ett välutforskat akademiskt ämne genom sannolikhetslära, statistik och till vis del även datavetenskap. Slumpen används också mycket inom spel och spelande för att introducera element av osäkerhet. Trots detta är den intuitiva förståelsen av slump hos människor missvisande och leder till felaktiga slutsatser som gambler’s och hot-hand fallasierna. Vilka fallasier en individ uppvisar beror mycket på de omständigheter som osäkerheten presenteras i. Dock är mycket av forskningen på området fokuserad kring ren informationspresentation, inte den mer komplexa kontextualisering som existerar i spel där mycket av informationen är sammanhängde.Detta arbete undersökte hur slump tolkas av spelvana individer i en enklare spelkontext där testdeltagare dels gjorde ett urval mellan slumpmässiga element som påverkade dem direkt, och dels fick det göra en bedömning av fiendes svårighet. Resultatet visade på en blandning av gambler’s och hot-hand fallasierna. Dock behövs mer data för att kunna dra några generaliserande slutsatser. Utöver att samla in mer information inom arbetets ämnesområde visade även undersökningen på andra forskningsområden som är av intresse: att undersöka slumps representations inverkan på tolkning, att undersöka hur fördröjning mellan exponering och urval gör skillnad på uppfattningen av slump, samt att undersöka möjligheter att kvantifiera kontexter.
49

Optimierung der materialisierten Sichten in einem Datawarehouse auf der Grundlage der aus einem ERP-System übernommenen operativen Daten

Achs, Thomas Ludwig 10 1900 (has links) (PDF)
Das Planen und Entwickeln eines optimalen Data Warehouse-Systems ist ein Ansinnen vieler Wissenschaftler und Forscher aus unterschiedlichen Bereichen. Zahlreiche Publikationen wurden zu diesem Thema verfasst und in den letzten Jahren veröffentlicht. In dieser Literatur wird versucht eine Heuristik zu entwickeln, welche eine Lösung nahe am Optimum für das Materialisierungsproblem im Data Warehouse liefert. In der Vergangenheit wurden in zahlreichen Publikationen Annahmen, wie unbegrenzte Ressourcen oder rasche Zugriffszeit getroffen, welche in der realen Welt allerdings nicht vorhanden sind. Die Vision, welche hinter dieser Arbeit steckt, ist es, ein Instrument zu entwickeln, welches diese limitierenden Faktoren mitberücksichtigt, bzw. dieses versucht. Dabei hat sich insbesondere die Modellierungsmethode des Aggregation Path Arrays von Prosser und Ossimitz als geeignet erwiesen, in diesem Problembereich einen Lösungsansatz zu finden. Vor allem ist diese Methode durch die einfache graphische Darstellungsfähigkeit besonders für informationstechnische Darstellung geeignet. Dabei ist es auch unerfahrenen Endbenutzer möglich, das Design eines Warehouses zu bewerkstelligen. Aus diesem Grund ist die Methode auch für Schulungs- und Ausbildungszwecke besonders geeignet. Die kostenminimale physische Bereitstellung der wichtigen Informationen für die Entscheidungsträger in Unternehmen stellt das Ziel dieser Arbeit dar. Dabei ist ein Optimierungsproblem zu lösen, welches limitierende Zeit- und Speicherressourcen bei gleichzeitigem Berücksichtigen wichtiger Information beachtet. Leider ist diese Information nicht immer als homogen anzusehen. Es gibt beispielsweise wichtige Information, welche für das Überleben einer Organisation notwendig ist und Information, welche wichtig, aber nicht ständig verfügbar sein muss. Der Versuch einen Lösungsansatz für diese Problematik zu finden, stellt das Herzstück meiner Arbeit dar. (Autorenref.)
50

A dynamic heuristics approach for proactive production scheduling under robustness targets

Zahid, Taiba 19 June 2017 (has links) (PDF)
In den vergangenen Jahrzehnten konzentrierte sich das Operations Management auf Optimierungsstrategien, insbesondere wurden Meta-Heuristiken für das komplexe, kombinatorische Problem der ressourcenbegrenzten Ablaufplanung erforscht. In einfachen Worten gehört dieses Problem zu den NP-schweren Problemen, die einen derart großen Lösungsraum besitzen, der mittels Enumerationverfahren rechnerisch unlösbar ist. Daher erfordert die Exploration von optimalen Lösungen andere Methoden als Zufallssuchverfahren. Solche Suchalgorithmen in Meta-Heuristik starten mit einer oder mehreren Ausgangslösung und erkunden den Suchraum nach optimalen Lösungen. Jedoch stellen die existierenden Forschungsansätze zur Lösungssuche nur diejenigen Lösungen bereit, die ausschließlich unter den gegebenen Eingangsbedingungen optimal sind. Diese Eingabebedingungen definieren einen Lösungsraum, in dem alles nach Plan geht. Jedoch ist das in der Praxis sicherlich nicht der Fall. Wie wir sagen, der Wandel ist die einzige Konstante in dieser Welt. Risiken und Unsicherheiten begegnen stets im täglichen Leben. Die vorliegende Dissertation untersucht Optimierungsansätze unter Unsicherheit. Der Forschungsbeitrag ist zweigeteilt. Wie bereits gesagt, wurden Optimierungsstrategien zum Durchsuchen des Lösungsraums in den letzten Jahren stark erforscht. Obwohl es eine anerkannte Tatsache ist, dass die Verbesserung und die Leistung von Optimierungsstrategien stark mit den Initiallösungen korreliert, scheint die Literatur diesbezüglich inexistent, während zumeist auf die Entwicklung von meta-heuristischen Algorithmen wie Genetische Algorithmen und Particle-Swarm-Optimierung fokussiert wird. Die Initiallösungen werden durch simulationsbasierte Strategien entwickelt, die typischerweise gierige Regeln und ereignisbasierte Simulation nutzen. Allerdings verhalten sich kommerzielle Basis-Softwareprodukte meist als Black-Box und stellen keine Informationen über das interne Verhalten bereit. Außerdem erfordern derartige Softwareprodukte meist spezielle Architekturen und missachten Ressourcenbeschränkungen. Die vorliegende Studie diskutiert die ressourcenbeschränkte Projektplanung mit alternativen Modi und schlägt ein simulationsbasiertes Rahmenwerk vor, mit dem ein heuristisches Multi-Pass-Verfahren zur Verfügung gestellt wird. Das erweiterte Multi-Modus-Problem ist in der Lage, den Produktionsbereich in einer besseren Art und Weise nachzubilden, bei dem eine Aktivität von mehreren Ressourcen unterschiedlicher Qualifikation ausgeführt werden kann. Der vorgeschlagene Rahmen diskutiert die Leistung von Algorithmen und verwendet hierfür Benchmark-Instanzen. Das Verhalten verschiedener Projektnetze und deren Eigenschaften werden auch innerhalb des vorgeschlagenen Rahmenwerks bewertet. Darüber hinaus hilft das offene Rahmenwerk, besondere Eigenschaften von Aktivitäten zu analysieren, um deren Verhalten im Fall von Störungen zu prognostizieren. Die traditionellen Methoden der Risikoanalyse schlagen Slack-basierte Maßzahlen vor, um die Effizienz von Basisplänen zu bestimmen. Das Rahmenwerk wird weiter entwickelt, um mit diesem einen Prüfstand zu gestalten, mit dem nicht-reguläre Maßzahlen bestimmt werden können. Diese Maßnahmen werden als Robustheitsindikatoren bezeichnet und korrelieren mit der Verzögerung derartiger Multi-Modus-Probleme. Solche Leistungsmaße können genutzt werden, um die Wirksamkeit von Basisplänen zu bewerten und ihr Verhalten unter Unsicherheiten zu prognostizieren. Die Ergebnisse dieser Tests werden als modifizierte Zielfunktion verwendet, in der ein bi-objektives Leistungsmaß aus Durchlaufzeit und Robustheit eingesetzt wird, um die Effizienz der vorgeschlagenen Heuristiken zu testen. Da diese Leistungsmaße das Verhalten von Aktivitäten unter Störungen zeigen, werden diese auch genutzt, um die Formfaktoren und Puffergrößen für die Entwicklung eines stochastischen Modells zu bestimmen. Die Analyse der Projektergebnisse, durchgeführt mittels Monte-Carlo-Simulationen, unterstützt das Argument von Teilpuffern für die Modellierung von Aktivitätsdauern anstatt Ansätze mit Extrempuffern und PERT-beta-Schätzungen. / Over the past decades, researches in the field of operations management have focused on optimization strategies based on meta-heuristics for the complex-combinatorial problem of resource constrained scheduling. In simple terms, the solution for this particular problem categorized as NP-hard problem, exhibits a large search space, is computationally intractable, and requires techniques other than random search. Meta-heuristic algorithms start with a single or multiple solutions to explore and optimize using deterministic data and retrieve a valid optimum only under specified input conditions. These input conditions define a solution search space for a theoretical world undergoing no disturbance. But change is inherent to the real world; one is faced with risks and uncertainties in everyday life. The present study explores solution methodologies in the face of uncertainties. The contributions of this thesis are two-fold. As mentioned earlier, existing optimization strategies have been vigorously investigated in the past decade with respect to exploring large solution search space. Although, it is an established fact that the improvement and performance of optimization strategies is highly correlated with the initial solutions, existing literature regarding this area is not exhaustive and mostly focuses on the development of meta-heuristic algorithms such as genetic algorithms and particle swarm optimization. The initial solutions are developed through simulation based strategies mainly based on greedy rules and event based simulation. However, the available commercial softwares are primarily modeled as a black box and provide little information as to internal processing. Additionally, such planners require special architecture and disregard resource constraints. The present study discusses the multi-mode resource constrained scheduling problem and proposes a simulation-based framework to provide a multi-pass heuristic method. The extended version of multi-mode problem is able to imitate production floor in an improved manner where a task can be performed with multiple resources with certain qualifications. The performance of the proposed framework was analyzed using benchmark instances. The behavior of different project networks and their characteristics is also evaluated within the proposed framework. In addition, the open framework aids in determining the particular characteristic of tasks in order to analyze and forecast their behavior in case of disruptions. The traditional risk analysis techniques suggest slack-based measures in order to determine the efficiency of baseline schedules. The framework is further developed to design a test bench in order to determine non-regular performance measures named as robustness indicators which correlate with the delay of such cases as multi-mode problem. Such performance measures can be used to indicate the effectiveness of baseline schedules and forecast their behavior. The outputs of these tests are used to modify the objective function which uses makespan and robustness indicators as a bi-objective performance measure in order to test the efficiency of proposed heuristics. Furthermore, since these measures indicate the behavior of tasks under disruptions, they are utilized in order to determine the shape factors and buffers for the development of a stochastic model. The analysis of project outcomes performed through Monte-Carlo simulations supports the argument of partial buffer sizing for modeling activity duration estimates rather than extreme buffer approaches proposed via PERT-beta estimates.

Page generated in 0.057 seconds