• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 29
  • 18
  • 11
  • 6
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 146
  • 82
  • 76
  • 44
  • 44
  • 33
  • 32
  • 32
  • 21
  • 21
  • 20
  • 18
  • 16
  • 16
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Ermittlung der plastischen Anfangsanisotropie durch Eindringversuche

Lindner, Mario 26 August 2010 (has links) (PDF)
Die Genauigkeit der Ergebnisse einer numerischen Simulation von Umformvorgängen wird maßgeblich durch die Beschreibung des Materialverhaltens bestimmt. Neben der Auswahl eines geeigneten Stoffgesetzes zur Darstellung einer Klasse von Werkstoffen ist die Identifikation der in den Modellen enthaltenen Materialparameter zur Charakterisierung seiner besonderen Eigenschaften notwendig. In der vorliegenden Arbeit wird die Bestimmung der Materialparameter eines elastisch-plastischen Deformationsgesetzes zur Beschreibung der plastischen Anisotropie auf Basis der Fließbedingung von Hill unter Berücksichtigung großer Deformationen vorgenommen. Die Ermittlung der Parameter erfolgt durch die Lösung einer nichtlinearen Optimierungsaufgabe (Fehlerquadratminimum) basierend auf dem Vergleich von experimentell durchgeführten Eindringversuchen mit Ergebnissen der numerischen Simulation.
32

Hybride Ansätze basierend auf Dynamic Programming und Ant Colony Optimization zur mehrkriteriellen Optimierung Kürzester-Wege-Probleme in gerichteten Graphen am Beispiel von Angebotsnetzen im Extended Value Chain Management

Häckel, Sascha 17 September 2010 (has links) (PDF)
In einer von Vernetzung und Globalisierung geprägten Umwelt wächst der Wettbewerbsdruck auf die Unternehmen am Markt stetig. Die effektive Nutzung der Ressourcen einerseits und die enge Zusammenarbeit mit Lieferanten und Kunden andererseits führen für nicht wenige Unternehmen des industriellen Sektors zu entscheidenden Wettbewerbsvorteilen, die das Fortbestehen jener Unternehmen am Markt sichern. Viele Unternehmen verstehen sich aus diesem Grund als Bestandteil so genannter Supply Chains. Die unternehmensübergreifende Steuerung und Optimierung des Wertschöpfungsprozesses stellt ein charakteristisches Problem des Supply Chain Managements dar und besitzt zur Erzielung von Wettbewerbsvorteilen hohes Potential. Produktionsnetzwerke sind ein wesentlicher Forschungsschwerpunkt der Professur für Produktionswirtschaft und Industriebetriebslehre an der TU Chemnitz. Das Extended Value Chain Management (EVCM) stellt ein kompetenzorientiertes Konzept für die Bildung und zum Betrieb hierarchieloser temporärer regionaler Produktionsnetzwerke im Sinne virtueller Unternehmen dar. Gegenstand dieser Arbeit ist ein diskretes Optimierungsproblem, dass einen mehrstufigen Entscheidungsprozesses unter Berücksichtigung mehrerer Ziele abbildet, der sich bei der Auswahl möglicher Partner in einem Produktionsnetzwerk nach dem Betreiberkonzept des EVCM ergibt. Da mehrere Zielstellungen bestehen, werden grundlegende Methoden der mehrkriteriellen Optimierung und Entscheidung erörtert. Neben der Vorstellung des Problems sollen mehrzielorientierte Ansätze im Sinne einer Pareto-Optimierung auf Basis des Dynamic Programmings als Verfahren zur Bestimmung von Optimallösungen sowie Ant Colony Optimization zur näherungsweisen Lösung vorgestellt werden. Darauf aufbauend werden verschiedene Möglichkeiten der Hybridisierung beider Methoden diskutiert. Die entwickelten Ansätze werden auf ihre Eignung im Rahmen der informationstechnischen Umsetzung des EVCM-Konzepts untersucht und einer Evaluierung unterzogen. Hierzu werden verschiedene Kennzahlen zur Beurteilung der Verfahren entwickelt. Die modellierten Algorithmen und entwickelten Konzepte beschränken sich nicht ausschließlich auf das betrachtete Problem, sondern können leicht auf Probleme mit ähnlichen Eigenschaften übertragen werden. Insbesondere das NP-vollständige mehrkriterielle Kürzeste-Wege-Problem stellt einen Spezialfall des behandelten Optimierungsproblems dar.
33

Charakterisierung eines Gebiets durch Spektraldaten eines Dirichletproblems zur Stokesgleichnung / Characterisation of domains by spectral data of a Dirichlet problem for the Stokes equation

Tsiporin, Viktor 20 January 2004 (has links)
No description available.
34

Regularization properties of the discrepancy principle for Tikhonov regularization in Banach spaces

Anzengruber, Stephan W., Hofmann, Bernd, Mathé, Peter 11 December 2012 (has links) (PDF)
The stable solution of ill-posed non-linear operator equations in Banach space requires regularization. One important approach is based on Tikhonov regularization, in which case a one-parameter family of regularized solutions is obtained. It is crucial to choose the parameter appropriately. Here, a variant of the discrepancy principle is analyzed. In many cases such parameter choice exhibits the feature, called regularization property below, that the chosen parameter tends to zero as the noise tends to zero, but slower than the noise level. Here we shall show such regularization property under two natural assumptions. First, exact penalization must be excluded, and secondly, the discrepancy principle must stop after a finite number of iterations. We conclude this study with a discussion of some consequences for convergence rates obtained by the discrepancy principle under the validity of some kind of variational inequality, a recent tool for the analysis of inverse problems.
35

Probleme aus Sicht von Lehrkräften im Fach Gesellschaftslehre – eine quantitative Untersuchung / Teachers' Problems when Teaching Gesellschaftslehre (Civic Education, History, Geography) – a Quantitative Study

Grieger, Marcel 15 May 2016 (has links)
No description available.
36

Juristische Probleme bei der Entwicklung und Nutzung von Software

Gramlich, Ludwig 18 September 1998 (has links)
Vortrag UNIX-Stammtisch 04/98
37

CHEOPS: Das Chemnitzer hybrid-evolutionäre Optimierungssystem

Nieländer, N. Ulf 12 June 2009 (has links)
Evolutionäre Algorithmen übertragen den natürlich-biologischen Evolutionsprozess auf die Lösung mathematischer, techn(olog)ischer oder ökonomischer Optimierungsprobleme aus Forschung, Industrie und Wirtschaft. Die als Vorbild dienenden Prinzipien und Mechanismen werden jedoch nicht direkt kopiert, sondern lediglich ihre Wirkungen abstrakt imitiert sowie algorithmisch implementiert, um dann für die jeweilige Aufgabenstellung immer bessere Individuen mittels Computer im Zeitraffer heranzuzüchten und schließlich (fast-)optimale Lösungspunkte aufzufinden. Dabei bedarf es keiner expliziten Richtungsinformation oder sonstiger Wegweiser, um die Züchtung bzw. Suche zielgerichtet zu dirigieren und dann erfolgreich zu konvergieren. Sukzessive orientieren sich Evolutionäre Algorithmen allein anhand von Lösungspunkt-Zielfunktionswert-Paaren, also am Erfolg oder Misserfolg bereits durchgeführter Suchschritte. Aufgrund dieser konzeptuellen Anspruchslosigkeit haben sie dem Selektionsdruck der Praxis standgehalten, viele Anwendungsgebiete erobert und sich als universell einsetzbare Lösungsverfahren / Optimierungswerkzeuge etabliert. Das für diese Dissertation entwickelte und hier eingehend dokumentierte Chemnitzer hybrid-evolutionäre Optimierungssystem CHEOPS ist konzipiert als leistungsstarker, universeller, anpassungsfähiger und erweiterbarer Evolutionärer Algorithmus zur statischen Parameteroptimierung deterministischer Probleme. Als numerischer Benchmark zur empirischen Beurteilung von Erfolgswahrscheinlichkeit und Fortschrittsgeschwindigkeit ist außerdem eine ausgewogene Schar schwierig zu optimierender mathematischer Testfunktionen zusammengestellt. Dabei sind sie bewusst so konstruiert, dass sie derartige charakteristische Merkmale besitzen, die auch bei praxisrelevanten Optimierungsproblemen oft vorliegen oder zu erwarten sind. Verschiedene topologische Funktionseigenschaften haben tatsächliche oder auch nur vermeintliche Schwierigkeiten bei der Optimierung besonders verdeutlicht. CHEOPS beinhaltet eine Vielzahl an Werkzeugen und Funktion(alität)en, wird aber weiterentwickelt hinsichtlich mehrkriterieller Optimierung sowie hybrider Optimierung als Themengebiete für zukünftige Herausforderungen.
38

Regularizability of ill-posed problems and the modulus of continuity

Bot, Radu Ioan, Hofmann, Bernd, Mathe, Peter January 2011 (has links)
The regularization of linear ill-posed problems is based on their conditional well-posedness when restricting the problem to certain classes of solutions. Given such class one may consider several related real-valued functions, which measure the wellposedness of the problem on such class. Among those functions the modulus of continuity is best studied. For solution classes which enjoy the additional feature of being star-shaped at zero, the authors develop a series of results with focus on continuity properties of the modulus of continuity. In particular it is highlighted that the problem is conditionally well-posed if and only if the modulus of continuity is right-continuous at zero. Those results are then applied to smoothness classes in Hilbert space. This study concludes with a new perspective on a concavity problem for the modulus of continuity, recently addressed by two of the authors in "Some note on the modulus of continuity for ill-posed problems in Hilbert space", 2011.
39

A dynamic heuristics approach for proactive production scheduling under robustness targets

Zahid, Taiba 29 March 2017 (has links)
In den vergangenen Jahrzehnten konzentrierte sich das Operations Management auf Optimierungsstrategien, insbesondere wurden Meta-Heuristiken für das komplexe, kombinatorische Problem der ressourcenbegrenzten Ablaufplanung erforscht. In einfachen Worten gehört dieses Problem zu den NP-schweren Problemen, die einen derart großen Lösungsraum besitzen, der mittels Enumerationverfahren rechnerisch unlösbar ist. Daher erfordert die Exploration von optimalen Lösungen andere Methoden als Zufallssuchverfahren. Solche Suchalgorithmen in Meta-Heuristik starten mit einer oder mehreren Ausgangslösung und erkunden den Suchraum nach optimalen Lösungen. Jedoch stellen die existierenden Forschungsansätze zur Lösungssuche nur diejenigen Lösungen bereit, die ausschließlich unter den gegebenen Eingangsbedingungen optimal sind. Diese Eingabebedingungen definieren einen Lösungsraum, in dem alles nach Plan geht. Jedoch ist das in der Praxis sicherlich nicht der Fall. Wie wir sagen, der Wandel ist die einzige Konstante in dieser Welt. Risiken und Unsicherheiten begegnen stets im täglichen Leben. Die vorliegende Dissertation untersucht Optimierungsansätze unter Unsicherheit. Der Forschungsbeitrag ist zweigeteilt. Wie bereits gesagt, wurden Optimierungsstrategien zum Durchsuchen des Lösungsraums in den letzten Jahren stark erforscht. Obwohl es eine anerkannte Tatsache ist, dass die Verbesserung und die Leistung von Optimierungsstrategien stark mit den Initiallösungen korreliert, scheint die Literatur diesbezüglich inexistent, während zumeist auf die Entwicklung von meta-heuristischen Algorithmen wie Genetische Algorithmen und Particle-Swarm-Optimierung fokussiert wird. Die Initiallösungen werden durch simulationsbasierte Strategien entwickelt, die typischerweise gierige Regeln und ereignisbasierte Simulation nutzen. Allerdings verhalten sich kommerzielle Basis-Softwareprodukte meist als Black-Box und stellen keine Informationen über das interne Verhalten bereit. Außerdem erfordern derartige Softwareprodukte meist spezielle Architekturen und missachten Ressourcenbeschränkungen. Die vorliegende Studie diskutiert die ressourcenbeschränkte Projektplanung mit alternativen Modi und schlägt ein simulationsbasiertes Rahmenwerk vor, mit dem ein heuristisches Multi-Pass-Verfahren zur Verfügung gestellt wird. Das erweiterte Multi-Modus-Problem ist in der Lage, den Produktionsbereich in einer besseren Art und Weise nachzubilden, bei dem eine Aktivität von mehreren Ressourcen unterschiedlicher Qualifikation ausgeführt werden kann. Der vorgeschlagene Rahmen diskutiert die Leistung von Algorithmen und verwendet hierfür Benchmark-Instanzen. Das Verhalten verschiedener Projektnetze und deren Eigenschaften werden auch innerhalb des vorgeschlagenen Rahmenwerks bewertet. Darüber hinaus hilft das offene Rahmenwerk, besondere Eigenschaften von Aktivitäten zu analysieren, um deren Verhalten im Fall von Störungen zu prognostizieren. Die traditionellen Methoden der Risikoanalyse schlagen Slack-basierte Maßzahlen vor, um die Effizienz von Basisplänen zu bestimmen. Das Rahmenwerk wird weiter entwickelt, um mit diesem einen Prüfstand zu gestalten, mit dem nicht-reguläre Maßzahlen bestimmt werden können. Diese Maßnahmen werden als Robustheitsindikatoren bezeichnet und korrelieren mit der Verzögerung derartiger Multi-Modus-Probleme. Solche Leistungsmaße können genutzt werden, um die Wirksamkeit von Basisplänen zu bewerten und ihr Verhalten unter Unsicherheiten zu prognostizieren. Die Ergebnisse dieser Tests werden als modifizierte Zielfunktion verwendet, in der ein bi-objektives Leistungsmaß aus Durchlaufzeit und Robustheit eingesetzt wird, um die Effizienz der vorgeschlagenen Heuristiken zu testen. Da diese Leistungsmaße das Verhalten von Aktivitäten unter Störungen zeigen, werden diese auch genutzt, um die Formfaktoren und Puffergrößen für die Entwicklung eines stochastischen Modells zu bestimmen. Die Analyse der Projektergebnisse, durchgeführt mittels Monte-Carlo-Simulationen, unterstützt das Argument von Teilpuffern für die Modellierung von Aktivitätsdauern anstatt Ansätze mit Extrempuffern und PERT-beta-Schätzungen. / Over the past decades, researches in the field of operations management have focused on optimization strategies based on meta-heuristics for the complex-combinatorial problem of resource constrained scheduling. In simple terms, the solution for this particular problem categorized as NP-hard problem, exhibits a large search space, is computationally intractable, and requires techniques other than random search. Meta-heuristic algorithms start with a single or multiple solutions to explore and optimize using deterministic data and retrieve a valid optimum only under specified input conditions. These input conditions define a solution search space for a theoretical world undergoing no disturbance. But change is inherent to the real world; one is faced with risks and uncertainties in everyday life. The present study explores solution methodologies in the face of uncertainties. The contributions of this thesis are two-fold. As mentioned earlier, existing optimization strategies have been vigorously investigated in the past decade with respect to exploring large solution search space. Although, it is an established fact that the improvement and performance of optimization strategies is highly correlated with the initial solutions, existing literature regarding this area is not exhaustive and mostly focuses on the development of meta-heuristic algorithms such as genetic algorithms and particle swarm optimization. The initial solutions are developed through simulation based strategies mainly based on greedy rules and event based simulation. However, the available commercial softwares are primarily modeled as a black box and provide little information as to internal processing. Additionally, such planners require special architecture and disregard resource constraints. The present study discusses the multi-mode resource constrained scheduling problem and proposes a simulation-based framework to provide a multi-pass heuristic method. The extended version of multi-mode problem is able to imitate production floor in an improved manner where a task can be performed with multiple resources with certain qualifications. The performance of the proposed framework was analyzed using benchmark instances. The behavior of different project networks and their characteristics is also evaluated within the proposed framework. In addition, the open framework aids in determining the particular characteristic of tasks in order to analyze and forecast their behavior in case of disruptions. The traditional risk analysis techniques suggest slack-based measures in order to determine the efficiency of baseline schedules. The framework is further developed to design a test bench in order to determine non-regular performance measures named as robustness indicators which correlate with the delay of such cases as multi-mode problem. Such performance measures can be used to indicate the effectiveness of baseline schedules and forecast their behavior. The outputs of these tests are used to modify the objective function which uses makespan and robustness indicators as a bi-objective performance measure in order to test the efficiency of proposed heuristics. Furthermore, since these measures indicate the behavior of tasks under disruptions, they are utilized in order to determine the shape factors and buffers for the development of a stochastic model. The analysis of project outcomes performed through Monte-Carlo simulations supports the argument of partial buffer sizing for modeling activity duration estimates rather than extreme buffer approaches proposed via PERT-beta estimates.
40

L'interdisciplinarité en sciences et en arts à l'éducation préscolaire : effets sur le développement cognitif des enfants

Allard, Édith January 2018 (has links) (PDF)
No description available.

Page generated in 0.0545 seconds