• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 22
  • 6
  • 1
  • Tagged with
  • 60
  • 60
  • 24
  • 15
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Preservation of quasiconvexity and quasimonotonicity in polynomial approximation of variational problems

Heinz, Sebastian 01 September 2008 (has links)
Die vorliegende Arbeit beschäftigt sich mit drei Klassen ausgewählter nichtlinearer Probleme, die Forschungsgegenstand der angewandten Mathematik sind. Diese Probleme behandeln die Minimierung von Integralen in der Variationsrechnung (Kapitel 3), das Lösen partieller Differentialgleichungen (Kapitel 4) und das Lösen nichtlinearer Optimierungsaufgaben (Kapitel 5). Mit deren Hilfe lassen sich unterschiedlichste Phänomene der Natur- und Ingenieurwissenschaften sowie der Ökonomie mathematisch modellieren. Als konkretes Beispiel werden mathematische Modelle der Theorie elastischer Festkörper betrachtet. Das Ziel der vorliegenden Arbeit besteht darin, ein gegebenes nichtlineares Problem durch polynomiale Probleme zu approximieren. Um dieses Ziel zu erreichen, beschäftigt sich ein großer Teil der vorliegenden Arbeit mit der polynomialen Approximation von nichtlinearen Funktionen. Den Ausgangspunkt dafür bildet der Weierstraßsche Approximationssatz. Auf der Basis dieses bekannten Satzes und eigener Sätze wird als Hauptresultat der vorliegenden Arbeit gezeigt, dass im Übergang von einer gegebenen Funktion zum approximierenden Polynom wesentliche Eigenschaften der gegebenen Funktion erhalten werden können. Die wichtigsten Eigenschaften, für die dies bisher nicht bekannt war, sind: Quasikonvexität im Sinne der Variationsrechnung, Quasimonotonie im Zusammenhang mit partiellen Differentialgleichungen sowie Quasikonvexität im Sinne der nichtlinearen Optimierung (Theoreme 3.16, 4.10 und 5.5). Schließlich wird gezeigt, dass die zu den untersuchten Klassen gehörenden nichtlinearen Probleme durch polynomiale Probleme approximiert werden können (Theoreme 3.26, 4.16 und 5.8). Die dieser Approximation zugrunde liegende Konvergenz garantiert sowohl eine Approximation im Parameterraum als auch eine Approximation im Lösungsraum. Für letztere werden die Konzepte der Gamma-Konvergenz (Epi-Konvergenz) und der G-Konvergenz verwendet. / In this thesis, we are concerned with three classes of non-linear problems that appear naturally in various fields of science, engineering and economics. In order to cover many different applications, we study problems in the calculus of variation (Chapter 3), partial differential equations (Chapter 4) as well as non-linear programming problems (Chapter 5). As an example of possible applications, we consider models of non-linear elasticity theory. The aim of this thesis is to approximate a given non-linear problem by polynomial problems. In order to achieve the desired polynomial approximation of problems, a large part of this thesis is dedicated to the polynomial approximation of non-linear functions. The Weierstraß approximation theorem forms the starting point. Based on this well-known theorem, we prove theorems that eventually lead to our main result: A given non-linear function can be approximated by polynomials so that essential properties of the function are preserved. This result is new for three properties that are important in the context of the considered non-linear problems. These properties are: quasiconvexity in the sense of the calculus of variation, quasimonotonicity in the context of partial differential equations and quasiconvexity in the sense of non-linear programming (Theorems 3.16, 4.10 and 5.5). Finally, we show the following: Every non-linear problem that belongs to one of the three considered classes of problems can be approximated by polynomial problems (Theorems 3.26, 4.16 and 5.8). The underlying convergence guarantees both the approximation in the parameter space and the approximation in the solution space. In this context, we use the concepts of Gamma-convergence (epi-convergence) and of G-convergence.
52

Limit and shakedown analysis of plates and shells including uncertainties

Trần, Thanh Ngọc 15 April 2008 (has links) (PDF)
The reliability analysis of plates and shells with respect to plastic collapse or to inadaptation is formulated on the basis of limit and shakedown theorems. The loading, the material strength and the shell thickness are considered as random variables. Based on a direct definition of the limit state function, the nonlinear problems may be efficiently solved by using the First and Second Order Reliability Methods (FORM/SORM). The sensitivity analyses in FORM/SORM can be based on the sensitivities of the deterministic shakedown problem. The problem of reliability of structural systems is also handled by the application of a special barrier technique which permits to find all the design points corresponding to all the failure modes. The direct plasticity approach reduces considerably the necessary knowledge of uncertain input data, computing costs and the numerical error. / Die Zuverlässigkeitsanalyse von Platten und Schalen in Bezug auf plastischen Kollaps oder Nicht-Anpassung wird mit den Traglast- und Einspielsätzen formuliert. Die Lasten, die Werkstofffestigkeit und die Schalendicke werden als Zufallsvariablen betrachtet. Auf der Grundlage einer direkten Definition der Grenzzustandsfunktion kann die Berechnung der Versagenswahrscheinlichkeit effektiv mit den Zuverlässigkeitsmethoden erster und zweiter Ordnung (FROM/SORM) gelöst werden. Die Sensitivitätsanalysen in FORM/SORM lassen sich auf der Basis der Sensitivitäten des deterministischen Einspielproblems berechnen. Die Schwierigkeiten bei der Ermittlung der Zuverlässigkeit von strukturellen Systemen werden durch Anwendung einer speziellen Barrieremethode behoben, die es erlaubt, alle Auslegungspunkte zu allen Versagensmoden zu finden. Die Anwendung direkter Plastizitätsmethoden führt zu einer beträchtlichen Verringerung der notwendigen Kenntnis der unsicheren Eingangsdaten, des Berechnungsaufwandes und der numerischen Fehler.
53

Optimal Layer Design

Sohrmann, Christoph, Eller, Jens 12 September 2003 (has links)
In this bachelor thesis we report on our numerical investigations into the optimal design of protective multi-layer coatings subject to an external force of Hertzian form. In view of mechanical reliablity and durability of the substrate and the coating we aim to find the best composition of given materials with the least computational effort. Numerical studies are carried out using the simulation software ELASTICA being the first non-FEM approach for the computation of stress fields within multi-layer coated, elastic materials. We thereby made use of the massive parallel computer CLiC (Chemnitzer Linux Cluster) where we ran our Windows based application in a Wine Environment. The outcome of the optimization is in general very sensitive towards the input parameters(i.e., material properties) which are not always available in the desired accuracy. However, the scheme outlined in this work is shown to produce very good results and could contribute a great deal to find optimal solutions for real applications. / Diese Bachelorarbeit befasst sich mit numerischen Untersuchungen zum optimalen Design von schützenden Mehrschichtbeschichtungen, die einer externen, Hertzschen Last ausgesetzt sind. Hinsichtlich der mechanischen Zuverlässigkeit und Haltbarkeit von Substrat und Beschichtung, versuchen wir die beste Zusammensetzung von gegebenen Materialien mit möglichst geringem Rechenaufwand zu finden. Die numerischen Berechungen wurden mit der Simulationssoftware ELASTICA durchgeführt, welches das erste kommerzielle, nicht-FEM-basierte Programm zur Berechnung von Stressfeldern innerhalb mehrfach beschichteter, elastischer Materialien darstellt. Dafür benutzten wir auf dem massiven Parrallelrechner CLiC (Chemnitzer Linux Cluster) unsere Windows basierte Anwendung unter der Emulationssoftware Wine. Das Ergebnis der Optimierung hängt im allgemeinen sehr stark von der Qualität der Eingangsparameter (z.B. Materialeigenschaften) ab, welche nicht immer in der erwünschten Genauigkeit vorliegen. Es wird gezeigt, dass die in dieser Arbeit vorgestellte Vorgehensweise sehr gute Resultate liefert und für reale Anwendungen einen äusserst ressourcenschonenden Lösungsweg darstellt.
54

Lastgetriebene Validierung Dienstbereitstellender Systeme

Caspar, Mirko 07 January 2014 (has links)
Mit steigender Komplexität heterogener, verteilter Systeme nehmen auch die Anforderungen an deren Validierung zu. In dieser Arbeit wird ein Konzept vorgestellt, mit dem eine bestimmte Klasse komplexer Systeme, so genannte Dienstbereitstellende Systeme, durch automatisiertes Testen validiert werden kann. Mit Hilfe heterogener Klienten, bspw. eingebetteter Systeme, wird die Systemfunktionalität getestet. Hierzu wird das zu testende System auf die nach außen zur Verfügung gestellten Dienste reduziert und die Nutzung dieser Dienste durch Klienten mit einer Last quantifiziert. Eine Validierung wird durch die Vorgabe zeitlich veränderlicher Lasten für jeden Dienst definiert. Diese Lasten werden zielgerichtet den verfügbaren Klienten zugeteilt und durch diese im zu testenden System erzeugt. Zur praktikablen Anwendung dieses Konzeptes ist eine Automatisierung des Validierungsprozesses notwendig. In der Arbeit wird die Architektur einer Testbench vorgestellt, die zum einen die Heterogenität der Klienten berücksichtigt und zum anderen Einflüsse durch die Dynamik der Klienten während der Laufzeit der Validierung ausgleicht. Das hierbei zu lösende algorithmische Problem der Dynamischen Testpartitionierung wird ebenso definiert, wie ein Modell zur Beschreibung aller notwendigen Parameter. Die Testpartitionierung kann mittels einer eigens entwickelten Heuristik in Polynomialzeit gelöst werden. Zur Bestimmung der Leistungsfähigkeit des entwickelten Verfahrens wird die Heuristik aufwendigen Untersuchungen unterzogen. Am Beispiel eines zu testenden Mobilfunknetzwerkes wird die beschriebene Testbench umgesetzt und Kernparameter mittels Simulation ermittelt. Das Ergebnis dieser Arbeit ist ein Konzept zur Systemvalidierung, das generisch auf jede Art von dienstbereitstellenden Systemen angewandt werden kann und damit zur Verbesserung des Entwicklungsprozesses von komplexen verteilten Systemen beiträgt.
55

Globale Optimierungsverfahren, garantiert globale Lösungen und energieeffiziente Fahrzeuggetriebe

Stöcker, Martin 03 July 2014 (has links)
Der Schwerpunkt der vorliegenden Arbeit liegt auf Methoden zur Lösung nichtlinearer Optimierungsprobleme mit der Anforderung, jedes globale Optimum garantiert zu finden und mit einer im Voraus festgesetzten Genauigkeit zu approximieren. Eng verbunden mit dieser deterministischen Optimierung ist die Berechnung von Schranken für den Wertebereich einer Funktion über einem gegebenen Hyperquader. Verschiedene Ansätze, z. B. auf Basis der Intervallarithmetik, werden vorgestellt und analysiert. Im Besonderen werden Methoden zur Schrankengenerierung für multivariate ganz- und gebrochenrationale Polynome mit Hilfe der Darstellung in der Basis der Bernsteinpolynome weiterentwickelt. Weiterhin werden in der Arbeit schrittweise die Bausteine eines deterministischen Optimierungsverfahrens unter Verwendung der berechneten Wertebereichsschranken beschrieben und Besonderheiten für die Optimierung polynomialer Aufgaben näher untersucht. Die Analyse und Bearbeitung einer Aufgabenstellung aus dem Entwicklungsprozess für Fahrzeuggetriebe zeigt, wie die erarbeiteten Ansätze zur Lösung nichtlinearer Optimierungsprobleme die Suche nach energieeffizienten Getrieben mit einer optimalen Struktur unterstützen kann. Kontakt zum Autor: [Nachname] [.] [Vorname] [@] gmx [.] de
56

Decomposition in multistage stochastic programming and a constraint integer programming approach to mixed-integer nonlinear programming

Vigerske, Stefan 27 March 2013 (has links)
Diese Arbeit leistet Beiträge zu zwei Gebieten der mathematischen Programmierung: stochastische Optimierung und gemischt-ganzzahlige nichtlineare Optimierung (MINLP). Im ersten Teil erweitern wir quantitative Stetigkeitsresultate für zweistufige stochastische gemischt-ganzzahlige lineare Programme auf Situationen in denen Unsicherheit gleichzeitig in den Kosten und der rechten Seite auftritt, geben eine ausführliche Übersicht zu Dekompositionsverfahren für zwei- und mehrstufige stochastische lineare und gemischt-ganzzahlig lineare Programme, und diskutieren Erweiterungen und Kombinationen des Nested Benders Dekompositionsverfahrens und des Nested Column Generationsverfahrens für mehrstufige stochastische lineare Programme die es erlauben die Vorteile sogenannter rekombinierender Szenariobäume auszunutzen. Als eine Anwendung dieses Verfahrens betrachten wir die optimale Zeit- und Investitionsplanung für ein regionales Energiesystem unter Einbeziehung von Windenergie und Energiespeichern. Im zweiten Teil geben wir eine ausführliche Übersicht zum Stand der Technik bzgl. Algorithmen und Lösern für MINLPs und zeigen dass einige dieser Algorithmen innerhalb des constraint integer programming Softwaresystems SCIP angewendet werden können. Letzteres erlaubt uns die Verwendung schon existierender Technologien für gemischt-ganzzahlige linear Programme und constraint Programme für den linearen und diskreten Teil des Problems. Folglich konzentrieren wir uns hauptsächlich auf die Behandlung der konvexen und nichtkonvexen nichtlinearen Nebenbedingungen mittels Variablenschrankenpropagierung, äußerer Approximation und Reformulierung. In einer ausführlichen numerischen Studie untersuchen wir die Leistung unseres Ansatzes anhand von Anwendungen aus der Tagebauplanung und des Aufbaus eines Wasserverteilungssystems und mittels verschiedener Vergleichstests. Die Ergebnisse zeigen, dass SCIP ein konkurrenzfähiger Löser für MINLPs geworden ist. / This thesis contributes to two topics in mathematical programming: stochastic optimization and mixed-integer nonlinear programming (MINLP). In the first part, we extend quantitative continuity results for two-stage stochastic mixed-integer linear programs to include situations with simultaneous uncertainty in costs and right-hand side, give an extended review on decomposition algorithm for two- and multistage stochastic linear and mixed-integer linear programs, and discuss extensions and combinations of the Nested Benders Decomposition and Nested Column Generation methods for multistage stochastic linear programs to exploit the advantages of so-called recombining scenario trees. As an application of the latter, we consider the optimal scheduling and investment planning for a regional energy system including wind power and energy storages. In the second part, we give a comprehensive overview about the state-of-the-art in algorithms and solver technology for MINLPs and show that some of these algorithm can be applied within the constraint integer programming framework SCIP. The availability of the latter allows us to utilize the power of already existing mixed integer linear and constraint programming technologies to handle the linear and discrete parts of the problem. Thus, we focus mainly on the domain propagation, outer-approximation, and reformulation techniques to handle convex and nonconvex nonlinear constraints. In an extensive computational study, we investigate the performance of our approach on applications from open pit mine production scheduling and water distribution network design and on various benchmarks sets. The results show that SCIP has become a competitive solver for MINLPs.
57

Economic potential and sectoral impacts of forest-based climate change mitigation

Krause, Michael 04 June 2015 (has links)
Die vermiedene tropische Entwaldung und zusätzliche Aufforstungen sind von zentraler Bedeutung für die Klimawandelvermeidung, üben aber zusätzlichen Druck auf die globalen Landressourcen zur Produktion von Nahrungsgütern, Futtermittel, Fasern, Bioenergie und Rundholz dar. Die Ziele der Studie beziehen sich auf die Analyse der Verzichtskosten in der Land- und Forstwirtschaft sowie das Potential zur Klimawandelvermeidung in globalen Wäldern durch normative und marktbasierte Klimaschutzprogramme. Das globale ökonomische Landnutzungsmodell ''Model of Agricultural Production and its Impact on the Environment'' (MAgPIE) wurde um eine konsistente Landnutzungsdatenbank und den Forstsektor erweitert. Es simuliert die räumlich-explizite Landnutzung und deren Änderungen während die Kosten land- und forstwirtschaftlicher Produktion unter gegebener Nachfrage nach Gütern geschätzt werden. Szenarien zu Klimaschutzmaßnahmen werden verglichen mit Referenzszenarien über Zeithorizonte bis zum Jahr 2100. Die Ergebnisse verweisen auf ein begrenztes Mitigationspotential normativen tropischen Waldschutzes zu geringen zusätzlichen Kosten in der Landwirtschaft. Lateinamerika profitiert von ausreichenden Landreserven und geringem Anstieg in der Güternachfrage und geringer Referenzentwaldung. Die Verlagerung von Emissionen durch regionalen Waldschutz hat Auswirkungen auf die sektoralen Produktionskosten und verringert das globale ökonomische Potential. Die Schlussfolgerungen betreffen 1) den Bedarf an substantieller Ertragssteigerung in Sub-Sahara Afrika als Voraussetzung für die erfolgreiche Umsetzung vermiedener Entwaldung, 2) die erhöhte Gefahr der Verlagerung von Emissionen aus Entwaldung durch die Umsetzung regionaler Klimaschutzprogramme und der Liberalisierung des Holzhandels, 3) das hohe ökonomische Potential integrierter Klimaschutzprogramme zu moderaten Verzichtskosten, sowie 4) die Notwendigkeit zusätzlicher Forschung bezüglich der Unsicherheiten in Parametern und Modellprozessen. / Avoiding tropical deforestation and additional afforestation are of primary importance for climate change mitigation but exert additional pressure on global land resources for the production of food, feed, fibre, bioenergy and timber. The study objectives relate to the analysis of the foregone economic benefits, the opportunity costs, in agriculture and forestry and the climate change mitigation potential of global forests in normative and market-based programmes. The global economic ‘Model of Agricultural Production and its Impact on the Environment'' (MAgPIE) has been extended by a consistent land use database and the forestry sector. It simulates spatially-explicit land use and land use changes while estimating the costs of production in agriculture and forestry to satisfy a prescribed demand. Climate change mitigation scenarios are contrasted to baselines for time horizons up to the year 2100. The results show the limited mitigation potential of normative forest conservation in tropical regions at low additional costs in agriculture. Latin America benefits from sufficient land endowments and low increases in crop demand leading to relatively low baseline deforestation. The displacement of carbon emissions between regions impacts the regional agriculture and forestry production costs and reduces the global economic potential. The conclusions pertain to the 1) need for high rates of yield increase in Sub-Saharan Africa as a precondition for successfully avoided deforestation, 2) increased threat of regional carbon emission leakage from implementing mitigation programmes and liberalized trade of timber, 3) high economic potential of climate change mitigation from integrating afforestation and avoided deforestation at moderate costs, and 4) additional research needs to account for significant uncertainties from growth and cost parameters and model processes.
58

Faktorgraph-basierte Sensordatenfusion zur Anwendung auf einem Quadrocopter / Factor Graph Based Sensor Fusion for a Quadrotor UAV

Lange, Sven 13 December 2013 (has links) (PDF)
Die Sensordatenfusion ist eine allgegenwärtige Aufgabe im Bereich der mobilen Robotik und darüber hinaus. In der vorliegenden Arbeit wird das typischerweise verwendete Verfahren zur Sensordatenfusion in der Robotik in Frage gestellt und anhand von neuartigen Algorithmen, basierend auf einem Faktorgraphen, gelöst sowie mit einer korrespondierenden Extended-Kalman-Filter-Implementierung verglichen. Im Mittelpunkt steht dabei das technische sowie algorithmische Sensorkonzept für die Navigation eines Flugroboters im Innenbereich. Ausführliche Experimente zeigen die Qualitätssteigerung unter Verwendung der neuen Variante der Sensordatenfusion, aber auch Einschränkungen und Beispiele mit nahezu identischen Ergebnissen beider Varianten der Sensordatenfusion. Neben Experimenten anhand einer hardwarenahen Simulation wird die Funktionsweise auch anhand von realen Hardwaredaten evaluiert.
59

Limit and shakedown analysis of plates and shells including uncertainties

Trần, Thanh Ngọc 12 March 2008 (has links)
The reliability analysis of plates and shells with respect to plastic collapse or to inadaptation is formulated on the basis of limit and shakedown theorems. The loading, the material strength and the shell thickness are considered as random variables. Based on a direct definition of the limit state function, the nonlinear problems may be efficiently solved by using the First and Second Order Reliability Methods (FORM/SORM). The sensitivity analyses in FORM/SORM can be based on the sensitivities of the deterministic shakedown problem. The problem of reliability of structural systems is also handled by the application of a special barrier technique which permits to find all the design points corresponding to all the failure modes. The direct plasticity approach reduces considerably the necessary knowledge of uncertain input data, computing costs and the numerical error. / Die Zuverlässigkeitsanalyse von Platten und Schalen in Bezug auf plastischen Kollaps oder Nicht-Anpassung wird mit den Traglast- und Einspielsätzen formuliert. Die Lasten, die Werkstofffestigkeit und die Schalendicke werden als Zufallsvariablen betrachtet. Auf der Grundlage einer direkten Definition der Grenzzustandsfunktion kann die Berechnung der Versagenswahrscheinlichkeit effektiv mit den Zuverlässigkeitsmethoden erster und zweiter Ordnung (FROM/SORM) gelöst werden. Die Sensitivitätsanalysen in FORM/SORM lassen sich auf der Basis der Sensitivitäten des deterministischen Einspielproblems berechnen. Die Schwierigkeiten bei der Ermittlung der Zuverlässigkeit von strukturellen Systemen werden durch Anwendung einer speziellen Barrieremethode behoben, die es erlaubt, alle Auslegungspunkte zu allen Versagensmoden zu finden. Die Anwendung direkter Plastizitätsmethoden führt zu einer beträchtlichen Verringerung der notwendigen Kenntnis der unsicheren Eingangsdaten, des Berechnungsaufwandes und der numerischen Fehler.
60

Faktorgraph-basierte Sensordatenfusion zur Anwendung auf einem Quadrocopter

Lange, Sven 12 December 2013 (has links)
Die Sensordatenfusion ist eine allgegenwärtige Aufgabe im Bereich der mobilen Robotik und darüber hinaus. In der vorliegenden Arbeit wird das typischerweise verwendete Verfahren zur Sensordatenfusion in der Robotik in Frage gestellt und anhand von neuartigen Algorithmen, basierend auf einem Faktorgraphen, gelöst sowie mit einer korrespondierenden Extended-Kalman-Filter-Implementierung verglichen. Im Mittelpunkt steht dabei das technische sowie algorithmische Sensorkonzept für die Navigation eines Flugroboters im Innenbereich. Ausführliche Experimente zeigen die Qualitätssteigerung unter Verwendung der neuen Variante der Sensordatenfusion, aber auch Einschränkungen und Beispiele mit nahezu identischen Ergebnissen beider Varianten der Sensordatenfusion. Neben Experimenten anhand einer hardwarenahen Simulation wird die Funktionsweise auch anhand von realen Hardwaredaten evaluiert.

Page generated in 0.0863 seconds