• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 461
  • 376
  • 104
  • 16
  • Tagged with
  • 944
  • 518
  • 294
  • 274
  • 273
  • 273
  • 147
  • 106
  • 94
  • 82
  • 71
  • 64
  • 59
  • 58
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Convergence of gradient-like dynamical systems and optimization algorithms / Konvergenz gradientenähnlicher dynamischer Systeme und Optimierungsalgorithmen

Lageman, Christian January 2007 (has links) (PDF)
This work studies the convergence of trajectories of gradient-like systems. In the first part of this work continuous-time gradient-like systems are examined. Results on the convergence of integral curves of gradient systems to single points of Lojasiewicz and Kurdyka are extended to a class of gradient-like vector fields and gradient-like differential inclusions. In the second part of this work discrete-time gradient-like optimization methods on manifolds are studied. Methods for smooth and for nonsmooth optimization problems are considered. For these methods some convergence results are proven. Additionally the optimization methods for nonsmooth cost functions are applied to sphere packing problems on adjoint orbits. / Diese Arbeit beschäftigt sich mit der Konvergenz von Trajektorien gradientenähnlicher Systeme. Im ersten Teil der Arbeit werden zeit-kontinuierliche, gradientenähnliche Systeme betrachtet. Resultate zur Konvergenz der Trajektorien gegen einen Punkt von Lojasiewicz und Kurdyka für Gradientensysteme werden auf eine Klasse gradientenähnlicher Vektorfelder und gradientenähnliche Differentialinklusionen verallgemeinert. Im zweiten Teil der Arbeit werden zeit-diskrete, gradientenähnliche Optimierungsverfahren auf Mannigfaltigkeiten untersucht. Es werden Algorithmen sowohl für glatte als auch nicht-glatte Optimierungsprobleme betrachtet. Für diese Verfahren werden einige Konvergenzresultate bewiesen. Zusätzlich werden die Optimierungsverfahren für nichtglatte Kostenfunktionen auf Kugelpackungsprobleme in adjungierten Bahnen angewendet.
202

K-Raum-Symmetrie und dichtegewichtete Bildgebung: Optimierung der Magnet-Resonanz-Bildgebung hinsichtlich Signal-zu-Rauschverhältnis, Abbildungsqualität und Messzeit / K-space symmetry and density weighted imaging:Optimization of magnetic resonance imaging with regard to signal-to-noise ratio, image quality and acquisition time

Gutberlet, Marcel January 2011 (has links) (PDF)
Die Magnet-Resonanz (MR)-Bildgebung ist mit vielfältigen Anwendungen ein nicht mehr wegzudenkendes Instrument der klinischen Diagnostik geworden. Dennoch führt die stark limitierte Messzeit häufig zu einer Einschränkung der erzielbaren räumlichen Auflösung und Abdeckung, einer Beschränkung des Signal-zu-Rauschverhältnis (Signal-to-Noise Ratio) (SNR) sowie einer Signalkontamination durch benachbartes Gewebe. Bereits bestehende Methoden zur Reduktion der Akquisitionszeit sind die partielle Fourier (PF)-Bildgebung und die parallele Bildgebung (PPA). Diese unterscheiden sich zum einen im Schema zur Unterabtastung des k-Raums und zum anderen in der verwendeten Information zur Rekonstruktion der fehlenden k-Raum-Daten aufgrund der beschleunigten Akquisition. Während in der PPA die unterschiedlichen Sensitivitäten einer Mehrkanal-Empfangsspule zur Bildrekonstruktion verwendet werden, basiert die PF-Bildgebung auf der Annahme einer langsamen Variation der Bildphase. Im ersten Abschnitt dieser Arbeit wurde das Konzept der Virtuellen Spulendekonvolutions (Virtual Coil Deconvolution) (VIDE)-Technik vorgestellt, das das gleiche Schema der Unterabtastung des k-Raums wie die konventionelle PPA verwendet, aber anstelle der Spulensensitivität die Bildphase als zusätzliche Information zur Herstellung der fehlenden Daten der beschleunigten Bildgebung verwendet. Zur Minimierung der Rekonstruktionsfehler und der Rauschverstärkung in der VIDE-Technik wurde ein optimiertes Akquisitionsschema entwickelt. Die Kombination der PPA und PF-Bildgebung zur Beschleunigung der MR-Bildgebung wird durch das unterschiedliche Unterabtastschema erschwert. Wie Blaimer et al. in ihrer Arbeit gezeigt haben, kann das Prinzip der VIDE-Technik auf Mehrkanal-Spulen übertragen werden, sodass mit dieser Methode die PPA und die PF-Bildgebung optimal vereint werden können. Dadurch kann die Rauschverstärkung aufgrund der Spulengeometrie ohne zusätzliche Messungen deutlich reduziert werden. Obwohl die Abtastung des k-Raums in der MR-Bildgebung sehr variabel gestaltet werden kann, wird bis heute nahezu ausschließlich die regelmäßige k-Raum-Abtastung in der klinischen Bildgebung verwendet. Der Grund hierfür liegt, neben der schnellen Rekonstruktion und der einfachen Gestaltung der Variation des Bild-Kontrasts, in der Robustheit gegen Artefakte. Allerdings führt die regelmäßige k-Raum-Abtastung zu einer hohen Signalkontamination. Die Optimierung der SRF durch nachträgliches Filtern führt jedoch zu einem SNR-Verlust. Die dichtegewichtete (DW-) Bildgebung ermöglicht die Reduktion der Signal-Kontamination bei optimalem SNR, führt aber zur einer Reduktion des effektiven Gesichtsfelds (FOV) oder einer Erhöhung der Messzeit. Letzteres kann durch eine Kombination der PPA und DW-Bildgebung umgangen werden. Der zweite Teil dieser Arbeit befasste sich mit neuen Aufnahme- und Rekonstruktionsstrategien für die DW-Bildgebung, die eine Erhöhung des FOVs auch ohne Einsatz der PPA erlauben. Durch eine Limitierung der minimalen k-Raum-Abtastdichte konnte durch eine geringfügige Reduktion des SNR-Vorteils der DW-Bildgebung gegenüber der kartesischen, gefilterten Bildgebung eine deutliche Verringerung der Artefakte aufgrund der Unterabtastung in der DW-Bildgebung erreicht werden. Eine asymmetrische Abtastung kann unter der Voraussetzung einer homogenen Bildphase das Aliasing zusätzlich reduzieren. Durch die Rekonstruktion der DW-Daten mit der Virtuelle Spulendekonvolution für die effektive DW-Bildgebung (VIDED)-Bildgebung konnten die Artefakte aufgrund der Unterabtastung eliminiert werden. In der 3d-Bildgebung konnte durch Anwendung der modifizierten DW-Bildgebung eine Steigerung des FOVs in Schichtrichtung ohne Messzeitverlängerung erreicht werden. Die nicht-kartesische k-Raum-Abtastung führt im Fall einer Unterabtastung zu deutlich geringeren, inkohärenten Aliasingartefakten im Vergleich zur kartesischen Abtastung. Durch ein alternierendes DW-Abtastschema wurde eine an die in der MR-Mammografie verwendete Spulengeometrie angepasste k-Raum-Abtastung entwickelt, das bei gleicher Messzeit die räumliche Auflösung, das SNR und das FOV erhöht. Im dritten Teil dieser Arbeit wurde die Verallgemeinerung der DW-Bildgebung auf signalgewichtete Sequenzen, d.h. Sequenzen mit Magnetisierungspräparation (Inversion Recovery (IR), Saturation Recovery (SR)) sowie Sequenzen mit einer Relaxation während der Datenaufnahme (Multi-Gradienten-Echo, Multi-Spin-Echo) vorgestellt, was eine Steigerung der Bildqualität bei optimalem SNR erlaubt. Die Methode wurde auf die SR-Sequenz angewendet und deren praktischer Nutzen wurde in der Herz-Perfusions-Bildgebung gezeigt. Durch die Verwendung der in dieser Arbeit vorgestellten Technik konnte eine Reduktion der Kontamination bei einem SNR-Gewinn von 16% im Vergleich zur konventionellen, kartesischen Abtastung bei gleicher Messzeit erreicht werden. / Magnetic resonance (MR) imaging has become a powerful tool in clinical diagnostics. However, long acquisition times used in MR imaging limit the available signal-to-noise Ratio (SNR), spatial resolution and coverage and cause signal contamination from neighboring tissue. Two established methods used to reduce the scan time of MR imaging are partial parallel acquisition (PPA) and partial fourier (PF) imaging. These methods use different schemes to undersample k-space and use a different kind of information to reconstruct the missing data resulting from the accelerated acquisition. While in PPA the varying sensitivities of a multi-channel receiver coil are used in the image reconstruction, PF imaging is based on the assumption of a smoothly varying image phase. In the first section of this work, the concept of virtual coil deconvolution (VIDE) imaging is proposed. This method uses the identical acquisition scheme for the accelerated measurement of k-space as PPA. However, in contrast to PPA, VIDE imaging uses the image phase instead of the varying coil sensitivities to recover the missing data of the accelerated acquisition. Reconstruction errors and noise amplification of VIDE imaging were minimized by an optimized acquisition scheme. VIDE imaging allows an acceleration of MR imaging by a factor of two. The different sampling schemes used in PF imaging and PPA are disadvantageous for the combination of PF imaging and PPA to increase the acceleration of MRI. Blaimer, Gutberlet et al. showed that the concept of VIDE imaging can be extended to multi-channel receiver coils. This allows an optimal combination of PF imaging and PPA. The noise amplification caused by the coil geometry could be significantly decreased without lengthening the scan time. Although k-space can be measured in a variety of sampling schemes, almost exclusively a Cartesian trajectory is used in clinical imaging. Reasons are the fast and simple reconstruction, the robustness against artifacts and the well-defined contrast of Cartesian imaging. However, the Cartesian acquisition results in increased signal contamination. Post-processing filtering allows reduction of contamination but at the expense of SNR. Density weighted (DW) imaging allows optimization of the spatial response function (SRF) at maximum SNR but results in a reduced effective field of view (FOV) or a lengthening of the scan time. This disadvantage of DW imaging can be eliminated by the application of PPA. In the second section new acquisition and reconstruction methods were presented allowing an increase of the effective FOV in DW imaging even without the use of PPA. The limitation of the minimum sampling density in DW imaging resulted in a significant reduction of aliasing. Moderate filtering to correct the k-space weighting resulted in low reduction of the SNR gain in comparison to Cartesian imaging with the identical scan time. On condition of a homogeneous image phase, the aliasing can be additionally reduced by using an asymmetric DW sampling. Using virtual coil deconvolution for effective density weighted (VIDED) imaging for reconstruction, aliasing could be eliminated. By applying the developed DW method, the spatial coverage of 3D imaging was increased even without a lengthening of the scan time. In case of undersampling k-space, DW acquisition results in significantly reduced incoherent aliasing in comparison to Cartesian imaging. Alternating DW sampling revealed an optimized sampling scheme for the coil geometry used in MR-mammography. In experiments the effective FOV or the spatial resolution in slice direction could be increased significantly. In the third section the extension of DW imaging to signal-weighted sequences, i.e. sequences with magnetization preparation (inversion recovery or saturation recovery) or with relaxation between the acquired echoes (multigradient echo, multi-spin echo), was presented. The method provided increased image quality at optimum SNR in comparison to Cartesian imaging. By applying the new technique to SR-sequences, its practical use could be shown in myocardial perfusion imaging. The method presented in this work allowed an optimization of the SRF with an SNR gain of 16% compared to conventional Cartesian sampling at identical scan time.
203

Optimization and Design of Network Architectures for Future Internet Routing / Optimierung und Design von Netzwerkarchitekturen für zukünftiges Internet Routing

Hartmann, Matthias January 2015 (has links) (PDF)
At the center of the Internet’s protocol stack stands the Internet Protocol (IP) as a common denominator that enables all communication. To make routing efficient, resilient, and scalable, several aspects must be considered. Care must be taken that traffic is well balanced to make efficient use of the existing network resources, both in failure free operation and in failure scenarios. Finding the optimal routing in a network is an NP-complete problem. Therefore, routing optimization is usually performed using heuristics. This dissertation shows that a routing optimized with one objective function is often not good when looking at other objective functions. It can even be worse than unoptimized routing with respect to that objective function. After looking at failure-free routing and traffic distribution in different failure scenarios, the analysis is extended to include the loop-free alternate (LFA) IP fast reroute mechanism. Different application scenarios of LFAs are examined and a special focus is set on the fact that LFAs usually cannot protect all traffic in a network even against single link failures. Thus, the routing optimization for LFAs is targeted on both link utilization and failure coverage. Finally, the pre-congestion notification mechanism PCN for network admission control and overload protection is analyzed and optimized. Different design options for implementing the protocol are compared, before algorithms are developed for the calculation and optimization of protocol parameters and PCN-based routing. The second part of the thesis tackles a routing problem that can only be resolved on a global scale. The scalability of the Internet is at risk since a major and intensifying growth of the interdomain routing tables has been observed. Several protocols and architectures are analyzed that can be used to make interdomain routing more scalable. The most promising approach is the locator/identifier (Loc/ID) split architecture which separates routing from host identification. This way, changes in connectivity, mobility of end hosts, or traffic-engineering activities are hidden from the routing in the core of the Internet and the routing tables can be kept much smaller. All of the currently proposed Loc/ID split approaches have their downsides. In particular, the fact that most architectures use the ID for routing outside the Internet’s core is a poor design, which inhibits many of the possible features of a new routing architecture. To better understand the problems and to provide a solution for a scalable routing design that implements a true Loc/ID split, the new GLI-Split protocol is developed in this thesis, which provides separation of global and local routing and uses an ID that is independent from any routing decisions. Besides GLI-Split, several other new routing architectures implementing Loc/ID split have been proposed for the Internet. Most of them assume that a mapping system is queried for EID-to-RLOC mappings by an intermediate node at the border of an edge network. When the mapping system is queried by an intermediate node, packets are already on their way towards their destination, and therefore, the mapping system must be fast, scalable, secure, resilient, and should be able to relay packets without locators to nodes that can forward them to the correct destination. The dissertation develops a classification for all proposed mapping system architectures and shows their similarities and differences. Finally, the fast two-level mapping system FIRMS is developed. It includes security and resilience features as well as a relay service for initial packets of a flow when intermediate nodes encounter a cache miss for the EID-to-RLOC mapping. / Daten durch das Internet werden heutzutage mit dem paketbasierten Internet Protokoll (IP) übertragen. Dezentralisierte Routingprotokolle innerhalb der einzelnen Netze sorgen für eine zielgerichtete Weiterleitung der einzelnen Pakete. Diese verteilten Protokolle können auch im Fehlerfall weiterarbeiten, benötigen aber mitunter sehr lange bis Daten wieder zuverlässig am Ziel ankommen. Um im Betrieb des Internets eine hohe Leistungsfähigkeit auch bei auftretenden Problemfällen zu gewährleisten, müssen die eingesetzten Protokolle optimal eingestellt werden. Zielfunktionen zur Optimierung paketbasierter Link-State Intradomain-Routingprotokolle: Ein wichtiger Faktor für die Performanz eines Netzes ist die Auswahl der administrativen Linkkosten, anhand derer die Weiterleitungsentscheidungen im Netz getroffen werden. Mit Hilfe von Modellen für Verkehrsaufkommen und für die darunterliegende Netzarchitektur kann mit geeigneten Optimierungsmethoden das Netz für verschiedene Szenarien bestmöglich eingestellt werden. Von besonderer Wichtigkeit ist hierbei die Auswahl der betrachteten Szenarien und Zielfunktionen für die Optimierung. Eine Routingkonfiguration die optimal für ein bestimmtes Ziel ist, kann beliebig schlecht für ein anderes Ziel sein. Zum Beispiel kann eine Konfiguration, die eine besonders hohe Fehlerabdeckung erreicht, zu einer sehr schlechten Verkehrsverteilung führen. Im Rahmen der Dissertation werden heuristische Optimierungen des Routings für verschiedene Protokolle und Anwendungsszenarien durchgeführt. Darüber hinaus wird eine Pareto-Optimierung implementiert, die gleichzeitig mehrere Ziele optimieren kann. Die Analysen werden zuerst für normales Routing im fehlerfreien Fall und für Fehlerszenarien durchgeführt. Daraufhin werden verschiedenste Anwendungsfälle des IP Fast-Reroute Mechanismus Loop-Free Alternates (LFA) betrachtet. Hier wird insbesondere auf die Problematik eingegangen, dass LFAs in Abhängigkeit vom eingestellten Routing in bestimmten Fehlerfällen nicht angewendet werden können. Beim Optimieren des Routings muss hier zusätzlich zur Lastverteilung auch noch die Maximierung der Fehlerabdeckung berücksichtigt werden. Schließlich folgt eine Untersuchung und Optimierung des Pre-Congestion Notification (PCN) Verfahren zur Netzzugangskontrolle und Überlaststeuerung. Hier werden verschiedene Architekturvarianten des Protokolls miteinander verglichen und Algorithmen zur Berechnung und Optimierung wichtiger Parameter des Protokolls entwickelt. Das Wachstum der Routingtabellen im Kern des Internets droht zu einem Skalierbarkeitsproblem zu werden. Ein Grund für diese Problematik ist die duale Funktion der IP-Adresse. Sie wird einerseits zur Identifikation eines Geräts benutzt und andererseits zur Weiterleitung der Daten zu diesem Gerät. Neue Mechanismen und Protokolle die eine Trennung zwischen den beiden Funktionalitäten der IP-Adresse ermöglichen sind potentielle Kandidaten für eine bessere Skalierbarkeit des Internetroutings und damit für die Erhaltung der Funktionalität des Internets. Design eines neuen Namens- und Routingprotokolls für skalierbares Interdomain-Routing: In der Dissertation werden grundlegende Eigenschaften die zu diesem Problem führen erörtert. Daraufhin werden vorhandene Ansätze zur Verbesserung der Skalierbarkeit des Internetroutings analysiert, und es werden Gemeinsamkeiten wie auch Schwachstellen identifiziert. Auf dieser Basis wird dann ein Protokoll entwickelt, das eine strikte Trennung zwischen Identifikationsadressen (IDs) und routebaren Locator-Adressen einhält. Das GLI-Split genannte Protokoll geht dabei über den einfachen Split von vorhandenen Architekturvorschlägen hinaus und führt eine weitere Adresse ein die nur für das lokale Routing innerhalb eines Endkunden-Netzes benutzt wird. Hierdurch wird die ID eines Endgeräts vollständig unabhängig vom Routing. Durch das GLI-Split Protokoll kann das globale Routing wieder skalierbar gemacht werden. Zusätzlich bietet es viele Vorteile für Netze die das Protokoll einführen, was als Anreiz nötig ist um den Einsatz eines neuen Protokolls zu motivieren. Solch ein Identifier/Locator Split Protokoll benötigt ein Mappingsystem um die Identifier der Endgeräte in routebare Locator-Adressen zu übersetzen. Im letzten Teil der Dissertation wird eine mehrstufige Mapping-Architektur namens FIRMS entwickelt. Über ein hierarchisches Verteilungssystem, das die Adressvergabestruktur der fünf Regionalen Internet Registrare (RIRs) und der darunterliegenden Lokalen Internet Registrare (LIRs) abbildet, werden die erforderlichen Zuordnungstabellen so verteilt, dass jederzeit schnell auf die benötigten Informationen zugegriffen werden kann. Hierbei wird auch besonders auf Sicherheitsaspekte geachtet.
204

Exact and non-smooth control of quantum spin systems / Exakte und nicht-glatte Kontrolle von Quanten-Spin-Systemen

Ciaramella, Gabriele January 2015 (has links) (PDF)
An efficient and accurate computational framework for solving control problems governed by quantum spin systems is presented. Spin systems are extremely important in modern quantum technologies such as nuclear magnetic resonance spectroscopy, quantum imaging and quantum computing. In these applications, two classes of quantum control problems arise: optimal control problems and exact-controllability problems, with a bilinear con- trol structure. These models correspond to the Schrödinger-Pauli equation, describing the time evolution of a spinor, and the Liouville-von Neumann master equation, describing the time evolution of a spinor and a density operator. This thesis focuses on quantum control problems governed by these models. An appropriate definition of the optimiza- tion objectives and of the admissible set of control functions allows to construct controls with specific properties. These properties are in general required by the physics and the technologies involved in quantum control applications. A main purpose of this work is to address non-differentiable quantum control problems. For this reason, a computational framework is developed to address optimal-control prob- lems, with possibly L1 -penalization term in the cost-functional, and exact-controllability problems. In both cases the set of admissible control functions is a subset of a Hilbert space. The bilinear control structure of the quantum model, the L1 -penalization term and the control constraints generate high non-linearities that make difficult to solve and analyse the corresponding control problems. The first part of this thesis focuses on the physical description of the spin of particles and of the magnetic resonance phenomenon. Afterwards, the controlled Schrödinger- Pauli equation and the Liouville-von Neumann master equation are discussed. These equations, like many other controlled quantum models, can be represented by dynamical systems with a bilinear control structure. In the second part of this thesis, theoretical investigations of optimal control problems, with a possible L1 -penalization term in the objective and control constraints, are consid- ered. In particular, existence of solutions, optimality conditions, and regularity properties of the optimal controls are discussed. In order to solve these optimal control problems, semi-smooth Newton methods are developed and proved to be superlinear convergent. The main difficulty in the implementation of a Newton method for optimal control prob- lems comes from the dimension of the Jacobian operator. In a discrete form, the Jacobian is a very large matrix, and this fact makes its construction infeasible from a practical point of view. For this reason, the focus of this work is on inexact Krylov-Newton methods, that combine the Newton method with Krylov iterative solvers for linear systems, and allows to avoid the construction of the discrete Jacobian. In the third part of this thesis, two methodologies for the exact-controllability of quan- tum spin systems are presented. The first method consists of a continuation technique, while the second method is based on a particular reformulation of the exact-control prob- lem. Both these methodologies address minimum L2 -norm exact-controllability problems. In the fourth part, the thesis focuses on the numerical analysis of quantum con- trol problems. In particular, the modified Crank-Nicolson scheme as an adequate time discretization of the Schrödinger equation is discussed, the first-discretize-then-optimize strategy is used to obtain a discrete reduced gradient formula for the differentiable part of the optimization objective, and implementation details and globalization strategies to guarantee an adequate numerical behaviour of semi-smooth Newton methods are treated. In the last part of this work, several numerical experiments are performed to vali- date the theoretical results and demonstrate the ability of the proposed computational framework to solve quantum spin control problems. / Effiziente und genaue Methoden zum Lösen von Kontrollproblemen, die durch Quantum- Spin-Systemen gesteuert werden, werden vorgestellt. Spin-Systeme sind in moderner Quantentechnologie wie Kernspinresonanzspektroskopie, Quantenbildgebung und Quan- tencomputern äußerst wichtig. In diesen Anwendungen treten zwei Arten von Quan- tenkontrollproblemen auf: Optimalsteuerungsprobleme und Exaktsteuerungsprobleme beide mit einer bilinearen Kontrollstruktur. Diese Modelle entsprechen der Schrödinger- Pauli-Gleichung, die die Zeitentwicklung eines Spinors beschreibt, und der Liouville-von- Neumann-Mastergleichung, die die Zeitentwicklung eines Spinors und eines Dichteoper- ators beschreibt. Diese Arbeit konzentriert sich auf Quantenkontrollprobleme, die durch diese Modelle beschrieben werden. Eine entsprechende Definition des Optimierungsziels und der zulässigen Menge von Kontrollfunktionen erlaubt die Konstruktion von Steuerun- gen mit speziellen Eigenschaften. Diese Eigenschaften werden im Allgemeinen von der Physik und der in Quantenkontrolle verwendeten Technologie gefordert. Ein Hauptziel diser Arbeit ist die Untersuchung nicht-differenzierbarer Quantenkon- trollprobleme. Deshalb werden Rechenmethoden entwickelt um Optimalsteuerungsprob- lemen, die einen L1-Term im Kostenfunktional enthalten, und Exaktsteuerungsprobleme zu lösen. In beiden Fällen ist die zulässige Menge ein Teilraum eines Hilbertraumes. Die bilineare Kontrollstruktur des Quantenmodells, der L1-Kostenterm und die Nebenbedin- gungen der Kontrolle erzeugen starke Nichtlinearitäten, die die Lösung und Analyse der entsprechenden Problemen schwierig gestalten. Der erste Teil der Disseration konzentriert sich auf die physikalische Beschreibung des Spins von Teilchen und Phänomenen magnetischer Resonanz. Anschließend wird die kon- trollierte Schrödinger-Pauli-Gleichung und die Liouville-von-Neumann-Mastergleichung diskutiert. Diese Gleichungen können ebenso wie viele andere kontrollierte Quantenmod- elle durch ein dynamisches System mit biliniearer Kontrollstruktur dargestellt werden. Im zweiten Teil der Arbeit wird eine theoretische Untersuchung der Optimalsteuer- ungsprobleme, die einen L1-Kostenterm und Einschränkungen der Kontrolle enthalten können, durchgeführt. Insbesondere wird die Existenz von Lösungen und Optimalitäts- bedingungen und die Regularität der optimalen Kontrolle diskutiert. Um diese Optimal- steuerungsprobleme zu lösen werden halbglatte Newtonverfahren entwickelt und ihre su- perlineare Konvergenz bewiesen. Die Hauptschwierigkeit bei der Implementierung eines Newtonverfahrens für Optimalsteuerungsprobleme ist die Dimension des Jacobiopera- tors. In einer diskreten Form ist der Jacobioperator eine sehr große Matrix, war die Konstruktion in der Praxis undurchführbar macht. Daher konzentriert sich diese Ar- beit auf inexakte Krylov-Newton-Verfahren, die Newtonverfahren mit iterativen Krylov- Lösern für lineare Gleichungssysteme kombinieren, was die Konstruktion der diskreten Jacobimatrix erübrigt. Im dritten Teil der Disseration werden zwei Methoden für die Lösung von exakte Steuerbarkeit Problemen für Quanten-Spin-Systemen vorgestellt. Die erste Methode ist eine Fortsetzungstechnik während die zweite Methode auf einer bestimmten Refor- mulierung des exakten Kontrollproblems basiert. Beide Verfahren widmen sich L2-Norm exakten Steuerbarkeitsproblemen. Im vierten Teil die Disseration konzentriert sich auf die numerische Analyse von Quan- tenkontrollproblemen. Insbesondere wird das modifizierte Crank-Nicolson-Verfahren als eine geeignete Zeitdiskretisierung der Schrödingergleichung diskutiert. Es wird erst diskretisiert und nachfolgend optimiert, um den diskreten reduzierten Gradienten für den differenzierbaren Teil des Optimierungsziels zu erhalten. Die Details der Implemen- tierung und der Globalisierungsstrategie, die angemessenes numerisches Verhalten der halbglatten Newtonverfahren garantiert, werden behandelt. Im letzten Teil dieser Arbeit werden verschiedene numerische Experimente durchge- führt um die theoretischen Ergebnisse zu validieren und die Fähigkeiten de vorgeschla- genen Lösungsstrategie für Quanten-Spin-Kontrollproblemen zu validieren.
205

Modeling and Evaluation of Multi-Stakeholder Scenarios in Communication Networks / Modellierung und Bewertung von Szenarien mit mehreren Akteuren in Kommunikationsnetzen

Schwartz, Christian January 2016 (has links) (PDF)
Today's Internet is no longer only controlled by a single stakeholder, e.g. a standard body or a telecommunications company. Rather, the interests of a multitude of stakeholders, e.g. application developers, hardware vendors, cloud operators, and network operators, collide during the development and operation of applications in the Internet. Each of these stakeholders considers different KPIs to be important and attempts to optimise scenarios in its favour. This results in different, often opposing views and can cause problems for the complete network ecosystem. One example of such a scenario are Signalling Storms in the mobile Internet, with one of the largest occurring in Japan in 2012 due to the release and high popularity of a free instant messaging application. The network traffic generated by the application caused a high number of connections to the Internet being established and terminated. This resulted in a similarly high number of signalling messages in the mobile network, causing overload and a loss of service for 2.5 million users over 4 hours. While the network operator suffers the largest impact of this signalling overload, it does not control the application. Thus, the network operator can not change the application traffic characteristics to generate less network signalling traffic. The stakeholders who could prevent, or at least reduce, such behaviour, i.e. application developers or hardware vendors, have no direct benefit from modifying their products in such a way. This results in a clash of interests which negatively impacts the network performance for all participants. The goal of this monograph is to provide an overview over the complex structures of stakeholder relationships in today's Internet applications in mobile networks. To this end, we study different scenarios where such interests clash and suggest methods where tradeoffs can be optimised for all participants. If such an optimisation is not possible or attempts at it might lead to adverse effects, we discuss the reasons. / Modellierung und Bewertung von Szenarien mit mehreren Akteuren in Kommunikationsnetzen
206

Implementation of new reaction pathway determining methods and study of solvent effects on the excited state nature of perylene based dyes / Implementierung neuer Reaktionspfad bestimmender Methoden und Untersuchung von Lösungsmitteleinflüssen auf die Natur der angeregten Zustände perylen-basierter Farbstoffe

Bellinger, Daniel January 2016 (has links) (PDF)
Two thematic complexes were addressed within this work. One part is related to improvements and new implementations into the CAST program package. Thereby the main focus laid on the delivery of a tool which can be used to characterize complex reactions and their mechanisms. But also within the new force field (FF) method (SAPT-FF) within the CAST program, several improvements were made. The second topic is related to the description of dye molecules and their spectral properties. The main focus within these studies was set on the influence of the environment on these properties. In the first topic improvements of the local acting NEB (nudged elastic band) methods were included and the number of available methods was extended. The initial pathway generation was improved by implementing the IDPP (image dependent pair potential) method and a new method was implemented for describing temperature dependent pathways. Additionally, improvements have been made to the optimization routines (global NEB). As a second part the Pathopt (PO) method was considerably improved. In the beginning of the work the original PO idea was used. In this approach one starts with a global optimization on one n-1 dimensional hyperplane which divides the reaction into two sub-areas for obtaining guesses of TSs (transition states). These found TS guesses were used to optimize to the ”true” TS. Starting from the optimized ones a relaxation to the next connected minima is done. This idea has been automatically implemented and extended to several number of hyperplanes. In this manner a group of pathsegments is obtained which needs to be connected, but within this work it was realized that such a procedure might be not very efficient. Therefore, a new strategy was implemented which is founded on the same constrained global optimization scheme (MCM) for which the user defines the number of hyperplanes generated. The number of such generated hyperplanes should be large enough 134 to describe the space between the concerning reactants in a sufficient way. The found minima are directly used to built up the reaction pathway. For this purpose a RMSD (root mean square deviation) criterion is used to walk along ways of minimal change from one to another hyperplane. To prove the implementations various test calculations were carried out and extensions included to prove the capabilities of the new strategy. Related to these tests a new strategy for applying the move steps in MCM (Monte Carlo with minimization) was realized which is also related to the question of the coordinates representation. We were able to show that the hopping steps in MCM can be improved by applying Cartesian steps in combination of random dihedral moves with respect to the constraint. In this way it was possible to show that a large variety of systems can be treated. An additional chapter shows the improvements of the SAPT-FF implementation and related test cases. It was possible to treat benzene dimer and cluster systems of different sizes consistently also in accordance with high level ab initio based approaches. Furthermore, we showed that the SAPT-FF with the right parameters outperforms the standard AMOEBA implementation which is the basis of the SAPT-FF implementation. In the last three chapters deal with the description of perlyene-based dyes. In the first smaller chapter ground state chemistry description of macro cycles of PBI (perylene bisimide) derivatives were investigated. Therefore, AFM (atomic force microscopy) based pictures were explained within our study. The methods to explain aggregation behavior in dependency of the ring size were MD simulations and configuration studies. The last two chapters deal with opto-electronic or photo-physical properties of PBI and PTCDA (perylene-3,4,9,10-tetracarboxylic dianhydride). In detail, we investigated the role of the environment and the aggregate or crystal surrounding by applying different models. In that way implicit and explicit solvation models, the size of aggregates and vibration motions were used. In the case of PBI the recent work is found on preliminary studies related to my bachelor thesis and extends it. It was shown that the direct influence of a polarizable surrounding, as well as explicit inclusion of solvent molecules on the overall description of the excitations and nature of the excited states is weaker as one might expect. However the inclusion of intra-molecular degrees of freedom showed a stronger influence on the state characteristics and can induce a change of the order of states within the dimer picture. For the PTCDA molecule the main focus was set on the description of the absorption spectrum of crystalline thin films. Related to this older works exist which already gave a description and assignment of the absorption band, but are based on different approaches compared to the one used in this work. We used the supermolecule ansatz, whereas the environment and different aggregate sizes were investigated. Within the dimer based approach we were able to show that using continuum solvation (IEFPCM/COSMO) based description for the environment the relative order of states remains unchanged. Similar to the PBI calculations the influence of the vibrational motions /distortions is larger. The simulation of the crystal environment by using QM/MM (quantum mechanics/molecular mechanics) approaches delivered that an asymmetric charge distribution might induce a localization of the excitation and a stronger mixing of states. For obtaining further insights we go beyond the dimer picture and aggregates of different sizes were used, whereas the simulations up to the octadecamer mono- and even dual-layer stack were carried out. Within these calculations it was shown that the H-coupling is dominating over a weaker J-coupling between different stacks. Additionally the calculations based on DFT (density functional theory) and semi-empirics showed that the lowest state in terms of energy are mostly of Frenkel type, whereas the higher lying states are CT ones which mix with embedded Frenkel type states. The first band of the absorption spectrum was explained by inclusion of vibrational motions within the stacks which induce an intensity gain of the first excited state. This intensity was not explainable by using the undistorted stacks. Also relaxations at the crystal surface might play a role, but are experimentally not explainable. / In der Arbeit wurden zwei große Themenkomplexe bearbeitet. Zum einen wurden Verbesserungen und neue Methoden in CAST, unserem Entwicklungstool, implementiert. Hierbei geht es vor allem darum ein Werkzeug bereit zu stellen, mit dem es möglich ist Reaktionen genauer zu charakterisieren. Aber auch neue Beschreibungen innerhalb der Kraftfeldmethoden (SAPT-FF) wurden bereitgestellt bzw. erweitert. Der zweite Themenkomplex behandelt die Beschreibung von Farbstoffmolekülen und ihrer spektralen Eigenschaften. Insbesondere liegt in dieser Studie der Fokus auf Umgebungseinflüsse. Im ersten Abschnitt wurden Erweiterungen in den lokalen Methoden, die auf NEB (nudged elastic band) basieren, implementiert. Hier wurde zum einen das Spektrum an Methoden erweitert. So wurde der initiale Vorschlag für den Startpfad durch Implementierung der IDPP (image dependent pair potential) Methode verbessert. Des Weiteren wurde eine Methode zur temperaturabhängigen NEB Beschreibung integriert, die auf Maximierung des Fluxes beruht. Auch wurden Verbesserungen hinsichtlich der Optimierungsroutinen durchgeführt. Der wesentliche Teil im ersten Themenbereich beschäftigt sich mit der Verbesserung und Automatisierung von Pathopt (PO). Zu Beginn der Arbeit wurde die ursprüngliche Idee aufgegriffen. Hierbei ermittelt man Vorschläge für Übergangszustände (¨UZ) durch eine globale Optimierung mit Nebendbedingungen auf einer n-1 dimensionalen Hyperfläche, die den Reaktionsraum teilt. Diese ¨UZ bilden den Startpunkt, um mittels einer ”uphill” Optimierung hin zum ”wirklichen ÜZ” zu gelangen. Ausgehend von diesen wurde in die nächst verknüpften Minima relaxiert. Diese Idee wurde automatisiert und auf mehrere Hyperflächen ausgeweitet. So erhält man eine Schar an Pfadsegmenten, die verknüpft werden müssen. Im Laufe der Arbeit, stellte sich jedoch heraus, dass diese Vorgehensweise nicht sehr effizient ist und daher wurde eine neue Idee verwirklicht. Diese beruht wiederum auf der globalen Optimierung mittels Monte Carlo mit Minimierung und Nebenbedingungen auf einer vom Nutzer bestimmten Anzahl an n-1 dimensionalen Hyperflächen. Nun wählt man diese Anzahl entsprechend groß genug aus, um den Raum zwischen den Reaktanden zu beschreiben. Die so gefundenen Mininima auf den n-1 Hyperflächen werden für die direkte Pfaderzeugung genutzt. Dies geschieht mittels eines RMSD (root mean square deviation) Kriteriums, um so den Weg der geringsten Änderungen anhand der Hyperflächen zu wählen. Im Zuge der Implementierung der Methode wurden zahlreiche Testrechnungen und Methodenerweiterungen durchgeführt, um die Funktionalität zu überpüfen und zu verbessern. Diese Verbesserungen liegen zum Bsp. in den Sprungstrategien bzw. der Wahl des Koordinatensystems. Hier konnte gezeigt werden, dass eine Verbindung unterschiedlicher Strategien für die Durchführung des ”Hüpfens” in Monte Carlo zu entscheidenden Verbesserungen führt. Diese Verbesserung besteht in der Verknüpfung von Kartesischen Schritten und zufälliger Veränderungen der Diederwinkel im Rahmen der Nebenbedingungen. Mit Hilfe dieser Verbesserungen konnte eine Vielzahl von Systemen behandelt werden. Ein weiteres Kapitel beschreibt Verbesserungen zum SAPT-FF (FF=Kraftfeld). Testrechnungen zu strukturellen Eigenschaften von Benzol Clustern belegen die Genauigkeit der Ansätze. Auch wurde aufgezeigt, dass das SAPT-verbesserte AMOEBA Kraftfeld der Standard Parametrisierung überlegen ist. Die letzten drei Abschnitte dieser Arbeit behandeln Perylen-basierte Farbstoffe. In einem ersten kleinen Kapitel geht es um die Grundzustandseigenschaften von PBI (Perylenbisimide) Makrozyklen und Erklärung von AFM (Atomic Force Mycroscopy) Messungen. Hier konnten wir mittels MD-Simluation (Molekular Dynamik) und deren Analyse, sowie Beschreibungen unterschiedlicher Konfigurationen, das Aggregationsverhalten in Abhängigkeit der Ringgröße genauer beleuchten. In den beiden letzten Kapiteln geht es um die optoelektronischen Eigenschaften bzw. die photophysikalische Beschreibung von PBI und PTCDA (Perylen-3,4,9,10-Tetracarboxyl Dianhydrid). Im Genaueren wurde die Rolle der Umgebung in Aggregat und Kristall durch unterschiedliche methodische Ansätze untersucht. So wurden implizite Solvensmodelle und explizite Solvatation, Aggregatgröße und vibronische Freiheitsgrade untersucht. In den Arbeiten zum PBI konnte gezeigt werden, dass ein direkter Einfluss durch die Beschreibung mittels impliziter Solvatation, als auch expliziter Solvensmoleküle, auf die Lage der Zustände auch in Hinsicht auf deren Charakterisik nicht auftritt. Berücksichtigt man intra-molekulare Freiheitsgrade, so wird die Lage der Zustände deutlich stärker beeinflusst und sogar ein Wechsel der Zustände wird induziert. Im Fall von PTCDA lag vor allem die Beschreibung und Erklärung der Absorptionsspektren von kristallinem PTCDA im Fokus. Hierzu gibt es ¨altere Arbeiten, die bestimmte Zuordnungen der Banden und ihrer Übergänge postuliert haben. In dieser Arbeit sollte diese Beschreibung im Rahmen eines Supermolekül Ansatzes geklärt und weiter beschrieben werden, wobei Umgebungseinflüsse und auch Eigenschaften verschiedener Aggregate untersucht wurden. Im Dimer Bild konnten wir zeigen, dass die Umgebung, beschrieben durch Continuums Ansätze (IEFPCM/COSMO) die Lage der Zustände nicht beeinflusst und im Wesentlichen nur Zustände mit großer Oszillatorstärke stabilisiert werden. Ähnlich wie im Falle des PBIs hat die Berücksichtigung vibronischer Freiheitsgrade einen wesentlich größeren Einguss. Die Simulation der Kristallumgebung durch QM/MM-Ansätze (Quantenmechanik/Molekularmechanik) ergab, dass eine asymmetrische Ladungsverteilung zu einer Lokalisierung der Anregung und einem stärkeren Durchmischen der Zustände fuhrt. Für eine noch weitergehende Beschreibung wurde das Dimer Bild verlassen und unterschiedliche Aggregate, bis hin zum Oktadekamer im mono- bzw. zweifach-Lagen-Aggregat untersucht. Hier konnte gezeigt werden, dass die Kopplung im H-Aggregat die dominierende Rolle einnimmt und die J-Aggregat Kopplung vernachlässigt werden kann. Zudem zeigen die Rechnungen, die mittels DFT (Dichtefunktionaltheorie) und semi-empirischen Ansätzen durchgeführt wurden, dass die energetisch niedriger liegenden Zustände im wesentlichen Frenkel Charakter aufweisen während die energetisch höher liegenden Zustände CT (Charge Transfer) Charakter haben. Das Auftreten der ersten Bande im Absorptionsspektrum wurde zudem auf das Vorhandensein von möglichen Schwingungsanregungen (mehrere Moden) zurückgeführt, da diese zu einer Zunahme an Intensität des ersten angeregten Zustandes führen, die ohne Berücksichtigung nicht in diesem Maße erhalten wird. Auch könnten Oberflächenrelaxationen eine Rolle spielen, wobei diese experimentell nicht beobachtbar sind.
207

Einfluss von Spendermerkmalen und Kulturmedien auf die histomorphologische Qualität von humanen artifiziellen Vollhautmodellen / Influence of donor sources and culture media on the histo-morphological quality of human artificial skin models

Weil, Frederik January 2018 (has links) (PDF)
Humane artifizielle Vollhautmodelle gewinnen im Bereich des Tissue Engineerings zunehmend an Bedeutung und werden mittlerweile in vielen verschiedenen Fachbereichen erforscht, optimiert und sogar als die Grundlagenforschung unterstützende Tierersatzmodelle angewendet. Dieses geht mit hohen Ansprüchen an Qualität und Reproduzierbarkeit dergleichen einher. In der vorliegenden Arbeit wurde erstmals der Einfluss von Kulturbedingen und Spendermaterial auf die Qualität humaner in vitro hergestellter Vollhautmodelle systematisch untersucht. Dazu wurde zunächst ein Katalog an histomorphologischen Qualitätskriterien erarbeitet, der sich an echten humanen Hautbiopsien orientierte und eine Gewichtung dieser Kriterien im Hinblick auf die Verwendung als echte Hautersatzmodelle erlaubte. Für die Herstellung der Hautmodelle wurden die etablierten Medien KGM 2 , KGM 2 variant und EpiLife ® und deren Kultivierungsprotokolle verwendet. Die zelluläre Grundlage der vorliegenden Untersuchungen bildeten die Präputien von sechzehn Kindern nach Zirkumzision. Keratinozyten und Fibroblasten wurden isoliert und mit den drei oben genannten Medien und zugrundeliegenden Kultivierungsprotokollen wurden in jeweils dreifacher Ausführung insgesamt 144 humane Vollhautmodelle erstellt, welche dann entsprechend des Bewertungskataloges beurteilt wurden. Die zugrunde gelegten Bewertungs- und Gütekriterien entsprachen histomorphologischen Parametern. Dazu gehörten die Dicke von Epidermis und Dermis, die Adhärenz zwischen Epidermis und Dermis sowie die Abwesenheit von Zellkernen im Stratum corneum der Epidermis. Für die Analyse der Einflussfaktoren Spenderalter und Kultivierungsmedium wurden Regressionsmodelle mittels Generalized Estimating Equations angewandt. Das Spenderalter und das Kultivierungsmedium wurden dabei unabhängig voneinander in einer univariaten Analyse untersucht. Bei der Untersuchung des Einflusses des Kulturmediums auf die terminale Differenzierung innerhalb der Epidermis zeigte sich, dass durch Kultivierung mit EpiLife ® signifikant weniger Vollhautmodelle mit Zellkernen im Stratum corneum hergestellt wurden, im Vergleich zur Kultur mit KGM 2 oder KGM 2 variant. Der Einfluss des Kulturmediums auf die Epidermis- und Dermis-Dicke war jeweils nicht signifikant. Trotzdem zeigte sich ein Trend mit einer dünneren Epidermis und Dermis nach EpiLife ® -Kultivierung. Bei der Analyse des Spenderalters konnte ein positiver Einfluss eines jüngeren Spenders auf die Dicke der Epidermis im Vollhautmodell gezeigt werden. Die Epidermis-Dicke war signifikant größer, je jünger ein Vorhautspender war. Ein höheres Spenderalter dagegen führte zu signifikant weniger Ablösung der Epidermis von der Dermis. Keinen Einfluss hatte das Spenderalter auf die Dermis-Dicke und auf die Abwesenheit von Zellkernen in der Hornschicht. Die drei signifikanten Assoziationen in der univariaten Analyse wurden in einer multivariablen Analyse untersucht. Hierbei zeigte sich der Einfluss des Spenderalters auf die Epidermis-Dicke und die dermo-epidermale Adhäsion unter Einfluss der Kulturmedien, der Abwesenheit von Zellkernen in der Hornschicht und der Dermis-Dicke als Kovariablen ebenfalls signifikant. Auch blieb der Einfluss von EpiLife ® auf die Abwesenheit von Zellkernen in der Hornschicht in der multivariablen Analyse signifikant. Es konnte hierbei außerdem ein signifikanter Einfluss der Dermis auf die Epidermis mit Schrumpfung der Epidermis bei Größerwerden der Dermis gezeigt werden. In einer durchgeführten komplexen statistischen Analyse mittels General Linear Model wurde der Einfluss einer Spender-Medium-Interaktion analysiert, ohne das Spenderalter als Variable mit einzubeziehen. Es zeigte sich ein signifikanter Einfluss der Interaktion des Spenders mit dem Kulturmedium auf die Epidermisund Dermis-Dicke und damit auf die Qualität der in vitro hergestellten Vollhautmodelle. Einerseits bestand also ein unabhängiger Einfluss des Spenderalters und des Mediums, andererseits gab es einen Einfluss von der Abhängigkeit einer optimalen Spender-Medium-Kombination auf die Vollhautmodellqualität. Zusammenfassend konnte in der vorliegenden Arbeit erstmals das komplexe Zusammenspiel von Spenderfaktoren und Kultivierungsbedingungen und deren Auswirkungen auf die Qualität von humanen Vollhautmodellen aufgezeigt werden. Diese Ergebnisse haben Relevanz für den Einsatz dieser Modelle als Tierersatzmodelle in der Forschung. Unter Berücksichtigung dieser Ergebnisse können optimierte organotypische Vollhautmodelle in vitro hergestellt werden, sodass zukünftig komplexere Hautmodelle generiert werden können. In einer Folgearbeit sollen die hier erarbeiteten Grundlagen helfen, Hautmodelle in der Erforschung der akuten GvHD der Haut zu bearbeiten. / Human artificial skin models are increasingly employed as non-animal test platforms for research and medical purposes. However, the overall histopathological quality of such models may vary significantly. Therefore, we studied the effects of manufacturing protocols and donor sources on the quality of skin models built-up from fibroblasts and keratinocytes derived from juvenile foreskins. Histo-morphological parameters such as epidermal thickness, number of epidermal cell layers, dermal thickness, dermo-epidermal adhesion and absence of cellular nuclei in the corneal layer were obtained and scored accordingly. In total, 144 full-thickness skin models derived from 16 different donors, built-up in triplicates using three different culture conditions were successfully generated. In univariate analysis both media and donor age affected the quality of skin models significantly. Both parameters remained statistically significant in multivariate analyses. Performing general linear model analyses we could show that individual medium-donor-interactions influence the quality. These observations suggest that the optimal choice of media may differ from donor to donor and coincides with findings where significant inter-individual variations of growth rates in keratinocytes and fibroblasts have been described. Thus, the consideration of individual medium-donor-interactions may improve the overall quality of human organ models thereby forming a reproducible test platform for sophisticated clinical Research die englische Zusammenfassung ist eine genehmigte Kopie aus der Publikation: Lange, J., F. Weil, C. Riegler, F. Groeber, S. Rebhan, S. Kurdyn, M. Alb, H. Kneitz, G. Gelbrich, H. Walles and S. Mielke (2016). "Interactions of donor sources and media influence the histo-morphological quality of full-thickness skin models." Biotechnol J.
208

Stochastische Tageseinsatzoptimierung vernetzter Wasserkraftwerke mit Hilfe genetischer Algorithmen /

Zhao, Xiayang. January 2007 (has links)
Zugl.: Aachen, Techn. Hochsch., Diss., 2007.
209

Ein Workshopzuteilungsverfahren als zweistufige Auktion zur Enthüllung privater Präferenzen

Thede, Anke January 2006 (has links)
Zugl.: Karlsruhe, Univ., Diss., 2006
210

Fuzzy Bilevel Optimization

Ruziyeva, Alina 26 February 2013 (has links) (PDF)
In the dissertation the solution approaches for different fuzzy optimization problems are presented. The single-level optimization problem with fuzzy objective is solved by its reformulation into a biobjective optimization problem. A special attention is given to the computation of the membership function of the fuzzy solution of the fuzzy optimization problem in the linear case. Necessary and sufficient optimality conditions of the the convex nonlinear fuzzy optimization problem are derived in differentiable and nondifferentiable cases. A fuzzy optimization problem with both fuzzy objectives and constraints is also investigated in the thesis in the linear case. These solution approaches are applied to fuzzy bilevel optimization problems. In the case of bilevel optimization problem with fuzzy objective functions, two algorithms are presented and compared using an illustrative example. For the case of fuzzy linear bilevel optimization problem with both fuzzy objectives and constraints k-th best algorithm is adopted.

Page generated in 0.0704 seconds