• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 141
  • 48
  • Tagged with
  • 189
  • 189
  • 141
  • 111
  • 111
  • 82
  • 49
  • 49
  • 47
  • 26
  • 20
  • 19
  • 18
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

CoRE - komponentenorientierte Entwicklung offener verteilter Softwaresysteme im Telekommunikationskontext

Born, Marc, Kath, Olaf 29 April 2002 (has links)
Die Telekommunikation und die ihr zuliefernde Industrie stellen einen softwareintensiven Bereich dar - der durch einen sehr hohen Anteil von Eigenentwicklungen gekennzeichnet ist. Eine wesentliche Ursache dafür sind spezielle Anforderungen an Telekommunikationssoftwaresysteme, die i.allg. nicht durch Standardsoftwareprodukte sichergestellt werden können. Diese Anforderungen ergeben sich aus den besonderen Eigenschaften solcher Softwaresysteme wie die Verteilung der Komponenten von Softwaresystemen sowie die Verteilung der Entwicklung dieser Komponenten, die Heterogenität der Entwicklungs- und Einsatzumgebungen für diese Komponenten und die Komplexität der entwickelten Softwaresysteme hinsichtlich nichtfunktionaler Charakteristika. Die industrielle Entwicklung von Telekommunikationssoftwaresystemen ist ein schwieriger und bisher nicht zufriedenstellend gelöster Prozeß. Aktuelle Forschungsarbeiten thematisieren Softwareentwicklungsprozesse und -techniken sowie unterstützende Werkzeuge zur Erstellung und Integration wiederverwendbarer Softwarekomponenten ("Componentware"). Das Ziel dieser Dissertation besteht in der Unterstützung der industriellen Entwicklung offener, verteilter Telekommunikationssoftwaresysteme. Dazu wird die Entwicklungstechnik Objektorientierte Modellierung mit dem Einsatz von Komponentenarchitekturen durch die automatische Ableitung von Softwarekomponenten aus Modellen zusammengeführt. Die zentrale Idee ist dabei eine präzise Definition der zur Entwicklung von verteilten Softwaresystemen einsetzbaren Modellierungskonzepte in Form eines Metamodells. Von diesem Metamodell ausgehend werden dann zur Konstruktion und Darstellung objektorientierter Entwurfsmodelle eine graphische und eine textuelle Notation definiert. Da die Notationen die Konzepte des Meta- Modells visualisieren, haben sie diesem gegenüber einen sekundären Charakter. Für die Transformation von Entwurfsmodellen in ausführbare Applikationen wurde auf der Grundlage von CORBA eine Komponentenplattform realisiert, die zusätzlich zu Interaktionen zwischen verteilten Softwarekomponenten auch Entwicklungs-, Deployment- und Ausführungsaspekte unterstützt. Wiederum ausgehend vom Metamodell wird durch die Anwendung wohldefinierter Ableitungsregeln die automatische Überführung von Entwurfsmodellen in Softwarekomponenten des zu entwickelnden Systems ermöglicht. Die von den Autoren erarbeiteten Konzeptionen und Vorgehensweisen wurden praktisch in eine Werkzeugumgebung umgesetzt, die sich bereits erfolgreich in verschiedenen Softwareentwicklungsprojekten bewährt hat. / The telecommunication industry and their suppliers form a software intensive domain. In addition, a high percentage of the software is developed by the telecommunication enterprises themselves. A main contributing factor for this situation are specific requirements to telecommunication software systems which cannot be fulfilled by standard off-the-shelf products. These requirements result from particular properties of those software systems, e.g. distributed development and execution of their components, heterogeneity of execution and development environments and complex non-functional characteristics like scalability, reliability, security and manageability. The development of telecommunication software systems is a complex process and currently not satisfactory realized. Actual research topics in this arena are software development processes and development techniques as well as tools which support the creation and integration of reusable software components (component ware). The goal of this thesis work is the support of the industrial development and manufacturing of open distributed telecommunication software systems. For that purpose, the development technique object oriented modelling and the implementation technique usage of component architectures are combined. The available modelling concepts are precisely defined as a metamodel. Based on that metamodel, graphical and textual notations for the presentation of models are developed. To enable a smooth transition from object oriented models into executable components a component architecture based on CORBA was also developed as part of the thesis. This component architecture covers besides the interaction support for distributed components deployment and execution aspects. Again on the basis of the metamodel code generation rules are defined which allow to automate the transition from models to components. The development techniques described in this thesis have been implemented as a tool chain. This tool chain has been successfully used in several software development projects.
122

Regular partitions of hypergraphs and property testing

Schacht, Mathias 28 October 2010 (has links)
Die Regularitätsmethode für Graphen wurde vor über 30 Jahren von Szemerédi, für den Beweis seines Dichteresultates über Teilmengen der natürlichen Zahlen, welche keine arithmetischen Progressionen enthalten, entwickelt. Grob gesprochen besagt das Regularitätslemma, dass die Knotenmenge eines beliebigen Graphen in konstant viele Klassen so zerlegt werden kann, dass fast alle induzierten bipartiten Graphen quasi-zufällig sind, d.h. sie verhalten sich wie zufällige bipartite Graphen mit derselben Dichte. Das Regularitätslemma hatte viele weitere Anwendungen, vor allem in der extremalen Graphentheorie, aber auch in der theoretischen Informatik und der kombinatorischen Zahlentheorie, und gilt mittlerweile als eines der zentralen Hilfsmittel in der modernen Graphentheorie. Vor wenigen Jahren wurden Regularitätslemmata für andere diskrete Strukturen entwickelt. Insbesondere wurde die Regularitätsmethode für uniforme Hypergraphen und dünne Graphen verallgemeinert. Ziel der vorliegenden Arbeit ist die Weiterentwicklung der Regularitätsmethode und deren Anwendung auf Probleme der theoretischen Informatik. Im Besonderen wird gezeigt, dass vererbbare (entscheidbare) Hypergrapheneigenschaften, das sind Familien von Hypergraphen, welche unter Isomorphie und induzierten Untergraphen abgeschlossen sind, testbar sind. D.h. es existiert ein randomisierter Algorithmus, der in konstanter Laufzeit mit hoher Wahrscheinlichkeit zwischen Hypergraphen, welche solche Eigenschaften haben und solchen die „weit“ davon entfernt sind, unterscheidet. / About 30 years ago Szemerédi developed the regularity method for graphs, which was a key ingredient in the proof of his famous density result concerning the upper density of subsets of the integers which contain no arithmetic progression of fixed length. Roughly speaking, the regularity lemma asserts, that the vertex set of every graph can be partitioned into a constant number of classes such that almost all of the induced bipartite graphs are quasi-random, i.e., they mimic the behavior of random bipartite graphs of the same density. The regularity lemma had have many applications mainly in extremal graph theory, but also in theoretical computer science and additive number theory, and it is considered one of the central tools in modern graph theory. A few years ago the regularity method was extended to other discrete structures. In particular extensions for uniform hypergraphs and sparse graphs were obtained. The main goal of this thesis is the further development of the regularity method and its application to problems in theoretical computer science. In particular, we will show that hereditary, decidable properties of hypergraphs, that are properties closed under isomorphism and vertex removal, are testable. I.e., there exists a randomised algorithm with constant running time, which distinguishes between Hypergraphs displaying the property and those which are “far” from it.
123

Sparse instances of hard problems

Dell, Holger 01 September 2011 (has links)
Diese Arbeit nutzt und verfeinert Methoden der Komplexitätstheorie, um mit diesen die Komplexität dünner Instanzen zu untersuchen. Dazu gehören etwa Graphen mit wenigen Kanten oder Formeln mit wenigen Bedingungen beschränkter Weite. Dabei ergeben sich zwei natürliche Fragestellungen: (a) Gibt es einen effizienten Algorithmus, der beliebige Instanzen eines NP-schweren Problems auf äquivalente, dünne Instanzen reduziert? (b) Gibt es einen Algorithmus, der dünne Instanzen NP-schwerer Probleme bedeutend schneller löst als allgemeine Instanzen gelöst werden können? Wir formalisieren diese Fragen für verschiedene Probleme und zeigen, dass positive Antworten jeweils zu komplexitätstheoretischen Konsequenzen führen, die als unwahrscheinlich gelten. Frage (a) wird als Kommunikation modelliert, in der zwei Akteure kooperativ eine NP-schwere Sprache entscheiden möchten und dabei möglichst wenig kommunizieren. Unter der komplexitätstheoretischen Annahme, dass coNP keine Teilmenge von NP/poly ist, erhalten wir aus unseren Ergebnissen erstaunlich scharfe untere Schranken für interessante Parameter aus verschiedenen Teilgebieten der theoretischen Informatik. Im Speziellen betrifft das die Ausdünnung von Formeln, die Kernelisierung aus der parameterisierten Komplexitätstheorie, die verlustbehaftete Kompression von Entscheidungsproblemen, und die Theorie der probabilistisch verifizierbaren Beweise. Wir untersuchen Fragestellung (b) anhand der Exponentialzeitkomplexität von Zählproblemen. Unter (Varianten) der bekannten Exponentialzeithypothese (ETH) erhalten wir exponentielle untere Schranken für wichtige #P-schwere Probleme: das Berechnen der Zahl der erfüllenden Belegungen einer 2-KNF Formel, das Berechnen der Zahl aller unabhängigen Mengen in einem Graphen, das Berechnen der Permanente einer Matrix mit Einträgen 0 und 1, das Auswerten des Tuttepolynoms an festen Punkten. / In this thesis, we use and refine methods of computational complexity theory to analyze the complexity of sparse instances, such as graphs with few edges or formulas with few constraints of bounded width. Two natural questions arise in this context: (a) Is there an efficient algorithm that reduces arbitrary instances of an NP-hard problem to equivalent, sparse instances? (b) Is there an algorithm that solves sparse instances of an NP-hard problem significantly faster than general instances can be solved? We formalize these questions for different problems and show that positive answers for these formalizations would lead to consequences in complexity theory that are considered unlikely. Question (a) is modeled by a communication process, in which two players want to cooperatively decide an NP-hard language and at the same time communicate as few as possible. Under the complexity-theoretic hypothesis that coNP is not in NP/poly, our results imply surprisingly tight lower bounds for parameters of interest in several areas, namely sparsification, kernelization in parameterized complexity, lossy compression, and probabilistically checkable proofs. We study the question (b) for counting problems in the exponential time setting. Assuming (variants of) the exponential time hypothesis (ETH), we obtain asymptotically tight, exponential lower bounds for well-studied #P-hard problems: Computing the number of satisfying assignments of a 2-CNF formula, computing the number of all independent sets in a graph, computing the permanent of a matrix with entries 0 and 1, evaluating the Tutte polynomial at fixed evaluation points.
124

Resource Centered Store

Heese, Ralf 04 January 2016 (has links)
Mit dem Resource Description Framework (RDF) können Eigenschaften von und die Beziehungen zwischen Ressourcen maschinenverarbeitbar beschrieben werden. Dadurch werden diese Daten für Maschinen zugänglicher und können unter anderem automatisch Daten zu einer Ressource lokalisieren und verarbeiten, unterschiedliche Bedeutungen einer Zeichenkette erkennen und implizite Informationen ableiten. Das Datenmodell von RDF und der zugehörigen Anfragesprache SPARQL basiert auf gerichteten und beschrifteten Multigraphen. Forschungsergebnisse haben gezeigt, dass relationale DBMS zum Verwalten von RDF-Daten ungeeignet sind. Native basierende RDF-DBMS können Anfragen in kürzerer Zeit verarbeiten. Der Leistungsgewinn wird durch redundantes Speichern von Tripeln in mehreren B+-Bäumen erzielt. Jedoch sind Join-ähnliche Operationen zum Berechnen des Ergebnisses erforderlich, was bei größeren Anfragen zu Leistungseinbußen führt. In dieser Arbeit wird der Resource Centered Store (RCS) entwickelt, dessen Speichermodell RDF-inhärente Eigenschaften ausnutzt, um Anfragen ohne die Notwendigkeit redundanter Speicherung effizient beantworten zu können. Die grundlegende Idee des RCS-Speichermodells besteht im Gruppieren der Daten als sternförmigen Teilgraphen auf Datenbankseiten. Die verwendeten Prinzipien ähnelt denen in RDBMS und daher können deren Algorithmen zur Beantwortung von Anfragen wiederverwendet werden. Darüber hinaus werden Transformationsregeln und Heuristiken zum Optimieren von SPARQL-Anfragen zum Finden eines möglichst optimalen Ausführungsplans definiert. In diesem Kontext wurden auch graphmusterbasierte Indexe spezifiziert und deren Nutzen für die Verarbeitung von Anfragen untersucht. Das RCS-Speichermodell wurde prototypisch implementiert und im Vergleich zum nativen RDF-DBMS Jena TDB evaluiert. Die durchgeführten Experimenten zeigen, dass das System insbesondere für das Beantworten von Anfragen mit großen sternförmigen Teilmustern geeignet ist. / The Resource Description Framework (RDF) is the conceptual foundation for representing properties of real-world or virtual resources and describing the relationships between them. Standards based on RDF allow machines to access and process information automatically and locate additional data about resources. It also supports the discovery of relationships between concepts. The smallest information unit in RDF are triples which form a directed labeled multi-graph. The query language SPARQL is also based on a graph model which makes it difficult for relational DBMS to store and query RDF data efficiently. The most performant DBMS for managing and querying RDF data implement a RDF-specific storage model based on a set of B+ tree indexes. The key disadvantages of these systems are the increased usage of secondary storage in cause of redundantly stored triples as well as the necessity of expensive join operation to compute the solutions of a SPARQL query. In this work we develop and describe the Resource Centered Store which exploits RDF inherent characteristics to avoid the requirement for storing triples redundantly while improving the query performance of larger queries. In the RCS storage model triples are grouped by their first component (subject) and storing these star-shaped subgraphs on database pages -- similar to relational DBMS. As a result the RCS can benefit from principles and algorithms that have been developed in the context of relational databases. Additionally, we defined transformation rules and heuristics to optimize SPARQL queries and generate an efficient query execution plan. In this context we also defined graph pattern based indexes and investigated their benefits for computing the solutions of queries. We implemented the RCS storage model prototypically and compared it to the native RDF DBMS Jena TDB. Our experiments showed that our storage model is especially suited to speed up the query performance of large star-shaped graph pattern.
125

Return from the ant

Brückner, Sven 21 June 2000 (has links)
Die vorliegende Dissertation hat einen technologischen und einen anwendungsbezogenen Schwerpunkt. Technologisch ordnen sich die präsentierten Forschungsergebnisse in das Gebiet der "Swarm Intelligence" (dt.: Schwarm-Intelligenz) ein. Swarm Intelligence ist ein Teilbereich der Informatik, der sich an der Überschneidung zwischen der Multi-Agenten Systeme Forschung der Künstlichen Intelligenz und dem Forschungsgebiet "Artificial Life" (dt.: Künstliches Leben) befindet. Im Gegensatz zur Swarm Intelligence im allgemeinen, überträgt der spezielle Ansatz "Synthetic Ecosystems" (dt.: synthetische Ökosysteme) nicht nur Koordinationsmechanismen aus biologischen Multi-Agenten Systemen, wie zum Beispiel Insekten Kolonien, in den Entwurf künstlicher Systeme. Vielmehr sollen die grundlegenden Prinzipien "natürlich" entstandener komplexer Systeme, also auch zum Beispiel einer Aktienbörse, übernommen werden. Als anwendungsbezogener Hintergrund der Dissertation wurde die verteilte Steuerung moderner industrieller Fertigungsanlagen gewählt. Die Fertigungssteuerung ist ein geeignetes Anwendungsfeld für die Technologien, die im Rahmen der Forschungsarbeiten entwickelt wurden. Damit dient die Präsentation eines synthetischen Ökosystems für die Fertigungssteuerung der Demonstration des neuartigen Ansatzes zum Entwurf, Realisierung und Evaluierung komplexer, industriell relevanter Systeme. Gleichzeitig leistet die vorgestellte Architektur der Fertigungssteuerung und die darin verwandten Koordinationsverfahren einen Beitrag zur Weiterentwicklung holonischer Produktionssysteme. Der holonische Ansatz zur Produktionsplanung und -steuerung genießt derzeit große Aufmerksamkeit sowohl in der Forschung als auch in der Industrie. Als Teilgebiet der Entwicklung intelligenter Fertigungssysteme (engl.: IMS - Intelligent Manufacturing Systems), propagiert der holonische Ansatz eine Abkehr von der traditionell zentralistischen und hierarchischen Planung und Steuerung hin zu selbst-organisierenden Systemen autonom (inter-)agierender Individuen ("Holone"). Bei der praktischen Umsetzung holonischer Systeme werden sehr häufig Technologien aus der Multi-Agenten Systeme Forschung angewandt. Mit dieser Dissertation rücken auch synthetische Ökosysteme in das Blickfeld holonischer Systeme. Natürliche Agentensysteme im allgemeinen und Kolonien sozialer Insekten im besonderen faszinieren durch ihre Robustheit, ihre Flexibilität und ihre Anpassungsfähigkeit. Solche Systeme bestehen häufig aus sehr vielen, sehr einfachen Individuen und doch weisen sie ein komplexes und koordiniertes Gesamtverhalten auf. Es gibt mehrere Zweige in unterschiedlichen Wissenschaften, zum Beispiel in der Biologie, Physik, Ökonomie oder in der Informatik, die sich mit verteilten Systemen lokal interagierender Individuen beschäftigen. Ihre Erforschung resultiert in einer Reihe wiederholt beobachteter grundlegender Eigenschaften. Um künstlich erschaffene Systeme mit ähnlichen Eigenschaften auszustatten werden Entwurfsprinzipien für das Design von Multi-Agenten Systemen in dieser Dissertation vorgeschlagen. Jedes Entwurfsprinzip wird systematisch eingeführt, motiviert und in seinen Konsequenzen für Anwendungen in der Fertigungssteuerung diskutiert. Stigmergie ist ein grundlegendes Konzept der Koordination einer großen Anzahl von Individuen unter anderem in Kolonien sozialer Insekten. Die Formulierung dieses Konzepts ist auf den Biologen Grassè zurückzuführen, welcher in der Mitte des zwanzigsten Jahrhunderts das Schwarmverhalten von Termiten untersuchte. Stigmergie beruht auf der Tatsache, daß das Verhalten eines jeden Individuums durch die aktuelle Konfiguration seiner lokalen Umwelt bestimmt wird. Die Umwelt wiederum, wird durch die Aktivitäten der Individuen verändert. Diese Wechselwirkung führt in Verbindung mit entsprechend ausgelegten individuellen Verhaltensmustern zur Emergenz einer global koordinierten Erfüllung der anstehenden Aufgaben der Kolonie. Im Detail wird sematektonische von marker-basierter Stigmergie unterschieden, wobei bei sematektonischer Stigmergie der Zustand der Aufgabenerfüllung selbst (z.B. Stand des Nestbaus) das Individualverhalten beeinflußt, während marker-basierte Stigmergie aufgabenunabhängige Marker (z.B. Pheromone) in der Umwelt platziert. Multi-Agenten Systeme finden ihre Realisierung in Software, welche gegebenenfalls an physische Aktuatoren gekoppelt ist. Im allgemeinen besteht diese Software aus einer Laufzeitumgebung und den darin ausgeführten Agenten. Die vorliegende Dissertation präsentiert eine Erweiterung von Laufzeitumgebungen um eine anwendungsunabhängige Pheromon Infrastruktur (PI). Die PI ermöglicht es den Softwareagenten des jeweiligen synthetischen Ökosystems, künstliche Pheromone als Datenstrukturen in einem virtuellen Raum abzulegen und wahrzunehmen. Diese Datenstrukturen dienen als Marker in stigmergetischen Koordinationsmechanismen. Die Algorithmen der PI operieren auf diesen künstlichen Pheromonen und emulieren die natürlichen Vorgänge der räumlichen Ausbreitung und Verdunstung von Pheromonen auf abstrakter Ebene. Zusätzlich wird das natürliche Vorbild um eine automatische Aufbereitung von Informationen erweitert. Die Funktionalität der PI wird in dieser Dissertation spezifiziert. Des weiteren wird ein formales Modell erstellt, welches die Grundlage einer numerischen Analyse der Eigenschaften der PI bildet. Die Analyse liefert Vorhersagen für das Entstehen von räumlichen Mustern von Pheromonkonzentrationen in der PI. Diese Vorhersagen können dann in der Feineinstellung und der Evaluierung von Koordinationsmechanismen verwendet werden. Außerdem dient das formale Modell als Grundlage für den Beweis der globalen Stabilität der PI. Damit ist gesichert, daß unabhängig von der gewählten räumlichen Struktur und den von der jeweiligen Anwendung generierten Pheromonen die Konzentrationen der Pheromone immer in ihrer Stärke begrenzt sind. Der Beweis der globalen Stabilität ist eine wichtige Voraussetzung für die Verwendung der PI in praktischen Anwendungen. Die Spezifikation einer verteilten Realisierung der PI bildet den Abschluß der allgemeinen Betrachtung. Die Agenten, welche die (virtuelle) räumliche Struktur der PI widerspiegeln, werden im Detail spezifiziert. Auf der Basis dieser Spezifikation ist im Rahmen der Dissertation ein Prototyp der PI realisiert worden. Dieser Prototyp diente dem Nachweis des vorhergesagten Verhaltens der Infrastruktur und der späteren Evaluierung des entwickelten Fertigungssteuerungssystems. Im weiteren Verlauf der vorliegenden Dissertation wird ein neuartiger Ansatz zur Fertigungssteuerung betrachtet. Die absehbaren Veränderungen der äußeren Bedingungen der industriellen Produktion, ausgelöst durch den globalen Übergang von Anbieter- zu Verbrauchermärkten, erfordert die Fertigung immer komplexerer und variantenreicherer Produkte in ständig schwankenden Stückzahlen und deutlich verkürzten Lebenszyklen bei gleichzeitig sinkenden Kosten. Zur Erfüllung dieser Anforderungen in der Massenproduktion wandelt sich die traditionell starr verkettete Strangfertigung (z.B. Transferstraßen) zur flexiblen Fließfertigung (z.B. flexible Bearbeitungszentren). Die Steuerung einer flexiblen Fließfertigung erfordert neue Herangehensweisen. In einer holonischen Fertigung, zum Beispiel, organisiert sich die Produktionsplanung und Produktionssteuerung selbst um die Erfüllung der aktuellen Aufträge. Dabei werden in der Steuerung verteilte, reaktive Verfahren verwendet, welche eine deutlich gesteigerte Robustheit und Flexibilität gegenüber Störungen und Veränderungen aufweisen. Der Übergang zur flexiblen Fließfertigung bedeutet die Einführung von Flexibilität in der Bearbeitung aber auch im Transport des Materials. Es ist eine grundlegende Eigenschaft dieser Fertigungssysteme, daß zu einem beliebigen Zeitpunkt eine Reihe möglicher Transportwege und damit eine Vielzahl möglicher Muster im Materialfluß zur Verfügung stehen. Dabei führt aber nur eine kleine Menge dieser Muster zu einer bestmöglichen Erfüllung der globalen Produktionsziele (z.B. hoher globaler Durchsatz). Es ist also die Aufgabe der Fertigungssteuerung in jeder Situation das bestmögliche Materialflußmuster zu erreichen. Ist ein verteilter Ansatz für die Steuerung gewählt worden, so muß diese Optimierung nach globalen Produktionszielen in die lokalen Steuerungsentscheidungen integriert werden, ohne die Autonomie der lokalen Einheiten zu verletzen. Die Dissertation präsentiert ein sogenanntes geführtes Fertigungssteuerungssystem (GFSS), welches einen verteilten und reaktiven Steuerungsansatz mit einer Flußoptimierung unter Beachtung globaler Produktionsziele in neuartiger Weise verbindet. Der Entwurf des GFSS folgte den vorgeschlagenen Prinzipien für synthetische Ökosysteme und die Agenten im GFSS werden mit Hilfe der Pheromon Infrastruktur koordiniert. Die Agenten und Pheromone des GFSS werden detailliert spezifiziert und in einem realistischen Beispiel aus der Automobilindustrie evaluiert. In der Evaluierung wird von den Ergebnissen der Analyse der PI Gebrauch gemacht. Die dabei gewählte numerische Beschreibung des Einzelverhaltens und die darauf aufbauende Betrachtung des emergierenden Gesamtverhaltens weist den Weg zu einer systematischen Evaluierung von emergenten Systemeigenschaften in synthetischen Ökosystemen. In einem abschließenden Kapitel werden die drei inhaltlichen Schwerpunkte der Dissertation noch einmal betrachtet. Vor dem Hintergrund des GFSS werden die vorgeschlagenen Entwurfsprinzipien für synthetische Ökosysteme systematisch auf ihre Anwendbarkeit und praktische Bedeutung hin überprüft. Außerdem wird die allgemeine Verwendung der PI für den Austausch von Informationen zwischen Agenten untersucht. Und schließlich wird die Fertigungssteuerung aus der Sicht abstrakter Zustandsräume diskutiert. Die vorliegende Dissertation weist den Weg für eine Reihe weiterführender Forschungsarbeiten. So werden zum einen detaillierte Konzepte für die Erweiterung des GFSS um eine automatische Strategiebewertung und -generierung und um ein Visualisierungssystem vorgestellt. Zum anderen werden aber auch notwendige Ergänzungen der Entwurfsprinzipien und mögliche Verbesserungen der PI und des darauf basierenden Evaluierungsansatzes vorgeschlagen. / The synthetic ecosystems approach attempts to adopt basic principles of natural ecosystems in the design of multiagent systems. Natural agent systems like insect colonies are fascinating in that they are robust, flexible, and adaptive. Made up of millions of very simple entities, these systems express a highly complex and coordinated global behavior. There are several branches in different sciences, for instance in biology, physics, economics, or in computer science, that focus on distributed systems of locally interacting entities. Their research yields a number of commonly observed characteristics. To supply engineered systems with similar characteristics this thesis proposes a set of principles that should be observed when designing synthetic ecosystems. Each principle is systematically stated and motivated, and its consequences for the manufacturing control domain are discussed. Stigmergy has shown its usefulness in the coordination of large crowds of agents in a synthetic ecosystem. Sign-based stigmergy through synthetic pheromones is supported by an extension to runtime environments for software agents called the pheromone infrastructure. In this thesis the operation of the pheromone infrastructure is specified, formally modeled and analyzed, and an implementation is presented. The guided manufacturing control system for flexible flow shops is designed following the proposed principles and it uses the pheromone infrastructure to coordinate its agents. It comprises two subsystems. The control (sub)system, which enables production, is distributed and reactive. The advisory (sub)system observes the operation of the control system and advises the manufacturing execution under global considerations. This thesis specifies the guided manufacturing control system and evaluates its operation in a simple but realistic example adapted from the automotive industry. The applicability of the design principles, the usage of the pheromone infrastructure, and the operation of manufacturing control in abstract state spaces are considered on the basis of the guided manufacturing control system.
126

Knowledge management and discovery for genotype/phenotype data

Groth, Philip 02 December 2009 (has links)
Die Untersuchung des Phänotyps bringt z.B. bei genetischen Krankheiten ein Verständnis der zugrunde liegenden Mechanismen mit sich. Aufgrund dessen wurden neue Technologien wie RNA-Interferenz (RNAi) entwickelt, die Genfunktionen entschlüsseln und mehr phänotypische Daten erzeugen. Interpretation der Ergebnisse solcher Versuche ist insbesondere bei heterogenen Daten eine große Herausforderung. Wenige Ansätze haben bisher Daten über die direkte Verknüpfung von Genotyp und Phänotyp hinaus interpretiert. Diese Dissertation zeigt neue Methoden, die Entdeckungen in Phänotypen über Spezies und Methodik hinweg ermöglichen. Es erfolgt eine Erfassung der verfügbaren Datenbanken und der Ansätze zur Analyse ihres Inhalts. Die Grenzen und Hürden, die noch bewältigt werden müssen, z.B. fehlende Datenintegration, lückenhafte Ontologien und der Mangel an Methoden zur Datenanalyse, werden diskutiert. Der Ansatz zur Integration von Genotyp- und Phänotypdaten, PhenomicDB 2, wird präsentiert. Diese Datenbank assoziiert Gene mit Phänotypen durch Orthologie über Spezies hinweg. Im Fokus sind die Integration von RNAi-Daten und die Einbindung von Ontologien für Phänotypen, Experimentiermethoden und Zelllinien. Ferner wird eine Studie präsentiert, in der Phänotypendaten aus PhenomicDB genutzt werden, um Genfunktionen vorherzusagen. Dazu werden Gene aufgrund ihrer Phänotypen mit Textclustering gruppiert. Die Gruppen zeigen hohe biologische Kohärenz, da sich viele gemeinsame Annotationen aus der Gen-Ontologie und viele Protein-Protein-Interaktionen innerhalb der Gruppen finden, was zur Vorhersage von Genfunktionen durch Übertragung von Annotationen von gut annotierten Genen zu Genen mit weniger Annotationen genutzt wird. Zuletzt wird der Prototyp PhenoMIX präsentiert, in dem Genotypen und Phänotypen mit geclusterten Phänotypen, PPi, Orthologien und weiteren Ähnlichkeitsmaßen integriert und deren Gruppierungen zur Vorhersage von Genfunktionen, sowie von phänotypischen Wörtern genutzt. / In diseases with a genetic component, examination of the phenotype can aid understanding the underlying genetics. Technologies to generate high-throughput phenotypes, such as RNA interference (RNAi), have been developed to decipher functions for genes. This large-scale characterization of genes strongly increases phenotypic information. It is a challenge to interpret results of such functional screens, especially with heterogeneous data sets. Thus, there have been only few efforts to make use of phenotype data beyond the single genotype-phenotype relationship. Here, methods are presented for knowledge discovery in phenotypes across species and screening methods. The available databases and various approaches to analyzing their content are reviewed, including a discussion of hurdles to be overcome, e.g. lack of data integration, inadequate ontologies and shortage of analytical tools. PhenomicDB 2 is an approach to integrate genotype and phenotype data on a large scale, using orthologies for cross-species phenotypes. The focus lies on the uptake of quantitative and descriptive RNAi data and ontologies of phenotypes, assays and cell-lines. Then, the results of a study are presented in which the large set of phenotype data from PhenomicDB is taken to predict gene annotations. Text clustering is utilized to group genes based on their phenotype descriptions. It is shown that these clusters correlate well with indicators for biological coherence in gene groups, such as functional annotations from the Gene Ontology (GO) and protein-protein interactions. The clusters are then used to predict gene function by carrying over annotations from well-annotated genes to less well-characterized genes. Finally, the prototype PhenoMIX is presented, integrating genotype and phenotype data with clustered phenotypes, orthologies, interaction data and other similarity measures. Data grouped by these measures are evaluated for theirnpredictiveness in gene functions and phenotype terms.
127

On selfish network creation

Lenzner, Pascal 30 June 2014 (has links)
Untersuchungsgegenstand dieser Arbeit ist ein spieltheoretisches Modell für die dezentrale Erzeugung von Netzwerken durch eigennützige Agenten. Diese Akteure verfolgen das Ziel, ein zusammenhängendes Netzwerk aufzubauen, welches ihre individuelle Verbindungsqualität maximiert. Direktverbindungen im Netzwerk haben Kosten, weshalb die Agenten ihre Ausgaben für das Erstellen von Direktverbindungen und die damit erzielten Kommunikationskosten ausbalancieren müssen. Dieses Modell wurde vor einem Jahrzehnt von Fabrikant, Luthra, Maneva, Papadimitriou und Shenker eingeführt, um reale Netzwerke, welche aus der Interaktion von eigenützigen Parteien entstanden sind, zu verstehen. Zu solchen Netzwerken zählen das Internet und auch soziale Netzwerke. Die vorliegende Arbeit trägt zu diesem Forschungsvorhaben bei, indem die sogenannten Network Creation Games aus drei Perspektiven betrachtet werden. Die erste Sichtweise ist die Approximationsperspektive. Es wird untersucht, welche Netzwerke von sehr einfachen, in ihrer Berechnungsstärke eingeschränkten Agenten erzeugt werden und wie diese im Vergleich mit Netzwerken von Agenten, die beliebige Berechnungsstärke haben, abschneiden. Als zweite Sichtweise wird die Dynamikperspektive betrachtet. Dazu werden sequentielle Versionen des Modells definiert und anhand dieser wird explizit der Prozess der Netzwerkerzeugung untersucht. Die Hauptfragestellung ist, ob unter der natürlichen Annahme, dass Agenten stets ihre Situation verbessern wollen, der Prozess zu einem Gleichgewicht konvergiert und, falls dem so ist, wie dieser Prozess beschleunigt werden kann. Die Abhandlung wird mit der dritten Sichtweise, der Strukturperspektive, abgerundet. Es werden eine Vielfalt neuer Struktureigenschaften für verschiedene Gleichgewichtskonzepte bewiesen und neue Werkzeuge, die bei der Analyse von Gleichgewichtsnetzwerken mit hohen Direktverbindungskosten hilfreich sind, vorgestellt. / The subject of study in this thesis is a game-theoretic model for decentralized network creation by selfish agents. These agents aim to create a connected network among themselves which maximizes their individual connection quality. Links in the network are costly and therefore agents try to find a trade-off between their cost spent on creating edges and their cost incurred by communicating within the network. This model was proposed a decade ago by Fabrikant, Luthra, Maneva, Papadimitriou and Shenker with the goal of understanding real networks which emerge from the interaction of selfish entities without explicit central coordination, e.g. the Internet or social networks. We contribute to this research endeavor in many ways by considering these so-called Network Creation Games from three perspectives. Our first point of view on these games is the approximation perspective. We analyze which networks are created by very simple computationally bounded selfish agents and how these networks compare to networks built by agents having unlimited computational resources. The second point of view is the dynamics perspective. We turn the model into a sequential version and focus on the process of selfish network creation. For this, we investigate whether natural dynamics like best response dynamics are guaranteed to converge to an equilibrium of the game and if so, how this convergence process may be sped up. We complete the treatment of Network Creation Games with our third point of view: the structure perspective. We provide new structural insights for several equilibrium concepts and introduce new tools which shed light on the structure of equilibrium networks for high edge-cost.
128

Constraint satisfaction with infinite domains

Bodirsky, Manuel 06 July 2004 (has links)
Constraint Satisfaction Probleme tauchen in vielen Gebieten der theoretischen Informatik auf. Häufig lassen sie sich auf natürliche Weise als Homomorphieprobleme für eine festgelassene Struktur Gamma formulieren: Die Berechnungsaufgabe besteht dann darin, für eine gegebene Struktur S mit der gleichen relationalen Signatur wie Gamma festzustellen, ob es einen Homomorphismus von S nach Gamma gibt. Dieses Problem wurde für enliche Strukturen Gamma intensiv untersucht. Viele der Constraint Satisfaction Probleme, die in der Literatur betrachtet werden, lassen sich jedoch nicht mit endlichen Schablonen Gamma formulieren. Diese Arbeit verallgemeinert Techniken zur Untersuchung der Berechnungskomplexität von Constraint Satisfaction Problemen mit endlichen Schablonen auf unendliche Schablonen. Insbesondere betrachten wir abzählbar kategorische Schablonen, die von zentraler Bedeutung in Modelltheorie sind. / Constraint satisfaction problems occur in many areas of computer science. Often they have a natural formulation as a homomorphism problem for a fixed relational structure Gamma: Given a structure S with the same relational signature as Gamma, is there a homomorphism from S to Gamma? This problem is known as the constraint satisfaction problem CSP(Gamma) for the template Gamma and is intensively studied for relational structures Gamma with a finite domain. However, many constraint satisfaction problems in the literature can not be formulated with a finite template. This thesis generalizes techniques to determine the complexity of constraint satisfaction with finite templates to constraint satisfaction with templates over an infinite domain. In particular, we study templates that are countably categorical. Such structures are a central and well-studied concept in model-theory.
129

Kooperatives Forwarding in drahtlosen Maschennetzen

Zubow, Anatolij 16 July 2009 (has links)
In der vorliegenden Arbeit werden praktische Protokolle für spontane drahtlose Multi-Hop Maschennetze vorgestellt, diese betrachten das drahtlose System ganzheitlich und berücksichtigen damit die Besonderheiten des drahtlosen Mediums, wie Fading, Interferenz sowie starke Signaldämpfung aufgrund von Entfernung bzw. Hindernissen. Interferenz ist eine Hauptursache für Paketverlust, Durchsatz und Latenz können durch die gleichzeitige Verwendung mehrerer interferenzfreier Kanäle verbessert werden. In Sensor- bzw. Community-Netzen kommt preiswerte und energiesparende Hardware zum Einsatz, die Verwendung zusätzlicher Antennen bzw. Radios ist deshalb nicht möglich. Andererseits werden aber zukünftige drahtlose Netze eine 100-mal höhere Knotendichte, verglichen mit heutigen Netzen, zeigen. Durch die Ausnutzung der im System inhärent vorliegenden Ressource Nutzer (Multi-User Diversität) werden durch Kooperation virtuelle Multi-Antennen und Multi-Radiosysteme aufgebaut. Aufgrund des großen Abstands zwischen den Knoten erreicht man erstens eine hohe räumliche Diversität und zweitens lassen sich damit auch negative Effekte, wie Interferenz zwischen benachbarten Kanälen, minimieren. Es werden Algorithmen sowohl für die Mediumzugriff- als auch die Routing-Schicht vorgestellt. Da keine spezielle physikalische Schicht notwendig ist, kann IEEE 802.11 verwendet werden. Schließlich kann auch auf die bereits heute verfügbare IEEE 802.11 Hardware, die nur eine Kanalumschaltzeit im Millisekundenbereich erlaubt, zurückgegriffen werden. Die zwei vorgestellten Protokolle eignen sich für Umgebungen mit hoher bzw. geringer Interferenz durch fremde WiFi-Netze. Bezüglich Durchsatz werden moderne Protokolle, wie DSR auf Basis von IEEE 802.11 und ETX-Metrik, um ein Vielfaches übertroffen, außerdem ist die Latenz klein und das TCP/IP-Protokoll kann unverändert verwendet werden. / In this work practical protocols are introduced for spontaneous wireless multi-hop mesh networks which contemplate the wireless system integrally and therefore take into account particular features of the wireless medium, like fading, interference as well as strong signal attenuation due to distance or obstacles. Interference is one of the main causes for packet loss. Throughput and latency can be improved by the simultaneous use of several non-interfering channels. In sensor or community networks inexpensive and energy-saving hardware is used. Additional antennas or radios are impossible therefore; on the other hand future wireless networks will show a 100 times higher node density in comparison with today''s networks, however. By the usage of the resource user (multi-user diversity), that is inherently present in the system virtual multi-antennas and multi-radio systems can be built up by cooperation. Firstly, a high spatial diversity can be achieved due to the large distance between the nodes and secondly, negative effects like interference can be minimized between neighboring channels. Algorithms are introduced both for medium access and routing layer. Since a special physical layer is not required IEEE 802.11 can be used. These days already available 802.11 hardware, which allows a channel switching time in milliseconds, is finally usable. The two protocols introduced here are suitable for environments with a high or low interference caused by foreign WiFi networks. Regarding their performance modern protocols like DSR based on 802.11 and ETX metric are surpassed by far. Moreover, the latency is small and the TCP/IP protocol can be used in its unchanged form.
130

Self-organization in networks of mobile sensor nodes

Blum, Christian 10 December 2015 (has links)
Selbstorganisierte drahtlose (ad hoc) Multihopnetzwerke können als einfach einsetzbare, robuste und rekonfigurierbare Kommunikationsinfrastruktur zum Beispiel in Katastrophenszenarien eingesetzt werden. Solche drahtlosen Netzwerke nutzen die Luft als geteiltes Kommunikationsmedium, was bedeutet, dass die Parameter des Netzwerks sehr orts- und zeitveränderlich sowie verrauscht sind. Intelligente Roboter können als Netzwerkknoten diese Herausforderungen bewältigen, indem sie sensomotorische Interaktion ausnutzen. Für einzelne Roboter wurde ein Algorithmus zur Exploration unbekannter Netzwerke entwickelt. Außerdem wurde gezeigt, dass eine Klasse gradientenbasierter Navigationsalgorithmen für den Fall von Signalstärkemessungen konvergiert. Es wurde zudem gezeigt wie diese Art von Algorithmen sich auf andere Aufgaben als das Finden von Netzwerkknoten erweitern lassen. Zusätzlich wurde ein Algorithmus basierend auf internen Modellen, der dem Roboter zum Beispiel ermöglicht Netzwekknoten finden oder zwei Netzwerkknoten zu überbrücken, entwickelt. Alle Algorithmen wurden in Simulation oder mit echten Robotern implementiert und evaluiert. Für den Fall mehrerer Roboter existieren bereits viele interessante Algorithmen in der Literatur. Allerdings wird im Moment keiner dieser Algorithmen in realen Systemen eingesetzt. Einer der Gründe hierfür ist, dass naive Sachwarmalgorithmen meist nicht sicher und zuverlässig genug sind. Um dieses Problem zu lösen wurde eine Architektur, die auf internen Modellen basiert und interne Simulation nutzt, untersucht. Es wurden zwei Testszenarien analysiert: Im ersten Experiment sollte ein Roboter andere Roboter davor bewahren zu Schaden zu kommen und dabei gleichzeitig seine eigene Sicherheit gewährleisten und eine Aufgabe erfüllen. Im zweiten Experiment musste ein Roboter durch einen Korridor navigieren ohne mit anderen Robotern zusammenzustoßen. Die vorgeschlagene Architektur hat sich als sehr effektiv erwiesen. / Self-organized wireless multihop (ad hoc) networks can form an easily deployable, robust and reconfigurable communication infrastructure, which can be employed for example in a disaster scenario, when static communication infrastructure has been destroyed. As such wireless networks use the air as a shared physical medium, the parameters of these networks often show very space- and time-varying noisy characteristics. Intelligent robotic network nodes can overcome these problems posed by these dynamics and measurement noise by exploiting sensorimotor interaction. For single robots, an algorithm for network exploration of unknown networks for large scale outdoor scenarios has been developed. Furthermore, a class of gradient-based algorithms for navigation in wireless networs hase been shown to converge for the case of signal strength measurements. Additionally, it was shown how these algorithms can be extended to other tasks than locating a network node. Additionally, an internal model-based algorithm to solve tasks like locating a node or bridging two nodes has been developed. All algorithms have been implemented and evaluated either in simulation or on real robots. For the case of multiple robots, a lot of interesting algorithms for example for optimal placement of mobile network nodes have been presented in literature. However, none of them are being used in real world scenarios. One of the reasons for that is insufficient safety and fault tolerance of naive algorithms. To overcome this problem the use of an internal model-based architecture using internal simulation has been investigated. Two test scenarios have been investigated using this architecture: in the first experiment a robot had to prevent other robots from coming to harm while ensuring its own safety and fulfilling a task. In a second experiment, a robot had to navigate through a narrow corridor without colliding with other robots. The proposed architecture has been shown to be very effective.

Page generated in 0.0456 seconds