• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 13
  • 9
  • Tagged with
  • 34
  • 34
  • 33
  • 31
  • 30
  • 25
  • 16
  • 16
  • 16
  • 11
  • 10
  • 9
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Adaptive Knowledge Exchange with Distributed Partial Models@Run.time

Werner, Christopher 11 January 2016 (has links) (PDF)
Die wachsende Anzahl an Robotikanwendungen, in denen mehrere Roboter ein gemeinsames Ziel verfolgen, erfordert eine gesonderte Betrachtung der Interaktion zwischen diesen Robotern mit Bezug auf den damit entstehenden Datenaustausch. Dieser muss hierbei effizient betrieben werden und die Sicherheit des gesamt Systems gewährleisten. Diese Masterarbeit stellt eine Simulationsumgebung vor, welche anhand von Testszenarien und Austauschstrategien Roboterkonstellationen prüft und Messergebnisse ausliefert. Zu Beginn der Arbeit werden drei Datenaustauschverfahren betrachtet und anschließend Publikationen vorgestellt, in denen Datenaustausch betrieben wird und Simulatoren für die Nutzbarkeit der Simulationsumgebung untersucht. Die anschließenden Kapitel behandeln das Konzept und die Implementierung der Testumgebung erläutert, wobei Roboter aus einer Menge von Hardware Komponenten und Zielen beschrieben werden. Der Aufbau des Experiments umfasst die verschiedenen Umgebungen, Testszenarien und Roboterkonfiguration. Der Aufbau beschreibt die Grundlage für die Auswertung der Testergebnisse.
2

Ablaufszenarien fuer Client-Server Anwendungen mit CORBA 2.0

Falk, Edelmann 12 November 1997 (has links)
Die Common Object Request Broker Architecture (CORBA) der Object Management Group (OMG) bietet die Chance, nicht nur eine Plattform fuer neue verteilte Anwendungen zu sein, sondern erlaubt es auch, bestehende Anwendungen und Altsoftware hersteller- und systemuebergreifend zu integrieren. Diese Eigenschaft hebt CORBA von anderen Programmierplattformen ab und gibt CORBA das Potential, eine aussichtsreiche Basis fuer kuenftige Anwendungssysteme zu sein. Das Ziel dieser Studienarbeit besteht darin, die Umsetzbarkeit verschiedener Interaktionsarten in CORBA zu untersuchen und an Beispielen praktisch auszuprobieren. Moegliche Ablaufformen aus der Literatur, aus den Systemen DCE und MPI und anhand eigener Ueberlegungen werden im ersten Teil dieser Arbeit systematisch zusammengefasst. Danach folgt eine ausfuerliche Behandlung der Architektur von CORBA und der hier moeglichen Ablaufformen und Interaktionsszenarien. Abschliessend werden acht verschiedene Versionen eines einfachen verteilten Woerterbuches vorgestellt, um einige der in CORBA realisierten Konzepte am praktischen Beispiel zu verdeutlichen. Als CORBA-Plattform stand Orbix-MT 2.0.1 (multi-threaded) der Firma IONA Technologies Ltd. unter Solaris 2.x zur Verfuegung.
3

Ablaufszenarien fuer Client-Server Anwendungen mit CORBA 2.0

Falk, Edelmann 12 November 1997 (has links)
Die Common Object Request Broker Architecture (CORBA) der Object Management Group (OMG) bietet die Chance, nicht nur eine Plattform fuer neue verteilte Anwendungen zu sein, sondern erlaubt es auch, bestehende Anwendungen und Altsoftware hersteller- und systemuebergreifend zu integrieren. Diese Eigenschaft hebt CORBA von anderen Programmierplattformen ab und gibt CORBA das Potential, eine aussichtsreiche Basis fuer kuenftige Anwendungssysteme zu sein. Das Ziel dieser Studienarbeit besteht darin, die Umsetzbarkeit verschiedener Interaktionsarten in CORBA zu untersuchen und an Beispielen praktisch auszuprobieren. Moegliche Ablaufformen aus der Literatur, aus den Systemen DCE und MPI und anhand eigener Ueberlegungen werden im ersten Teil dieser Arbeit systematisch zusammengefasst. Danach folgt eine ausfuerliche Behandlung der Architektur von CORBA und der hier moeglichen Ablaufformen und Interaktionsszenarien. Abschliessend werden acht verschiedene Versionen eines einfachen verteilten Woerterbuches vorgestellt, um einige der in CORBA realisierten Konzepte am praktischen Beispiel zu verdeutlichen. Als CORBA-Plattform stand Orbix-MT 2.0.1 (multi-threaded) der Firma IONA Technologies Ltd. unter Solaris 2.x zur Verfuegung.
4

Adaptive Knowledge Exchange with Distributed Partial Models@Run.time

Werner, Christopher 09 December 2015 (has links)
Die wachsende Anzahl an Robotikanwendungen, in denen mehrere Roboter ein gemeinsames Ziel verfolgen, erfordert eine gesonderte Betrachtung der Interaktion zwischen diesen Robotern mit Bezug auf den damit entstehenden Datenaustausch. Dieser muss hierbei effizient betrieben werden und die Sicherheit des gesamt Systems gewährleisten. Diese Masterarbeit stellt eine Simulationsumgebung vor, welche anhand von Testszenarien und Austauschstrategien Roboterkonstellationen prüft und Messergebnisse ausliefert. Zu Beginn der Arbeit werden drei Datenaustauschverfahren betrachtet und anschließend Publikationen vorgestellt, in denen Datenaustausch betrieben wird und Simulatoren für die Nutzbarkeit der Simulationsumgebung untersucht. Die anschließenden Kapitel behandeln das Konzept und die Implementierung der Testumgebung erläutert, wobei Roboter aus einer Menge von Hardware Komponenten und Zielen beschrieben werden. Der Aufbau des Experiments umfasst die verschiedenen Umgebungen, Testszenarien und Roboterkonfiguration. Der Aufbau beschreibt die Grundlage für die Auswertung der Testergebnisse.
5

Run-time Adaptation of Role-based Software Systems

Weißbach, Martin 06 September 2018 (has links)
Self-adaptive software systems possess the ability to modify their own structure or behavior in response to changes in their operational environment. Access to sensor data providing information on the monitored environment is a necessary prerequisite in such software systems. In the future, self-adaptive software systems will be increasingly distributed and interconnected to perform their assigned tasks, e.g., within smart environments or as part of autonomous systems. Adaptations of the software systems\\\' structure or behavior will therefore have to be performed consistently on multiple remote subsystems. Current approaches, however, do not completely support the run-time adaptation of distributed and interconnected software systems. Supported adaptations are local to a specific device and do not require further coordination or the execution of such adaptations is controlled by a centralized management system. Approaches that support the decentralized adaptation process, help to determine a stable state, e.g., defined by quiescence, of one adaptable entity without central knowledge ahead of the actual adaptation process. The execution of complex adaptation scenarios comprising several adaptations on multiple computational devices is currently not supported. Consequently, inherent properties of a distributed system such as intermittent connectivity or local adaptation failures pose further challenges on the execution of adaptations affecting system parts deployed to multiple devices. Adaptation operations in the current research landscape cover different types of changes that can be performed upon a self-adaptive software system. Simple adaptations allow the modification of bindings between components or services as well as the removal or creation and integration of such components or services into the system. Semantically more expressive operations allow for the relocation of behavioral parts of the system. In this thesis, a coordination protocol is presented that supports the decentralized execution of multiple, possibly dependent adaptation operations and ensures a consistent transition of the software system from its source to a desired target configuration. An adaptation operation describes exactly one behavioral modification of the system, e.g., the addition or replacement of a component representing a behavioral element of the system\\\'s configuration. We rely on the notion of Roles as an abstraction to define the software system\\\'s static and dynamic, i.e., context-dependent, parts. Roles are an intuitive means to describe behavioral adaptations in distributed, context-dependent software systems due to their behavioral, relational and context-dependent nature. Adaptation operations therefore utilize the Role concept to describe the intended run-time modifications of the software system. The proposed protocol is designed to maintain a consistent transition of the software system from a given source to a target configuration in the presence of link failures between remote subsystems, i.e., messages used by the protocol to coordinate the adaptation process are lost on transmission, and in case of local failures during the adaptation process. The evaluation of our approach comprises two aspects: In one step, the correctness of the coordination protocol is formally validated using the model checking tool PRISM. The protocol is shown to be deadlock-free even in the presence of coordination message losses and local adaptation failures. In a second step, the approach is evaluated with the help of an emulated execution environment in which the degree of coordination message losses and adaptation failures is varied. The adaptation duration and the partial unavailability of the system, i.e., the time roles are passive due to ongoing adaptations, is measured as well as the success rate of the adaptation process for different rates of message losses and adaptation failures.
6

Role-based Context-sensitive Monitoring of Distributed Systems

Shmelkin, Ilja 08 March 2023 (has links)
Monitoring information technology (IT) systems during operation is one of the few methods that help administrators track the health of the monitored system, predict and detect faults, and assist in system repair and error prevention. However, current implementations impose architectural and functional constraints on monitored systems that result in less flexibility in deployment and operation. While excellent monitoring systems exist for some use cases, others are not adequately supported, having no monitoring system available at all for very specific use cases. In addition, most monitoring software specializes in specific data formats, protocols, data collection mechanisms, etc., further limiting its flexibility. As a result, individuals and organizations struggle to find the right combination of features to support their monitoring needs in a single monitoring system, forcing them to use multiple monitoring systems instead in order to support all of their use cases. The role-based approach to software modeling and implementation promises an intuitive way to increase flexibility in modeling and implementing IT systems. In conjunction with technology from the field of self-adaptive systems, this thesis describes a framework for context-sensitive control loops with roles that can be used to overcome these limitations. We present a novel approach to building a flexible role-based monitoring system based on that framework. Our approach allows for context-specific implementation of monitoring capabilities to support a variety of application domains, while maintaining a derived architecture of well-defined roleplaying components that inherently support distribution and scalability. To this end, important background knowledge from the areas of self-adaptive systems, control loops, the role concept, as well as role-based modeling and implementation is first presented. In addition, important related work from the areas of flexible system design and monitoring systems is presented. Then, a framework for context-sensitive control loops with roles is introduced and applied to the monitoring application domain in modeling and implementation. Based on a common use case for monitoring systems (i.e., monitoring and autoscaling of a web service infrastructure), the resulting Role-based Monitoring Approach (RBMA) is compared to two state-of-the-art monitoring toolkits. This is followed by a qualitative and quantitative evaluation of RBMA, showing that it is more flexible and, at the same time, provides reasonable performance at no additional cost compared to the state-of-the-art tools. Finally, it is explained how this thesis’ contributions can be applied to another monitoring use case (i.e., network device monitoring) as well as to another application domain (i.e., embedded systems monitoring) and its extension (i.e., the Internet of Things domain). This thesis concludes with a summary of the contributions and a presentation of important topics for future work.:Preface iv Statement of Authorship . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vi Acknowledgements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vii Publications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . viii The RoSI Research Training Group . . . . . . . . . . . . . . . . . . . . . . . . . . x 1 Introduction 1 1.1 Thesis Topic . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Thesis Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.3 Research Questions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2 Background 5 2.1 Principles of Self-adaptation . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.1.1 The MAPE-K Control Loop . . . . . . . . . . . . . . . . . . . . . . . 7 2.1.2 MAPE-K Patterns for Distributed Self-adaptive Systems . . . . . . 12 2.1.3 MAPE-K Control Loop in Monitoring Systems . . . . . . . . . . . 16 2.2 The Notion of Roles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.3 The Compartment Role Object Meta-Model . . . . . . . . . . . . . . . . . . 24 2.4 The ObjectTeams Java Programming Model . . . . . . . . . . . . . . . . . . 26 2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3 Related Work 31 3.1 Design Patterns for Flexibility in Software . . . . . . . . . . . . . . . . . . . 31 3.1.1 Strategy Pattern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.1.2 Template Method Pattern . . . . . . . . . . . . . . . . . . . . . . . . 34 3.1.3 Using Delegation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.1.4 Role-object Pattern . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.2 Classifying Flexibility in Monitoring Systems . . . . . . . . . . . . . . . . . 39 3.2.1 Criteria for Flexibility in Monitoring Systems . . . . . . . . . . . . 40 3.2.2 Classification of Flexibility in Monitoring Systems . . . . . . . . . 44 3.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 4 The Role-based Monitoring Approach 47 4.1 Framework and Model for Context-sensitive Control Loops with Roles . 48 4.2 Evaluation Scenario: Autoscaling of Web Service Infrastructures . . . . . 54 4.2.1 Version 1: Role-based Monitoring Approach . . . . . . . . . . . . . 59 4.2.2 Version 2: Prometheus with Alertmanager . . . . . . . . . . . . . . 70 4.2.3 Version 3: Elasticsearch with Kibana . . . . . . . . . . . . . . . . . . 73 iii Contents 4.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 5 Evaluation 77 5.1 Quantitative Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 5.1.1 First Experiment (Correct Functionality) . . . . . . . . . . . . . . . 78 5.1.2 Second Experiment (Idle Performance) . . . . . . . . . . . . . . . . 80 5.1.3 Third Experiment (Performance under Load) . . . . . . . . . . . . 80 5.2 Qualitative Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 5.3 Additional Use Cases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 5.3.1 Monitoring Network Devices . . . . . . . . . . . . . . . . . . . . . . 87 5.3.2 Flexible Embedded Systems Management . . . . . . . . . . . . . . 90 5.3.3 Managing Internet of Things Devices . . . . . . . . . . . . . . . . . 92 6 Conclusion and Future Work 95 6.1 Summary of Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 6.2 Topics for Future Work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 Bibliography 99 List of Figures 107 List of Tables 109 List of Listings 110 List of Abbreviations 111 A Implementation, Compilation, and Execution of RBMA 113 A.1 Implementation of Base Classes . . . . . . . . . . . . . . . . . . . . . . . . . 113 A.2 Implementation of Team- and inner Role Classes . . . . . . . . . . . . . . . 121 A.3 Implementation of Auxiliary Classes . . . . . . . . . . . . . . . . . . . . . . 139 A.4 Compilation of RBMA with Eclipse OT/J . . . . . . . . . . . . . . . . . . . 144 A.5 Execution of RBMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 B Additional Information: Autoscaling of Web Service Infrastructures 145 B.1 Setup of the Slave-level Clusters (Versions 1, 2, and 3) . . . . . . . . . . . . 145 B.2 RBMA: Setup of the Master-level Cluster (Version 1) . . . . . . . . . . . . 156 B.3 Prometheus: Setup of Master-level Cluster (Version 2) . . . . . . . . . . . 160 B.4 Elastic Stack: Setup of the Master-level Cluster (Version 3) . . . . . . . . . 165 B.5 Auxiliary Tutorials . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 C Large Figures 179
7

Situationsbasiertes Scheduling von Echtzeit-Tasks in verteilten eingebetteten Systemen

Meier, Tobias 13 October 2023 (has links)
Die Anforderungen an die verfügbare Rechenkapazität von Steuergeräten in der Automotive und Avionik-Domäne steigen kontinuierlich an. Dieser Anstieg ist auf die steigende Bedeutung von softwarebasierten Funktionen zurückzuführen, sowie auf die damit einhergehende steigende Anzahl und Komplexität der softwarebasierten Funktionen. In dieser Dissertation wird die Berücksichtigung der Situation (z. B. die geographische Position oder die Geschwindigkeit) als ein möglicher Ansatz beschrieben, um den steigenden Bedarf an Rechenkapazität der softwarebasierten Funktionen zu decken. Die benötigte Rechenkapazität einer softwarebasierten Funktion verändert sich in Abhängigkeit von der momentanen Situation. Durch die Berücksichtigung der Situation bei der Verteilung der Rechenkapazitäten entstehen freie Rechenkapazitäten, welche durch komplementäre softwarebasierte Funktion verwendet werden können. Die Zielsetzung dieser Dissertation ist es, eine situationsbasierte Verteilung der Rechenkapazität auf die softwarebasierten Funktionen des verteilen eingebetteten Systems zu erreichen.:1 Einleitung 1.1 Motivation 1.2 Zielsetzung 1.3 Struktur der Arbeit 1.4 Zusammenfassung 2 Grundlagen 2.1 Situationsbasierte Systeme 2.2 Eingebettete verteilte Systeme 2.2.1 Architektur 2.2.2 Echtzeit-Tasks 2.2.3 Echtzeit-Scheduling 2.2.4 Echtzeit-Kommunikation 2.2.5 Steuergeräte der Zieldomänen 2.3 Prozessmigration in verteilten Systemen 2.3.1 Prozesssegmente 2.3.2 Möglichkeiten der Prozessmigration 2.4 Application checkpointing 2.5 Zusammenfassung 3 Stand der Forschung 3.1 Situationsbasiertes Scheduling für eingebettete verteilte Systeme 3.1.1 Semi-Statische Systeme 3.1.2 Dynamische Systeme 3.2 Situationsbasiertes Scheduling für Multi-Core Systeme 3.2.1 Situationen in HAMS 3.2.2 HAMS Architektur 3.2.3 Wissensdatenbank 3.3 Semi-Statische Netzwerkkonfiguration 3.4 Zusammenfassung 4 Situationsbasiertes Scheduling in verteilten eingebetteten Systemen 4.1 Analyse der Zielsetzung 4.2 Technische Ziele 4.3 SiVES-Sched Konzept 4.3.1 Erweiterter HAMS 4.3.2 Situations-Wissensdatenbank 4.3.3 TLS Master 4.3.4 Task-Migration 4.3.5 TLS Slave 4.3.6 Software Defined Network 4.3.7 TLS-KM 4.4 Zusammenfassung 5 Evaluation 5.1 Konzept der Evaluation 5.2 Evaluationsumgebung 5.2.1 Hardwareumgebung 5.2.2 Softwareumgebung 5.3 Rekonfiguration des verteilten eingebetteten Systems 5.3.1 Evaluation I: Erstellung der SWDB 5.3.2 Evaluation II: Durchführung der Rekonfiguration 5.3.3 Evaluation III: Dauer des kritischen Abschnitts 5.3.4 Evaluation IV: Vermeidung von Informationsverlust 5.4 Zusammenfassung 6 Zusammenfassung und Ausblick 6.1 Ergebnisse dieser Arbeit 6.1.1 Konzept 6.1.2 Evaluation 6.2 Ausblick 7 Appendix Literaturverzeichnis Nomenklatur Thesen Eigene Veröffentlichungen
8

Distributed biconnectivity testing in Wireless multi-hop networks

Milic, Bratislav 13 July 2010 (has links)
Ein drahtloses Multihop-Netzwerk (DMN) ist ein verteiltes Kommunikationssystem, welches vor allem die Fähigkeit zur automatischen Anpassung an sich ständig änderne Umgebungsbedingungen hat. Eine zentrale Fragestellung in DMNen ist, ob das Netzwerk partitioniert ist, ob also nicht mehr jeder Knoten mit jedem anderen Knoten kommunizieren kann. Um festzustellen, ob eine Partitionierung droht werden mit Hilfe von 2-Zusammenhangstests Brücken und Artikulationspunkte im Kommunikationsgraphen gesucht. Daraufhin können anschließend korrektive Aktionen eingeleitet werden um die Partitionierung zu verhindern und somit die Netzwerkverfügbarkeit zu erhöhen. Eine Vielzahl von 2-Zusammenhangstestverfahren wurde bereits erfolgreich bei drahtgebundenen Netzen eingesetzt. Allerdings sind diese Verfahren ungeeignet für drahtlose Netze, da die Ungenauigkeiten durch den häufigen Paketverlust in solchen Systemen bisher nicht berücksichtigt wurden. Mit Hilfe von stochastischen Modellen wird gezeigt, dass Fehler in der Entscheidungsfindung für DMNen bereits bei sehr einfachen Problemen wie der Link-Erkennung signifikant sein können. In dieser Arbeit werden daher verschiedene Verfahren präsentiert, die auch auf Grundlage unsicherer Informationen noch eine verlässliche Entscheidungsfindung ermöglichen. Die Arbeit präsentiert einen neuen verteilten Algorithmus zum Test auf 2-Zusammenhang, welcher Fehler durch Nachrichtenverlust berücksichtigt und gleichzeitig die Anzahl an Nachrichten reduziert. Basierend auf einer umfassenden Analyse der Einflüsse von Kommunikationsfehlern auf den Algorithmus, wurden Abstimmungsprozeduren entwickelt, die die Wahrscheinlichkeit von Fehlentscheidungen nochmals reduzieren. Zur weiteren Analyse werden die Algorithmen erstens in der Motelab-Umgebung und zweitens mit Hilfe von Simulationen untersucht. Die präsentierten Algorithmen zeigen überzeugende Ergebnisse unter variierenden Bedingungen, was ihre Anwendbarkeit in realen Szenarien unterstreicht. / Wireless multi-hop network (WMN) is a distributed communication system composed of autonomous processing nodes that is known for its ability to automatically adjust to rapidly changing conditions in the surrounding environment. Connectivity is one of the basic properties of a network. Removal of a bridge or an articulation point partitions a network. Biconnectivity testing identifies bridges and articulation points in a network, and once they are known corrective actions can be performed in order to improve network''s reliability. Numerous biconnectivity testing algorithms are successfully applied in graphs, wired networks and multiprocessor systems. However, they are inadequate for application in wireless networks since the frequent packet losses introduce uncertainty in the system which these algorithms cannot handle. The stochastic analysis shows that errors in decision-making in WMNs are considerable even for seemingly simple tasks such as the detection of links. The main contribution of this work is to provide means for accurate binary decision-making under uncertainty within the context of biconnectivity testing in WMNs. A distributed algorithm is developed that successfully handles the faults caused by message losses and simultaneously utilizes benefits of wireless communication to reduce message complexity from O(e) to O(n). Based on stochastic analysis of WMN topologies and a comprehensive analysis of impact of communication faults on algorithm''s behavior, the algorithm is extended by voting theory to reduce probability of erroneous decisions. The algorithm and the voting rules are evaluated in experiments in Motelab testbed and in the event-based simulator Jist/SWANS. The algorithm is accurate under various conditions which demonstrates its applicability in reality and capability of successful operation in presence of packet losses.
9

Consistent key-based routing in decentralized and reconfigurable data services

Hoegqvist, Mikael 02 November 2012 (has links)
Skalierbares schlüssel-basiertes Routing in verteilten Systemen ist eine Methode zur Weiterleitung von Nachrichten zu den für die Partition verantwortlichen Maschinen. Diese Technik findet Verwendung in Key-Value Speichersystemen, Content Distribution Networks oder auch beim Media Streaming. Einer der Gründe für die Verbreitung ist die Einfachheit der Routingabstraktion, bei welcher der Entwickler sich nicht um die Details des Gruppenmanagements oder Datenreplikation kümmern muss. Auf der anderen Seite sind die meisten schlüssel-basierten Routingverfahren optimistische Verfahren, bei denen der Datenzugriff keine strenge Konsistenz bietet. In dieser Arbeit präsentieren wir das System Recode mit dem schlüssel-basierten Routingabstraktion routecast, welches eine strengere Zugriffssemantik ermöglicht. Dabei garantiert routecast, dass Nachrichten eines bestimmten Schlüssels in der gleichen Reihenfolge an alle Replikate geliefert werden. Mit Hilfe dieser strengeren Garantien können auch Anwendungen wie Koordinations- oder Metadatendienste bzw. konsistente Speichersysteme das schlüssel-basierte Routing verwenden. Recode ist außerdem rekonfigurierbar bei Veränderungen der zur Verfügung stehenden Maschinen sowie bei Auslastungsänderung. Es ist ein komplett dezentralisiertes System und enthält damit keinen single-point of failure oder Systemengpass. Die drei Hauptbeiträge der Arbeit sind 1) die Abstraktion der Gruppenkommunikation unter Verwendung von Primary/Backup mit Leases für ein failover des Primary, 2) die Entwicklung und die Algorithmen der routcast-Primitive, 3) Mechanismen zur atomaren Rekonfiguration des dezentralen Schlüsselraumes. Um die Einfachheit unseres Ansatzes zu betonen, beschreiben wir außerdem drei verschiedene Anwendungen aufbauend auf Recode. Abschließend zeigen wir durch die Evaluation von Recode in einer Cluster-Umgebung die Leistungsfähigkeit. / Scalable key-based routing in distributed systems, where a mes- sage is forwarded towards a machine responsible for a partition in a large key space, has been used in many services such as key-value stores, content distribution networks and media streaming. This success can mainly be attributed to the simplicity of the route ab- straction, a developer does not need to care about the mechanisms for membership management, load balancing or data replication. A limitation, however, is that most key-based routing solutions are best-effort, which means that only eventually consistent data access is possible. This thesis presents a system (Recode) with a key-based routing primitive called routecast which provides strong delivery semantics. More specifically, routecast guarantees that a message for a key is delivered in the same total order at a set of replicas. With stronger guarantees, applications such as coordination and metadata services as used in large storage systems or consistent key-value stores can use key-based routing. Additionally, Recode aims to be both re- configurable, to handle changes to the machines running the service and updates to the workload, and fully decentralized which means there is no single point of failure or bottleneck. We make three main contributions in this thesis: 1) a group com- munication abstraction using primary/backup with leases for pri- mary fail-over, 2) the design and algorithms of the routecast-primitive and, 3) mechanisms for atomic reconfiguration of a decentralized key space. Each part of the system is broken up into modules and presented with a specification and a set of algorithms. To validate the simplicity claim, we describe how to implement three different applications on top of Recode. Finally, we evaluate Recode in a cluster environment and show that the performance is competitive.
10

Das MTA-Protokoll: Ein transaktionsorientiertes Managementprotokoll auf Basis von SNMP

Mandl, Peter 30 January 2013 (has links) (PDF)
Die sich in den letzten Jahren abzeichnende Verteilung von Anwendungssystemen auf viele Rechner in Netzwerken, die sich in der Praxis unter dem Begriff Client/Server-Computing etabliert hat, brachte zwangsläufig eine Lücke im Management dieser Systeme mit sich. Es wurde schnell deutlich, daß die Verteilung der Systeme wesentlich kompliziertere Techniken benötigt, um sie zu administrieren, als man dies von zentralistischen Systemen her kannte. Anstrengungen von Standardisierungsgremien und Herstellervereinigungen führten zwar zu einer gewissen Administrierbarkeit, diese beschränkt sich aber derzeit noch weitgehend auf die beteiligten Knoten und auf die Netzkomponenten. Anwendungen, für die ja letztendlich die Rechner eingesetzt werden, sind bisher nur rudimentär in die heute vorliegenden und in der Praxis eingesetzten Managementstandards integriert. Die Anzahl der zu managenden Objekte innerhalb der Anwendungen wird aber immer größer und die Komplexität der Beziehungen unter den Objekten steigt immer mehr an. Diese Komplexität erfordert fehlertolerante Mechanismen in den Managementsystemen, über die Anwendungen administriert werden. Dieser Beitrag befaßt sich mit Mechanismen zum transaktionsgesicherten Management, wobei das Anwendungsmanagement im Vordergrund steht. Transaktionskonzepte, die vorwiegend im Datenbankbereich entwickelt wurden, werden auf die Verwendbarkeit im Management verteilter Anwendungen hin untersucht. Es wird ein neues Protokoll (Management-Transaktions-Protokoll, kurz MTAProtokoll) als Erweiterung zu SNMP vorgestellt, das die Abwicklung von verteilten Transaktionen auf Managementobjekte ermöglicht.

Page generated in 0.138 seconds