• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 13
  • 9
  • Tagged with
  • 34
  • 34
  • 33
  • 31
  • 30
  • 25
  • 16
  • 16
  • 16
  • 11
  • 10
  • 9
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Lastgetriebene Validierung Dienstbereitstellender Systeme / Load-Driven Validation of Service Providing Systems

Caspar, Mirko 07 January 2014 (has links) (PDF)
Mit steigender Komplexität heterogener, verteilter Systeme nehmen auch die Anforderungen an deren Validierung zu. In dieser Arbeit wird ein Konzept vorgestellt, mit dem eine bestimmte Klasse komplexer Systeme, so genannte Dienstbereitstellende Systeme, durch automatisiertes Testen validiert werden kann. Mit Hilfe heterogener Klienten, bspw. eingebetteter Systeme, wird die Systemfunktionalität getestet. Hierzu wird das zu testende System auf die nach außen zur Verfügung gestellten Dienste reduziert und die Nutzung dieser Dienste durch Klienten mit einer Last quantifiziert. Eine Validierung wird durch die Vorgabe zeitlich veränderlicher Lasten für jeden Dienst definiert. Diese Lasten werden zielgerichtet den verfügbaren Klienten zugeteilt und durch diese im zu testenden System erzeugt. Zur praktikablen Anwendung dieses Konzeptes ist eine Automatisierung des Validierungsprozesses notwendig. In der Arbeit wird die Architektur einer Testbench vorgestellt, die zum einen die Heterogenität der Klienten berücksichtigt und zum anderen Einflüsse durch die Dynamik der Klienten während der Laufzeit der Validierung ausgleicht. Das hierbei zu lösende algorithmische Problem der Dynamischen Testpartitionierung wird ebenso definiert, wie ein Modell zur Beschreibung aller notwendigen Parameter. Die Testpartitionierung kann mittels einer eigens entwickelten Heuristik in Polynomialzeit gelöst werden. Zur Bestimmung der Leistungsfähigkeit des entwickelten Verfahrens wird die Heuristik aufwendigen Untersuchungen unterzogen. Am Beispiel eines zu testenden Mobilfunknetzwerkes wird die beschriebene Testbench umgesetzt und Kernparameter mittels Simulation ermittelt. Das Ergebnis dieser Arbeit ist ein Konzept zur Systemvalidierung, das generisch auf jede Art von dienstbereitstellenden Systemen angewandt werden kann und damit zur Verbesserung des Entwicklungsprozesses von komplexen verteilten Systemen beiträgt.
12

Verteilte Mobilität - Eine spannende Herausforderung

Werner, Matthias 05 July 2013 (has links) (PDF)
Cyber-physikalische Systeme (CPS) sind eine erweitere Sicht auf eingebettete Systeme, die die konkreten umgebenden Elemente in das Systemdesign einbeziehen. Das Design solcher Systeme erfordert neue Herangehensweisen: Während beispielsweise in "normalen" verteilten Systemen Aspekte wie "Bewegung" oder "Ort" möglichst transparent und damit für den Nutzer unsichtbar gestaltet werden, benötigen CPS-Anwendungen häufig Bewusstsein für Bewegung oder Ort, d.h., sie sind _motion aware_ oder _location aware_. Die Professur "Betriebssysteme" der TUC hat sich die Frage gestellt, wie eine generische Unterstützung für solche verteilte mobile Systeme aussehen könnte. Im Vortrag werden Probleme, Konzepte und erste Lösungsansätze für ein künftiges Betriebssystem für diese Art von Systemen vorgestellt.
13

Cuneiform

Brandt, Jörgen 29 January 2021 (has links)
In der Bioinformatik und der Next-Generation Sequenzierung benötigen wir oft große und komplexe Verarbeitungsabläufe um Daten zu analysieren. Die Werkzeuge und Bibliotheken, die hierin die Verarbeitungsschritte bilden, stammen aus unterschiedlichen Quellen und exponieren unterschiedliche Schnittstellen, was ihre Integration in Datenanalyseplattformen erschwert. Hinzu kommt, dass diese Verarbeitungsabläufe meist große Datenmengen prozessieren weshalb Forscher erwarten, dass unabhängige Verarbeitungsschritte parallel laufen. Der Stand der Technik im Feld der wissenschaftlichen Datenverarbeitung für Bioinformatik und Next-Generation Sequenzierung sind wissenschaftliche Workflowsysteme. Ein wissenschaftliches Workflowsystem erlaubt es Forschern Verarbeitungsabläufe als Workflow auszudrücken. Solch ein Workflow erfasst die Datenabhängigkeiten in einem Verarbeitungsablauf, integriert externe Software und erlaubt es unabhängige Verarbeitungsschritte zu erkennen, um sie parallel auszuführen. In dieser Arbeit präsentieren wir Cuneiform, eine Workflowsprache, und ihre verteilte Ausführungsumgebung. Für Cuneiform's Design nehmen wir die Perspektive der Programmiersprachentheorie ein. Wir lassen Methoden der funktionalen Programmierung einfließen um Komposition und Datenabhängigkeiten auszudrücken. Wir nutzen operationelle Semantiken um zu definieren, wann ein Workflow wohlgeformt und konsistent ist und um Reduktion zu erklären. Für das Design der verteilten Ausführungsumgebung nehmen wir die Perspektive der verteilten Systeme ein. Wir nutzen Petri Netze um die Kommunikationsstruktur der im System beteiligten Agenten zu erklären. / Bioinformatics and next-generation sequencing data analyses often form large and complex pipelines. The tools and libraries making up the processing steps in these pipelines come from different sources and have different interfaces which hampers integrating them into data analysis frameworks. Also, these pipelines process large data sets. Thus, users need to parallelize independent processing steps. The state of the art in large-scale scientific data analysis for bioinformatics and next-generation sequencing are scientific workflow systems. A scientific workflow system allows researchers to describe a data analysis pipeline as a scientific workflow which integrates external software, defines the data dependencies forming a data analysis pipeline, and parallelizes independent processing steps. Scientific workflow systems consist of a workflow language providing a user interface, and an execution environment. The workflow language determines how users express workflows, reuse and compose workflow fragments, integrate external software, how the scientific workflow system identifies independent processing steps, and how we derive optimizations from a workflow's structure. The execution environment schedules and runs data processing operations. In this thesis we present Cuneiform, a workflow language, and its distributed execution environment. For Cuneiform's design we take the perspective of programming languages. We adopt methods from functional programming towards composition and expressing data dependencies. We apply operational semantics and type systems to define well-formedness, consistency, and reduction of Cuneiform workflows. For the design of the distributed execution environment we take the perspective of distributed systems. We apply Petri nets to define the communication patterns among the distributed execution environment's agents.
14

Das MTA-Protokoll: Ein transaktionsorientiertes Managementprotokoll auf Basis von SNMP

Mandl, Peter 30 January 2013 (has links)
Die sich in den letzten Jahren abzeichnende Verteilung von Anwendungssystemen auf viele Rechner in Netzwerken, die sich in der Praxis unter dem Begriff Client/Server-Computing etabliert hat, brachte zwangsläufig eine Lücke im Management dieser Systeme mit sich. Es wurde schnell deutlich, daß die Verteilung der Systeme wesentlich kompliziertere Techniken benötigt, um sie zu administrieren, als man dies von zentralistischen Systemen her kannte. Anstrengungen von Standardisierungsgremien und Herstellervereinigungen führten zwar zu einer gewissen Administrierbarkeit, diese beschränkt sich aber derzeit noch weitgehend auf die beteiligten Knoten und auf die Netzkomponenten. Anwendungen, für die ja letztendlich die Rechner eingesetzt werden, sind bisher nur rudimentär in die heute vorliegenden und in der Praxis eingesetzten Managementstandards integriert. Die Anzahl der zu managenden Objekte innerhalb der Anwendungen wird aber immer größer und die Komplexität der Beziehungen unter den Objekten steigt immer mehr an. Diese Komplexität erfordert fehlertolerante Mechanismen in den Managementsystemen, über die Anwendungen administriert werden. Dieser Beitrag befaßt sich mit Mechanismen zum transaktionsgesicherten Management, wobei das Anwendungsmanagement im Vordergrund steht. Transaktionskonzepte, die vorwiegend im Datenbankbereich entwickelt wurden, werden auf die Verwendbarkeit im Management verteilter Anwendungen hin untersucht. Es wird ein neues Protokoll (Management-Transaktions-Protokoll, kurz MTAProtokoll) als Erweiterung zu SNMP vorgestellt, das die Abwicklung von verteilten Transaktionen auf Managementobjekte ermöglicht.:1 Einleitung und Motivation S. 4 2 Anwendungsmanagement S. 6 2.1 Begriffsbestimmung S. 6 2.2 Anwendungsmanagement im SNMP-Modell S. 7 3 Allgemeine Transaktionskonzepte S. 8 3.1 ACID-Transaktionen S. 8 3.2 Concurrency Control S. 9 3.3 Logging und Recovery S. 11 4 ACID-Eigenschaften von Managementtransaktionen S. 14 5 MTA-Protokoll S. 17 5.1 Modell S. 17 5.2 Dienste und Protokolle S. 18 5.3 Concurrency Control S. 21 5.4 Logging und Recovery S. 21 5.5 Prinzipieller Protokollablauf S. 22 5.6 Nachrichteneinheiten S. 27 5.7 Protokoll-Timer S. 28 5.8 MTA-Zustandsautomaten S. 29 5.9 Logginginformation S. 32 5.10 Fehlersituationen und Wiederanlauf S. 34 5.10.1 Ausfall eines Managers S. 34 5.10.2 Ausfall eines Objektservers S. 36 5.10.3 Ausfall einer MTA-Instanz S. 38 5.10.4 Knotenausfall und Kommunikationsunterbrechung S.40 5.11 Recovery-Algorithmus S. 42 5.12 SDL-Spezifikation S. 44 6 Verwandte Arbeiten S. 46 7 Zusammenfassung und Ausblick S. 47 8 Anhang S. 50 8.1 SDL-Diagramm für Monitorprozeß S. 50 8.2 SDL-Diagramme für MTA-Koordinatorprozeß S. 51 8.2.1 SDL-Diagramm für Zustand Wait S. 51 8.2.2 SDL-Diagramm für Zustand Initiated S.52 8.2.3 SDL-Diagramm für Zustand WaitResp S. 53 8.2.4 SDL-Diagramm für Zustand Active S. 54 8.2.5 SDL-Diagramm für Zustand Preparing S. 55 8.2.6 SDL-Diagramm für Zustand Committing S. 57 8.2.7 SDL-Diagramm für Rollback S. 58
15

Community-Based Intrusion Detection

Weigert, Stefan 06 February 2017 (has links) (PDF)
Today, virtually every company world-wide is connected to the Internet. This wide-spread connectivity has given rise to sophisticated, targeted, Internet-based attacks. For example, between 2012 and 2013 security researchers counted an average of about 74 targeted attacks per day. These attacks are motivated by economical, financial, or political interests and commonly referred to as “Advanced Persistent Threat (APT)” attacks. Unfortunately, many of these attacks are successful and the adversaries manage to steal important data or disrupt vital services. Victims are preferably companies from vital industries, such as banks, defense contractors, or power plants. Given that these industries are well-protected, often employing a team of security specialists, the question is: How can these attacks be so successful? Researchers have identified several properties of APT attacks which make them so efficient. First, they are adaptable. This means that they can change the way they attack and the tools they use for this purpose at any given moment in time. Second, they conceal their actions and communication by using encryption, for example. This renders many defense systems useless as they assume complete access to the actual communication content. Third, their actions are stealthy — either by keeping communication to the bare minimum or by mimicking legitimate users. This makes them “fly below the radar” of defense systems which check for anomalous communication. And finally, with the goal to increase their impact or monetisation prospects, their attacks are targeted against several companies from the same industry. Since months can pass between the first attack, its detection, and comprehensive analysis, it is often too late to deploy appropriate counter-measures at businesses peers. Instead, it is much more likely that they have already been attacked successfully. This thesis tries to answer the question whether the last property (industry-wide attacks) can be used to detect such attacks. It presents the design, implementation and evaluation of a community-based intrusion detection system, capable of protecting businesses at industry-scale. The contributions of this thesis are as follows. First, it presents a novel algorithm for community detection which can detect an industry (e.g., energy, financial, or defense industries) in Internet communication. Second, it demonstrates the design, implementation, and evaluation of a distributed graph mining engine that is able to scale with the throughput of the input data while maintaining an end-to-end latency for updates in the range of a few milliseconds. Third, it illustrates the usage of this engine to detect APT attacks against industries by analyzing IP flow information from an Internet service provider. Finally, it introduces a detection algorithm- and input-agnostic intrusion detection engine which supports not only intrusion detection on IP flow but any other intrusion detection algorithm and data-source as well.
16

CoRE - komponentenorientierte Entwicklung offener verteilter Softwaresysteme im Telekommunikationskontext

Born, Marc, Kath, Olaf 29 April 2002 (has links)
Die Telekommunikation und die ihr zuliefernde Industrie stellen einen softwareintensiven Bereich dar - der durch einen sehr hohen Anteil von Eigenentwicklungen gekennzeichnet ist. Eine wesentliche Ursache dafür sind spezielle Anforderungen an Telekommunikationssoftwaresysteme, die i.allg. nicht durch Standardsoftwareprodukte sichergestellt werden können. Diese Anforderungen ergeben sich aus den besonderen Eigenschaften solcher Softwaresysteme wie die Verteilung der Komponenten von Softwaresystemen sowie die Verteilung der Entwicklung dieser Komponenten, die Heterogenität der Entwicklungs- und Einsatzumgebungen für diese Komponenten und die Komplexität der entwickelten Softwaresysteme hinsichtlich nichtfunktionaler Charakteristika. Die industrielle Entwicklung von Telekommunikationssoftwaresystemen ist ein schwieriger und bisher nicht zufriedenstellend gelöster Prozeß. Aktuelle Forschungsarbeiten thematisieren Softwareentwicklungsprozesse und -techniken sowie unterstützende Werkzeuge zur Erstellung und Integration wiederverwendbarer Softwarekomponenten ("Componentware"). Das Ziel dieser Dissertation besteht in der Unterstützung der industriellen Entwicklung offener, verteilter Telekommunikationssoftwaresysteme. Dazu wird die Entwicklungstechnik Objektorientierte Modellierung mit dem Einsatz von Komponentenarchitekturen durch die automatische Ableitung von Softwarekomponenten aus Modellen zusammengeführt. Die zentrale Idee ist dabei eine präzise Definition der zur Entwicklung von verteilten Softwaresystemen einsetzbaren Modellierungskonzepte in Form eines Metamodells. Von diesem Metamodell ausgehend werden dann zur Konstruktion und Darstellung objektorientierter Entwurfsmodelle eine graphische und eine textuelle Notation definiert. Da die Notationen die Konzepte des Meta- Modells visualisieren, haben sie diesem gegenüber einen sekundären Charakter. Für die Transformation von Entwurfsmodellen in ausführbare Applikationen wurde auf der Grundlage von CORBA eine Komponentenplattform realisiert, die zusätzlich zu Interaktionen zwischen verteilten Softwarekomponenten auch Entwicklungs-, Deployment- und Ausführungsaspekte unterstützt. Wiederum ausgehend vom Metamodell wird durch die Anwendung wohldefinierter Ableitungsregeln die automatische Überführung von Entwurfsmodellen in Softwarekomponenten des zu entwickelnden Systems ermöglicht. Die von den Autoren erarbeiteten Konzeptionen und Vorgehensweisen wurden praktisch in eine Werkzeugumgebung umgesetzt, die sich bereits erfolgreich in verschiedenen Softwareentwicklungsprojekten bewährt hat. / The telecommunication industry and their suppliers form a software intensive domain. In addition, a high percentage of the software is developed by the telecommunication enterprises themselves. A main contributing factor for this situation are specific requirements to telecommunication software systems which cannot be fulfilled by standard off-the-shelf products. These requirements result from particular properties of those software systems, e.g. distributed development and execution of their components, heterogeneity of execution and development environments and complex non-functional characteristics like scalability, reliability, security and manageability. The development of telecommunication software systems is a complex process and currently not satisfactory realized. Actual research topics in this arena are software development processes and development techniques as well as tools which support the creation and integration of reusable software components (component ware). The goal of this thesis work is the support of the industrial development and manufacturing of open distributed telecommunication software systems. For that purpose, the development technique object oriented modelling and the implementation technique usage of component architectures are combined. The available modelling concepts are precisely defined as a metamodel. Based on that metamodel, graphical and textual notations for the presentation of models are developed. To enable a smooth transition from object oriented models into executable components a component architecture based on CORBA was also developed as part of the thesis. This component architecture covers besides the interaction support for distributed components deployment and execution aspects. Again on the basis of the metamodel code generation rules are defined which allow to automate the transition from models to components. The development techniques described in this thesis have been implemented as a tool chain. This tool chain has been successfully used in several software development projects.
17

Preserving Data Integrity in Distributed Systems

Triebel, Marvin 30 November 2018 (has links)
Informationssysteme verarbeiten Daten, die logisch und physisch über Knoten verteilt sind. Datenobjekte verschiedener Knoten können dabei Bezüge zueinander haben. Beispielsweise kann ein Datenobjekt eine Referenz auf ein Datenobjekt eines anderen Knotens oder eine kritische Information enthalten. Die Semantik der Daten induziert Datenintegrität in Form von Anforderungen: Zum Beispiel sollte keine Referenz verwaist und kritische Informationen nur an einem Knoten verfügbar sein. Datenintegrität unterscheidet gültige von ungültigen Verteilungen der Daten. Ein verteiltes System verändert sich in Schritten, die nebenläufig auftreten können. Jeder Schritt manipuliert Daten. Ein verteiltes System erhält Datenintegrität, wenn alle Schritte in einer Datenverteilung resultieren, die die Anforderungen von Datenintegrität erfüllen. Die Erhaltung von Datenintegrität ist daher ein notwendiges Korrektheitskriterium eines Systems. Der Entwurf und die Analyse von Datenintegrität in verteilten Systemen sind schwierig, weil ein verteiltes System nicht global kontrolliert werden kann. In dieser Arbeit untersuchen wir formale Methoden für die Modellierung und Analyse verteilter Systeme, die mit Daten arbeiten. Wir entwickeln die Grundlagen für die Verifikation von Systemmodellen. Dazu verwenden wir algebraische Petrinetze. Wir zeigen, dass die Schritte verteilter Systeme mit endlichen vielen Transitionen eines algebraischen Petrinetzes beschrieben werden können, genau dann, wenn eine Schranke für die Bedingungen aller Schritte existiert. Wir verwenden algebraische Gleichungen und Ungleichungen, um Datenintegrität zu spezifizieren. Wir zeigen, dass die Erhaltung von Datenintegrität unentscheidbar ist, wenn alle erreichbaren Schritte betrachtet werden. Und wir zeigen, dass die Erhaltung von Datenintegrität entscheidbar ist, wenn auch unerreichbare Schritte berücksichtigt werden. Dies zeigen wir, indem wir die Berechenbarkeit eines nicht-erhaltenden Schrittes als Zeugen zeigen. / Information systems process data that is logically and physically distributed over many locations. Data entities at different locations may be in a specific relationship. For example, a data entity at one location may contain a reference to a data entity at a different location, or a data entity may contain critical information such as a password. The semantics of data entities induce data integrity in the form of requirements. For example, no references should be dangling, and critical information should be available at only one location. Data integrity discriminates between correct and incorrect data distributions. A distributed system progresses in steps, which may occur concurrently. In each step, data is manipulated. Each data manipulation is performed locally and affects a bounded number of data entities. A distributed system preserves data integrity if each step of the system yields a data distribution that satisfies the requirements of data integrity. Preservation of data integrity is a necessary condition for the correctness of a system. Analysis and design are challenging, as distributed systems lack global control, employ different technologies, and data may accumulate unboundedly. In this thesis, we study formal methods to model and analyze distributed data-aware systems. As a result, we provide a technology-independent framework for design-time analysis. To this end, we use algebraic Petri nets. We show that there exists a bound for the conditions of each step of a distributed system if and only if the steps can be described by a finite set of transitions of an algebraic Petri net. We use algebraic equations and inequalities to specify data integrity. We show that preservation of data integrity is undecidable in case we consider all reachable steps. We show that preservation of data integrity is decidable in case we also include unreachable steps. We show the latter by showing computability of a non-preserving step as a witness.
18

Adaptive Caching of Distributed Components

Pohl, Christoph 01 May 2005 (has links) (PDF)
Die Zugriffslokalität referenzierter Daten ist eine wichtige Eigenschaft verteilter Anwendungen. Lokales Zwischenspeichern abgefragter entfernter Daten (Caching) wird vielfach bei der Entwicklung solcher Anwendungen eingesetzt, um diese Eigenschaft auszunutzen. Anschliessende Zugriffe auf diese Daten können so beschleunigt werden, indem sie aus dem lokalen Zwischenspeicher bedient werden. Gegenwärtige Middleware-Architekturen bieten dem Anwendungsprogrammierer jedoch kaum Unterstützung für diesen nicht-funktionalen Aspekt. Die vorliegende Arbeit versucht deshalb, Caching als separaten, konfigurierbaren Middleware-Dienst auszulagern. Durch die Einbindung in den Softwareentwicklungsprozess wird die frühzeitige Modellierung und spätere Wiederverwendung caching-spezifischer Metadaten gewährleistet. Zur Laufzeit kann sich das entwickelte System außerdem bezüglich der Cachebarkeit von Daten adaptiv an geändertes Nutzungsverhalten anpassen. / Locality of reference is an important property of distributed applications. Caching is typically employed during the development of such applications to exploit this property by locally storing queried data: Subsequent accesses can be accelerated by serving their results immediately form the local store. Current middleware architectures however hardly support this non-functional aspect. The thesis at hand thus tries outsource caching as a separate, configurable middleware service. Integration into the software development lifecycle provides for early capturing, modeling, and later reuse of cachingrelated metadata. At runtime, the implemented system can adapt to caching access characteristics with respect to data cacheability properties, thus healing misconfigurations and optimizing itself to an appropriate configuration. Speculative prefetching of data probably queried in the immediate future complements the presented approach.
19

Energieeffiziente Kommunikation in verteilten, eingebetteten Systemen / Energy-Efficient Communication in Distributed, Embedded Systems

Vodel, Matthias 21 September 2015 (has links) (PDF)
Verteilte, Eingebettete Systeme beeinflussen unser tägliches Leben in unzähligen Bereichen. Getrieben durch technologische Weiterentwicklungen und neue Nutzungsprofile nimmt der Vernetzungsgrad elektronischer Geräte rapide zu. Neben einem ausgeprägten Netzwerkcharakter sind aktuelle und zukünftige Anwendungsszenarien wesentlich durch einen hohen Mobilitätsgrad geprägt. Daraus ergeben sich zunehmend Problemstellungen bzgl. geeigneter Kommunikationskonzepte und der hierfür benötigten Energieressourcen. Dieses Buch befasst sich mit Technologien, Konzepten und Protokollen zur energieeffizienten Kommunikation in verteilten, ressourcenbeschränkten Systemen. Es definiert grundlegende Begrifflichkeiten und vermittelt einen umfassenden Einblick in die verschiedenen Forschungsschwerpunkte. Relevante, technologische Entwicklungen der beiden letzten Dekaden werden vorgestellt, thematisch eingeordnet und kritisch analysiert. Anschließend erfolgt die funktional getrennte Betrachtung von Kommunikationsprozessen auf Netzwerk-, Daten- sowie Energiemanagementebene. Darauf aufbauend widmet sich das Buch der Systemintegration und damit einhergehend dem komplexen Systemkonfigurationsprozess. Unter Berücksichtigung applikationsspezifischer Rahmenbedingungen sowie funktionaler Anforderungen werden gezielt geeignete Optimierungsstrategien ausgewählt und in einer ganzheitlich angepassten Systemarchitektur kombiniert. Erst durch das präzise Zusammenspiel von Kommunikationsparadigma, Kommunikationstechnologien und Kommunikationsprotokollen entsteht ein optimiertes Gesamtsystem, welches die zur Verfügung stehenden Ressourcen effizient nutzt. Zur Bewertung kommt ein neu entwickeltes, erweitertes Quantifizierungsmodell zum Einsatz, welches die kommunikativen Aspekte verteilter Applikationsszenarien vollständig einbezieht. Im Rahmen umfangreicher Fallstudien werden ausgewählte Optimierungsverfahren simulativ sowie auf Basis unterschiedlicher Hardwareplattformen evaluiert. Aus den Ergebnissen resultieren qualitative und quantitative Rückschlüsse auf das mögliche Optimierungspotential unter realen Einsatzbedingungen. Die gewonnenen Erkenntnisse dienen als wichtige Richtgrößen für zukünftige Entwicklungen im Bereich eingebetteter, ressourcenbeschränkter Kommunikationssysteme. / Embedded systems are used in almost every domain of our daily lives. Actual research and development activities focus on wireless connected and mobile system architectures. The resulting network topologies represent embedded, distributed systems, which are able to process complex tasks in a collaborative way. Most of the respective hardware platforms are energy self-sufficient with strongly limited resources for data processing, data storage and communication. With focus on the energy resources, communication tasks have a huge impact on the systems power consumption. In order to optimise the energy efficiency of these communication tasks, one key challenge for engineers is the application-specific integration of adapted communication concepts, radio technologies, and protocol stacks into an all-embracing communication architecture. This book critically discusses energy efficiency in distributed, embedded systems with focus on the communication aspects. The first part introduces basic definitions as well as a novel estimation model for quantifying energy efficiency on both local (system) and global (network) layer. In the second part, this book proposes several optimisation approaches for energy-efficient, resource-limited communication systems. This include hardware approaches as well as software approaches to optimise the runtime environment and the data processing tasks. Each approach operates on different abstraction layers within the system architecture. The last part of the book deals with the evaluation of specific optimisation strategies under real-world conditions. The test cases includes simulation scenarios as well as hardware test benches within a heterogeneous network environment. The respective results and analyses represent important guidelines for future developments in field of distributed, embedded communication platforms.
20

Energieeffiziente Kommunikation in verteilten, eingebetteten Systemen / Energy-Efficient Communication in Distributed, Embedded Systems

Vodel, Matthias 07 February 2014 (has links) (PDF)
Verteilte, Eingebettete Systeme beeinflussen unser tägliches Leben in unzähligen Bereichen. Getrieben durch technologische Weiterentwicklungen und neue Nutzungsprofile nimmt der Vernetzungsgrad elektronischer Geräte rapide zu. Neben einem ausgeprägten Netzwerkcharakter sind aktuelle und zukünftige Anwendungsszenarien wesentlich durch einen hohen Mobilitätsgrad geprägt. Daraus ergeben sich zunehmend Problemstellungen bzgl. geeigneter Kommunikationskonzepte und der hierfür benötigten Energieressourcen. Dieses Buch befasst sich mit Technologien, Konzepten und Protokollen zur energieeffizienten Kommunikation in verteilten, ressourcenbeschränkten Systemen. Es definiert grundlegende Begrifflichkeiten und vermittelt einen umfassenden Einblick in die verschiedenen Forschungsschwerpunkte. Relevante, technologische Entwicklungen der beiden letzten Dekaden werden vorgestellt, thematisch eingeordnet und kritisch analysiert. Anschließend erfolgt die funktional getrennte Betrachtung von Kommunikationsprozessen auf Netzwerk-, Daten- sowie Energiemanagementebene. Darauf aufbauend widmet sich das Buch der Systemintegration und damit einhergehend dem komplexen Systemkonfigurationsprozess. Unter Berücksichtigung applikationsspezifischer Rahmenbedingungen sowie funktionaler Anforderungen werden gezielt geeignete Optimierungsstrategien ausgewählt und in einer ganzheitlich angepassten Systemarchitektur kombiniert. Erst durch das präzise Zusammenspiel von Kommunikationsparadigma, Kommunikationstechnologien und Kommunikationsprotokollen entsteht ein optimiertes Gesamtsystem, welches die zur Verfügung stehenden Ressourcen effizient nutzt. Zur Bewertung kommt ein neu entwickeltes, erweitertes Quantifizierungsmodell zum Einsatz, welches die kommunikativen Aspekte verteilter Applikationsszenarien vollständig einbezieht. Im Rahmen umfangreicher Fallstudien werden ausgewählte Optimierungsverfahren simulativ sowie auf Basis unterschiedlicher Hardwareplattformen evaluiert. Aus den Ergebnissen resultieren qualitative und quantitative Rückschlüsse auf das mögliche Optimierungspotential unter realen Einsatzbedingungen. Die gewonnenen Erkenntnisse dienen als wichtige Richtgrößen für zukünftige Entwicklungen im Bereich eingebetteter, ressourcenbeschränkter Kommunikationssysteme. / Embedded systems are used in almost every domain of our daily lives. Actual research and development activities focus on wireless connected and mobile system architectures. The resulting network topologies represent embedded, distributed systems, which are able to process complex tasks in a collaborative way. Most of the respective hardware platforms are energy self-sufficient with strongly limited resources for data processing, data storage and communication. With focus on the energy resources, communication tasks have a huge impact on the systems power consumption. In order to optimise the energy efficiency of these communication tasks, one key challenge for engineers is the application-specific integration of adapted communication concepts, radio technologies, and protocol stacks into an all-embracing communication architecture. This book critically discusses energy efficiency in distributed, embedded systems with focus on the communication aspects. The first part introduces basic definitions as well as a novel estimation model for quantifying energy efficiency on both local (system) and global (network) layer. In the second part, this book proposes several optimisation approaches for energy-efficient, resource-limited communication systems. This include hardware approaches as well as software approaches to optimise the runtime environment and the data processing tasks. Each approach operates on different abstraction layers within the system architecture. The last part of the book deals with the evaluation of specific optimisation strategies under real-world conditions. The test cases includes simulation scenarios as well as hardware test benches within a heterogeneous network environment. The respective results and analyses represent important guidelines for future developments in field of distributed, embedded communication platforms.

Page generated in 0.0538 seconds