11 |
Das MTA-Protokoll: Ein transaktionsorientiertes Managementprotokoll auf Basis von SNMPMandl, Peter 30 January 2013 (has links)
Die sich in den letzten Jahren abzeichnende Verteilung von Anwendungssystemen auf viele Rechner in Netzwerken, die sich in der Praxis unter dem Begriff Client/Server-Computing etabliert hat, brachte zwangsläufig eine Lücke im Management dieser Systeme mit sich. Es wurde schnell deutlich, daß die Verteilung der Systeme wesentlich kompliziertere Techniken benötigt, um sie zu administrieren, als man dies von zentralistischen Systemen her kannte. Anstrengungen von Standardisierungsgremien und Herstellervereinigungen führten zwar zu einer gewissen Administrierbarkeit, diese beschränkt sich aber derzeit noch weitgehend auf die beteiligten Knoten und auf die Netzkomponenten. Anwendungen, für die ja letztendlich die Rechner eingesetzt werden, sind bisher nur rudimentär in die heute vorliegenden und in der Praxis eingesetzten Managementstandards integriert. Die Anzahl der zu managenden Objekte innerhalb der Anwendungen wird aber immer größer und die Komplexität der Beziehungen unter den Objekten steigt immer mehr an. Diese Komplexität erfordert fehlertolerante Mechanismen in den Managementsystemen, über die Anwendungen administriert werden.
Dieser Beitrag befaßt sich mit Mechanismen zum transaktionsgesicherten Management, wobei das Anwendungsmanagement im Vordergrund steht. Transaktionskonzepte, die vorwiegend im Datenbankbereich entwickelt wurden, werden auf die Verwendbarkeit im Management verteilter Anwendungen hin untersucht. Es wird ein neues Protokoll (Management-Transaktions-Protokoll, kurz MTAProtokoll) als Erweiterung zu SNMP vorgestellt, das die Abwicklung von verteilten Transaktionen auf Managementobjekte ermöglicht.:1 Einleitung und Motivation S. 4
2 Anwendungsmanagement S. 6
2.1 Begriffsbestimmung S. 6
2.2 Anwendungsmanagement im SNMP-Modell S. 7
3 Allgemeine Transaktionskonzepte S. 8
3.1 ACID-Transaktionen S. 8
3.2 Concurrency Control S. 9
3.3 Logging und Recovery S. 11
4 ACID-Eigenschaften von Managementtransaktionen S. 14
5 MTA-Protokoll S. 17
5.1 Modell S. 17
5.2 Dienste und Protokolle S. 18
5.3 Concurrency Control S. 21
5.4 Logging und Recovery S. 21
5.5 Prinzipieller Protokollablauf S. 22
5.6 Nachrichteneinheiten S. 27
5.7 Protokoll-Timer S. 28
5.8 MTA-Zustandsautomaten S. 29
5.9 Logginginformation S. 32
5.10 Fehlersituationen und Wiederanlauf S. 34
5.10.1 Ausfall eines Managers S. 34
5.10.2 Ausfall eines Objektservers S. 36
5.10.3 Ausfall einer MTA-Instanz S. 38
5.10.4 Knotenausfall und Kommunikationsunterbrechung S.40
5.11 Recovery-Algorithmus S. 42
5.12 SDL-Spezifikation S. 44
6 Verwandte Arbeiten S. 46
7 Zusammenfassung und Ausblick S. 47
8 Anhang S. 50
8.1 SDL-Diagramm für Monitorprozeß S. 50
8.2 SDL-Diagramme für MTA-Koordinatorprozeß S. 51
8.2.1 SDL-Diagramm für Zustand Wait S. 51
8.2.2 SDL-Diagramm für Zustand Initiated S.52
8.2.3 SDL-Diagramm für Zustand WaitResp S. 53
8.2.4 SDL-Diagramm für Zustand Active S. 54
8.2.5 SDL-Diagramm für Zustand Preparing S. 55
8.2.6 SDL-Diagramm für Zustand Committing S. 57
8.2.7 SDL-Diagramm für Rollback S. 58
|
12 |
Distributed biconnectivity testing in Wireless multi-hop networksMilic, Bratislav 13 July 2010 (has links)
Ein drahtloses Multihop-Netzwerk (DMN) ist ein verteiltes Kommunikationssystem, welches vor allem die Fähigkeit zur automatischen Anpassung an sich ständig änderne Umgebungsbedingungen hat. Eine zentrale Fragestellung in DMNen ist, ob das Netzwerk partitioniert ist, ob also nicht mehr jeder Knoten mit jedem anderen Knoten kommunizieren kann. Um festzustellen, ob eine Partitionierung droht werden mit Hilfe von 2-Zusammenhangstests Brücken und Artikulationspunkte im Kommunikationsgraphen gesucht. Daraufhin können anschließend korrektive Aktionen eingeleitet werden um die Partitionierung zu verhindern und somit die Netzwerkverfügbarkeit zu erhöhen. Eine Vielzahl von 2-Zusammenhangstestverfahren wurde bereits erfolgreich bei drahtgebundenen Netzen eingesetzt. Allerdings sind diese Verfahren ungeeignet für drahtlose Netze, da die Ungenauigkeiten durch den häufigen Paketverlust in solchen Systemen bisher nicht berücksichtigt wurden. Mit Hilfe von stochastischen Modellen wird gezeigt, dass Fehler in der Entscheidungsfindung für DMNen bereits bei sehr einfachen Problemen wie der Link-Erkennung signifikant sein können. In dieser Arbeit werden daher verschiedene Verfahren präsentiert, die auch auf Grundlage unsicherer Informationen noch eine verlässliche Entscheidungsfindung ermöglichen. Die Arbeit präsentiert einen neuen verteilten Algorithmus zum Test auf 2-Zusammenhang, welcher Fehler durch Nachrichtenverlust berücksichtigt und gleichzeitig die Anzahl an Nachrichten reduziert. Basierend auf einer umfassenden Analyse der Einflüsse von Kommunikationsfehlern auf den Algorithmus, wurden Abstimmungsprozeduren entwickelt, die die Wahrscheinlichkeit von Fehlentscheidungen nochmals reduzieren. Zur weiteren Analyse werden die Algorithmen erstens in der Motelab-Umgebung und zweitens mit Hilfe von Simulationen untersucht. Die präsentierten Algorithmen zeigen überzeugende Ergebnisse unter variierenden Bedingungen, was ihre Anwendbarkeit in realen Szenarien unterstreicht. / Wireless multi-hop network (WMN) is a distributed communication system composed of autonomous processing nodes that is known for its ability to automatically adjust to rapidly changing conditions in the surrounding environment. Connectivity is one of the basic properties of a network. Removal of a bridge or an articulation point partitions a network. Biconnectivity testing identifies bridges and articulation points in a network, and once they are known corrective actions can be performed in order to improve network''s reliability. Numerous biconnectivity testing algorithms are successfully applied in graphs, wired networks and multiprocessor systems. However, they are inadequate for application in wireless networks since the frequent packet losses introduce uncertainty in the system which these algorithms cannot handle. The stochastic analysis shows that errors in decision-making in WMNs are considerable even for seemingly simple tasks such as the detection of links. The main contribution of this work is to provide means for accurate binary decision-making under uncertainty within the context of biconnectivity testing in WMNs. A distributed algorithm is developed that successfully handles the faults caused by message losses and simultaneously utilizes benefits of wireless communication to reduce message complexity from O(e) to O(n). Based on stochastic analysis of WMN topologies and a comprehensive analysis of impact of communication faults on algorithm''s behavior, the algorithm is extended by voting theory to reduce probability of erroneous decisions. The algorithm and the voting rules are evaluated in experiments in Motelab testbed and in the event-based simulator Jist/SWANS. The algorithm is accurate under various conditions which demonstrates its applicability in reality and capability of successful operation in presence of packet losses.
|
13 |
Cuneiform / A Functional Language for Large-Scale Data AnalysisBrandt, Jörgen 29 January 2021 (has links)
In der Bioinformatik und der Next-Generation Sequenzierung benötigen wir oft große und komplexe Verarbeitungsabläufe um Daten zu analysieren. Die Werkzeuge und Bibliotheken, die hierin die Verarbeitungsschritte bilden, stammen aus unterschiedlichen Quellen und exponieren unterschiedliche Schnittstellen, was ihre Integration in Datenanalyseplattformen erschwert. Hinzu kommt, dass diese Verarbeitungsabläufe meist große Datenmengen prozessieren weshalb Forscher erwarten, dass unabhängige Verarbeitungsschritte parallel laufen. Der Stand der Technik im Feld der wissenschaftlichen Datenverarbeitung für Bioinformatik und Next-Generation Sequenzierung sind wissenschaftliche Workflowsysteme. Ein wissenschaftliches Workflowsystem erlaubt es Forschern Verarbeitungsabläufe als Workflow auszudrücken. Solch ein Workflow erfasst die Datenabhängigkeiten in einem Verarbeitungsablauf, integriert externe Software und erlaubt es unabhängige Verarbeitungsschritte zu erkennen, um sie parallel auszuführen.
In dieser Arbeit präsentieren wir Cuneiform, eine Workflowsprache, und ihre verteilte Ausführungsumgebung. Für Cuneiform's Design nehmen wir die Perspektive der Programmiersprachentheorie ein. Wir lassen Methoden der funktionalen Programmierung einfließen um Komposition und Datenabhängigkeiten auszudrücken. Wir nutzen operationelle Semantiken um zu definieren, wann ein Workflow wohlgeformt und konsistent ist und um Reduktion zu erklären. Für das Design der verteilten Ausführungsumgebung nehmen wir die Perspektive der verteilten Systeme ein. Wir nutzen Petri Netze um die Kommunikationsstruktur der im System beteiligten Agenten zu erklären. / Bioinformatics and next-generation sequencing data analyses often form large and complex pipelines. The tools and libraries making up the processing steps in these pipelines come from different sources and have different interfaces which hampers integrating them into data analysis frameworks. Also, these pipelines process large data sets. Thus, users need to parallelize independent processing steps. The state of the art in large-scale scientific data analysis for bioinformatics and next-generation sequencing are scientific workflow systems. A scientific workflow system allows researchers to describe a data analysis pipeline as a scientific workflow which integrates external software, defines the data dependencies forming a data analysis pipeline, and parallelizes independent processing steps. Scientific workflow systems consist of a workflow language providing a user interface, and an execution environment. The workflow language determines how users express workflows, reuse and compose workflow fragments, integrate external software, how the scientific workflow system identifies independent processing steps, and how we derive optimizations from a workflow's structure. The execution environment schedules and runs data processing operations.
In this thesis we present Cuneiform, a workflow language, and its distributed execution environment. For Cuneiform's design we take the perspective of programming languages. We adopt methods from functional programming towards composition and expressing data dependencies. We apply operational semantics and type systems to define well-formedness, consistency, and reduction of Cuneiform workflows. For the design of the distributed execution environment we take the perspective of distributed systems. We apply Petri nets to define the communication patterns among the distributed execution environment's agents.
|
14 |
Consistent key-based routing in decentralized and reconfigurable data servicesHoegqvist, Mikael 02 November 2012 (has links)
Skalierbares schlüssel-basiertes Routing in verteilten Systemen ist eine Methode zur Weiterleitung von Nachrichten zu den für die Partition verantwortlichen Maschinen. Diese Technik findet Verwendung in Key-Value Speichersystemen, Content Distribution Networks oder auch beim Media Streaming. Einer der Gründe für die Verbreitung ist die Einfachheit der Routingabstraktion, bei welcher der Entwickler sich nicht um die Details des Gruppenmanagements oder Datenreplikation kümmern muss. Auf der anderen Seite sind die meisten schlüssel-basierten Routingverfahren optimistische Verfahren, bei denen der Datenzugriff keine strenge Konsistenz bietet. In dieser Arbeit präsentieren wir das System Recode mit dem schlüssel-basierten Routingabstraktion routecast, welches eine strengere Zugriffssemantik ermöglicht. Dabei garantiert routecast, dass Nachrichten eines bestimmten Schlüssels in der gleichen Reihenfolge an alle Replikate geliefert werden. Mit Hilfe dieser strengeren Garantien können auch Anwendungen wie Koordinations- oder Metadatendienste bzw. konsistente Speichersysteme das schlüssel-basierte Routing verwenden. Recode ist außerdem rekonfigurierbar bei Veränderungen der zur Verfügung stehenden Maschinen sowie bei Auslastungsänderung. Es ist ein komplett dezentralisiertes System und enthält damit keinen single-point of failure oder Systemengpass. Die drei Hauptbeiträge der Arbeit sind 1) die Abstraktion der Gruppenkommunikation unter Verwendung von Primary/Backup mit Leases für ein failover des Primary, 2) die Entwicklung und die Algorithmen der routcast-Primitive, 3) Mechanismen zur atomaren Rekonfiguration des dezentralen Schlüsselraumes. Um die Einfachheit unseres Ansatzes zu betonen, beschreiben wir außerdem drei verschiedene Anwendungen aufbauend auf Recode. Abschließend zeigen wir durch die Evaluation von Recode in einer Cluster-Umgebung die Leistungsfähigkeit. / Scalable key-based routing in distributed systems, where a mes- sage is forwarded towards a machine responsible for a partition in a large key space, has been used in many services such as key-value stores, content distribution networks and media streaming. This success can mainly be attributed to the simplicity of the route ab- straction, a developer does not need to care about the mechanisms for membership management, load balancing or data replication. A limitation, however, is that most key-based routing solutions are best-effort, which means that only eventually consistent data access is possible. This thesis presents a system (Recode) with a key-based routing primitive called routecast which provides strong delivery semantics. More specifically, routecast guarantees that a message for a key is delivered in the same total order at a set of replicas. With stronger guarantees, applications such as coordination and metadata services as used in large storage systems or consistent key-value stores can use key-based routing. Additionally, Recode aims to be both re- configurable, to handle changes to the machines running the service and updates to the workload, and fully decentralized which means there is no single point of failure or bottleneck. We make three main contributions in this thesis: 1) a group com- munication abstraction using primary/backup with leases for pri- mary fail-over, 2) the design and algorithms of the routecast-primitive and, 3) mechanisms for atomic reconfiguration of a decentralized key space. Each part of the system is broken up into modules and presented with a specification and a set of algorithms. To validate the simplicity claim, we describe how to implement three different applications on top of Recode. Finally, we evaluate Recode in a cluster environment and show that the performance is competitive.
|
15 |
Community-Based Intrusion DetectionWeigert, Stefan 06 February 2017 (has links) (PDF)
Today, virtually every company world-wide is connected to the Internet. This wide-spread connectivity has given rise to sophisticated, targeted, Internet-based attacks. For example, between 2012 and 2013 security researchers counted an average of about 74 targeted attacks per day. These attacks are motivated by economical, financial, or political interests and commonly referred to as “Advanced Persistent Threat (APT)” attacks. Unfortunately, many of these attacks are successful and the adversaries manage to steal important data or disrupt vital services. Victims are preferably companies from vital industries, such as banks, defense contractors, or power plants. Given that these industries are well-protected, often employing a team of security specialists, the question is: How can these attacks be so successful?
Researchers have identified several properties of APT attacks which make them so efficient. First, they are adaptable. This means that they can change the way they attack and the tools they use for this purpose at any given moment in time. Second, they conceal their actions and communication by using encryption, for example. This renders many defense systems useless as they assume complete access to the actual communication content. Third, their
actions are stealthy — either by keeping communication to the bare minimum or by mimicking legitimate users. This makes them “fly below the radar” of defense systems which check for anomalous communication. And finally, with the goal to increase their impact or monetisation prospects, their attacks are targeted against several companies from the same industry. Since months can pass between the first attack, its detection, and comprehensive analysis, it is often too late to deploy appropriate counter-measures at businesses peers. Instead, it is much more likely that they have already been attacked successfully.
This thesis tries to answer the question whether the last property (industry-wide attacks) can be used to detect such attacks. It presents the design, implementation and evaluation of a community-based intrusion detection system, capable of protecting businesses at industry-scale. The contributions of this thesis are as follows. First, it presents a novel algorithm for community detection which can detect an industry (e.g., energy, financial, or defense industries) in Internet communication. Second, it demonstrates the design, implementation, and evaluation of a distributed graph mining engine that is able to scale with the throughput of the input data while maintaining an end-to-end latency for updates in the range of a few milliseconds. Third, it illustrates the usage of this engine to detect APT attacks against industries by analyzing IP flow information from an Internet service provider.
Finally, it introduces a detection algorithm- and input-agnostic intrusion detection engine which supports not only intrusion detection on IP flow but any other intrusion detection algorithm and data-source as well.
|
16 |
Adaptive Caching of Distributed ComponentsPohl, Christoph 01 May 2005 (has links) (PDF)
Die Zugriffslokalität referenzierter Daten ist eine wichtige Eigenschaft verteilter Anwendungen. Lokales Zwischenspeichern abgefragter entfernter Daten (Caching) wird vielfach bei der Entwicklung solcher Anwendungen eingesetzt, um diese Eigenschaft auszunutzen. Anschliessende Zugriffe auf diese Daten können so beschleunigt werden, indem sie aus dem lokalen Zwischenspeicher bedient werden. Gegenwärtige Middleware-Architekturen bieten dem Anwendungsprogrammierer jedoch kaum Unterstützung für diesen nicht-funktionalen Aspekt. Die vorliegende Arbeit versucht deshalb, Caching als separaten, konfigurierbaren Middleware-Dienst auszulagern. Durch die Einbindung in den Softwareentwicklungsprozess wird die frühzeitige Modellierung und spätere Wiederverwendung caching-spezifischer Metadaten gewährleistet. Zur Laufzeit kann sich das entwickelte System außerdem bezüglich der Cachebarkeit von Daten adaptiv an geändertes Nutzungsverhalten anpassen. / Locality of reference is an important property of distributed applications. Caching is typically employed during the development of such applications to exploit this property by locally storing queried data: Subsequent accesses can be accelerated by serving their results immediately form the local store. Current middleware architectures however hardly support this non-functional aspect. The thesis at hand thus tries outsource caching as a separate, configurable middleware service. Integration into the software development lifecycle provides for early capturing, modeling, and later reuse of cachingrelated metadata. At runtime, the implemented system can adapt to caching access characteristics with respect to data cacheability properties, thus healing misconfigurations and optimizing itself to an appropriate configuration. Speculative prefetching of data probably queried in the immediate future complements the presented approach.
|
17 |
Energieeffiziente Kommunikation in verteilten, eingebetteten Systemen / Energy-Efficient Communication in Distributed, Embedded SystemsVodel, Matthias 21 September 2015 (has links) (PDF)
Verteilte, Eingebettete Systeme beeinflussen unser tägliches Leben in unzähligen Bereichen. Getrieben durch technologische Weiterentwicklungen und neue Nutzungsprofile nimmt der Vernetzungsgrad elektronischer Geräte rapide zu. Neben einem ausgeprägten Netzwerkcharakter sind aktuelle und zukünftige Anwendungsszenarien wesentlich durch einen hohen Mobilitätsgrad geprägt. Daraus ergeben sich zunehmend Problemstellungen bzgl. geeigneter Kommunikationskonzepte und der hierfür benötigten Energieressourcen.
Dieses Buch befasst sich mit Technologien, Konzepten und Protokollen zur energieeffizienten Kommunikation in verteilten, ressourcenbeschränkten Systemen. Es definiert grundlegende Begrifflichkeiten und vermittelt einen umfassenden Einblick in die verschiedenen Forschungsschwerpunkte. Relevante, technologische Entwicklungen der beiden letzten Dekaden werden vorgestellt, thematisch eingeordnet und kritisch analysiert. Anschließend erfolgt die funktional getrennte Betrachtung von Kommunikationsprozessen auf Netzwerk-, Daten- sowie Energiemanagementebene.
Darauf aufbauend widmet sich das Buch der Systemintegration und damit einhergehend dem komplexen Systemkonfigurationsprozess. Unter Berücksichtigung applikationsspezifischer Rahmenbedingungen sowie funktionaler Anforderungen werden gezielt geeignete Optimierungsstrategien ausgewählt und in einer ganzheitlich angepassten Systemarchitektur kombiniert. Erst durch das präzise Zusammenspiel von Kommunikationsparadigma, Kommunikationstechnologien und Kommunikationsprotokollen entsteht ein optimiertes Gesamtsystem, welches die zur Verfügung stehenden Ressourcen effizient nutzt. Zur Bewertung kommt ein neu entwickeltes, erweitertes Quantifizierungsmodell zum Einsatz, welches die kommunikativen Aspekte verteilter Applikationsszenarien vollständig einbezieht.
Im Rahmen umfangreicher Fallstudien werden ausgewählte Optimierungsverfahren simulativ sowie auf Basis unterschiedlicher Hardwareplattformen evaluiert. Aus den Ergebnissen resultieren qualitative und quantitative Rückschlüsse auf das mögliche Optimierungspotential unter realen Einsatzbedingungen. Die gewonnenen Erkenntnisse dienen als wichtige Richtgrößen für zukünftige Entwicklungen im Bereich eingebetteter, ressourcenbeschränkter Kommunikationssysteme. / Embedded systems are used in almost every domain of our daily lives. Actual research and development activities focus on wireless connected and mobile system architectures. The resulting network topologies represent embedded, distributed systems, which are able to process complex tasks in a collaborative way. Most of the respective hardware platforms are energy self-sufficient with strongly limited resources for data processing, data storage and communication.
With focus on the energy resources, communication tasks have a huge impact on the systems power consumption. In order to optimise the energy efficiency of these communication tasks, one key challenge for engineers is the application-specific integration of adapted communication concepts, radio technologies, and protocol stacks into an all-embracing communication architecture.
This book critically discusses energy efficiency in distributed, embedded systems with focus on the communication aspects. The first part introduces basic definitions as well as a novel estimation model for quantifying energy efficiency on both local (system) and global (network) layer.
In the second part, this book proposes several optimisation approaches for energy-efficient, resource-limited communication systems. This include hardware approaches as well as software approaches to optimise the runtime environment and the data processing tasks. Each approach operates on different abstraction layers within the system architecture.
The last part of the book deals with the evaluation of specific optimisation strategies under real-world conditions. The test cases includes simulation scenarios as well as hardware test benches within a heterogeneous network environment. The respective results and analyses represent important guidelines for future developments in field of distributed, embedded communication platforms.
|
18 |
Energieeffiziente Kommunikation in verteilten, eingebetteten Systemen / Energy-Efficient Communication in Distributed, Embedded SystemsVodel, Matthias 07 February 2014 (has links) (PDF)
Verteilte, Eingebettete Systeme beeinflussen unser tägliches Leben in unzähligen Bereichen. Getrieben durch technologische Weiterentwicklungen und neue Nutzungsprofile nimmt der Vernetzungsgrad elektronischer Geräte rapide zu. Neben einem ausgeprägten Netzwerkcharakter sind aktuelle und zukünftige Anwendungsszenarien wesentlich durch einen hohen Mobilitätsgrad geprägt. Daraus ergeben sich zunehmend Problemstellungen bzgl. geeigneter Kommunikationskonzepte und der hierfür benötigten Energieressourcen.
Dieses Buch befasst sich mit Technologien, Konzepten und Protokollen zur energieeffizienten Kommunikation in verteilten, ressourcenbeschränkten Systemen. Es definiert grundlegende Begrifflichkeiten und vermittelt einen umfassenden Einblick in die verschiedenen Forschungsschwerpunkte. Relevante, technologische Entwicklungen der beiden letzten Dekaden werden vorgestellt, thematisch eingeordnet und kritisch analysiert. Anschließend erfolgt die funktional getrennte Betrachtung von Kommunikationsprozessen auf Netzwerk-, Daten- sowie Energiemanagementebene.
Darauf aufbauend widmet sich das Buch der Systemintegration und damit einhergehend dem komplexen Systemkonfigurationsprozess. Unter Berücksichtigung applikationsspezifischer Rahmenbedingungen sowie funktionaler Anforderungen werden gezielt geeignete Optimierungsstrategien ausgewählt und in einer ganzheitlich angepassten Systemarchitektur kombiniert. Erst durch das präzise Zusammenspiel von Kommunikationsparadigma, Kommunikationstechnologien und Kommunikationsprotokollen entsteht ein optimiertes Gesamtsystem, welches die zur Verfügung stehenden Ressourcen effizient nutzt. Zur Bewertung kommt ein neu entwickeltes, erweitertes Quantifizierungsmodell zum Einsatz, welches die kommunikativen Aspekte verteilter Applikationsszenarien vollständig einbezieht.
Im Rahmen umfangreicher Fallstudien werden ausgewählte Optimierungsverfahren simulativ sowie auf Basis unterschiedlicher Hardwareplattformen evaluiert. Aus den Ergebnissen resultieren qualitative und quantitative Rückschlüsse auf das mögliche Optimierungspotential unter realen Einsatzbedingungen. Die gewonnenen Erkenntnisse dienen als wichtige Richtgrößen für zukünftige Entwicklungen im Bereich eingebetteter, ressourcenbeschränkter Kommunikationssysteme. / Embedded systems are used in almost every domain of our daily lives. Actual research and development activities focus on wireless connected and mobile system architectures. The resulting network topologies represent embedded, distributed systems, which are able to process complex tasks in a collaborative way. Most of the respective hardware platforms are energy self-sufficient with strongly limited resources for data processing, data storage and communication.
With focus on the energy resources, communication tasks have a huge impact on the systems power consumption. In order to optimise the energy efficiency of these communication tasks, one key challenge for engineers is the application-specific integration of adapted communication concepts, radio technologies, and protocol stacks into an all-embracing communication architecture.
This book critically discusses energy efficiency in distributed, embedded systems with focus on the communication aspects. The first part introduces basic definitions as well as a novel estimation model for quantifying energy efficiency on both local (system) and global (network) layer.
In the second part, this book proposes several optimisation approaches for energy-efficient, resource-limited communication systems. This include hardware approaches as well as software approaches to optimise the runtime environment and the data processing tasks. Each approach operates on different abstraction layers within the system architecture.
The last part of the book deals with the evaluation of specific optimisation strategies under real-world conditions. The test cases includes simulation scenarios as well as hardware test benches within a heterogeneous network environment. The respective results and analyses represent important guidelines for future developments in field of distributed, embedded communication platforms.
|
19 |
Verteilte Mobilität - Eine spannende HerausforderungWerner, Matthias 05 July 2013 (has links)
Cyber-physikalische Systeme (CPS) sind eine erweitere Sicht auf eingebettete Systeme, die die konkreten umgebenden Elemente in das Systemdesign einbeziehen. Das Design solcher Systeme erfordert neue Herangehensweisen: Während beispielsweise in "normalen" verteilten Systemen Aspekte wie "Bewegung" oder "Ort" möglichst transparent und damit für den Nutzer unsichtbar gestaltet werden, benötigen CPS-Anwendungen häufig Bewusstsein für Bewegung oder Ort, d.h., sie sind _motion aware_ oder _location aware_.
Die Professur "Betriebssysteme" der TUC hat sich die Frage gestellt, wie eine generische Unterstützung für solche verteilte mobile Systeme aussehen könnte. Im Vortrag werden Probleme, Konzepte und erste Lösungsansätze für ein künftiges Betriebssystem für diese Art von Systemen vorgestellt.
|
20 |
Community-Based Intrusion DetectionWeigert, Stefan 11 April 2016 (has links)
Today, virtually every company world-wide is connected to the Internet. This wide-spread connectivity has given rise to sophisticated, targeted, Internet-based attacks. For example, between 2012 and 2013 security researchers counted an average of about 74 targeted attacks per day. These attacks are motivated by economical, financial, or political interests and commonly referred to as “Advanced Persistent Threat (APT)” attacks. Unfortunately, many of these attacks are successful and the adversaries manage to steal important data or disrupt vital services. Victims are preferably companies from vital industries, such as banks, defense contractors, or power plants. Given that these industries are well-protected, often employing a team of security specialists, the question is: How can these attacks be so successful?
Researchers have identified several properties of APT attacks which make them so efficient. First, they are adaptable. This means that they can change the way they attack and the tools they use for this purpose at any given moment in time. Second, they conceal their actions and communication by using encryption, for example. This renders many defense systems useless as they assume complete access to the actual communication content. Third, their
actions are stealthy — either by keeping communication to the bare minimum or by mimicking legitimate users. This makes them “fly below the radar” of defense systems which check for anomalous communication. And finally, with the goal to increase their impact or monetisation prospects, their attacks are targeted against several companies from the same industry. Since months can pass between the first attack, its detection, and comprehensive analysis, it is often too late to deploy appropriate counter-measures at businesses peers. Instead, it is much more likely that they have already been attacked successfully.
This thesis tries to answer the question whether the last property (industry-wide attacks) can be used to detect such attacks. It presents the design, implementation and evaluation of a community-based intrusion detection system, capable of protecting businesses at industry-scale. The contributions of this thesis are as follows. First, it presents a novel algorithm for community detection which can detect an industry (e.g., energy, financial, or defense industries) in Internet communication. Second, it demonstrates the design, implementation, and evaluation of a distributed graph mining engine that is able to scale with the throughput of the input data while maintaining an end-to-end latency for updates in the range of a few milliseconds. Third, it illustrates the usage of this engine to detect APT attacks against industries by analyzing IP flow information from an Internet service provider.
Finally, it introduces a detection algorithm- and input-agnostic intrusion detection engine which supports not only intrusion detection on IP flow but any other intrusion detection algorithm and data-source as well.
|
Page generated in 0.0788 seconds