• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 20
  • Tagged with
  • 43
  • 43
  • 43
  • 40
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

A Distributed Architecture for Computing Context in Mobile Devices

Dargie, Waltenegus 27 May 2006 (has links) (PDF)
Context-aware computing aims at making mobile devices sensitive to the social and physical settings in which they are used. A necessary requirement to achieve this goal is to enable those devices to establish a shared understanding of the desired settings. Establishing a shared understanding entails the need to manipulate sensed data in order to capture a real world situation wholly, conceptually, and meaningfully. Quite often, however, the data acquired from sensors can be inexact, incomplete, and/or uncertain. Inexact sensing arises mostly due to the inherent limitation of sensors to capture a real world phenomenon precisely. Incompleteness is caused by the absence of a mechanism to capture certain real-world aspects; and uncertainty stems from the lack of knowledge about the reliability of the sensing sources, such as their sensing range, accuracy, and resolution. The thesis identifies a set of criteria for a context-aware system to capture dynamic real-world situations. On the basis of these criteria, a distributed architecture is designed, implemented and tested. The architecture consists of Primitive Context Servers, which abstract the acquisition of primitive contexts from physical sensors; Aggregators, to minimise error caused by inconsistent sensing, and to gather correlated primitive contexts pertaining to a particular entity or situation; a Knowledge Base and an Empirical Ambient Knowledge Component, to model dynamic properties of entities with facts and beliefs; and a Composer, to reason about dynamic real-world situations on the basis of sensed data. Two additional components, namely, the Event Handler and the Rule Organiser, are responsible for dynamically generating context rules by associating decision events ? signifying a user?s activity ? with the context in which those decision events are produced. Context-rules are essential elements with which the behaviour of mobile devices can be controlled and useful services can be provided. Four estimation and recognition schemes, namely, Fuzzy Logic, Hidden Markov Models, Dempster-Schafer Theory of Evidence, and Bayesian Networks, are investigated, and their suitability for the implementation of the components of the architecture of the thesis is studied. Subsequently, fuzzy sets are chosen to model dynamic properties of entities. Dempster-Schafer?s combination theory is chosen for aggregating primitive contexts; and Bayesian Networks are chosen to reason about a higher-level context, which is an abstraction of a real-world situation. A Bayesian Composer is implemented to demonstrate the capability of the architecture in dealing with uncertainty, in revising the belief of the Empirical Ambient Knowledge Component, in dealing with the dynamics of primitive contexts and in dynamically defining contextual states. The Composer could be able to reason about the whereabouts of a person in the absence of any localisation sensor. Thermal, relative humidity, light intensity properties of a place as well as time information were employed to model and reason about a place. Consequently, depending on the variety and reliability of the sensors employed, the Composer could be able to discriminate between rooms, corridors, a building, or an outdoor place with different degrees of uncertainty. The Context-Aware E-Pad (CAEP) application is designed and implemented to demonstrate how applications can employ a higher-level context without the need to directly deal with its composition, and how a context rule can be generated by associating the activities (decision events) of a mobile user with the context in which the decision events are produced.
22

QoS Contract Negotiation in Distributed Component-Based Software

Mulugeta Dinku, Mesfin 24 July 2007 (has links) (PDF)
Currently, several mature and commercial component models (for e.g. EJB, .NET, COM+) exist on the market. These technologies were designed largely for applications with business-oriented non-functional requirements such as data persistence, confidentiality, and transactional support. They provide only limited support for the development of components and applications with non-functional properties (NFPs) like QoS (e.g. throughput, response time). The integration of QoS into component infrastructure requires among other things the support of components’ QoS contract specification, negotiation, adaptation, etc. This thesis focuses on contract negotiation. For applications in which the consideration of non-functional properties (NFPs) is essential (e.g. Video-on-Demand, eCommerce), a component-based solution demands the appropriate composition of the QoS contracts specified at the different ports of the collaborating components. The ports must be properly connected so that the QoS level required by one is matched by the QoS level provided by the other. Generally, QoS contracts of components depend on run-time resources (e.g. network bandwidth, CPU time) or quality attributes to be established dynamically and are usually specified in multiple QoS-Profiles. QoS contract negotiation enables the selection of appropriate concrete QoS contracts between collaborating components. In our approach, the component containers perform the contract negotiation at run-time. This thesis addresses the QoS contract negotiation problem by first modelling it as a constraint satisfaction optimization problem (CSOP). As a basis for this modelling, the provided and required QoS as well as resource demand are specified at the component level. The notion of utility is applied to select a good solution according to some negotiation goal (e.g. user’s satisfaction). We argue that performing QoS contract negotiation in multiple phases simplifies the negotiation process and makes it more efficient. Based on such classification, the thesis presents heuristic algorithms that comprise coarse-grained and fine-grained negotiations for collaborating components deployed in distributed nodes in the following scenarios: (i) single-client - single-server, (ii) multiple-clients, and (iii) multi-tier scenarios. To motivate the problem as well as to validate the proposed approach, we have examined three componentized distributed applications. These are: (i) video streaming, (ii) stock quote, and (iii) billing (to evaluate certain security properties). An experiment has been conducted to specify the QoS contracts of the collaborating components in one of the applications we studied. In a run-time system that implements our algorithm, we simulated different behaviors concerning: (i) user’s QoS requirements and preferences, (ii) resource availability conditions concerning the client, server, and network bandwidth, and (iii) the specified QoS-Profiles of the collaborating components. Under various conditions, the outcome of the negotiation confirms the claim we made with regard to obtaining a good solution.
23

Laufzeitadaption von zustandsbehafteten Datenstromoperatoren

Wolf, Bernhard 04 December 2013 (has links) (PDF)
Änderungen von Datenstromanfragen zur Laufzeit werden insbesondere durch zustandsbehaftete Datenstromoperatoren erschwert. Da die Zustände im Arbeitsspeicher abgelegt sind und bei einem Neustart verloren gehen, wurden in der Vergangenheit Migrationsverfahren entwickelt, um die inneren Operatorzustände bei einem Änderungsvorgang zu erhalten. Die Migrationsverfahren basieren auf zwei unterschiedlichen Ansätzen - Zustandstransfer und Parallelausführung - sind jedoch aufgrund ihrer Realisierung auf eine zentrale Ausführung beschränkt. Mit wachsenden Anforderungen in Bezug auf Datenmengen und Antwortzeiten werden Datenstromsysteme vermehrt verteilt ausgeführt, beispielsweise durch Sensornetze oder verteilte IT-Systeme. Zur Anpassung der Anfragen zur Laufzeit sind existierende Migrationsstrategien nicht oder nur bedingt geeignet. Diese Arbeit leistet einen Beitrag zur Lösung dieser Problematik und zur Optimierung der Migration in Datenstromsystemen. Am Beispiel von präventiven Instandhaltungsstrategien in Fabrikumgebungen werden Anforderungen für die Datenstromverarbeitung und insbesondere für die Migration abgeleitet. Das generelle Ziel ist demnach eine möglichst schnelle Migration bei gleichzeitiger Ergebnisausgabe. In einer detaillierten Analyse der existierenden Migrationsstrategien werden deren Stärken und Schwächen bezüglich der gestellten Anforderungen diskutiert. Für die Adaption von laufenden Datenstromanfragen wird eine allgemeine Methodik vorgestellt, welche als Basis für die neuen Strategien dient. Diese Adaptionsmethodik unterstützt zwei Verfahren zur Bestimmung von Migrationskonfigurationen - ein numerisches Verfahren für periodische Datenströme und ein heuristisches Verfahren, welches auch auf aperiodische Datenströme angewendet werden kann. Eine wesentliche Funktionalität zur Minimierung der Migrationsdauer ist dabei die Beschränkung auf notwendige Zustandswerte, da in verteilten Umgebungen eine Übertragungszeit für den Zustandstransfer veranschlagt werden muss - zwei Aspekte, die bei existierenden Verfahren nicht berücksichtigt werden. Durch die Verwendung von neu entwickelten Zustandstransfermethoden kann zudem die Übertragungsreihenfolge der einzelnen Zustandswerte beeinflusst werden. Die Konzepte wurden in einem OSGi-basierten Prototyp implementiert und zudem simulativ analysiert. Mit einer umfassenden Evaluierung wird die Funktionsfähigkeit aller Komponenten und Konzepte demonstriert. Der Performance-Vergleich zwischen den existierenden und den neuen Migrationsstrategien fällt deutlich zu Gunsten der neuen Strategien aus, die zudem in der Lage sind, alle Anforderungen zu erfüllen.
24

Systemunterstützung zur Bewertung der Qualität persönlicher Cloud-Dienste

Thoß, Yvonne 30 July 2014 (has links) (PDF)
Cloud-Technologien ermöglichen Endnutzern das flexible und bedarfsgerechte Beziehen von IT-Leistungen über das Internet. In einer Public Cloud können die Dienste oder Ressourcen von beliebigen Unternehmen und Endnutzern zeit- sowie ortsunabhängig verwendet werden. Nutzer von Cloud-basierten Softwareanwendungen haben keinen Einfluss auf die sachgerechte Verwaltung und Überwachung der darunterliegenden Cloud-Infrastruktur. Infolgedessen haben sie zunehmend Bedenken hinsichtlich der Sicherheit ihrer Daten oder in Bezug auf die Performance bzw. Verfügbarkeit des Dienstes. Um diese Bedenken abzubauen, müssen die nichtfunktionalen Eigenschaften eines Dienstes betrachtet werden, da sie dessen qualitative Wahrnehmung beeinflussen. Derzeit steht Endnutzern weder ein vollständiger Kriterienkatalog zur Bewertung von Cloud-Diensten als Orientierungshilfe zur Verfügung noch sind Cloud-Gütesiegel oder Zertifikate ausreichend verbreitet. Mangelnde Fachkenntnisse und verstreute oder nicht verfügbare Qualitätsinformationen führen dazu, dass Endnutzer die Dienstqualität nur erschwert oder gar nicht bewerten können. Das Ziel der Dissertation ist, Cloud-Nutzer bei der schnellen und umfangreichen Überwachung und Bewertung der Qualität ihrer Public-Cloud-Dienste zu unterstützen. Die Berücksichtigung der Nutzerinteressen und -bedürfnisse in Bezug auf die Dienstqualität steht dabei im Vordergrund. Die Untersuchung der verwandten Cloud-spezifischen Qualitätsmodelle hat gezeigt, dass die Modelle unvollständig sind und keine Aussagen zu deren Eignung und Akzeptanz aus Nutzersicht getroffen werden. Folglich werden in der Arbeit zunächst die nichtfunktionalen Qualitätsattribute von Softwareanwendungen identifiziert und nutzerfreundlich kategorisiert. Das daraus abgeleitete Modell bildet die Grundlage für ein Qualitätsinformationssystem, das Endnutzer künftig bei der kontinuierlichen Einschätzung der Qualität ihrer Dienste unterstützen soll. Darüber hinaus wird ein Konzept zur nutzerfreundlichen visuellen Aufbereitung der Qualitätsinformationen entwickelt. Es werden Empfehlungen zur Darstellung, Strukturierung und Verknüpfung der Informationen innerhalb des Systems gegeben. Jeder Nutzer kann individuell festlegen, über welche Qualitätseigenschaften er informiert werden möchte und wann die Qualität eines Dienstes als hoch eingeschätzt werden soll. Mit der prototypisch technischen Realisierung des Qualitätsinformationssystems werden die praktische Eignung des Qualitätsmodells und Konzeptes demonstriert. Ferner belegen die Ergebnisse von zwei Nutzerbefragungen, dass Cloud-Nutzer durch das Informationssystem bei der Qualitätsbewertung unterstützt werden und mit dem System grundsätzlich zufrieden sind.
25

Intercloud-Kommunikation für Mehrwehrtdienste von Cloud-basierten Architekturen im Internet of Things

Grubitzsch, Philipp 06 June 2018 (has links) (PDF)
Das Internet of Things (IoT) ist aktuell ein junger Wachstumsmarkt, dessen Bedeutung für unsere Gesellschaft in naher Zukunft vielen Menschen erst noch wirklich bewusst werden wird. Die Subdomänen Smart-Home, Smart-Grid, Smart-Mobility, Industrie 4.0, Smart-Health und viele mehr sind wichtig für unsere zukünftige Wettbewerbsfähigkeit, die Herausforderungen zur Bewältigung des Klimawandels, unsere Gesundheit, aber auch für trivialere Dinge wie Komfort. Andererseits ergibt sich hierbei bereits dasselbe große Problem, das in einer ähnlichen Form schon bei klassischem Cloud-Computing bekannt ist: Vendor-Silos, die keinen hersteller- oder anbieterübergreifenden Austausch von Gerätedaten ermöglichen, verhindern eine schnelle Verbreitung dieser neuen Technologie. Diensteanbieter müssen ihre Produkte aufwendig für unzählige Technologien bereitstellen, was die Entwicklung von Diensten unnötig teuer macht und letztendlich das Dienstangebot insgesamt einschränkt. Cloud-Computing wird dabei in Zukunft eine wichtige Rolle spielen. Die Dissertation beschäftigt sich daher mit dem Problem IoT-Gerätedaten an IoT-Clouds plattformübergreifend und anbieterübergreifend nutzbar zu machen. Die Motivation und die adressierte Forschungslücke zeigen die Notwendigkeit der Beschäftigung mit dem Thema auf. Ausgehend davon, wird das Konzept einer dezentral organisierten IoT-Intercloud vorgeschlagen, welches in der Lage ist heterogene IoT-Clouds zu integrieren. Die Analyse des Standes der Technik zeigt, das IoT-Clouds genügend Eigenschaften teilen, um in Zukunft eine Adaption zu einer einheitlichen Schnittstelle für die IoT-Intercloud zu schaffen. Das Konzept umfasst zunächst die Komponentenarchitektur eines Intercloud-Brokers zur Etablierung einer IoT-Intercloud. Ausgehend davon wird in vertiefenden Teilkonzepten ein Discovery-Service zum Finden von Gerätedaten und einem Push-Stream-Provider, für die Zustellung von IoT-Event-Notifications in Echtzeit, behandelt. Eine Evaluation zeigt letztlich die praxistaugliche Realisierbarkeit, Skalierbarkeit und Performance der Konzeption und des implementierten Prototyps.
26

Routing on the Channel Dependency Graph:

Domke, Jens 20 June 2017 (has links) (PDF)
In the pursuit for ever-increasing compute power, and with Moore's law slowly coming to an end, high-performance computing started to scale-out to larger systems. Alongside the increasing system size, the interconnection network is growing to accommodate and connect tens of thousands of compute nodes. These networks have a large influence on total cost, application performance, energy consumption, and overall system efficiency of the supercomputer. Unfortunately, state-of-the-art routing algorithms, which define the packet paths through the network, do not utilize this important resource efficiently. Topology-aware routing algorithms become increasingly inapplicable, due to irregular topologies, which either are irregular by design, or most often a result of hardware failures. Exchanging faulty network components potentially requires whole system downtime further increasing the cost of the failure. This management approach becomes more and more impractical due to the scale of today's networks and the accompanying steady decrease of the mean time between failures. Alternative methods of operating and maintaining these high-performance interconnects, both in terms of hardware- and software-management, are necessary to mitigate negative effects experienced by scientific applications executed on the supercomputer. However, existing topology-agnostic routing algorithms either suffer from poor load balancing or are not bounded in the number of virtual channels needed to resolve deadlocks in the routing tables. Using the fail-in-place strategy, a well-established method for storage systems to repair only critical component failures, is a feasible solution for current and future HPC interconnects as well as other large-scale installations such as data center networks. Although, an appropriate combination of topology and routing algorithm is required to minimize the throughput degradation for the entire system. This thesis contributes a network simulation toolchain to facilitate the process of finding a suitable combination, either during system design or while it is in operation. On top of this foundation, a key contribution is a novel scheduling-aware routing, which reduces fault-induced throughput degradation while improving overall network utilization. The scheduling-aware routing performs frequent property preserving routing updates to optimize the path balancing for simultaneously running batch jobs. The increased deployment of lossless interconnection networks, in conjunction with fail-in-place modes of operation and topology-agnostic, scheduling-aware routing algorithms, necessitates new solutions to solve the routing-deadlock problem. Therefore, this thesis further advances the state-of-the-art by introducing a novel concept of routing on the channel dependency graph, which allows the design of an universally applicable destination-based routing capable of optimizing the path balancing without exceeding a given number of virtual channels, which are a common hardware limitation. This disruptive innovation enables implicit deadlock-avoidance during path calculation, instead of solving both problems separately as all previous solutions.
27

Methodology for Conflict Detection and Resolution in Semantic Revision Control Systems

Hensel, Stephan, Graube, Markus, Urbas, Leon 11 November 2016 (has links) (PDF)
Revision control mechanisms are a crucial part of information systems to keep track of changes. It is one of the key requirements for industrial application of technologies like Linked Data which provides the possibility to integrate data from different systems and domains in a semantic information space. A corresponding semantic revision control system must have the same functionality as established systems (e.g. Git or Subversion). There is also a need for branching to enable parallel work on the same data or concurrent access to it. This directly introduces the requirement of supporting merges. This paper presents an approach which makes it possible to merge branches and to detect inconsistencies before creating the merged revision. We use a structural analysis of triple differences as the smallest comparison unit between the branches. The differences that are detected can be accumulated to high level changes, which is an essential step towards semantic merging. We implemented our approach as a prototypical extension of therevision control system R43ples to show proof of concept.
28

Physical Layer Security vs. Network Layer Secrecy: Who Wins on the Untrusted Two-Way Relay Channel?

Richter, Johannes, Franz, Elke, Engelmann, Sabrina, Pfennig, Stefan, Jorswieck, Eduard A. 07 July 2014 (has links) (PDF)
We consider the problem of secure communications in a Gaussian two-way relay network where two nodes exchange confidential messages only via an untrusted relay. The relay is assumed to be honest but curious, i.e., an eavesdropper that conforms to the system rules and applies the intended relaying scheme. We analyze the achievable secrecy rates by applying network coding on the physical layer or the network layer and compare the results in terms of complexity, overhead, and efficiency. Further, we discuss the advantages and disadvantages of the respective approaches.
29

Community-Based Intrusion Detection

Weigert, Stefan 06 February 2017 (has links) (PDF)
Today, virtually every company world-wide is connected to the Internet. This wide-spread connectivity has given rise to sophisticated, targeted, Internet-based attacks. For example, between 2012 and 2013 security researchers counted an average of about 74 targeted attacks per day. These attacks are motivated by economical, financial, or political interests and commonly referred to as “Advanced Persistent Threat (APT)” attacks. Unfortunately, many of these attacks are successful and the adversaries manage to steal important data or disrupt vital services. Victims are preferably companies from vital industries, such as banks, defense contractors, or power plants. Given that these industries are well-protected, often employing a team of security specialists, the question is: How can these attacks be so successful? Researchers have identified several properties of APT attacks which make them so efficient. First, they are adaptable. This means that they can change the way they attack and the tools they use for this purpose at any given moment in time. Second, they conceal their actions and communication by using encryption, for example. This renders many defense systems useless as they assume complete access to the actual communication content. Third, their actions are stealthy — either by keeping communication to the bare minimum or by mimicking legitimate users. This makes them “fly below the radar” of defense systems which check for anomalous communication. And finally, with the goal to increase their impact or monetisation prospects, their attacks are targeted against several companies from the same industry. Since months can pass between the first attack, its detection, and comprehensive analysis, it is often too late to deploy appropriate counter-measures at businesses peers. Instead, it is much more likely that they have already been attacked successfully. This thesis tries to answer the question whether the last property (industry-wide attacks) can be used to detect such attacks. It presents the design, implementation and evaluation of a community-based intrusion detection system, capable of protecting businesses at industry-scale. The contributions of this thesis are as follows. First, it presents a novel algorithm for community detection which can detect an industry (e.g., energy, financial, or defense industries) in Internet communication. Second, it demonstrates the design, implementation, and evaluation of a distributed graph mining engine that is able to scale with the throughput of the input data while maintaining an end-to-end latency for updates in the range of a few milliseconds. Third, it illustrates the usage of this engine to detect APT attacks against industries by analyzing IP flow information from an Internet service provider. Finally, it introduces a detection algorithm- and input-agnostic intrusion detection engine which supports not only intrusion detection on IP flow but any other intrusion detection algorithm and data-source as well.
30

Integriertes System- und Dienste-Management in der industriellen Automation

Lehmann, Robert 24 October 2016 (has links) (PDF)
Die Industrie ist im Wandel. Die Grenzen zwischen Industrien, Anwendungsbereichen und Unternehmen verschwinden immer weiter, sind teils kaum noch in ihrer alten Ausprägung zu erkennen. Auch die industrielle Automation kann und sollte sich diesem Trend nicht entziehen. Immer mehr Technologien und Paradigmen anderer Bereiche gewinnen an Bedeutung. Hinzu kommt, dass die Anzahl und die Vielfalt an Geräten, Anwendungen, Anforderungen und Technologien stetig wächst. Diese Arbeit befasst sich mit Ansätzen, die es ermöglichen, einigen Aspekten der wachsenden Komplexität zu begegnen. Dabei handelt es sich um Technologien und Konzepte zum Thema Management, genauer zum Netzwerk-, System- und Dienste-Management. Ziel ist es nicht nur einen Ansatz zu finden, der gegenwärtigen Ansprüchen genügt, sondern auch noch für kommende Entwicklungen geeignet ist.

Page generated in 0.4109 seconds