• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 20
  • Tagged with
  • 43
  • 43
  • 43
  • 40
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Towards Energy Auto Tuning

Götz, Sebastian, Wilke, Claas, Schmidt, Matthias, Cech, Sebastian, Aßmann, Uwe 21 August 2013 (has links) (PDF)
Energy efficiency is gaining more and more importance, since well-known ecological reasons lead to rising energy costs. In consequence, energy consumption is now also an important economical criterion. Energy consumption of single hardware resources has been thoroughly optimized for years. Now software becomes the major target of energy optimization. In this paper we introduce an approach called energy auto tuning(EAT), which optimizes energy efficiency of software systems running on multiple resources. The optimization of more than one resource leads to higher energy savings, because communication costs can be taken into account. E.g., if two components run on the same resource, the communication costs are likely to be less, compared to be running on different resources. The best results can be achieved in heterogeneous environments as different resource characteristics enlarge the synergy effects gainable by our optimization technique. EAT software systems derive all possible distributions of themselves on a given set of hardware resources and reconfigure themselves to achieve the lowest energy consumption possible at any time. In this paper we describe our software architecture to implement EAT.
12

Systemunterstützung für den Abgleich von Geschäftsobjekten zwischen Anwendungsservern über WebServices

Ameling, Michael 28 September 2009 (has links) (PDF)
Geschäftsanwendungen wie Supply Chain Management (SCM) oder Customer Relationship Management (CRM) werden repliziert, um eine hohe Skalierbarkeit und schnellen lokalen Zugriff zu erreichen. Die Geschäftsobjekte als Datencontainer der Anwendungen müssen infolge von Änderungen synchronisiert werden. Diese Arbeit leistet einen Beitrag zur Effizienzsteigerung des Synchronisationsprozesses durch die Reduzierung der Anzahl der Synchronisationsnachrichten sowie der zu übertragenden Datenmenge - auch unter Berücksichtigung des entstehenden Mehraufwands durch zusätzliche Verarbeitungsprozesse. / Business applications such as supply chain management (SCM) or customer relationship management (CRM) are replicated in order to reach high scalability and fast local access. The business objects representing the data containers have to be synchronized to stay consistent across the application servers. This thesis provides a contribution to reach more efficiency during the synchronization process by reducing the amount of synchronization messages and the amount of data to be transmitted. The additional effort due to further processing steps is taken into account via a proper cost model.
13

A new Internet Naming System

Pfeifer, Gert 02 October 2009 (has links) (PDF)
In this thesis I describe my research activities and results of the last 4 years. I also provide an outlook and guidelines on how to proceed with our project, that we named SEDNS - Security-Enhanced Domain Name System. This project’s ambitions are to complement DNS, the Domain Name System, in a way that allows us to keep using it in the future. The main reason for this strategy is, that it has proven to be difficult to change any part of the Internet infrastructure, such as parts of the protocols stack or well established Internet authorities, like ICANN or IANA. The main problems of DNS are twofold. (1) The DNS protocol does not contain any measures to prevent data from being tampered with. (2) Furthermore, it is difficult to configure DNS correctly since most of the configuration is done within the DNS data itself, e.g., delegating authority. It is well known that DNS problems lead to reduced availability of Internet-based services in many different ways. In this thesis, I present four main results. All of them contribute to improvements and deeper understanding of DNS’ dependability issues. First, I discuss, how well established cryptographic tools can be used to enhance DNS’ security without getting into the same problems that prevent DNSSEC from being globally deployed. These problems are explained as well. This is an important topic for the Internet and DNS community, since at the moment most of the protocol improvements are connected to DNSSEC. Second, I thoroughly discuss the technique that was used in the recent years to overcome any problems related to client-server architectures, i.e., peer-to-peer systems. Such solutions have been proposed to improve DNS’ availability and reduce configuration effort. I show, that those systems do not keep up with the expectations, neither as client side tools nor as server infrastructure replacement. To reach this conclusion, a novel DHT scheme has been developed. The evaluation of it is shown as well. Third, results of our DNS data mining show that it is useful to improve the quality of DNS data and therefore, to protect clients from malicious or erroneous information. And fourth, an outlook is presented, which combines all the results of the first three points to suggest an architecture that indeed can improve our supply with DNS data, omitting the shortcomings of the classical client-server-architecture and its peer-to-peer replacements. Note, that although the development of future DNS standards and protocols is subject to political struggle, e.g., on whether or not an international organization should maintain the root zone instead of the USA, this thesis focuses only on technical aspects. / In dieser Dissertation beschreibe ich meine Forschungsaktivitäten und Ergebnisse der letzten 4 Jahre. Ich gebe auch einen Ausblick und Hinweise, wie unser Project, das wir SEDNS - Security-Enhanced Domain Name System genannt haben, fortgesetzt werden sollte. Die Ambitionen dieses Projektes sind, DNS, das Domain Name System, zu in einer Art und Weise zu erweitern, die es uns erlauben soll, dieses System auch in der Zukunft weiter zu benutzen. Der Hauptgrund für diese Strategie ist, dass es sich in der Vergangenheit als schwierig erwiesen hat, Teile der Internet-Infrastruktur, wie zum Beispiel Teile des Protokollstapels oder gut etablierte Internet-Behörden wie ICANN oder IANA, zu ändern bzw. auszutauschen. Daher wollen wir nicht versuchen, DNS komplett zu ersetzen. DNS hat zwei Hauptprobleme: (1) Das DNS Protokoll bietet keinerlei Möglichkeiten, Daten vor Verfälschung zu schützen, und (2) es ist schwierig, DNS korrekt zu konfigurieren, weil ein Großteil der Konfiguration direkt innerhalb der DNS Daten selbst stattfindet, wie zum Beispiel die Delegation von Verantwortungsbereichen, und diese oft nicht global konsistent und korrekt sind. Diese Probleme sind umso bedeutender, weil es allgemein bekannt ist, dass DNS Probleme auf verschiedene Art und Weisen zu reduzierter Verfügbarkeit von wichtigen Internet-basierten Diensten führen. In dieser Arbeit präsentiere ich vier Hauptergebnisse. Zuerst diskutiere ich, wie gut etablierte kryptographische Werkzeuge benutzt werden können um die Sicherheit von DNS zu verbessern, ohne dabei auf dieselben Probleme zu stoßen, die DNSSEC davon abhalten, weltweit benutzt zu werden. Diese Probleme werden dabei erläutert. Es handelt sich dabei um ein wichtiges Thema für die Internet- und DNS-Community, weil im Moment die meisten Weiterentwicklungen des DNS Protokolls mit DNSSEC zusammenhängen. Als zweites diskutiere ich im Detail die Technik, die in den vergangenen Jahren benutzt wurde um Probleme beliebiger Client-Server Anwendungen zu überwinden: Peer-to-Peer Systeme. Derartige Lösungen wurden vorgeschlagen, um DNS' Verfügbarkeit zu verbessern und Konfigurationsaufwand zu reduzieren. Ich zeige allerdings, dass solche Lösungen nicht die in sie gesetzten Erwartungen erfüllen, weder als Client-seitige Tools noch als Ersatz für die Server-Infrastruktur. Um diesen Schluss zu ziehen, wurde ein neues, auf die Bedürfnisse von DNS zugeschnittenes DHT Schema entwickelt und evaluiert im Vergleich zu DNS und existierenden Systemen. Als drittes werden DNS Data Mining Ergebnisse präsentiert, die zeigen, wie sinnvoll es ist, die Qualität der DNS Daten zu verbessern, und somit Clients vor bösartigen oder fehlerhaften Informationen zu schützen. Als viertes wird ein Ausblick präsentiert, der die Ergebnisse der vorherigen drei Punkte kombiniert und eine Architektur vorschlägt, die unsere Versorgung mit DNS Daten tatsächlich verbessern kann und die Nachteile der klassischen Client-Server-Architektur und ihrer Peer-to-Peer Nachfolger vermeidet. Zu beachten ist, dass obwohl die Entwicklung zukünftiger DNS Standards und Protokolle Gegenstand politischer Konflikte ist, z.B. darüber ob anstelle der USA eine internationale Organisation die Root-Zone verwalten sollte, diese Arbeit nur auf die technischen Aspekte ausgerichtet ist.
14

Bestimmung der Dienstgütezuverlässigkeit in zusammengesetzten Dienstleistungen im Internet der Dienste

Strunk, Anja 29 December 2010 (has links) (PDF)
Das Anbieten, die Vermittlung und der Konsum von Softwarekomponenten nach dem Paradigma „Software-as-a-Service“ über das Internet wird zunehmend populärer. Diese so genannten elektronischen Dienstleistungen unterschiedlicher Komplexität werden auf Netzwerkservern zur Verfügung gestellt und können von anderen Anwendungen eingebunden werden. Damit können Ressourcen für die Entwicklung und das Betreiben eigener Dienste eingespart werden. Traditionelle Beispiele solcher Dienste sind Währungsumrechnungen oder Wettervorhersagen , aber auch komplexere Geschäftsprozesse, wie z.B. Rechnungsprüfdienste , werden vermehrt als elektronische Dienste bereitgestellt. Voraussetzung für die Akzeptanz der elektronischen Dienstleistungen ist die Absicherung deren Dienstgüte (engl. Quality of Service). Die Dienstgüte gibt Auskunft darüber, wie gut ein Dienst seine Funktion erbringt. Klassische Parameter sind Antwortzeit oder Verfügbarkeit. Die Betrachtung der Dienstgüte hat für den Dienstnutzer als auch für den Dienstanbieter Vorteile: Durch die Angabe der Dienstgüte kann sich der Dienstanbieter von seiner Konkurrenz abgrenzen, während der zukünftige Dienstnutzer in der Lage ist, die Performanz seiner Systeme, welche den Dienst integrieren, abzuschätzen. Beide Parteien streben eine möglichst hohe Dienstgüte an. Die Bestimmung der Dienstgüte in zusammengesetzten Dienstleistungen wurde in den letzten Jahren viel diskutiert. In diesem Zusammenhang ist besonders die Dienstgütezuverlässigkeit eines Dienstes wichtig. Die Dienstgütezuverlässigkeit gibt an, wie sicher es einem Dienst gelingt, seine Qualitätsversprechen einzuhalten. Je nach Kontext spricht man von relativer oder absoluter Dienstgütezuverlässigkeit. Die relative Dienstgütezuverlässigkeit bezieht sich auf die Fähigkeit eines Dienstes seine Dienstgütegarantien während der nächsten Interaktion einzuhalten, während sich die absolute Dienstgütezuverlässigkeit auf den Zeitraum der nächsten n Interaktionen bezieht. Verletzt ein Dienst eine Dienstgütegarantie, weil er beispielsweise nicht in der vorgegebenen Zeit antwortet, so gefährdet der Dienstnutzer die Performanz seiner Systeme, während der Dienstanbieter mit Strafzahlungen zu rechnen hat. Die Bestimmung der Dienstgütezuverlässigkeit einer zusammengesetzten Dienstleistung hat verschiedene Vorteile. Sie gestattet dem Dienstanbieter z.B. drohende Qualitätsverschlechterungen vorherzusagen und auf diese geeignet zu reagieren. Auch der Dienstnutzer profitiert von der Existenz der Dienstgütezuverlässigkeit. Er kann z.B. das Risiko für seine Systeme besser kalkulieren. Ziel dieser Arbeit ist die Bestimmung der Dienstgütezuverlässigkeit in zusammengesetzten Dienstleistungen. Zu diesem Zweck wird die Dienstgütezuverlässigkeit von Teildiensten auf Basis ihrer Monitoring-Historie vorhergesagt. Die Monitoring-Historie protokolliert für jeden Dienst und jede Dienstgütegarantie, ob in vergangenen Interaktionen Dienstgüteverletzungen stattgefundenen haben. Die Dienstgütezuverlässigkeit eines Teildienstes wird als Verletzungswahrscheinlichkeit gemessen, die angibt, wie wahrscheinlich eine Dienstgüteverletzung durch den Teildienst ist. Für die Vorhersage der relativen Verletzungswahrscheinlichkeit kommt eine Markov-Kette erster Ordnung zum Einsatz. Die Bestimmung der absoluten Verletzungswahrscheinlichkeit beruht auf den Prinzipien der allgemeinen Stochastik. Die Berechnungszeit beträgt in beiden Fällen wenige Millisekunden. Beide Verfahren liefern äußerst zuverlässige Vorhersagewerte. Auf Basis der Verletzungswahrscheinlichkeiten der Teildienste wird die Dienstgütezuverlässigkeit der zusammengesetzten Dienstleistung bestimmt. Sie kann detailliert in Form der Verletzungsmatrix oder als einfacher numerischer Wert in Form der Verletzungszahl angegeben werden. Die Verletzungsmatrix einer Dienstgütegarantie enthält die Eintrittswahrscheinlichkeit für jede mögliche Anzahl von Dienstgüteverletzungen. Ihre Aufstellung erfordert exponentiellen Aufwand. Demgegenüber besitzt die Verletzungszahl eine lineare Berechnungszeit. Sie gibt die Belastung einer Dienstleistung mit Dienstgüteverletzungen an. Die Dienstgütezuverlässig ist dabei umso geringer je kleiner die Werte der Verletzungsmatrix und Verletzungszahl sind.
15

Analysis of the Cost of Handover in a Mobile Wireless Sensor Network

Dong, Qian 06 March 2013 (has links) (PDF)
Handling mobility in wireless sensor networks can pose formidable challenges in protocol design, especially, at the link layer. Since most of the proposed Medium Access Control (MAC) protocols do not accommodate mobility, a node has two options to deal with a deteriorating link: (a) to continue data transmission until the link breaks and then establishes a new link with a new relay node; or (b) to seamlessly transfer the communication to a better link parallel to the data transmission over the existing link. Different from option (a) where a node can only search for a new link after the original link disrupts, option (b) enables a node to perceive the change in the quality of a link in advance. The link quality prediction is implemented by an adaptive handover mechanism. Both approaches will inevitably introduce latency. This thesis aims to quantify and compare such latency. Specifically, it investigates the latency of packet transmission in a mobile wireless sensor network with and without the support of a handover mechanism. To start with, the thesis elaborates the effect of mobility on the performance of the existing MAC protocols, and the need to maintain an unbroken link during data transmission. To implement the handover, a target MAC protocol is required to be selected first. Since the Receiver-Initiated MAC protocol (RI-MAC) uses only short beacon and data packets during communication that substantially reduce overhearing, collision probability and data recovery cost, it is chosen as the carrier for the latency evaluation. Even though RI-MAC performs well in many aspects, it has several demerits. To address the monotonous increment in the backoff window size and to reduce the occurrence frequency of the dwell time, a burst data transmission pattern is adopted to optimize RI-MAC. With the optimization, the protocol reduces the long idle listening time that a node has to wait before data transmission, and thus, works well in a static scenario. However, due to the high probability of link disconnection, the burst data transmission does not perform well in case of mobility. For the sake of accommodating mobility, an adaptive handover mechanism is developed on top of the optimized RI-MAC. Once a node evaluates that the data packets cannot be completely transmitted before the link terminates, it will search for a new relay node while keeping communicating with the original collaborator. It is implemented by embedding a neighbor discovery request in a data packet that will be transmitted in a broadcast channel. Neighbors of the node will participate in the handover process as long as they are in an active state and their distance to the transmitter does not exceed a pre-defined threshold. As a proof-of-concept for the handover mechanism, a mathematical model is established. The transmission rate, the moving speed of human beings, the duty cycle and the network density are all taken into consideration. The analytical result shows that the communication latency decreases with an increment in the network density and the duty cycle when the handover mechanism is used, whereas the latency exhibits a reverse trend when the handover mechanism is not used. To validate the mathematics-based evaluation, the NS2 network simulator is employed. The simulation result is found to perform in accordance with the analytical result. It is asserted that the latency of packet transmission with the handover support is much less than that without the handover support. The communication latency can be saved by at least 0.28s when the handover mechanism is applied. This figure can even grow as the duty cycle and the network density increase. From this perspective, the handover mechanism is verified to improve the latency of packet transmission as far as mobility is concerned.
16

Energy Efficient Cloud Computing: Techniques and Tools

Knauth, Thomas 22 April 2015 (has links) (PDF)
Data centers hosting internet-scale services consume megawatts of power. Mainly for cost reasons but also to appease environmental concerns, data center operators are interested to reduce their use of energy. This thesis investigates if and how hardware virtualization helps to improve the energy efficiency of modern cloud data centers. Our main motivation is to power off unused servers to save energy. The work encompasses three major parts: First, a simulation-driven analysis to quantify the benefits of known reservation times in infrastructure clouds. Virtual machines with similar expiration times are co-located to increase the probability to power down unused physical hosts. Second, we propose and prototyped a system to deliver truly on-demand cloud services. Idle virtual machines are suspended to free resources and as a first step to power off the physical server. Third, a novel block-level data synchronization tool enables fast and efficient state replication. Frequent state synchronization is necessary to prevent data unavailability: powering down a server disables access to the locally attached disks and any data stored on them. The techniques effectively reduce the overall number of required servers either through optimized scheduling or by suspending idle virtual machines. Fewer live servers translate into proportional energy savings, as the unused servers must no longer be powered.
17

Einfluss von Softwarearchitektur auf den Wert eines Softwaresystems

Schön, Hendrik 09 January 2018 (has links) (PDF)
Softwaresysteme sind ein wichtiger Bestandteil in der heutigen digitalen Welt und müssen oft als fundamentales Investitionsgut von Unternehmen betrachtet werden. Deswegen benötigen solche Systeme eine betriebswirtschaftliche Sichtweise: der Wert als operatives System sowie als langfristige finanzielle Investition bezüglich zukünftiger Anforderungen. Die Grundlage jeden guten Softwaresystems liegt in dessen Architektur, dem Zusammenhang von allen Teilen und deren Beziehungen untereinander, dem inneren Aufbau und der Organisation der Teile. Der Zusammenhang zwischen guter Architektur und resultierender guter Evolutionsfähigkeit und Zukunftsfähigkeit eines Systems ist generell in den Meinungen vertreten. Jedoch liegen dazu nur wenige Literaturstellen vor, welche die Thematik tatsächlich mehr als nur empirisch aufzeigen. Diese Arbeit soll einen möglichen Weg aufzeigen, wie mithilfe eines modellbasierten Ansatzes ein kausaler und quantitiver Zusammenhang zwischen Architektur eines Softwaresystems und dem resultierenden betriebswirtschaftlichen Wert (im Sinne der Evolutionsfähigkeit) hergestellt werden kann.
18

Towards Prescriptive Analytics in Cyber-Physical Systems

Siksnys, Laurynas 11 November 2015 (has links) (PDF)
More and more of our physical world today is being monitored and controlled by so-called cyber-physical systems (CPSs). These are compositions of networked autonomous cyber and physical agents such as sensors, actuators, computational elements, and humans in the loop. Today, CPSs are still relatively small-scale and very limited compared to CPSs to be witnessed in the future. Future CPSs are expected to be far more complex, large-scale, wide-spread, and mission-critical, and found in a variety of domains such as transportation, medicine, manufacturing, and energy, where they will bring many advantages such as the increased efficiency, sustainability, reliability, and security. To unleash their full potential, CPSs need to be equipped with, among other features, the support for automated planning and control, where computing agents collaboratively and continuously plan and control their actions in an intelligent and well-coordinated manner to secure and optimize a physical process, e.g., electricity flow in the power grid. In today’s CPSs, the control is typically automated, but the planning is solely performed by humans. Unfortunately, it is intractable and infeasible for humans to plan every action in a future CPS due to the complexity, scale, and volatility of a physical process. Due to these properties, the control and planning has to be continuous and automated in future CPSs. Humans may only analyse and tweak the system’s operation using the set of tools supporting prescriptive analytics that allows them (1) to make predictions, (2) to get the suggestions of the most prominent set of actions (decisions) to be taken, and (3) to analyse the implications as if such actions were taken. This thesis considers the planning and control in the context of a large-scale multi-agent CPS. Based on the smart-grid use-case, it presents a so-called PrescriptiveCPS – which is (the conceptual model of) a multi-agent, multi-role, and multi-level CPS automatically and continuously taking and realizing decisions in near real-time and providing (human) users prescriptive analytics tools to analyse and manage the performance of the underlying physical system (or process). Acknowledging the complexity of CPSs, this thesis provides contributions at the following three levels of scale: (1) the level of a (full) PrescriptiveCPS, (2) the level of a single PrescriptiveCPS agent, and (3) the level of a component of a CPS agent software system. At the CPS level, the contributions include the definition of PrescriptiveCPS, according to which it is the system of interacting physical and cyber (sub-)systems. Here, the cyber system consists of hierarchically organized inter-connected agents, collectively managing instances of so-called flexibility, decision, and prescription models, which are short-lived, focus on the future, and represent a capability, an (user’s) intention, and actions to change the behaviour (state) of a physical system, respectively. At the agent level, the contributions include the three-layer architecture of an agent software system, integrating the number of components specially designed or enhanced to support the functionality of PrescriptiveCPS. At the component level, the most of the thesis contribution is provided. The contributions include the description, design, and experimental evaluation of (1) a unified multi-dimensional schema for storing flexibility and prescription models (and related data), (2) techniques to incrementally aggregate flexibility model instances and disaggregate prescription model instances, (3) a database management system (DBMS) with built-in optimization problem solving capability allowing to formulate optimization problems using SQL-like queries and to solve them “inside a database”, (4) a real-time data management architecture for processing instances of flexibility and prescription models under (soft or hard) timing constraints, and (5) a graphical user interface (GUI) to visually analyse the flexibility and prescription model instances. Additionally, the thesis discusses and exemplifies (but provides no evaluations of) (1) domain-specific and in-DBMS generic forecasting techniques allowing to forecast instances of flexibility models based on historical data, and (2) powerful ways to analyse past, current, and future based on so-called hypothetical what-if scenarios and flexibility and prescription model instances stored in a database. Most of the contributions at this level are based on the smart-grid use-case. In summary, the thesis provides (1) the model of a CPS with planning capabilities, (2) the design and experimental evaluation of prescriptive analytics techniques allowing to effectively forecast, aggregate, disaggregate, visualize, and analyse complex models of the physical world, and (3) the use-case from the energy domain, showing how the introduced concepts are applicable in the real world. We believe that all this contribution makes a significant step towards developing planning-capable CPSs in the future. / Mehr und mehr wird heute unsere physische Welt überwacht und durch sogenannte Cyber-Physical-Systems (CPS) geregelt. Dies sind Kombinationen von vernetzten autonomen cyber und physischen Agenten wie Sensoren, Aktoren, Rechenelementen und Menschen. Heute sind CPS noch relativ klein und im Vergleich zu CPS der Zukunft sehr begrenzt. Zukünftige CPS werden voraussichtlich weit komplexer, größer, weit verbreiteter und unternehmenskritischer sein sowie in einer Vielzahl von Bereichen wie Transport, Medizin, Fertigung und Energie – in denen sie viele Vorteile wie erhöhte Effizienz, Nachhaltigkeit, Zuverlässigkeit und Sicherheit bringen – anzutreffen sein. Um ihr volles Potenzial entfalten zu können, müssen CPS unter anderem mit der Unterstützung automatisierter Planungs- und Steuerungsfunktionalität ausgestattet sein, so dass Agents ihre Aktionen gemeinsam und kontinuierlich auf intelligente und gut koordinierte Weise planen und kontrollieren können, um einen physischen Prozess wie den Stromfluss im Stromnetz sicherzustellen und zu optimieren. Zwar sind in den heutigen CPS Steuerung und Kontrolle typischerweise automatisiert, aber die Planung wird weiterhin allein von Menschen durchgeführt. Leider ist diese Aufgabe nur schwer zu bewältigen, und es ist für den Menschen schlicht unmöglich, jede Aktion in einem zukünftigen CPS auf Basis der Komplexität, des Umfangs und der Volatilität eines physikalischen Prozesses zu planen. Aufgrund dieser Eigenschaften müssen Steuerung und Planung in CPS der Zukunft kontinuierlich und automatisiert ablaufen. Der Mensch soll sich dabei ganz auf die Analyse und Einflussnahme auf das System mit Hilfe einer Reihe von Werkzeugen konzentrieren können. Derartige Werkzeuge erlauben (1) Vorhersagen, (2) Vorschläge der wichtigsten auszuführenden Aktionen (Entscheidungen) und (3) die Analyse und potentiellen Auswirkungen der zu fällenden Entscheidungen. Diese Arbeit beschäftigt sich mit der Planung und Kontrolle im Rahmen großer Multi-Agent-CPS. Basierend auf dem Smart-Grid als Anwendungsfall wird ein sogenanntes PrescriptiveCPS vorgestellt, welches einem Multi-Agent-, Multi-Role- und Multi-Level-CPS bzw. dessen konzeptionellem Modell entspricht. Diese PrescriptiveCPS treffen und realisieren automatisch und kontinuierlich Entscheidungen in naher Echtzeit und stellen Benutzern (Menschen) Prescriptive-Analytics-Werkzeuge und Verwaltung der Leistung der zugrundeliegenden physischen Systeme bzw. Prozesse zur Verfügung. In Anbetracht der Komplexität von CPS leistet diese Arbeit Beiträge auf folgenden Ebenen: (1) Gesamtsystem eines PrescriptiveCPS, (2) PrescriptiveCPS-Agenten und (3) Komponenten eines CPS-Agent-Software-Systems. Auf CPS-Ebene umfassen die Beiträge die Definition von PrescriptiveCPS als ein System von wechselwirkenden physischen und cyber (Sub-)Systemen. Das Cyber-System besteht hierbei aus hierarchisch organisierten verbundenen Agenten, die zusammen Instanzen sogenannter Flexibility-, Decision- und Prescription-Models verwalten, welche von kurzer Dauer sind, sich auf die Zukunft konzentrieren und Fähigkeiten, Absichten (des Benutzers) und Aktionen darstellen, die das Verhalten des physischen Systems verändern. Auf Agenten-Ebene umfassen die Beiträge die Drei-Ebenen-Architektur eines Agentensoftwaresystems sowie die Integration von Komponenten, die insbesondere zur besseren Unterstützung der Funktionalität von PrescriptiveCPS entwickelt wurden. Der Schwerpunkt dieser Arbeit bilden die Beiträge auf der Komponenten-Ebene, diese umfassen Beschreibung, Design und experimentelle Evaluation (1) eines einheitlichen multidimensionalen Schemas für die Speicherung von Flexibility- and Prescription-Models (und verwandten Daten), (2) der Techniken zur inkrementellen Aggregation von Instanzen eines Flexibilitätsmodells und Disaggregation von Prescription-Models, (3) eines Datenbankmanagementsystem (DBMS) mit integrierter Optimierungskomponente, die es erlaubt, Optimierungsprobleme mit Hilfe von SQL-ähnlichen Anfragen zu formulieren und sie „in einer Datenbank zu lösen“, (4) einer Echtzeit-Datenmanagementarchitektur zur Verarbeitung von Instanzen der Flexibility- and Prescription-Models unter (weichen oder harten) Zeitvorgaben und (5) einer grafische Benutzeroberfläche (GUI) zur Visualisierung und Analyse von Instanzen der Flexibility- and Prescription-Models. Darüber hinaus diskutiert und veranschaulicht diese Arbeit beispielhaft ohne detaillierte Evaluation (1) anwendungsspezifische und im DBMS integrierte Vorhersageverfahren, die die Vorhersage von Instanzen der Flexibility- and Prescription-Models auf Basis historischer Daten ermöglichen, und (2) leistungsfähige Möglichkeiten zur Analyse von Vergangenheit, Gegenwart und Zukunft auf Basis sogenannter hypothetischer „What-if“-Szenarien und der in der Datenbank hinterlegten Instanzen der Flexibility- and Prescription-Models. Die meisten der Beiträge auf dieser Ebene basieren auf dem Smart-Grid-Anwendungsfall. Zusammenfassend befasst sich diese Arbeit mit (1) dem Modell eines CPS mit Planungsfunktionen, (2) dem Design und der experimentellen Evaluierung von Prescriptive-Analytics-Techniken, die eine effektive Vorhersage, Aggregation, Disaggregation, Visualisierung und Analyse komplexer Modelle der physischen Welt ermöglichen und (3) dem Anwendungsfall der Energiedomäne, der zeigt, wie die vorgestellten Konzepte in der Praxis Anwendung finden. Wir glauben, dass diese Beiträge einen wesentlichen Schritt in der zukünftigen Entwicklung planender CPS darstellen. / Mere og mere af vores fysiske verden bliver overvåget og kontrolleret af såkaldte cyber-fysiske systemer (CPSer). Disse er sammensætninger af netværksbaserede autonome IT (cyber) og fysiske (physical) agenter, såsom sensorer, aktuatorer, beregningsenheder, og mennesker. I dag er CPSer stadig forholdsvis små og meget begrænsede i forhold til de CPSer vi kan forvente i fremtiden. Fremtidige CPSer forventes at være langt mere komplekse, storstilede, udbredte, og missionskritiske, og vil kunne findes i en række områder såsom transport, medicin, produktion og energi, hvor de vil give mange fordele, såsom øget effektivitet, bæredygtighed, pålidelighed og sikkerhed. For at frigøre CPSernes fulde potentiale, skal de bl.a. udstyres med støtte til automatiseret planlægning og kontrol, hvor beregningsagenter i samspil og løbende planlægger og styrer deres handlinger på en intelligent og velkoordineret måde for at sikre og optimere en fysisk proces, såsom elforsyningen i elnettet. I nuværende CPSer er styringen typisk automatiseret, mens planlægningen udelukkende er foretaget af mennesker. Det er umuligt for mennesker at planlægge hver handling i et fremtidigt CPS på grund af kompleksiteten, skalaen, og omskifteligheden af en fysisk proces. På grund af disse egenskaber, skal kontrol og planlægning være kontinuerlig og automatiseret i fremtidens CPSer. Mennesker kan kun analysere og justere systemets drift ved hjælp af det sæt af værktøjer, der understøtter præskriptive analyser (prescriptive analytics), der giver dem mulighed for (1) at lave forudsigelser, (2) at få forslagene fra de mest fremtrædende sæt handlinger (beslutninger), der skal tages, og (3) at analysere konsekvenserne, hvis sådanne handlinger blev udført. Denne afhandling omhandler planlægning og kontrol i forbindelse med store multi-agent CPSer. Baseret på en smart-grid use case, præsenterer afhandlingen det såkaldte PrescriptiveCPS hvilket er (den konceptuelle model af) et multi-agent, multi-rolle, og multi-level CPS, der automatisk og kontinuerligt tager beslutninger i nær-realtid og leverer (menneskelige) brugere præskriptiveanalyseværktøjer til at analysere og håndtere det underliggende fysiske system (eller proces). I erkendelse af kompleksiteten af CPSer, giver denne afhandling bidrag til følgende tre niveauer: (1) niveauet for et (fuldt) PrescriptiveCPS, (2) niveauet for en enkelt PrescriptiveCPS agent, og (3) niveauet for en komponent af et CPS agent software system. På CPS-niveau, omfatter bidragene definitionen af PrescriptiveCPS, i henhold til hvilken det er det system med interagerende fysiske- og IT- (under-) systemer. Her består IT-systemet af hierarkisk organiserede forbundne agenter der sammen styrer instanser af såkaldte fleksibilitet (flexibility), beslutning (decision) og præskriptive (prescription) modeller, som henholdsvis er kortvarige, fokuserer på fremtiden, og repræsenterer en kapacitet, en (brugers) intention, og måder til at ændre adfærd (tilstand) af et fysisk system. På agentniveau omfatter bidragene en tre-lags arkitektur af et agent software system, der integrerer antallet af komponenter, der er specielt konstrueret eller udbygges til at understøtte funktionaliteten af PrescriptiveCPS. Komponentniveauet er hvor afhandlingen har sit hovedbidrag. Bidragene omfatter beskrivelse, design og eksperimentel evaluering af (1) et samlet multi- dimensionelt skema til at opbevare fleksibilitet og præskriptive modeller (og data), (2) teknikker til trinvis aggregering af fleksibilitet modelinstanser og disaggregering af præskriptive modelinstanser (3) et database management system (DBMS) med indbygget optimeringsproblemløsning (optimization problem solving) der gør det muligt at formulere optimeringsproblemer ved hjælp af SQL-lignende forespørgsler og at løse dem "inde i en database", (4) en realtids data management arkitektur til at behandle instanser af fleksibilitet og præskriptive modeller under (bløde eller hårde) tidsbegrænsninger, og (5) en grafisk brugergrænseflade (GUI) til visuelt at analysere fleksibilitet og præskriptive modelinstanser. Derudover diskuterer og eksemplificerer afhandlingen (men giver ingen evalueringer af) (1) domæne-specifikke og in-DBMS generiske prognosemetoder der gør det muligt at forudsige instanser af fleksibilitet modeller baseret på historiske data, og (2) kraftfulde måder at analysere tidligere-, nutids- og fremtidsbaserede såkaldte hypotetiske hvad-hvis scenarier og fleksibilitet og præskriptive modelinstanser gemt i en database. De fleste af bidragene på dette niveau er baseret på et smart-grid brugsscenarie. Sammenfattende giver afhandlingen (1) modellen for et CPS med planlægningsmulighed, (2) design og eksperimentel evaluering af præskriptive analyse teknikker der gør det muligt effektivt at forudsige, aggregere, disaggregere, visualisere og analysere komplekse modeller af den fysiske verden, og (3) brugsscenariet fra energiområdet, der viser, hvordan de indførte begreber kan anvendes i den virkelige verden. Vi mener, at dette bidrag udgør et betydeligt skridt i retning af at udvikle CPSer til planlægningsbrug i fremtiden.
19

Quantile Function-based Models for Resource Utilization and Power Consumption of Applications

Möbius, Christoph 02 September 2016 (has links) (PDF)
Server consolidation is currently widely employed in order to improve the energy efficiency of data centers. While being a promising technique, server consolidation may lead to resource interference between applications and thus, reduced performance of applications. Current approaches to account for possible resource interference are not well suited to respect the variation in the workloads for the applications. As a consequence, these approaches cannot prevent resource interference if workload for applications vary. It is assumed that having models for the resource utilization and power consumption of applications as functions of the workload to the applications can improve decision making and help to prevent resource interference in scenarios with varying workload. This thesis aims to develop such models for selected applications. To produce varying workload that resembles statistical properties of real-world workload a workload generator is developed in a first step. Usually, the measurement data for such models origins from different sensors and equipment, all producing data at different frequencies. In order to account for these different frequencies, in a second step this thesis particularly investigates the feasibility to employ quantile functions as model inputs. Complementary, since conventional goodness-of-fit tests are not appropriate for this approach, an alternative to assess the estimation error is presented. / Serverkonsolidierung wird derzeit weithin zur Verbesserung der Energieeffizienz von Rechenzentren eingesetzt. Während diese Technik vielversprechende Ergebnisse zeitigt, kann sie zu Ressourceninterferenz und somit zu verringerter Performanz von Anwendungen führen. Derzeitige Ansätze, um dieses Problem zu adressieren, sind nicht gut für Szenarien geeignet, in denen die Workload für die Anwendungen variiert. Als Konsequenz daraus folgt, dass diese Ansätze Ressourceninterferenz in solchen Szenarien nicht verhindern können. Es wird angenommen, dass Modelle für Anwendungen, die deren Ressourenauslastung und die Leistungsaufnahme als Funktion der Workload beschreiben, die Entscheidungsfindung bei der Konsolidierung verbessern und Ressourceninterferenz verhindern können. Diese Arbeit zielt darauf ab, solche Modelle für ausgewählte Anwendungen zu entwickeln. Um variierende Workload zu erzeugen, welche den statistischen Eigenschaften realer Workload folgt, wird zunächst ein Workload-Generator entwickelt. Gewöhnlicherweise stammen Messdaten für die Modelle aus verschienenen Sensoren und Messgeräten, welche jeweils mit unterschiedlichen Frequenzen Daten erzeugen. Um diesen verschiedenen Frequenzen Rechnung zu tragen, untersucht diese Arbeit insbesondere die Möglichkeit, Quantilfunktionen als Eingabeparameter für die Modelle zu verwenden. Da konventionelle Anpassungsgütetests bei diesem Ansatz ungeeignet sind, wird ergänzend eine Alternative vorgestellt, um den durch die Modellierung entstehenden Schätzfehler zu bemessen.
20

Technologische Analysen im Umfeld Sozialer Netzwerke

Schnitzler, Peter 11 November 2008 (has links) (PDF)
Die vorliegende Arbeit analysiert die Möglichkeiten einer Daten- und Kontaktaggregation im Umfeld Sozialer Netzwerke. Zunächst wird eine Kategorisierung der wichtigsten Netzwerke und Frameworks vorgenommen. Die Funktionalitäten von acht Sozialen Netzwerken und fünf Frameworks werden anhand einer zuvor entwickelten Evaluierungsmatrix detailliert untersucht. Dabei stehen insbesondere die Funktionalitäten der APIs im Vordergrund. Aufbauend auf den Ergebnissen der Analyse wird ein Prototyp für eine Daten- und Kontaktaggregation konzipiert, implementiert und evaluiert. Abschließend werden Empfehlungen zu den verwendeten Technologien und für die Konzipierungen von zukünftigen Daten- und Kontaktaggregationen im Umfeld Sozialer Netzwerke gegeben. / This thesis analyses the potential of a data- and contactaggreation in the context of social networks. It provides an overview and categorization of the most important networks and frameworks. The functions of eight social networks and five frameworks are analyzed on the basis of a previously developed matrix of evaluation. Special attention is paid to the features of the APIs. Using the results from the evaluation a prototype is planned, coded and evaluated. Finally, regards for future aggregations between social networks are elaborated.

Page generated in 0.411 seconds