• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 39
  • 37
  • 23
  • Tagged with
  • 97
  • 88
  • 66
  • 52
  • 44
  • 44
  • 44
  • 38
  • 38
  • 24
  • 19
  • 15
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Beitrag zur Verhaltensanalyse und Synchronisation von steuerungstechnischen Prozessen durch verteilte echtzeitfähige Kommunikationssysteme

Anders, Gert 03 August 2009 (has links) (PDF)
Aufbauend auf dem voranschreitenden Übergang zentralistischer Steuerungskonzepte über die Dezentralisierung hin zum verteilten System soll ein echtzeitfähiges Steuerungskonzept für die Antriebssynchronisation zur Patientenbewegung als lokal abgeschlossenes System erarbeitet werden. Dabei sollen Grundlagen echtzeitfähiger Steuerungstechnik, verteilter Systeme, der Prozesssynchronisation sowie entsprechende Kommunikationssysteme vorgestellt, bestehende Lösungen diskutiert und aus den Erkenntnissen entsprechende Konzeptvorschläge für die Lösung der Aufgabenstellung gemacht werden. Im zweiten Teil dieser Arbeit soll aus den gewonnen Erkenntnissen und dem voranschreitenden Erfordernis der weltweiten Vernetzung technischer Systeme ein Konzept für die Integration und den echtzeitfähigen Zugriff auf dezentrale Peripheriekomponenten in das Internet erarbeitet werden. Für beide Teilaufgaben sollen Lösungsschritte aufgezeigt und evaluiert werden. Eine kritische Betrachtung der vorgestellten Konzepte erfolgt auf Basis bereits erfolgter industrieller Anwendung sowie in der Vorstellung einer zum Patent angemeldeten Lösung für den webbasierten Zugriff auf dezentral angeordnete Steuerungskomponenten.
42

Zur Bereitstellung positiver Minutenreserve durch dezentrale Klein-KWK-Anlagen

Kurscheid, Eva Marie 05 January 2010 (has links) (PDF)
Ziel der Dissertation ist, die Bereitstellung positiver Minutenreserve durch dezentrale Klein-KWK-Anlagen unter technischen, wirtschaftlichen und ökologischen Gesichtspunkten zu bewerten. Die Grundlage einer solchen Bewertung bilden detaillierte Kenntnisse des Abrufverhaltens positiver Minutenreserve. Deshalb wird die Inanspruchnahme positiver Minutenreserve untersucht und als stochastischer Prozess modelliert. Auf dieser Basis erfolgen Betrachtungen zur Dimensionierung der Wärmespeicher, zum Netzbetrieb mit hoher Dichte dezentraler Klein-KWK-Anlagen und zur Wirtschaftlichkeit eines solchen Konzeptes. Die abschließende ganzheitliche Betrachtung liefert Hinweise zur optimalen Betriebsweise der Klein-KWK-Anlagen. / From the technical point of view, virtual power plants consisting of small decentralized co-generation plants are able to provide positive tertiary reserve power for the European electricity transmission grid. For serious analyses, detailed knowledge about the load-characteristic of called reserve power is essentially. In order to examine grid operation, heat storage capacity and optimized power plant operation, the switch-on times of co-generation plants and the co-generated heat during reserve power provision have to be estimated. Aiming this, the called positive tertiary reserve power in Germany is analyzed and a mathematical model of the call-characteristic is synthesized. Furthermore, the results of examining grid operation, optimizing heat storage capacity and power plant operation are given. Calls of positive tertiary reserve power usually occur suddenly, non-scheduled and jumpy. Sometimes, there are single calls. Usually, calls occur clustered, i.e. one call is directly followed by further calls. Positive reserve power is much higher frequented under peak-load conditions than under base-load conditions. The characteristic of calling positive tertiary reserve power deeply depends on the control area. From the mathematical point of view, a Poisson-process fits non-scheduled and jumpy occurring events. Each jump marks a call date of positive tertiary reserve power. The values of the called power fit a logarithmical normal distribution. The lengths of the call-clusters satisfactorily fit a geometrical distribution. The expected value of called reserve energy is modeled dependent from the time of the day. The model is essential for simulating all combinations of switch-on times of co-generation plants and of co-generated heat volumes that might occur during providing reserve power. Aiming to optimize the installed heat storage capacity, the quote of heat use has to be examined. From both technical and ecological point of view, installing large heat storages is desirable in order to use all co-generated heat. From the economical point of view, installing any heat storage is not sensible. The solution of this trade-off is installing a heat storage that guarantees less or equal CO2-emissions than a conventional power plant fired with natural gas. The results of this thesis lead to 1 kWh heat storage capacity per 1 kW installed electrical power as rule of thumb. Concerning grid operation in steady state, a much higher density of co-generation plants than expected is technically installable. A general rule for extending the installable decentralized power cannot be deducted. Examining economics, decentalized co-genertation plants are desired to provide balancing power during their stand-by times. Building a virtual power plant only in order to provide reserve power is not economically sensible. From the power plant owners' view, providing positive tertiary reserve power by small decentralized co-generation plants is generally sustainable.
43

Lastgetriebene Validierung Dienstbereitstellender Systeme / Load-Driven Validation of Service Providing Systems

Caspar, Mirko 07 January 2014 (has links) (PDF)
Mit steigender Komplexität heterogener, verteilter Systeme nehmen auch die Anforderungen an deren Validierung zu. In dieser Arbeit wird ein Konzept vorgestellt, mit dem eine bestimmte Klasse komplexer Systeme, so genannte Dienstbereitstellende Systeme, durch automatisiertes Testen validiert werden kann. Mit Hilfe heterogener Klienten, bspw. eingebetteter Systeme, wird die Systemfunktionalität getestet. Hierzu wird das zu testende System auf die nach außen zur Verfügung gestellten Dienste reduziert und die Nutzung dieser Dienste durch Klienten mit einer Last quantifiziert. Eine Validierung wird durch die Vorgabe zeitlich veränderlicher Lasten für jeden Dienst definiert. Diese Lasten werden zielgerichtet den verfügbaren Klienten zugeteilt und durch diese im zu testenden System erzeugt. Zur praktikablen Anwendung dieses Konzeptes ist eine Automatisierung des Validierungsprozesses notwendig. In der Arbeit wird die Architektur einer Testbench vorgestellt, die zum einen die Heterogenität der Klienten berücksichtigt und zum anderen Einflüsse durch die Dynamik der Klienten während der Laufzeit der Validierung ausgleicht. Das hierbei zu lösende algorithmische Problem der Dynamischen Testpartitionierung wird ebenso definiert, wie ein Modell zur Beschreibung aller notwendigen Parameter. Die Testpartitionierung kann mittels einer eigens entwickelten Heuristik in Polynomialzeit gelöst werden. Zur Bestimmung der Leistungsfähigkeit des entwickelten Verfahrens wird die Heuristik aufwendigen Untersuchungen unterzogen. Am Beispiel eines zu testenden Mobilfunknetzwerkes wird die beschriebene Testbench umgesetzt und Kernparameter mittels Simulation ermittelt. Das Ergebnis dieser Arbeit ist ein Konzept zur Systemvalidierung, das generisch auf jede Art von dienstbereitstellenden Systemen angewandt werden kann und damit zur Verbesserung des Entwicklungsprozesses von komplexen verteilten Systemen beiträgt.
44

Distributed Semantic Social Networks: Architecture, Protocols and Applications

Tramp, Sebastian 04 November 2014 (has links) (PDF)
Online social networking has become one of the most popular services on the Web. Especially Facebook with its 845Mio+ monthly active users and 100Mrd+ friendship relations creates a Web inside the Web. Drawing on the metaphor of islands, Facebook is becoming more like a continent. However, users are locked up on this continent with hardly any opportunity to communicate easily with users on other islands and continents or even to relocate trans-continentally. In addition to that, privacy, data ownership and freedom of communication issues are problematically in centralized environments. The idea of distributed social networking enables users to overcome the drawbacks of centralized social networks. The goal of this thesis is to provide an architecture for distributed social networking based on semantic technologies. This architecture consists of semantic artifacts, protocols and services which enable social network applications to work in a distributed environment and with semantic interoperability. Furthermore, this thesis presents applications for distributed semantic social networking and discusses user interfaces, architecture and communication strategies for this application category. / Soziale Netzwerke gehören zu den beliebtesten Online Diensten im World Wide Web. Insbesondere Facebook mit seinen mehr als 845 Mio. aktiven Nutzern im Monat und mehr als 100 Mrd. Nutzer- Beziehungen erzeugt ein eigenständiges Web im Web. Den Nutzern dieser Sozialen Netzwerke ist es jedoch schwer möglich mit Nutzern in anderen Sozialen Netzwerken zu kommunizieren oder aber mit ihren Daten in ein anderes Netzwerk zu ziehen. Zusätzlich dazu werden u.a. Privatsphäre, Eigentumsrechte an den eigenen Daten und uneingeschränkte Freiheit in der Kommunikation als problematisch empfunden. Die Idee verteilter Soziale Netzwerke ermöglicht es, diese Probleme zentralisierter Sozialer Netzwerke zu überwinden. Das Ziel dieser Arbeit ist die Darstellung einer Architektur verteilter Soziale Netzwerke welche auf semantischen Technologien basiert. Diese Architektur besteht aus semantischen Artefakten, Protokollen und Diensten und ermöglicht die Kommunikation von Sozialen Anwendungen in einer verteilten Infrastruktur. Darüber hinaus präsentiert diese Arbeit mehrere Applikationen für verteilte semantische Soziale Netzwerke und diskutiert deren Nutzer-Schnittstellen, Architektur und Kommunikationsstrategien. 
45

Entwurfs- und Programmiersprachenkonzepte bei der Entwicklung von Simulationswerkzeugen mit Anwendungen im maschinellen Lernen und Planen

Lammert, Robert January 2008 (has links)
Zugl.: Stuttgart, Univ., Diss., 2008
46

Verteilte Mobilität - Eine spannende Herausforderung

Werner, Matthias 05 July 2013 (has links) (PDF)
Cyber-physikalische Systeme (CPS) sind eine erweitere Sicht auf eingebettete Systeme, die die konkreten umgebenden Elemente in das Systemdesign einbeziehen. Das Design solcher Systeme erfordert neue Herangehensweisen: Während beispielsweise in "normalen" verteilten Systemen Aspekte wie "Bewegung" oder "Ort" möglichst transparent und damit für den Nutzer unsichtbar gestaltet werden, benötigen CPS-Anwendungen häufig Bewusstsein für Bewegung oder Ort, d.h., sie sind _motion aware_ oder _location aware_. Die Professur "Betriebssysteme" der TUC hat sich die Frage gestellt, wie eine generische Unterstützung für solche verteilte mobile Systeme aussehen könnte. Im Vortrag werden Probleme, Konzepte und erste Lösungsansätze für ein künftiges Betriebssystem für diese Art von Systemen vorgestellt.
47

Zertifizierende verteilte Algorithmen

Völlinger, Kim 22 October 2020 (has links)
Eine Herausforderung der Softwareentwicklung ist, die Korrektheit einer Software sicherzustellen. Testen bietet es keine mathematische Korrektheit. Formale Verifikation ist jedoch oft zu aufwändig. Laufzeitverifikation steht zwischen den beiden Methoden. Laufzeitverifikation beantwortet die Frage, ob ein Eingabe-Ausgabe-Paar korrekt ist. Ein zertifizierender Algorithmus überzeugt seinen Nutzer durch ein Korrektheitsargument zur Laufzeit. Dafür berechnet ein zertifizierender Algorithmus für eine Eingabe zusätzlich zur Ausgabe noch einen Zeugen – ein Korrektheitsargument. Jeder zertifizierende Algorithmus besitzt ein Zeugenprädikat: Ist dieses erfüllt für eine Eingabe, eine Ausgabe und einen Zeugen, so ist das Eingabe-Ausgabe-Paar korrekt. Ein simpler Algorithmus, der das Zeugenprädikat für den Nutzer entscheidet, ist ein Checker. Die Korrektheit des Checkers ist folglich notwendig für den Ansatz und die formale Instanzverifikation, bei der wir Checker verifizieren und einen maschinen-geprüften Beweis für die Korrektheit eines Eingabe-Ausgabe-Paars zur Laufzeit gewinnen. Zertifizierende sequentielle Algorithmen sind gut untersucht. Verteilte Algorithmen, die auf verteilten Systemen laufen, unterscheiden sich grundlegend von sequentiellen Algorithmen: die Ausgabe ist über das System verteilt oder der Algorithmus läuft fortwährend. Wir untersuchen zertifizierende verteilte Algorithmen. Unsere Forschungsfrage ist: Wie können wir das Konzept zertifizierender sequentieller Algorithmen so auf verteilte Algorithmen übertragen, dass wir einerseits nah am ursprünglichen Konzept bleiben und andererseits die Gegebenheiten verteilter Systeme berücksichtigen? Wir stellen eine Methode der Übertragung vor. Die beiden Ziele abwägend entwickeln wir eine Klasse zertifizierender verteilter Algorithmen, die verteilte Zeugen berechnen und verteilte Checker besitzen. Wir präsentieren Fallstudien, Entwurfsmuster und ein Framework zur formalen Instanzverifikation. / A major problem in software engineering is to ensure the correctness of software. Testing offers no mathematical correctness. Formal verification is often too costly. Runtime verification stands between the two methods. Runtime verification answers the question whether an input-output pair is correct. A certifying algorithm convinces its user at runtime by offering a correctness argument. For each input, a certifying algorithm computes an output and additionally a witness. Each certifying algorithm has a witness predicate – a predicate with the property: being satisfied for an input, output and witness implies the input-output pair is correct. A simple algorithm deciding the witness predicate for the user is a checker. Hence, the checker’s correctness is crucial to the approach and motivates formal instance verification where we verify checkers and obtain machine-checked proofs for the correctness of an input-output pair at runtime. Certifying sequential algorithms are well-established. Distributed algorithms, designed to run on distributed systems, behave fundamentally different from sequential algorithms: their output is distributed over the system or they even run continuously. We investigate certifying distributed algorithms. Our research question is: How can we transfer the concept of certifying sequential algorithms to distributed algorithms such that we are in line with the original concept but also adapt to the conditions of distributed systems? In this thesis, we present a method to transfer the concept: Weighing up both sometimes conflicting goals, we develop a class of certifying distributed algorithms that compute distributed witnesses and have distributed checkers. We offer case studies, design patterns and a framework for formal instance verification. Additionally, we investigate other methods to transfer the concept of certifying algorithms to distributed algorithms.
48

Cuneiform

Brandt, Jörgen 29 January 2021 (has links)
In der Bioinformatik und der Next-Generation Sequenzierung benötigen wir oft große und komplexe Verarbeitungsabläufe um Daten zu analysieren. Die Werkzeuge und Bibliotheken, die hierin die Verarbeitungsschritte bilden, stammen aus unterschiedlichen Quellen und exponieren unterschiedliche Schnittstellen, was ihre Integration in Datenanalyseplattformen erschwert. Hinzu kommt, dass diese Verarbeitungsabläufe meist große Datenmengen prozessieren weshalb Forscher erwarten, dass unabhängige Verarbeitungsschritte parallel laufen. Der Stand der Technik im Feld der wissenschaftlichen Datenverarbeitung für Bioinformatik und Next-Generation Sequenzierung sind wissenschaftliche Workflowsysteme. Ein wissenschaftliches Workflowsystem erlaubt es Forschern Verarbeitungsabläufe als Workflow auszudrücken. Solch ein Workflow erfasst die Datenabhängigkeiten in einem Verarbeitungsablauf, integriert externe Software und erlaubt es unabhängige Verarbeitungsschritte zu erkennen, um sie parallel auszuführen. In dieser Arbeit präsentieren wir Cuneiform, eine Workflowsprache, und ihre verteilte Ausführungsumgebung. Für Cuneiform's Design nehmen wir die Perspektive der Programmiersprachentheorie ein. Wir lassen Methoden der funktionalen Programmierung einfließen um Komposition und Datenabhängigkeiten auszudrücken. Wir nutzen operationelle Semantiken um zu definieren, wann ein Workflow wohlgeformt und konsistent ist und um Reduktion zu erklären. Für das Design der verteilten Ausführungsumgebung nehmen wir die Perspektive der verteilten Systeme ein. Wir nutzen Petri Netze um die Kommunikationsstruktur der im System beteiligten Agenten zu erklären. / Bioinformatics and next-generation sequencing data analyses often form large and complex pipelines. The tools and libraries making up the processing steps in these pipelines come from different sources and have different interfaces which hampers integrating them into data analysis frameworks. Also, these pipelines process large data sets. Thus, users need to parallelize independent processing steps. The state of the art in large-scale scientific data analysis for bioinformatics and next-generation sequencing are scientific workflow systems. A scientific workflow system allows researchers to describe a data analysis pipeline as a scientific workflow which integrates external software, defines the data dependencies forming a data analysis pipeline, and parallelizes independent processing steps. Scientific workflow systems consist of a workflow language providing a user interface, and an execution environment. The workflow language determines how users express workflows, reuse and compose workflow fragments, integrate external software, how the scientific workflow system identifies independent processing steps, and how we derive optimizations from a workflow's structure. The execution environment schedules and runs data processing operations. In this thesis we present Cuneiform, a workflow language, and its distributed execution environment. For Cuneiform's design we take the perspective of programming languages. We adopt methods from functional programming towards composition and expressing data dependencies. We apply operational semantics and type systems to define well-formedness, consistency, and reduction of Cuneiform workflows. For the design of the distributed execution environment we take the perspective of distributed systems. We apply Petri nets to define the communication patterns among the distributed execution environment's agents.
49

Zur Bereitstellung positiver Minutenreserve durch dezentrale Klein-KWK-Anlagen

Kurscheid, Eva Marie 24 November 2009 (has links)
Ziel der Dissertation ist, die Bereitstellung positiver Minutenreserve durch dezentrale Klein-KWK-Anlagen unter technischen, wirtschaftlichen und ökologischen Gesichtspunkten zu bewerten. Die Grundlage einer solchen Bewertung bilden detaillierte Kenntnisse des Abrufverhaltens positiver Minutenreserve. Deshalb wird die Inanspruchnahme positiver Minutenreserve untersucht und als stochastischer Prozess modelliert. Auf dieser Basis erfolgen Betrachtungen zur Dimensionierung der Wärmespeicher, zum Netzbetrieb mit hoher Dichte dezentraler Klein-KWK-Anlagen und zur Wirtschaftlichkeit eines solchen Konzeptes. Die abschließende ganzheitliche Betrachtung liefert Hinweise zur optimalen Betriebsweise der Klein-KWK-Anlagen. / From the technical point of view, virtual power plants consisting of small decentralized co-generation plants are able to provide positive tertiary reserve power for the European electricity transmission grid. For serious analyses, detailed knowledge about the load-characteristic of called reserve power is essentially. In order to examine grid operation, heat storage capacity and optimized power plant operation, the switch-on times of co-generation plants and the co-generated heat during reserve power provision have to be estimated. Aiming this, the called positive tertiary reserve power in Germany is analyzed and a mathematical model of the call-characteristic is synthesized. Furthermore, the results of examining grid operation, optimizing heat storage capacity and power plant operation are given. Calls of positive tertiary reserve power usually occur suddenly, non-scheduled and jumpy. Sometimes, there are single calls. Usually, calls occur clustered, i.e. one call is directly followed by further calls. Positive reserve power is much higher frequented under peak-load conditions than under base-load conditions. The characteristic of calling positive tertiary reserve power deeply depends on the control area. From the mathematical point of view, a Poisson-process fits non-scheduled and jumpy occurring events. Each jump marks a call date of positive tertiary reserve power. The values of the called power fit a logarithmical normal distribution. The lengths of the call-clusters satisfactorily fit a geometrical distribution. The expected value of called reserve energy is modeled dependent from the time of the day. The model is essential for simulating all combinations of switch-on times of co-generation plants and of co-generated heat volumes that might occur during providing reserve power. Aiming to optimize the installed heat storage capacity, the quote of heat use has to be examined. From both technical and ecological point of view, installing large heat storages is desirable in order to use all co-generated heat. From the economical point of view, installing any heat storage is not sensible. The solution of this trade-off is installing a heat storage that guarantees less or equal CO2-emissions than a conventional power plant fired with natural gas. The results of this thesis lead to 1 kWh heat storage capacity per 1 kW installed electrical power as rule of thumb. Concerning grid operation in steady state, a much higher density of co-generation plants than expected is technically installable. A general rule for extending the installable decentralized power cannot be deducted. Examining economics, decentalized co-genertation plants are desired to provide balancing power during their stand-by times. Building a virtual power plant only in order to provide reserve power is not economically sensible. From the power plant owners' view, providing positive tertiary reserve power by small decentralized co-generation plants is generally sustainable.
50

Tupel von TVL als Datenstruktur für Boolesche Funktionen

Kempe, Galina 20 June 2003 (has links)
In der vorliegenden Arbeit wird eine Datenstruktur zur Darstellung einer Booleschen Funktion "TVL-Tupel" präsentiert, die im Ergebnis einer Kombination der bekannten Datenstrukturen Entscheidungsgraph und Ternärvektorliste entsteht. Zuerst wird untersucht, wie lokale Phasenlisten sich als Elemente des Tupels eignen. Weiterhin wird die neue Dekompositionsart ("Tupel-Dekomposition") einer Boolesche Funktion in drei bzw. vier Teilfunktionen vorgestellt. Die Besonderheit der Teilfunktionen der Dekomposition besteht in ihrer Orthogonalität zueinander. Der Vorteil der Dekomposition von Funktionen mit einer hohen Anzahl von Konjunktionen besteht im geringeren Speicherplatzbedarf. Des weiteren wurden Algorithmen für Realisierung der Operationen entwickelt, die für eine Handhabung der zerlegten Funktionen erforderlich sind. Der detaillierte Vergleich der Berechnungszeiten für die Operationen erbringt den Nachweis, dass eine Verringerung des Zeitbedarfs als Folge der Zerlegung zu erwarten ist. Weiterhin bietet die Dekomposition einen Ansatz für den Entwurf von Algorithmen, die eine parallele Bearbeitung auf der Grundlage verteilter Rechentechnik zulassen. Die Erkenntnisse der Untersuchungen der Tupel-Dekomposition einschließlich der Verwendung der verteilen Verarbeitung können beispielsweise für die Suche der Variablenmengen der OR-Bi-Decomposition verwendet werden.

Page generated in 0.053 seconds