Spelling suggestions: "subject:"programmierung"" "subject:"programmierungs""
221 |
Multi-Quality Auto-Tuning by Contract NegotiationGötz, Sebastian 17 July 2013 (has links)
A characteristic challenge of software development is the management of omnipresent change. Classically, this constant change is driven by customers changing their requirements. The wish to optimally leverage available resources opens another source of change: the software systems environment. Software is tailored to specific platforms (e.g., hardware architectures) resulting in many variants of the same software optimized for different environments. If the environment changes, a different variant is to be used, i.e., the system has to reconfigure to the variant optimized for the arisen situation. The automation of such adjustments is subject to the research community of self-adaptive systems. The basic principle is a control loop, as known from control theory. The system (and environment) is continuously monitored, the collected data is analyzed and decisions for or against a reconfiguration are computed and realized. Central problems in this field, which are addressed in this thesis, are the management of interdependencies between non-functional properties of the system, the handling of multiple criteria subject to decision making and the scalability.
In this thesis, a novel approach to self-adaptive software--Multi-Quality Auto-Tuning (MQuAT)--is presented, which provides design and operation principles for software systems which automatically provide the best possible utility to the user while producing the least possible cost. For this purpose, a component model has been developed, enabling the software developer to design and implement self-optimizing software systems in a model-driven way. This component model allows for the specification of the structure as well as the behavior of the system and is capable of covering the runtime state of the system. The notion of quality contracts is utilized to cover the non-functional behavior and, especially, the dependencies between non-functional properties of the system. At runtime the component model covers the runtime state of the system. This runtime model is used in combination with the contracts to generate optimization problems in different formalisms (Integer Linear Programming (ILP), Pseudo-Boolean Optimization (PBO), Ant Colony Optimization (ACO) and Multi-Objective Integer Linear Programming (MOILP)). Standard solvers are applied to derive solutions to these problems, which represent reconfiguration decisions, if the identified configuration differs from the current. Each approach is empirically evaluated in terms of its scalability showing the feasibility of all approaches, except for ACO, the superiority of ILP over PBO and the limits of all approaches: 100 component types for ILP, 30 for PBO, 10 for ACO and 30 for 2-objective MOILP. In presence of more than two objective functions the MOILP approach is shown to be infeasible.
|
222 |
Entwicklung eines Werkzeugs zur onlinebasierten Bestimmung typenspezifischer LernpräferenzenWortmann, Frank, Frießem, Martina, Zülch, Joachim January 2013 (has links)
Die multimediale Aufbereitung von Lerninhalten zu E-Learning Einheiten ist heute in der Aus- und Weiterbildung allgegenwärtig. Häufig wird dabei jedoch die Perspektive der Nutzer der virtuellen Lehr-/Lernsysteme vernachlässigt [1]. In der Regel erfolgt eine standardisierte Aufbereitung der Lerninhalte, welche während der Konzeptionsphase die späteren Konsumenten der E-Learning Einheiten weitestgehend außer Acht lässt. Entsprechend werden meistens weder die Potenziale zur Kostenersparnis durch Teilstandardisierung von Weiterbildungsmodulen noch zur Qualitätssteigerung durch verstärkte Individualisierung annähernd ausgeschöpft. [2] Dabei bleiben individuellen Lernpräferenzen der Teilnehmer unberücksichtigt und Potenziale zur Verbesserung der Lernergebnisse werden nicht genutzt. Um diese Lücke zu schließen, wird basierend auf der Theorie der neurolinguistischen Programmierung ein Online-Werkzeug entwickelt, welches die zur Informationsaufnahme präferierten Sinneskanäle der einzelnen Teilnehmer analysiert und auswertet. Mit diesem Wissen kann die zukünftige Entwicklung und Aufbereitung von E-Learning Inhalten individueller auf die jeweiligen Konsumenten zugeschnitten werden. Zusätzlich soll das Online-Werkzeug den Nutzern Empfehlungen geben, wie sie ihren Lernerfolg verbessern können.
|
223 |
Benefits and Costs of Diversification in the European Natural Gas MarketHauser, Philipp 06 September 2022 (has links)
Die Dissertationsschrift thematisiert die Frage nach den Kosten und Nutzen einer Diversifikationsstrategie im europäischen Erdgasmarkt und gliedert sich in neun Kapitel. In einer Vorbetrachtung beschreiben die Kapitel eins bis vier die Ausganglage mit Blick auf Angebots- und Nachfragestrukturen sowie der Gasinfrastruktur. Unsicherheiten in Bezug auf die Entwicklung der Nachfrage, Importverfügbarkeit und Preisniveaus werden diskutiert. In einem analytischen Rahmen wird das Thema Diversifikation in den Kontext der Energiesicherheit eingeordnet. Die Kapitel fünf bis sieben befassen sich mit der Beschreibung und der Analyse des europäischen Gasmarkts. Dafür wird ein lineares Modell, GAMAMOD-EU, entwickelt, welches als stochastische Optimierung den Ausbau der Erdgasinfrastruktur unter Einbezug von drei Unsicherheitsdimensionen in den Jahren 2030 und 2045 abbildet. Zusätzlich werden drei Diversifikationsstrategien in Hinblick auf Infrastrukturentwicklung und Versorgungssicherheit analysiert. In einer Erweiterung wird der Import Grüner Gase in die Betrachtung einbezogen. Kapitel acht stellt das deutsche Gasnetzmodell GAMAMOD-DE mit einer Fallstudie vor, die die Versorgungslage im kalten Winter 2012 nachmodelliert. Im abschließenden Kapitel neun werden die zu Beginn aufgeworfenen Forschungsfragen beantwortet, politische Handlungsempfehlungen gegeben und der weitere Forschungsbedarf skizziert.:Table of Contents
List of Figures
List of Tables
Abbreviations
Country Codes
Nomenclature: GAMAMOD-EU
Nomenclature: GAMAMOD-DE
1 Introduction
2 Uncertainties in Gas Markets
3 Diversification in Gas Markets to Ensure Security of Supply
4 Natural Gas Infrastructure
5 The European Natural Gas Market Model (GAMAMOD-EU)
6 Results on Security of Supply in the European Gas Market
7 Impact of Green Gas Imports on Infrastructure Investments
8 The German Natural Gas Market Model (GAMAMOD-DE)
9 Conclusion and Outlook
Laws and Communication Papers
References
Appendix / The dissertation addresses the question of the costs and benefits of a diversification strategy in the European natural gas market and is divided into nine chapters. In a preliminary analysis, chapters one to four describe the initial situation with regard to supply and demand structures as well as the gas infrastructure. Uncertainties regarding the development of demand, import availability and price levels are discussed. In an analytical framework, the topic of diversification is placed in the context of energy security. Chapters five to seven deal with the description and analysis of the European gas market. For this purpose, a linear model, GAMAMOD-EU, is developed, which maps the expansion of the natural gas infrastructure as a stochastic optimisation, taking into account three uncertainty dimensions in the years 2030 and 2045. In addition, three diversification strategies are analysed with regard to infrastructure development and security of supply. In an extension, the import of green gases is included in the analysis. Chapter eight presents the German gas grid model GAMAMOD-DE with a case study, which models the supply situation in the cold winter of 2012. In the concluding chapter nine, the research questions raised at the beginning are answered, political recommendations for action are given and the need for further research is outlined.:Table of Contents
List of Figures
List of Tables
Abbreviations
Country Codes
Nomenclature: GAMAMOD-EU
Nomenclature: GAMAMOD-DE
1 Introduction
2 Uncertainties in Gas Markets
3 Diversification in Gas Markets to Ensure Security of Supply
4 Natural Gas Infrastructure
5 The European Natural Gas Market Model (GAMAMOD-EU)
6 Results on Security of Supply in the European Gas Market
7 Impact of Green Gas Imports on Infrastructure Investments
8 The German Natural Gas Market Model (GAMAMOD-DE)
9 Conclusion and Outlook
Laws and Communication Papers
References
Appendix
|
224 |
Python in der Regelungs- und AutomatisierungstechnikKnoll, Carsten 28 May 2024 (has links)
No description available.
|
225 |
A Bigraphical Vending Machine as a Webservice: From Specification and Analysis to Implementation using the Bigraph Toolkit SuiteGrzelak, Dominik 24 April 2023 (has links)
A bigraph-driven vending machine is implemented. The application is realized as a Spring-based webservice. Actions can be initiated by REST endpoints.
The system follows a rule-based architecture, where possible operations are grounded on a rule set. Bigraphical Reactive Systems are used for the specification and execution. The actual state of the application is a bigraph stored in a database, which can be viewed and altered directly in the database. A history of states is kept - the application can be transferred to any prior state. The application can be updated or extended by merely changing the bigraphical database model.:First Part:
A system of a vending machine is specified and analyzed using BDSL.
This concerns the static and dynamic aspects of the system.
Second Part:
The analysis results are re-used for the implementation using Bigraph Framework.
The application is realized as a webservice that is built using the Spring framework. / Ein bigraph-gesteuerter Verkaufsautomat wird implementiert. Die Anwendung ist als Spring-basierter Webservice realisiert. Aktionen können über REST-Endpunkte initiiert werden.
Das System folgt einer regelbasierten Architektur, bei der die möglichen Operationen auf einem Regelsatz beruhen. Für die Spezifikation und Ausführung werden Bigraphical Reactive Systems verwendet. Der aktuelle Zustand der Anwendung ist ein in einer Datenbank gespeicherter Bigraph, der direkt in der Datenbank eingesehen und verändert werden kann. Es wird eine Historie der Zustände geführt - die Anwendung kann in einen beliebigen früheren Zustand überführt werden. Die Anwendung kann aktualisiert oder erweitert werden, indem lediglich das bigraphische Datenbankmodell geändert wird.:First Part:
A system of a vending machine is specified and analyzed using BDSL.
This concerns the static and dynamic aspects of the system.
Second Part:
The analysis results are re-used for the implementation using Bigraph Framework.
The application is realized as a webservice that is built using the Spring framework.
|
226 |
Entwicklung und Evaluierung eines Rahmenkonzepts zum Programmierenlernen an HochschulenRingel, Robert 20 August 2024 (has links)
Entwicklung und Erprobung eines Rahmenkonzepts zum Programmierenlernen an Hochschulen. Das Programmierenlernen ist bereits seit den 1980er Jahren Gegenstand der allgemeinen Hochschullehre. Dennoch besitzt es auch nach über vierzig Jahren eine hohe Aktualität für die Forschung im Bereich des Lehrens und Lernens. Robins (2019) gibt einen umfassenden Überblick zum aktuellen Stand der Forschung auf diesem Gebiet. Darin wird deutlich, dass es unter den Lehrenden für Grundlagenkurse zum Programmierenlernen kaum Übereinstimmung bezüglich der Methodik, zu allgemein akzeptierten Lehrinhalten und zur Diagnostik der Erreichung von Lernzielen gibt. Konsenz besteht darin, dass für das Programmierenlernen komplexe kognitive Anforderungen in den Teilbereichen des Programmverstehens und des Programmschreibens bestehen, da beim Programmieren dynamische Abläufe generischer Problemlöseprozesse mit den Mitteln formaler Programmiersprachen zu beschreiben sind. Das Ziel dieser Arbeit besteht darin, ein lernpsychologisch fundiertes Rahmenmodell zum Programmierenlernen zu entwerfen und dieses im realen Lehrbetrieb an einer Hochschule zu erproben.:1. Problemstellung und Ziele
2. Programmierenlernen unter Nutzung einer aufgabenbasierten Methodik
2.1. Die Spezifika des Programmierenlernens
2.2. Methodiken aufgabenbasierten Lernens
2.3. Lernhandlungen zum Programmierenlernen
3. Die Gestaltung von Aufgabenfolgen zum Programmierenlernen
3.1. Strukturierung der Lernziele
3.2. Entwicklung von Lernaufgaben
3.3. Dokumentation von Aufgabensets
3.4. Implementierung der Aufgabenfolgen mit Hilfe von Jupyter Notebook
3.5. Diagnose des Lernfortschritts unter Nutzung eines kognitiven Modells zur Abbildung der Kompetenzaspekte
4. Begleitende Untersuchungen des Programmierkurses im Lehrbetrieb der Hochschule
4.1. Machbarkeitsstudie zur Erfassung der Programmierkompetenz unter Nutzung des 5-S-Modells
4.2. Machbarkeitsstudie zur Zuverlässigkeit der angeleiteten Selbstbewertung von Lernstandserhebungen
4.3. Machbarkeitsstudie zur Erfassung der produktiven Grundeinstellung unter Nutzung von Skalen aus Bildungsstudien
4.4. Ergebnisse der Lernstandserhebungen im Kontext der Lehr-Lern-Situation
4.5. Interviews mit Studierenden und Lehrkräften als Retrospektive zur Lehrveranstaltung
4.6. Zusammenfassung
5. Zusammenfassung und Ausblick
5.1. Das kombinierte Rahmenmodell zum Programmierenlernen
5.2. Gestaltung von Aufgabenfolgen zum Programmierenlernen
5.3. Modellbasierte Diagnose des Lernstandes als Bestandteil eines Feedback-Prozesses
5.4. Themen weiterführender Forschung
5.5. Reflektion dieser Arbeit unter Nutzung der IOOI-Methode
5.6. Fazit
|
227 |
Fine-Grained Parameterized Algorithms on Width Parameters and BeyondHegerfeld, Falko 25 October 2023 (has links)
Die Kernaufgabe der parameterisierten Komplexität ist zu verstehen, wie Eingabestruktur die Problemkomplexität beeinflusst. Wir untersuchen diese Fragestellung aus einer granularen Perspektive und betrachten Problem-Parameter-Kombinationen mit einfach exponentieller Laufzeit, d.h., Laufzeit a^k n^c, wobei n die Eingabegröße ist, k der Parameterwert, und a und c zwei positive Konstanten sind. Unser Ziel ist es, die optimale Laufzeitbasis a für eine gegebene Kombination zu bestimmen. Für viele Zusammenhangsprobleme, wie Connected Vertex Cover oder Connected Dominating Set, ist die optimale Basis bezüglich dem Parameter Baumweite bekannt. Die Baumweite gehört zu der Klasse der Weiteparameter, welche auf natürliche Weise zu Algorithmen mit dem Prinzip der dynamischen Programmierung führen.
Im ersten Teil dieser Dissertation untersuchen wir, wie sich die optimale Laufzeitbasis für diverse Zusammenhangsprobleme verändert, wenn wir zu ausdrucksstärkeren Weiteparametern wechseln. Wir entwerfen neue parameterisierte Algorithmen und (bedingte) untere Schranken, um diese optimalen Basen zu bestimmen. Insbesondere zeigen wir für die Parametersequenz Baumweite, modulare Baumweite, und Cliquenweite, dass die optimale Basis von Connected Vertex Cover bei 3 startet, sich erst auf 5 erhöht und dann auf 6, wobei hingegen die optimale Basis von Connected Dominating Set bei 4 startet, erst bei 4 bleibt und sich dann auf 5 erhöht.
Im zweiten Teil gehen wir über Weiteparameter hinaus und analysieren restriktivere Arten von Parametern. Für die Baumtiefe entwerfen wir platzsparende Verzweigungsalgorithmen. Die Beweistechniken für untere Schranken bezüglich Weiteparametern übertragen sich nicht zu den restriktiveren Parametern, weshalb nur wenige optimale Laufzeitbasen bekannt sind. Um dies zu beheben untersuchen wir Knotenlöschungsprobleme. Insbesondere zeigen wir, dass die optimale Basis von Odd Cycle Transversal parameterisiert mit einem Modulator zu Baumweite 2 den Wert 3 hat. / The question at the heart of parameterized complexity is how input structure governs the complexity of a problem. We investigate this question from a fine-grained perspective and study problem-parameter-combinations with single-exponential running time, i.e., time a^k n^c, where n is the input size, k the parameter value, and a and c are positive constants. Our goal is to determine the optimal base a for a given combination. For many connectivity problems such as Connected Vertex Cover or Connecting Dominating Set, the optimal base is known relative to treewidth. Treewidth belongs to the class of width parameters, which naturally admit dynamic programming algorithms.
In the first part of this thesis, we study how the optimal base changes for these connectivity problems when going to more expressive width parameters. We provide new parameterized dynamic programming algorithms and (conditional) lower bounds to determine the optimal base, in particular, we obtain for the parameter sequence treewidth, modular-treewidth, clique-width that the optimal base for Connected Vertex Cover starts at 3, increases to 5, and then to 6, whereas the optimal base for Connected Dominating Set starts at 4, stays at 4, and then increases to 5.
In the second part, we go beyond width parameters and study more restrictive parameterizations like depth parameters and modulators. For treedepth, we design space-efficient branching algorithms. The lower bound techniques for width parameterizations do not carry over to these more restrictive parameterizations and as a result, only a few optimal bases are known. To remedy this, we study standard vertex-deletion problems. In particular, we show that the optimal base of Odd Cycle Transversal parameterized by a modulator to treewidth 2 is 3. Additionally, we show that similar lower bounds can be obtained in the realm of dense graphs by considering modulators consisting of so-called twinclasses.
|
228 |
Ein linearer Programmierungsansatz zur Lösung von Stopp- und SteuerungsproblemenRöhl, Stefan 08 May 2001 (has links)
Es wird ein Ansatz und ein Algorithmus zur Lösung von stochastischen Stoppproblemen vorgestellt, der auf einer dualen Formulierung zum klassischen Lösungsansatz für Stoppprobleme mittels Variationsungleichungen basiert. Unter bestimmten Voraussetzungen kann man für diese duale Formulierung ein äquivalentes unendlichdimensionales lineares Programm aufstellen, das die Momente des Aufenthaltsmaßes des stochastischen Prozesses bis zum Stoppzeitpunkt und die Momente der Verteilung des Prozesses zum Zeitpunkt des Stoppens als Variablen enthält. Für dieses unendlichdimensionale Problem werden endlichdimensionale Approximationen formuliert und gelöst, wobei die Momente nur bis zu einer endlichen Ordnung berücksichtigt werden. Die Güte der numerischen Resultate hängt davon ab, wie genau der Träger des Maßes zum Stoppzeitpunkt identifiziert werden kann. Aus diesem Grund wird ein Verfeinerungsalgorithmus entwickelt, mit dem diese Identifizierung in einer Reihe von Fällen gelingt und sich sehr genaue Ergebnisse erzielen lassen. Der für Stoppprobleme entwickelte Algorithmus kann auch bei der Ermittlung von optimalen Steuerungen für stetige stochastische Prozesse angewandt werden. Für einzelne Beispiele wird gezeigt, welche Resultate dabei erzielt werden können. / We present an approach to, and an algorithm for solving optimal stopping problems. The approach is based on a dual formulation of the classical method for solving stopping problems using variational inequalities. Under suitable conditions it is possible to express the dual formulation as an infinite-dimensional linear program. This linear program uses the moments of the occupation measure and the moments of the stopping measure as variables. We formulate and solve finite-dimensional approximations to this infinite-dimensional program by restricting the number of moments. The accuracy of the numerical results depend on how well the support of the stopping measure can be identified. To this end we develop an iterative procedure which works very well in many cases. In the second part of the dissertation we show how the algorithm, developed for stopping problems, can be used for solving stochastic control problems.
|
229 |
Erfahrungsmanagement mit fallbasierten Assistenzsystemen / Prozesse, Konzepte und Anwendungsbeispiele in einem ganzheitlichen RahmenwerkMinor, Mirjam 12 June 2006 (has links)
Erfahrungsmanagement (EM) ist eine Spezialform des Wissensmanagements, die sich mit aufgabenbezogenem Wissen beschäftigt. Diese Arbeit entwickelt ein Rahmenwerk für Assistenzsysteme, die Menschen bei EM-Aufgaben unterstützen. Es untersucht nicht nur technische Fragen (Erfahrungswissen sammeln, strukturieren, speichern und wiederverwenden) sondern auch organisatorische (Erfahrungswissen evaluieren und pflegen) und psychosoziale Aspekte (ein EM-System integrieren, Barrieren vermeiden, den Systemeinsatz bewerten). Fallbasierte Anwendungsbeispiele für industrielle und experimentelle Szenarien zeigen, welche Prozesse wo unterstützt oder gar teilautomatisiert werden können. Sie dienen der experimentellen Evaluierug der Fragen, die ich zu Beginn jedes Anwendungskapitels formuliert habe. / Experience Management (EM) is a special form of Knowledge Management that deals with task-based knowledge. This thesis provides a framework for assistant systems that support human beings in EM tasks. It deals not only with technical issues (how to collect, structure, store, retrieve, and reuse experiential knowledge), but als with organizational issues (how to evaluate and maintain it) and psychosocial questions (how to integrate an EM system, how to avoid barriers, how to evaluate the success of the whole system). Case-based sample applications from both, industrial and experimental scenarios, show to what extend the particular EM processes can be supported or which sub-processes can even be automated. By means of experiments with these implemented samples, we evaluate the topics that are discussed at the beginning of each application chapter.
|
230 |
Cuneiform / A Functional Language for Large-Scale Data AnalysisBrandt, Jörgen 29 January 2021 (has links)
In der Bioinformatik und der Next-Generation Sequenzierung benötigen wir oft große und komplexe Verarbeitungsabläufe um Daten zu analysieren. Die Werkzeuge und Bibliotheken, die hierin die Verarbeitungsschritte bilden, stammen aus unterschiedlichen Quellen und exponieren unterschiedliche Schnittstellen, was ihre Integration in Datenanalyseplattformen erschwert. Hinzu kommt, dass diese Verarbeitungsabläufe meist große Datenmengen prozessieren weshalb Forscher erwarten, dass unabhängige Verarbeitungsschritte parallel laufen. Der Stand der Technik im Feld der wissenschaftlichen Datenverarbeitung für Bioinformatik und Next-Generation Sequenzierung sind wissenschaftliche Workflowsysteme. Ein wissenschaftliches Workflowsystem erlaubt es Forschern Verarbeitungsabläufe als Workflow auszudrücken. Solch ein Workflow erfasst die Datenabhängigkeiten in einem Verarbeitungsablauf, integriert externe Software und erlaubt es unabhängige Verarbeitungsschritte zu erkennen, um sie parallel auszuführen.
In dieser Arbeit präsentieren wir Cuneiform, eine Workflowsprache, und ihre verteilte Ausführungsumgebung. Für Cuneiform's Design nehmen wir die Perspektive der Programmiersprachentheorie ein. Wir lassen Methoden der funktionalen Programmierung einfließen um Komposition und Datenabhängigkeiten auszudrücken. Wir nutzen operationelle Semantiken um zu definieren, wann ein Workflow wohlgeformt und konsistent ist und um Reduktion zu erklären. Für das Design der verteilten Ausführungsumgebung nehmen wir die Perspektive der verteilten Systeme ein. Wir nutzen Petri Netze um die Kommunikationsstruktur der im System beteiligten Agenten zu erklären. / Bioinformatics and next-generation sequencing data analyses often form large and complex pipelines. The tools and libraries making up the processing steps in these pipelines come from different sources and have different interfaces which hampers integrating them into data analysis frameworks. Also, these pipelines process large data sets. Thus, users need to parallelize independent processing steps. The state of the art in large-scale scientific data analysis for bioinformatics and next-generation sequencing are scientific workflow systems. A scientific workflow system allows researchers to describe a data analysis pipeline as a scientific workflow which integrates external software, defines the data dependencies forming a data analysis pipeline, and parallelizes independent processing steps. Scientific workflow systems consist of a workflow language providing a user interface, and an execution environment. The workflow language determines how users express workflows, reuse and compose workflow fragments, integrate external software, how the scientific workflow system identifies independent processing steps, and how we derive optimizations from a workflow's structure. The execution environment schedules and runs data processing operations.
In this thesis we present Cuneiform, a workflow language, and its distributed execution environment. For Cuneiform's design we take the perspective of programming languages. We adopt methods from functional programming towards composition and expressing data dependencies. We apply operational semantics and type systems to define well-formedness, consistency, and reduction of Cuneiform workflows. For the design of the distributed execution environment we take the perspective of distributed systems. We apply Petri nets to define the communication patterns among the distributed execution environment's agents.
|
Page generated in 0.0453 seconds