101 |
Multi-Schema-Version Data ManagementHerrmann, Kai 13 December 2017 (has links)
Modern agile software development methods allow to continuously evolve software systems by easily adding new features, fixing bugs, and adapting the software to changing requirements and conditions while it is continuously used by the users. A major obstacle in the agile evolution is the underlying database that persists the software system’s data from day one on. Hence, evolving the database schema requires to evolve the existing data accordingly—at this point, the currently established solutions are very expensive and error-prone and far from agile.
In this thesis, we present InVerDa, a multi-schema-version database system to facilitate agile database development. Multi-schema-version database systems provide multiple schema versions within the same database, where each schema version itself behaves like a regular single-schema database. Creating new schema versions is very simple to provide the desired agility for database development. All created schema versions can co-exist and write operations are immediately propagated between schema versions with a best-effort strategy. Developers do not have to implement the propagation logic of data accesses between schema versions by hand, but InVerDa automatically generates it.
To facilitate multi-schema-version database systems, we equip developers with a relational complete and bidirectional database evolution language (BiDEL) that allows to easily evolve existing schema versions to new ones. BiDEL allows to express the evolution of both the schema and the data both forwards and backwards in intuitive and consistent operations; the BiDEL evolution scripts are orders of magnitude shorter than implementing the same behavior with standard SQL and are even less likely to be erroneous, since they describe a developer’s intention of the evolution exclusively on the level of tables without further technical details. Having the developers’ intentions explicitly given in the BiDEL scripts further allows to create a new schema version by merging already existing ones.
Having multiple co-existing schema versions in one database raises the need for a sophisticated physical materialization. Multi-schema-version database systems provide full data independence, hence the database administrator can choose a feasible materialization, whereby the multi-schema-version database system internally ensures that no data is lost. The search space of possible materializations can grow exponentially with the number of schema versions. Therefore, we present an adviser that releases the database administrator from diving into the complex performance characteristics of multi-schema-version database systems and merely proposes an optimized materialization for a given workload within seconds. Optimized materializations have shown to improve the performance for a given workload by orders of magnitude.
We formally guarantee data independence for multi-schema-version database systems. To this end, we show that every single schema version behaves like a regular single-schema database independent of the chosen physical materialization. This important guarantee allows to easily evolve and access the database in agile software development—all the important features of relational databases, such as transaction guarantees, are preserved. To the best of our knowledge, we are the first to realize such a multi-schema-version database system that allows agile evolution of production databases with full support of co-existing schema versions and formally guaranteed data independence.
|
102 |
Beitrag zur Entwicklung eines ProzessdatenmanagementsystemsFischer, Rolf 06 June 2003 (has links)
Zentrale Zielstellung dieser Arbeit ist die Entwicklung eines Konzepts für ein Prozessdatenmanagementsystem für Klein- und Mittelständische Unternehmen. Dies umfasst sowohl die Problematik der prozessgebundenen Massendatenerfassung mit Hilfe einer Datenbank als auch eine einfache, flexible und interoperable Kommunikation zwischen Datenbank, Prozessdatenquellen und Datenbankanwendungen. Eine besondere Schwierigkeit besteht darin, Datenbanktransaktionen unter prozessbedingten Echtzeitanforderungen im Dauerbetrieb und ausfallsicher abzuwickeln. Das entwickelte Konzept beinhaltet folgende wichtigen Funktionalitäten: Socketbasierte ASCII-Textübertragung, 4GL mit speziellen Ausdrucksmitteln und Anwendungsbeschreibungssprache, Priorisiertes Ereignis- und Transaktionsmanagement, Spezielle Indizes und Zeiger, Replikationsverfahren zur Sicherstellung von hoher Verfügbarkeit und Performance sowie Mechanismen zur Softwarewartung und -änderung bei laufendem Betrieb.
|
103 |
Datenbanksysteme 2Rahm, Erhard 01 November 2018 (has links)
No description available.
|
104 |
Informatik-gestützte Fallstudie zur Analyse von Proteinstrukturen am Beispiel der Pepsinresistenz von Interleukin-8Anders, Gerd 18 February 2019 (has links)
Diese Publikationspromotion implementiert und bewertet hauptsächlich algorithmische Verfahren für die strukturelle Bioinformatik im Kontext von Konzeptstudien (proof of concepts). Bei der Kombination dieser Verfahren steht insbesondere deren (struktur-)biologische Eignung zur Analyse von Protein(struktur)en im Vordergrund. Die Datengrundlage bilden Proteinstrukturen, welche weltweit in Laboren experimentell ermittelt werden.
Zuerst wird der Aufbau einer Datenbank-gestützten Infrastruktur - genannt PDB2 - für die Verwaltung von Proteinstrukturdaten der Protein Data Bank (PDB) beschrieben.
Anschließend ein vor allem auf geometric Hashing basierendes Verfahren zur Analyse von Proteinstrukturen vorgestellt. Zuletzt ein auf dem o. g. Verfahren ein konkretes Fallbeispiel unter Verwendung von Interleukin-8 (IL8) im Detail, d.h. auch experimentell untersucht, und die Ergebnisse vorgestellt.:I Einführung
1. Einleitung und Zielstellungen
2. PDB2 - eine Infrastruktur für Daten der Protein Data Bank
II Ausgewählte Publikationen
III Zusammenfassung
IV Anhang
Literaturverzeichnis
A Erklärung über die eigenständige Abfassung der Arbeit
B Beruflicher Werdegang
C Publikationen
D Danksagung
|
105 |
Datenbank Biomassepotenziale - Erstellung einer Datenbank zur Berechnung regionaler Biomassepotenziale aus dem landwirtschaftlichen Anbau und ausgewählten Reststoffen für den Non-Food-Bereich im Freistaat Sachsen bis zum Jahr 2020von Korff, Johannes, Mixdorf, Uwe, Witt, Janet, Brückner, Antje, Grunert, Michael, Mau, Sabine 05 June 2008 (has links)
Ziele des FuE-Vorhabens waren die Bereitstellung von Daten über die im Freistaat Sachsen bis 2020 regional tatsächlich verfügbaren Potenziale an Biomasse und die Gewinnung von mehr Sicherheit im Hinblick auf die Auswirkungen der Einflussfaktoren, denen diese Potenziale unterliegen. Dazu wurde eine Datenbank zur Berechnung der sächsischen Biomassepotenziale aus der Landwirtschaft und von ausgewählten Reststoffen für den Non-Food-Bereich erarbeitet. Diese ist durch folgende Punkte gekennzeichnet: - Durch die Berücksichtigung von Einflussfaktoren wie regional anzutreffende landwirtschaftliche Standorte, standortabhängige vom Nutzer festzulegende Fruchtfolgen, Ertragsentwicklung, Bevölkerungsentwicklung und verfügbare Ackerflächen werden differenzierte Daten berechnet. - Die Berechnungen können auf drei Ebenen erfolgen: für Sachsen, Regierungsbezirke und je Landkreis. - Es wurden zwei Beispielsszenarien berechnet, an Hand derer die Potenziale bei variierten Annahmen verdeutlicht werden. - Hinweise zur Arbeitsweise der Datenbank wurden in einem Handbuch zusammengestellt. Die Datenbank ermöglicht mit den flexiblen Eingabedaten die Berechnung konkreter regionalspezifischer Daten für das Potenzial aus landwirtschaftlicher Biomasse. Dies verbessert die Voraussetzungen für regionale Planungen von Vorhaben, die Biomasse als Rohstoff beanspruchen, erheblich.
|
106 |
Local Dynamic Map als modulares Software Framework für FahrerassistenzsystemeReisdorf, P., Auerswald, A., Wanielik, G. 13 November 2015 (has links) (PDF)
Moderne Fahrerassistenzsysteme basieren auf der Verarbeitung von Informationen, welche durch die Umfeldwahrnehmung mit unterschiedlicher Sensorik erfolgt. Neben den Informationen aus dem eigenen Fahrzeug ergeben sich durch unterschiedliche Kommunikationsmöglichkeiten (Car2Car, Car2X, ...) erweiterte Umfeldwahrnehmungen (siehe Abb. 1). Diese Daten gilt es aufbereitet und zielorientiert einer Anwendung zur Verfügung zu stellen, was mit Hilfe einer Local Dynamic Map (LDM) erfüllt werden kann. Die vorliegende Veröffentlichung beschreibt den Aufbau, Verwendungszweck und Eigenschaften einer entwickelten LDM und geht auf einige Applikationen ein, die mit Hilfe dieser realisiert wurden.
|
107 |
Local Dynamic Map als modulares Software Framework für Fahrerassistenzsysteme: Local Dynamic Map als modulares Software Framework fürFahrerassistenzsystemeReisdorf, P., Auerswald, A., Wanielik, G. 13 November 2015 (has links)
Moderne Fahrerassistenzsysteme basieren auf der Verarbeitung von Informationen, welche durch die Umfeldwahrnehmung mit unterschiedlicher Sensorik erfolgt. Neben den Informationen aus dem eigenen Fahrzeug ergeben sich durch unterschiedliche Kommunikationsmöglichkeiten (Car2Car, Car2X, ...) erweiterte Umfeldwahrnehmungen (siehe Abb. 1). Diese Daten gilt es aufbereitet und zielorientiert einer Anwendung zur Verfügung zu stellen, was mit Hilfe einer Local Dynamic Map (LDM) erfüllt werden kann. Die vorliegende Veröffentlichung beschreibt den Aufbau, Verwendungszweck und Eigenschaften einer entwickelten LDM und geht auf einige Applikationen ein, die mit Hilfe dieser realisiert wurden.
|
108 |
Zeugnisse der Braunkohleindustrie im Lausitzer Revier: Gemeinsames Erfassungsprojekt des Landesamtes für Denkmalpflege Sachsen und des Landesamtes für Archäologie Sachsen, finanziert durch die Beauftragte der Bundesregierung für Kultur und Medien 2021 – 2023Smolnik, Regina 04 April 2024 (has links)
Im August 2020 ist das Strukturstärkungsgesetz Kohleregionen mit dem Ziel in Kraft getreten verabschiedet, mit dem Ziel, die vom Kohleausstieg betroffenen Regionen zu fördern und den dortigen Strukturwandel zu begleiten. Vor diesem Hintergrund führen das Landesamt für Denkmalpflege Sachsen und das Landesamt für Archäologie Sachsen ein zweijähriges interdisziplinäres Erfassungsprojekt in den beiden sächsischen Braunkohlerevieren durch. Es wird die bergbaubedingte Kulturlandschaft mit ihren prägenden materiellen Zeugnissen erfasst. Diese Bestandserfassung soll dann als Grundlage für Konzepte zur Nachnutzung der Anlagen dienen, um das industriekulturelle Erbe Sachsens zu erhalten. Das Projekt beinhaltet die Erfassung und kulturhistorische Bewertung von baulichen und technischen Zeugnissen, die im Zusammenhang mit der Kohle- und Energieindustrie entstanden und die Entwicklung der Region nachhaltig prägen. Alle baulichen und technischen Zeugnisse dieses Wirtschaftszweiges werden untersucht: von den Tagebauen mit ihren Tagebaugroßgeräten, Abraumhalden und Anlagen der Wasserhaltung bis zu den Kraftwerken und anderen Anlagen der Stromerzeugung und verteilung, von der Braunkohleveredelung (Brikett, Kohlestaub- und Koksherstellung) bis zu erforderlichen Transporteinrichtungen auf Schienen oder Straßen. Aber auch Folgeindustrien wie Glas- und Aluminiumwerke, der Werkssiedlungsbau, Verwaltungs- und Kulturbauten sowie die Entwicklung des geografischen Raumes in Folge der Devastierung werden berücksichtigt. Ausgewählte Ergebnisse des BKM-Erfassungsprojekts im Lausitzer Revier und im Mitteldeutschen Revier sind in je einer Broschüre veröffentlicht.
Redaktionsschluss: 31.07.2023
|
109 |
Zeugnisse der Braunkohleindustrie im Mitteldeutschen Revier: Gemeinsames Erfassungsprojekt des Landesamtes für Denkmalpflege Sachsen und des Landesamtes für Archäologie Sachsen, finanziert durch die Beauftragte der Bundesregierung für Kultur und MedienSmolnik, Regina 04 April 2024 (has links)
Im August 2020 ist das Strukturstärkungsgesetz Kohleregionen mit dem Ziel in Kraft getreten, die vom Kohleausstieg betroffenen Regionen zu fördern und den dortigen Strukturwandel zu begleiten. Vor diesem Hintergrund führen das Landesamt für Denkmalpflege Sachsen und das Landesamt für Archäologie Sachsen ein zweijähriges interdisziplinäres Erfassungsprojekt in den beiden sächsischen Braunkohlerevieren durch. Es wird die bergbaubedingte Kulturlandschaft mit ihren prägenden materiellen Zeugnissen erfasst. Diese Bestandserfassung soll dann als Grundlage für Konzepte zur Nachnutzung der Anlagen dienen, um das industriekulturelle Erbe Sachsens zu erhalten. Das Projekt beinhaltet die Erfassung und kulturhistorische Bewertung von baulichen und technischen Zeugnissen, die im Zusammenhang mit der Kohle- und Energieindustrie entstanden und die Entwicklung der Region nachhaltig prägen. Alle baulichen und technischen Zeugnisse dieses Wirtschaftszweiges werden untersucht: von den Tagebauen mit ihren Tagebaugroßgeräten, Abraumhalden und Anlagen der Wasserhaltung bis zu den Kraftwerken und anderen Anlagen der Stromerzeugung und verteilung, von der Braunkohleveredelung (Brikett, Kohlestaub und Koksherstellung) bis zu erforderlichen Transporteinrichtungen auf Schienen oder Straßen. Aber auch Folgeindustrien wie Glas- und Aluminiumwerke, der Werkssiedlungsbau, Verwaltungs- und Kulturbauten sowie die Entwicklung des geografischen Raumes in Folge der Devastierung werden berücksichtigt. Ausgewählte Ergebnisse des BKM-Erfassungsprojekts im Lausitzer Revier und im Mitteldeutschen Revier sind in je einer Broschüre veröffentlicht.
Redaktionsschluss: 30.10.2023
|
110 |
Anfragebearbeitung auf Mehrkern-RechnerarchitekturenHuber, Frank 24 May 2012 (has links)
Der Trend zu immer mehr parallelen Recheneinheiten innerhalb eines Prozessors stellt an die Softwareentwicklung neue Herausforderungen. Um die vorhandenen Ressourcen auszulasten und die stetige Steigerung der Parallelität in einen Leistungszuwachs umzusetzen, muss Software von der sequentiellen Verarbeitung in eine hochgradig parallele Verarbeitung übergehen. Diese Arbeit untersucht, wie solch eine parallele Verarbeitung in Bezug auf Relationale Datenbankmanagementsysteme umzusetzen ist. Dazu wird zunächst der gesamte Prozess der Anfragebearbeitung betrachtet und vier Problembereiche identifiziert, die für das Ziel der parallelen Anfragebearbeitung auf Mehrkern-Rechnerarchitekturen maßgeblich sind. Diese Bereiche sind die Hardware selbst, das physische Datenmodell sowie die Anfrageausführung und -optimierung. Diese vier Bereiche werden innerhalb eines Rahmenwerkes betrachtet. Nach einer Einführung, wird sich die Arbeit zunächst mit Grundlagen befassen. Dazu werden die Hardwarebestandteile Speicher und Prozessor betrachtet und ihre Funktionsweise erläutert. Auf diesem Wissen aufbauend, wird ein Hardwaremodell definiert. Es ermöglicht eine von der jeweiligen Hardwarearchitektur unabhängige Softwareentwicklung, ohne den Verlust an Funktionalität und Leistung. Im Weiteren wird das physische Datenmodell untersucht und analysiert, wie das physische Datenmodell eine optimale Anfrageausführung unterstützen kann. Die verwendeten Datenstrukturen müssen dafür einen effizienten und parallelen Zugriff erlauben. Die Analyse führt zur Entwicklung eines neuartigen Indexes, der die datenparallele Abarbeitung nutzt. Gefolgt wird dieser Teil von der Anfrageausführung, in der ein neues Anfrageausführungsmodell entwickelt wird, das auf der Verwendung des Taskkonzepts beruht und eine hohe und sehr leicht gewichtige Parallelität erlaubt. Den Abschluss stellt die Anfrageoptimierung dar, worin verschiedene Ideen für die Optimierung der Ressourcenverwaltung präsentiert werden. / The upcoming generation of many-core architectures poses several new challenges for software development: Software design and software implementation has to change from sequential execution to a highly parallel execution, such that it takes full advantage of the steadily growing number of cores on a single processor. With this thesis, we investigate such highly parallel program execution in the context of relational database management systems (RDBMSs). We consider the complete process of query processing and identify four problem areas which are crucial for efficient parallel query processing on many-core architectures. These four areas are: Hardware, physical data model, query execution, and query optimization. Furthermore, we present a framework which covers all four parts, one after another. First, we give a detailed survey of computer hardware with a special focus on memory and processors. Based on this survey we propose a hardware model. Our abstraction aims to simplify the task of software development on many-core hardware. Based on the hardware model, we investigate physical data models and evaluate how the physical data model may support optimal query execution by providing efficient and parallelizable data structures. Additionally, we design a new index structure that utilizes data parallel execution by using SIMD operations. The next layer within our framework is query execution, for which we present a new task based query execution model. Our query execution model allows for a lightweight parallelism. Finally, we cover query optimization by explaining approaches for optimizing resource utilization on a query local point of view as well as query global point of view.
|
Page generated in 0.091 seconds