161 |
Die Sächsische Bibliografie online: Perspektiven der Zusammenarbeit mit der Deutschen Historischen Bibliografie: 25. Oktober 2017, Workshop 'Deutsche Historische Bibliografie. Präsentation, Partner und Perspektiven', Institut für Zeitgeschichte MünchenMunke, Martin 10 January 2019 (has links)
Der Vortrag skizziert am Beispiel der Sächsischen Bibliografie online Möglichkeiten der Zusammenarbeit zwischen der im Fachinformationsdienst Geschichtswissenschaft historicum.net entstehenden Deutschen Historischen Bibliografie und den in Deutschland erarbeiteten Landes- und Regionalbibliografien. Er wurde am 27. Oktober 2017 im Rahmen des Workshops 'Deutsche Historische Bibliografie. Präsentation, Partner und Perspektiven' am Institut für Zeitgeschichte München gehalten. Die Präsentation wurde für die Veröffentlichung überarbeitet.
|
162 |
Sächsisches Wildmonitoring22 March 2022 (has links)
Die Softwareanwendung »Sächsisches Wildmonitoring« löst Papierdokumente zwischen Jagdausübungsberechtigten und Jagdbehörden ab und gestattet eine einheitliche Erfassung jagdrelevanter Daten. Das Internetportal optimiert somit den Verwaltungsaufwand für die Jagdbehörden in Bezug auf Abschussplanung und Streckenerfassung.
Redaktionsschluss: 31.10.2016
|
163 |
Robust and simple database evolutionHerrmann, Kai, Voigt, Hannes, Rausch, Jonas, Behrend, Andreas, Lehner, Wolfgang 28 July 2021 (has links)
Software developers adapt to the fast-moving nature of software systems with agile development techniques. However, database developers lack the tools and concepts to keep the pace. Whenever the current database schema is evolved, the already existing data needs to be evolved as well. This is usually realized with manually written SQL scripts, which is error-prone and explains significant costs in software projects. A promising solution are declarative database evolution languages, which couple both schema and data evolution into intuitive operations. Existing database evolution languages focus on usability but do not strive for completeness. However, this is an inevitable prerequisite to avoid complex and error-prone workarounds. We present CODEL which is based on an existing language but is relationally complete. We precisely define its semantic using relational algebra, propose a syntax, and formally validate its relational completeness. Having a complete and comprehensive database evolution language facilitates valuable support throughout the whole evolution of a database. As an instance, we present VACO, a tool supporting developers with variant co-evolution. Given a variant schema derived from a core schema, VACO uses the richer semantics of CODEL to semi-automatically co-evolve this variant with the core.
|
164 |
Laufzeitadaption von zustandsbehafteten DatenstromoperatorenWolf, Bernhard 10 December 2012 (has links)
Änderungen von Datenstromanfragen zur Laufzeit werden insbesondere durch zustandsbehaftete Datenstromoperatoren erschwert. Da die Zustände im Arbeitsspeicher abgelegt sind und bei einem Neustart verloren gehen, wurden in der Vergangenheit Migrationsverfahren entwickelt, um die inneren Operatorzustände bei einem Änderungsvorgang zu erhalten. Die Migrationsverfahren basieren auf zwei unterschiedlichen Ansätzen - Zustandstransfer und Parallelausführung - sind jedoch aufgrund ihrer Realisierung auf eine zentrale Ausführung beschränkt.
Mit wachsenden Anforderungen in Bezug auf Datenmengen und Antwortzeiten werden Datenstromsysteme vermehrt verteilt ausgeführt, beispielsweise durch Sensornetze oder verteilte IT-Systeme. Zur Anpassung der Anfragen zur Laufzeit sind existierende Migrationsstrategien nicht oder nur bedingt geeignet. Diese Arbeit leistet einen Beitrag zur Lösung dieser Problematik und zur Optimierung der Migration in Datenstromsystemen.
Am Beispiel von präventiven Instandhaltungsstrategien in Fabrikumgebungen werden Anforderungen für die Datenstromverarbeitung und insbesondere für die Migration abgeleitet. Das generelle Ziel ist demnach eine möglichst schnelle Migration bei gleichzeitiger Ergebnisausgabe. In einer detaillierten Analyse der existierenden Migrationsstrategien werden deren Stärken und Schwächen bezüglich der gestellten Anforderungen diskutiert.
Für die Adaption von laufenden Datenstromanfragen wird eine allgemeine Methodik vorgestellt, welche als Basis für die neuen Strategien dient. Diese Adaptionsmethodik unterstützt zwei Verfahren zur Bestimmung von Migrationskonfigurationen - ein numerisches Verfahren für periodische Datenströme und ein heuristisches Verfahren, welches auch auf aperiodische Datenströme angewendet werden kann. Eine wesentliche Funktionalität zur Minimierung der Migrationsdauer ist dabei die Beschränkung auf notwendige Zustandswerte, da in verteilten Umgebungen eine Übertragungszeit für den Zustandstransfer veranschlagt werden muss - zwei Aspekte, die bei existierenden Verfahren nicht berücksichtigt werden. Durch die Verwendung von neu entwickelten Zustandstransfermethoden kann zudem die Übertragungsreihenfolge der einzelnen Zustandswerte beeinflusst werden.
Die Konzepte wurden in einem OSGi-basierten Prototyp implementiert und zudem simulativ analysiert. Mit einer umfassenden Evaluierung wird die Funktionsfähigkeit aller Komponenten und Konzepte demonstriert. Der Performance-Vergleich zwischen den existierenden und den neuen Migrationsstrategien fällt deutlich zu Gunsten der neuen Strategien aus, die zudem in der Lage sind, alle Anforderungen zu erfüllen.
|
165 |
A Query, a Minute: Evaluating Performance Isolation in Cloud DatabasesKiefer, Tim, Schön, Hendrik, Habich, Dirk, Lehner, Wolfgang 02 February 2023 (has links)
Several cloud providers offer reltional databases as part of their portfolio. It is however not obvious how resource virtualization and sharing, which is inherent to cloud computing, influence performance and predictability of these cloud databases. Cloud providers give little to no guarantees for consistent execution or isolation from other users. To evaluate the performance isolation capabilities of two commercial cloud databases, we ran a series of experiments over the course of a week (a query, a minute) and report variations in query response times. As a baseline, we ran the same experiments on a dedicated server in our data center. The results show that in the cloud single outliers are up to 31 times slower than the average. Additionally, one can see a point in time after which the average performance of all executed queries improves by 38 %.
|
166 |
Hirnforschung an Instituten der Kaiser-Wilhelm-Gesellschaft im Kontext nationalsozialistischer Unrechtstaten: Hirnpräparate in Instituten der Max-Planck-Gesellschaft und die Identifizierung der OpferGrünwald, Salina 05 March 2024 (has links)
Dem nationalsozialistschen Unrechtsstaat fielen zahlreiche Menschen zum Opfer, an denen Menschenversuche durchgeführt wurden. Zu ihnen zählen auch jene, an deren Hirngewebeproben in den Kaiser-Wilhelm-Instituten geforscht wurde. Diese Gewebeproben verblieben oft auch nach 1945 in Institutssammlungen und wurden zum Teil weiter für Forschung und Lehre verwendet. Das Forschungsprojekt zielt darauf ab, die verbliebenen Präparate zu erfassen, die Opfer zu identifizieren und wo immer möglich ihre Lebensgeschichte zu rekonstruieren.
Ein zentrales Ergebnis des Projektes wird eine Datenbank mit Daten zur Biografie der Opfer, zum Weg der Gewebeproben durch die Institutionen und zu den entsprechenden Archivquellen sein. Diese Datenbank wird hier vorgestellt.
|
167 |
Non-uniformity issues and workarounds in bounded-size samplingGemulla, Rainer, Haas, Peter J., Lehner, Wolfgang 27 January 2023 (has links)
A variety of schemes have been proposed in the literature to speed up query processing and analytics by incrementally maintaining a bounded-size uniform sample from a dataset in the presence of a sequence of insertion, deletion, and update transactions. These algorithms vary according to whether the dataset is an ordinary set or a multiset and whether the transaction sequence consists only of insertions or can include deletions and updates. We report on subtle non-uniformity issues that we found in a number of these prior bounded-size sampling schemes, including some of our own. We provide workarounds that can avoid the non-uniformity problem; these workarounds are easy to implement and incur negligible additional cost. We also consider the impact of non-uniformity in practice and describe simple statistical tests that can help detect non-uniformity in new algorithms.
|
168 |
The Data Center under your Desk: How Disruptive is Modern Hardware for DB System Design?Lehner, Wolfgang 10 January 2023 (has links)
While we are already used to see more than 1,000 cores within a single machine, the next processing platforms for database engines will be heterogeneous with built-in GPU-style processors as well as specialized FPGAs or chips with domain-specific instruction sets. Moreover, the traditional volatile as well as the upcoming non-volatile RAM with capacities in the 100s of TBytes per machine will provide great opportunities for storage engines but also call for radical changes on the architecture of such systems. Finally, the emergence of economically affordable, high-speed/low-latency interconnects as a basis for rack-scale computing is questioning long-standing folklore algorithmic assumptions but will certainly play an important role in the big picture of building modern data management platforms. In this talk, we will try to classify and review existing approaches from a performance, robustness, as well as energy efficiency perspective and pinpoint interesting starting points for further research activities.
|
169 |
Maintaining bounded-size sample synopses of evolving datasetsGemulla, Rainer, Lehner, Wolfgang, Haas, Peter J. 12 January 2023 (has links)
Perhaps the most flexible synopsis of a database is a uniform random sample of the data; such samples are widely used to speed up processing of analytic queries and data-mining tasks, enhance query optimization, and facilitate information integration. The ability to bound the maximum size of a sample can be very convenient from a system-design point of view, because the task of memory management is simplified, especially when many samples are maintained simultaneously. In this paper, we study methods for incrementally maintaining a bounded-size uniform random sample of the items in a dataset in the presence of an arbitrary sequence of insertions and deletions. For “stable” datasets whose size remains roughly constant over time, we provide a novel sampling scheme, called “random pairing” (RP), that maintains a bounded-size uniform sample by using newly inserted data items to compensate for previous deletions. The RP algorithm is the first extension of the 45-year-old reservoir sampling algorithm to handle deletions; RP reduces to the “passive” algorithm of Babcock et al. when the insertions and deletions correspond to a moving window over a data stream. Experiments show that, when dataset-size fluctuations over time are not too extreme, RP is the algorithm of choice with respect to speed and sample-size stability. For “growing” datasets, we consider algorithms for periodically resizing a bounded-size random sample upwards. We prove that any such algorithm cannot avoid accessing the base data, and provide a novel resizing algorithm that minimizes the time needed to increase the sample size. We also show how to merge uniform samples from disjoint datasets to obtain a uniform sample of the union of the datasets; the merged sample can be incrementally maintained. Our new RPMerge algorithm extends the HRMerge algorithm of Brown and Haas to effectively deal with deletions, thereby facilitating efficient parallel sampling.
|
170 |
On Testing Persistent-Memory-Based SoftwareOukid, Ismail, Booss, Daniel, Lespinasse, Adrien, Lehner, Wolfgang 15 September 2022 (has links)
Leveraging Storage Class Memory (SCM) as a universal memory--i.e. as memory and storage at the same time--has deep implications on database architectures. It becomes possible to store a single copy of the data in SCM and directly operate on it at a fine granularity. However, exposing the whole database with direct access to the application dramatically increases the risk of data corruption. In this paper we propose a lightweight on-line testing framework that helps find and debug SCM-related errors that can occur upon software or power failures. Our testing framework simulates failures in critical code paths and achieves fast code coverage by leveraging call stack information to limit duplicate testing. It also partially covers the errors that might arise as a result of reordered memory operations. We show through an experimental evaluation that our testing framework is fast enough to be used with large software systems and discuss its use during the development of our in-house persistent SCM allocator.
|
Page generated in 0.0348 seconds