• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 33
  • 18
  • 7
  • 2
  • Tagged with
  • 59
  • 38
  • 26
  • 26
  • 26
  • 26
  • 24
  • 14
  • 11
  • 9
  • 8
  • 8
  • 8
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

SENSE: Combining Mashup and HSM technology by semantic means to improve usability and performance

Haun, Stefan, Krüger, Robert, Wehner, Peter 25 October 2013 (has links) (PDF)
The amount of data stored and consumed on a daily basis as well as the complexity of the data structure have grown rapidly in past years [1]. Especially business companies try to reduce the rising expenses from storage infrastructure as well as from re-implementation of user interfaces to adapt to evolving tasks. (...)
42

Datenmanagement im Rahmen eines Transregios an der Universität Leipzig, der TU Chemnitz und dem Leibniz Institut für Oberflächenmodifizierung e.V. (IOM)

Zahn, Stefan, Kühne, Stefan, Frenzel, Stephan 06 December 2019 (has links)
Posterbeitrag, welcher das Datenmanagement im Rahmen eines geplanten Transregios zwischen der Universität Leipzig, der TU Chemnitz und des Leibniz Instituts für Oberflächenmodifizierung skizziert.
43

Integriertes Management und Publikation von wissenschaftlichen Artikel, Software und Forschungsdaten am Helmholtz-Zentrum Dresden-Rossendorf (HZDR)

Reschke, Edith, Konrad, Uwe 24 April 2020 (has links)
Mit dem Ziel, das Publizieren von Artikeln, Forschungsdaten und wissenschaftlicher Software gemäß den FAIR-Prinzipien zu unterstützen, wurde am HZDR ein integriertes Publikationsmanagement aufgebaut. Insbesondere Daten- und Softwarepublikationen erfordern die Entwicklung bedarfsgerechter organisatorischer und technischer Strukturen ergänzend zu bereits sehr gut funktionierenden Services im Publikationsmanagement. In der Zusammenarbeit mit Wissenschaftlern des HZDR und internationalen Partnern in ausgewählten Projekten wurde der Bedarf an Unterstützung im Forschungsdatenmanagement analysiert. Darauf aufbauend wurde schrittweise ein integriertes System von Infrastrukturen und Services entwickelt und bereitgestellt. In einer seit Mai 2018 gültigen Data Policy wurden die Rahmenbedingungen und Regelungen sowohl für wissenschaftliche Mitarbeiter als auch für externe Messgäste definiert. Im Vortrag wird auf die Erfahrungen im integrierten Publikationsmanagement für Artikel, Forschungsdaten und Forschungssoftware eingegangen und daraus resultierend werden die nächsten Aufgaben und Ziele entwickelt.
44

GCIP: Exploiting the Generation and Optimization of Integration Processes

Lehner, Wolfgang, Böhm, Matthias, Wloka, Uwe, Habich, Dirk 22 April 2022 (has links)
As a result of the changing scope of data management towards the management of highly distributed systems and applications, integration processes have gained in importance. Such integration processes represent an abstraction of workflow-based integration tasks. In practice, integration processes are pervasive and the performance of complete IT infrastructures strongly depends on the performance of the central integration platform that executes the specified integration processes. In this area, the three major problems are: (1) significant development efforts, (2) low portability, and (3) inefficient execution. To overcome those problems, we follow a model-driven generation approach for integration processes. In this demo proposal, we want to introduce the so-called GCIP Framework (Generation of Complex Integration Processes) which allows the modeling of integration process and the generation of different concrete integration tasks. The model-driven approach opens opportunities for rule-based and workload-based optimization techniques.
45

Bericht zum Fachgruppentreffen 1./2. März 2018: Symposium on Modern Database Platforms

Böhm, Alexander, Lehner, Wolfgang, Sattler, Kai-Uwe 16 June 2023 (has links)
Am 1. und 2. März 2018 fand das diesjährige Frühjahrstreffen der GI-Fachgruppe „Datenbanken“ in St. Leon-Rot statt, welches mit über 120 registrierten Teilnehmern einen neuen Besucherrekord verzeichnen konnte und dadurch sowohl die Relevanz des gewählten Themas als auch die Lebendigkeit der Fachgruppe verdeutlichte. Das übergeordnete Thema des Fachgruppentreffens lautete „ModernDatabase Platforms“, wobei das von der DFG finanzierte Schwerpunktprogramm „Scalable Data Management for Future Hardware“ (SPP 2037) als Ideengeber für die eingeladenen Vorträge stand und auch inhaltlich in das Programm des Treffens integriert war. Das Treffen fand in den Räumlichkeiten der SAP SE am SAP Campus in St. Leon-Rot statt.
46

Forschungsdaten-Policy der TU Bergakademie Freiberg

Technische Universität Bergakademie Freiberg 11 December 2023 (has links)
Am 28.11.2023 hat der Senat der Technischen Universität Bergakademie Freiberg eine institutionelle Forschungsdaten-Policy verabschiedet, die allen Wissenschaftlerinnen und Wissenschaftlern der Hochschule eine wichtige Orientierungshilfe für den Umgang mit Forschungsdaten bietet.
47

Towards Efficient Novel Materials Discovery / Acceleration of High-throughput Calculations and Semantic Management of Big Data using Ontologies

Lenz-Himmer, Maja-Olivia 27 April 2022 (has links)
Die Entdeckung von neuen Materialien mit speziellen funktionalen Eigenschaften ist eins der wichtigsten Ziele in den Materialwissenschaften. Das Screening des strukturellen und chemischen Phasenraums nach potentiellen neuen Materialkandidaten wird häufig durch den Einsatz von Hochdurchsatzmethoden erleichtert. Schnelle und genaue Berechnungen sind eins der Hauptwerkzeuge solcher Screenings, deren erster Schritt oft Geometrierelaxationen sind. In Teil I dieser Arbeit wird eine neue Methode der eingeschränkten Geometrierelaxation vorgestellt, welche die perfekte Symmetrie des Kristalls erhält, Resourcen spart sowie Relaxationen von metastabilen Phasen und Systemen mit lokalen Symmetrien und Verzerrungen erlaubt. Neben der Verbesserung solcher Berechnungen um den Materialraum schneller zu durchleuchten ist auch eine bessere Nutzung vorhandener Daten ein wichtiger Pfeiler zur Beschleunigung der Entdeckung neuer Materialien. Obwohl schon viele verschiedene Datenbanken für computerbasierte Materialdaten existieren ist die Nutzbarkeit abhängig von der Darstellung dieser Daten. Hier untersuchen wir inwiefern semantische Technologien und Graphdarstellungen die Annotation von Daten verbessern können. Verschiedene Ontologien und Wissensgraphen werden entwickelt anhand derer die semantische Darstellung von Kristallstrukturen, Materialeigenschaften sowie experimentellen Ergebenissen im Gebiet der heterogenen Katalyse ermöglicht werden. Wir diskutieren, wie der Ansatz Ontologien und Wissensgraphen zu separieren, zusammenbricht wenn neues Wissen mit künstlicher Intelligenz involviert ist. Eine Zwischenebene wird als Lösung vorgeschlagen. Die Ontologien bilden das Hintergrundwissen, welches als Grundlage von zukünftigen autonomen Agenten verwendet werden kann. Zusammenfassend ist es noch ein langer Weg bis Materialdaten für Maschinen verständlich gemacht werden können, so das der direkte Nutzen semantischer Technologien nach aktuellem Stand in den Materialwissenschaften sehr limitiert ist. / The discovery of novel materials with specific functional properties is one of the highest goals in materials science. Screening the structural and chemical space for potential new material candidates is often facilitated by high-throughput methods. Fast and still precise computations are a main tool for such screenings and often start with a geometry relaxation to find the nearest low-energy configuration relative to the input structure. In part I of this work, a new constrained geometry relaxation is presented which maintains the perfect symmetry of a crystal, saves time and resources as well as enables relaxations of meta-stable phases and systems with local symmetries or distortions. Apart from improving such computations for a quicker screening of the materials space, better usage of existing data is another pillar that can accelerate novel materials discovery. While many different databases exists that make computational results accessible, their usability depends largely on how the data is presented. We here investigate how semantic technologies and graph representations can improve data annotation. A number of different ontologies and knowledge graphs are developed enabling the semantic representation of crystal structures, materials properties as well experimental results in the field of heterogeneous catalysis. We discuss the breakdown of the knowledge-graph approach when knowledge is created using artificial intelligence and propose an intermediate information layer. The underlying ontologies can provide background knowledge for possible autonomous intelligent agents in the future. We conclude that making materials science data understandable to machines is still a long way to go and the usefulness of semantic technologies in the domain of materials science is at the moment very limited.
48

The Data Center under your Desk: How Disruptive is Modern Hardware for DB System Design?

Lehner, Wolfgang 10 January 2023 (has links)
While we are already used to see more than 1,000 cores within a single machine, the next processing platforms for database engines will be heterogeneous with built-in GPU-style processors as well as specialized FPGAs or chips with domain-specific instruction sets. Moreover, the traditional volatile as well as the upcoming non-volatile RAM with capacities in the 100s of TBytes per machine will provide great opportunities for storage engines but also call for radical changes on the architecture of such systems. Finally, the emergence of economically affordable, high-speed/low-latency interconnects as a basis for rack-scale computing is questioning long-standing folklore algorithmic assumptions but will certainly play an important role in the big picture of building modern data management platforms. In this talk, we will try to classify and review existing approaches from a performance, robustness, as well as energy efficiency perspective and pinpoint interesting starting points for further research activities.
49

Towards Scalable Real-time Analytics:: An Architecture for Scale-out of OLxP Workloads

Goel, Anil K., Pound, Jeffrey, Auch, Nathan, Bumbulis, Peter, MacLean, Scott, Färber, Franz, Gropengiesser, Francis, Mathis, Christian, Bodner, Thomas, Lehner, Wolfgang 10 January 2023 (has links)
We present an overview of our work on the SAP HANA Scale-out Extension, a novel distributed database architecture designed to support large scale analytics over real-time data. This platform permits high performance OLAP with massive scale-out capabilities, while concurrently allowing OLTP workloads. This dual capability enables analytics over real-time changing data and allows fine grained user-specified service level agreements (SLAs) on data freshness. We advocate the decoupling of core database components such as query processing, concurrency control, and persistence, a design choice made possible by advances in high-throughput low-latency networks and storage devices. We provide full ACID guarantees and build on a logical timestamp mechanism to provide MVCC-based snapshot isolation, while not requiring synchronous updates of replicas. Instead, we use asynchronous update propagation guaranteeing consistency with timestamp validation. We provide a view into the design and development of a large scale data management platform for real-time analytics, driven by the needs of modern enterprise customers.
50

Die Nationale Forschungsdateninfrastruktur (NFDI)

Nagel, Stefanie 10 July 2024 (has links)
In dieser Ausgabe wird die Nationale Forschungsdateninfrastruktur (NFDI) in ihrer aktuellen Struktur (Stand Juli 2024) kurz vorgestellt. Es werden Beispiele für Services und Tools der NFDI-Konsortien und Basisdienste genannt, die Forschende für ein erfolgreiches Forschungsdatenmanagement nutzen können.

Page generated in 0.0607 seconds