• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 86
  • 30
  • 2
  • 2
  • 1
  • Tagged with
  • 223
  • 147
  • 92
  • 89
  • 88
  • 88
  • 55
  • 35
  • 22
  • 21
  • 21
  • 19
  • 18
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Towards a Role-Based Contextual Database

Jäkel, Tobias, Kühn, Thomas, Voigt, Hannes, Lehner, Wolfgang 05 July 2021 (has links)
Traditional modeling approaches and information systems assume static entities that represent all information and attributes at once. However, due to the evolution of information systems to increasingly context-aware and self-adaptive systems, this assumption no longer holds. To cope with the required flexibility, the role concept was introduced. Although researchers have proposed several role modeling approaches, they usually neglect the contextual characteristics of roles and their representation in database management systems. Unfortunately, these systems do not rely on a conceptual model of an information system, rather they model this information by their own means leading to transformation and maintenance overhead. So far, the challenges posed by dynamic complex entities, their first class implementation, and their contextual characteristics lack detailed investigations in the area of database management systems. Hence, this paper, presents an approach that ties a conceptual role-based data model and its database implementation together, to directly represent the information modeled conceptually inside a database management system. In particular, we propose a formal database model to describe roles and their contextual information in compartments. Moreover, to provide a context-dependent role-based database interface, we extend RSQL by compartments. Finally, we introduce RSQL Result Net to preserve the contextual role semantics as well as enable users and applications to both iterate and navigate over results produced by RSQL. In sum, these means allow for a coherent design of more dynamic, complex software systems.
132

Efficient Compute Node-Local Replication Mechanisms for NVRAM-Centric Data Structures

Zarubin, Mikhail, Kissinger, Thomas, Habich, Dirk, Lehner, Wolfgang 11 July 2022 (has links)
Non-volatile random-access memory (NVRAM) is about to hit the market and will require significant changes to the architecture of in-memory database systems. Since such hybrid DRAM-NVRAM database systems will keep the primary data solely persistent in the NVRAM, efficient replication mechanisms need to be considered to prevent data losses and to guarantee high availability in case of NVDIMM failures. In this paper, we argue for a software-based replication approach and present compute node-local mechanisms to provide the building blocks for an efficient NVRAM replication with a low latency and throughput penalty. Within our evaluation, we measured up to 10x less overhead for our optimized replication mechanisms compared to the basic replication mechanism of the Intel persistent memory development kit (PMDK).
133

Merging Queries in OLTP Workloads

Rehrmann, Robin 30 May 2023 (has links)
OLTP applications are usually executed by a high number of clients in parallel and are typically faced with high throughput demand as well as a constraint latency requirement for individual statements. In enterprise scenarios, they often face the challenge to deal with overload spikes resulting from events such as Cyber Monday or Black Friday. The traditional solution to prevent running out of resources and thus coping with such spikes is to use a significant over-provisioning of the underlying infrastructure. In this thesis, we analyze real enterprise OLTP workloads with respect to statement types, complexity, and hot-spot statements. Interestingly, our findings reveal that workloads are often read-heavy and comprise similar query patterns, which provides a potential to share work of statements belonging to different transactions. In the past, resource sharing has been extensively studied for OLAP workloads. Naturally, the question arises, why studies mainly focus on OLAP and not on OLTP workloads? At first sight, OLTP queries often consist of simple calculations, such as index look-ups with little sharing potential. In consequence, such queries – due to their short execution time – may not have enough potential for the additional overhead. In addition, OLTP workloads do not only execute read operations but also updates. Therefore, sharing work needs to obey transactional semantics, such as the given isolation level and read-your-own-writes. This thesis presents THE LEVIATHAN, a novel batching scheme for OLTP workloads, an approach for merging read statements within interactively submitted multi-statement transactions consisting of reads and updates. Our main idea is to merge the execution of statements by merging their plans, thus being able to merge the execution of not only complex, but also simple calculations, such as the aforementioned index look-up. We identify mergeable statements by pattern matching of prepared statement plans, which comes with low overhead. For obeying the isolation level properties and providing read-your-own-writes, we first define a formal framework for merging transactions running under a given isolation level and provide insights into a prototypical implementation of merging within a commercial database system. Our experimental evaluation shows that, depending on the isolation level, the load in the system, and the read-share of the workload, an improvement of the transaction throughput by up to a factor of 2.5x is possible without compromising the transactional semantics. Another interesting effect we show is that with our strategy, we can increase the throughput of a real enterprise workload by 20%.:1 INTRODUCTION 1.1 Summary of Contributions 1.2 Outline 2 WORKLOAD ANALYSIS 2.1 Analyzing OLTP Benchmarks 2.1.1 YCSB 2.1.2 TATP 2.1.3 TPC Benchmark Scenarios 2.1.4 Summary 2.2 Analyzing OLTP Workloads from Open Source Projects 2.2.1 Characteristics of Workloads 2.2.2 Summary 2.3 Analyzing Enterprise OLTP Workloads 2.3.1 Overview of Reports about OLTP Workload Characteristics 2.3.2 Analysis of SAP Hybris Workload 2.3.3 Summary 2.4 Conclusion 3 RELATED WORK ON QUERY MERGING 3.1 Merging the Execution of Operators 3.2 Merging the Execution of Subplans 3.3 Merging the Results of Subplans 3.4 Merging the Execution of Full Plans 3.5 Miscellaneous Works on Merging 3.6 Discussion 4 MERGING STATEMENTS IN MULTI STATEMENT TRANSACTIONS 4.1 Overview of Our Approach 4.1.1 Examples 4.1.2 Why Naïve Merging Fails 4.2 THE LEVIATHAN Approach 4.3 Formalizing THE LEVIATHAN Approach 4.3.1 Transaction Theory 4.3.2 Merging Under MVCC 4.4 Merging Reads Under Different Isolation Levels 4.4.1 Read Uncommitted 4.4.2 Read Committed 4.4.3 Repeatable Read 4.4.4 Snapshot Isolation 4.4.5 Serializable 4.4.6 Discussion 4.5 Merging Writes Under Different Isolation Levels 4.5.1 Read Uncommitted 4.5.2 Read Committed 4.5.3 Snapshot Isolation 4.5.4 Serializable 4.5.5 Handling Dependencies 4.5.6 Discussion 5 SYSTEM MODEL 5.1 Definition of the Term “Overload” 5.2 Basic Queuing Model 5.2.1 Option (1): Replacement with a Merger Thread 5.2.2 Option (2): Adding Merger Thread 5.2.3 Using Multiple Merger Threads 5.2.4 Evaluation 5.3 Extended Queue Model 5.3.1 Option (1): Replacement with a Merger Thread 5.3.2 Option (2): Adding Merger Thread 5.3.3 Evaluation 6 IMPLEMENTATION 6.1 Background: SAP HANA 6.2 System Design 6.2.1 Read Committed 6.2.2 Snapshot Isolation 6.3 Merger Component 6.3.1 Overview 6.3.2 Dequeuing 6.3.3 Merging 6.3.4 Sending 6.3.5 Updating MTx State 6.4 Challenges in the Implementation of Merging Writes 6.4.1 SQL String Implementation 6.4.2 Update Count 6.4.3 Error Propagation 6.4.4 Abort and Rollback 7 EVALUATION 7.1 Benchmark Settings 7.2 System Settings 7.2.1 Experiment I: End-to-end Response Time Within a SAP Hybris System 7.2.2 Experiment II: Dequeuing Strategy 7.2.3 Experiment III: Merging Improvement on Different Statement, Transaction and Workload Types 7.2.4 Experiment IV: End-to-End Latency in YCSB 7.2.5 Experiment V: Breakdown of Execution in YCSB 7.2.6 Discussion of System Settings 7.3 Merging in Interactive Transactions 7.3.1 Experiment VI: Merging TATP in Read Uncommitted 7.3.2 Experiment VII: Merging TATP in Read Committed 7.3.3 Experiment VIII: Merging TATP in Snapshot Isolation 7.4 Merging Queries in Stored Procedures Experiment IX: Merging TATP Stored Procedures in Read Committed 7.5 Merging SAP Hybris 7.5.1 Experiment X: CPU-time Breakdown on HANA Components 7.5.2 Experiment XI: Merging Media Query in SAP Hybris 7.5.3 Discussion of our Results in Comparison with Related Work 8 CONCLUSION 8.1 Summary 8.2 Future Research Directions REFERENCES A UML CLASS DIAGRAMS
134

PROGRESS – prospective observational study on hospitalized community acquired pneumonia

Ahnert, Peter, Creutz, Petra, Scholz, Markus, Schütte, Hartwig, Engel, Christoph, Hossain, Hamid, Chakraborty, Trinad, Bauer, Michael, Kiehntopf, Michael, Völker, Uwe, Hammerschmidt, Sven, Löffler, Markus, Suttorp, Norbert 05 September 2016 (has links) (PDF)
Background: Community acquired pneumonia (CAP) is a high incidence disease resulting in about 260,000 hospital admissions per year in Germany, more than myocardial infarction or stroke. Worldwide, CAP is the most frequent infectious disease with high lethality ranging from 1.2 % in those 20–29 years old to over 10 % in patients older than 70 years, even in industrial nations. CAP poses numerous medical challenges, which the PROGRESS (Pneumonia Research Network on Genetic Resistance and Susceptibility for the Evolution of Severe Sepsis) network aims to tackle: Operationalization of disease severity throughout the course of disease, outcome prediction for hospitalized patients and prediction of transitions from uncomplicated CAP to severe CAP, and finally, to CAP with sepsis and organ failure as a life-threatening condition. It is a major aim of PROGRESS to understand and predict patient heterogeneity regarding outcome in the hospital and to develop novel treatment concepts. Methods: PROGRESS was designed as a clinical, observational, multi-center study of patients with CAP requiring hospitalization. More than 1600 patients selected for low burden of co-morbidities have been enrolled, aiming at a total of 3000. Course of disease, along with therapy, was closely monitored by daily assessments and long-term follow-up. Daily blood samples allow in depth molecular-genetic characterization of patients. We established a well-organized workflow for sample logistics and a comprehensive data management system to collect and manage data from more than 50 study centers in Germany and Austria. Samples are stored in a central biobank and clinical data are stored in a central data base which also integrates all data from molecular assessments. Discussion: With the PROGRESS study, we established a comprehensive data base of high quality clinical and molecular data allowing investigation of pressing research questions regarding CAP. In-depth molecular characterization will contribute to the discovery of disease mechanisms and establishment of diagnostic and predictive biomarkers. A strength of PROGRESS is the focus on younger patients with low burden of co-morbidities, allowing a more direct look at host biology with less confounding. As a resulting limitation, insights from PROGRESS will require validation in representative patient cohorts to assess clinical utility. Trial registration: The PROGRESS study was retrospectively registered on May 24th, 2016 with ClinicalTrials.gov: NCT02782013
135

Functional relevance of naturally occurring mutations in adhesion G protein-coupled receptor ADGRD1 (GPR133)

Fischer, Liane, Wilde, Caroline, Schöneberg, Torsten, Liebscher, Ines 18 August 2016 (has links) (PDF)
Background: A large number of human inherited and acquired diseases and phenotypes are caused by mutations in G protein-coupled receptors (GPCR). Genome-wide association studies (GWAS) have shown that variations in the ADGRD1 (GPR133) locus are linked with differences in metabolism, human height and heart frequency. ADGRD1 is a Gs protein-coupled receptor belonging to the class of adhesion GPCRs. Results: Analysis of more than 1000 sequenced human genomes revealed approximately 9000 single nucleotide polymorphisms (SNPs) in the human ADGRD1 as listed in public data bases. Approximately 2.4 % of these SNPs are located in exons resulting in 129 non-synonymous SNPs (nsSNPs) at 119 positions of ADGRD1. However, the functional relevance of those variants is unknown. In-depth characterization of these amino acid changes revealed several nsSNPs (A448D, Q600stop, C632fs [frame shift], A761E, N795K) causing full or partial loss of receptor function, while one nsSNP (F383S) significantly increased basal activity of ADGRD1. Conclusion: Our results show that a broad spectrum of functionally relevant ADGRD1 variants is present in the human population which may cause clinically relevant phenotypes, while being compatible with life when heterozygous.
136

Signal-metabolome interactions in plants

Birkemeyer, Claudia Sabine January 2005 (has links)
From its first use in the field of biochemistry, instrumental analysis offered a variety of invaluable tools for the comprehensive description of biological systems. Multi-selective methods that aim to cover as many endogenous compounds as possible in biological samples use different analytical platforms and include methods like gene expression profile and metabolite profile analysis. The enormous amount of data generated in application of profiling methods needs to be evaluated in a manner appropriate to the question under investigation. The new field of system biology rises to the challenge to develop strategies for collecting, processing, interpreting, and archiving this vast amount of data; to make those data available in form of databases, tools, models, and networks to the scientific community.<br><br> On the background of this development a multi-selective method for the determination of phytohormones was developed and optimised, complementing the profile analyses which are already in use (Chapter I). The general feasibility of a simultaneous analysis of plant metabolites and phytohormones in one sample set-up was tested by studies on the analytical robustness of the metabolite profiling protocol. The recovery of plant metabolites proved to be satisfactory robust against variations in the extraction protocol by using common extraction procedures for phytohormones; a joint extraction of metabolites and hormones from plant tissue seems practicable (Chapter II).<br><br> Quantification of compounds within the context of profiling methods requires particular scrutiny (Chapter II). In Chapter III, the potential of stable-isotope in vivo labelling as normalisation strategy for profiling data acquired with mass spectrometry is discussed. First promising results were obtained for a reproducible quantification by stable-isotope in vivo labelling, which was applied in metabolomic studies.<br><br> In-parallel application of metabolite and phytohormone analysis to seedlings of the model plant Arabidopsis thaliana exposed to sulfate limitation was used to investigate the relationship between the endogenous concentration of signal elements and the ‘metabolic phenotype’ of a plant. An automated evaluation strategy was developed to process data of compounds with diverse physiological nature, such as signal elements, genes and metabolites – all which act in vivo in a conditional, time-resolved manner (Chapter IV). Final data analysis focussed on conditionality of signal-metabolome interactions. / Die instrumentelle Analytik stellt mit ihrem unschätzbaren Methodenreichtum Analysenwerkzeuge zur Verfügung, die seit ihrem Einzug in die Biologie die Aufzeichnung immer komplexerer ‚Momentaufnahmen’ von biologischen Systemen ermöglichen. Konkret hervorzuheben sind dabei vor allem die sogenannten ‚Profilmethoden’. Die Anwendung von Profilmethoden zielt darauf ab, aus einer bestimmten Stoffklasse so viele zugehörige Komponenten wie nur möglich gleichzeitig zu erfassen. <br><br> Für die Auswertung derart komplexer Daten müssen nun auch entsprechende Auswertungsmethoden bereit gestellt werden. Das neu entstandene Fachgebiet der Systembiologie erarbeitet deshalb Strategien zum Sammeln, Auswerten und Archivieren komplexer Daten, um dieses gesammelte Wissen in Form von Datenbanken, Modellen und Netzwerken der allgemeinen Nutzung zugänglich zu machen.<br><br> Vor diesem Hintergrund wurde den vorhandenen Profilanalysen eine Methode zur Erfassung von Pflanzenhormonen hinzugefügt. Verschiedene Experimente bestätigten die Möglichkeit zur Kopplung von Pflanzenhormon- und Pflanzeninhaltsstoff(=metabolit)-Profilanalyse. In weiteren Untersuchungen wurde das Potential einer innovativen Standardisierungstechnologie für die mengenmässige Erfassung von Pflanzeninhaltsstoffen in biologischen Proben betrachtet (in vivo labelling mit stabilen Isotopen).<br><br> Hormon- und Metabolitprofilanalyse wurden dann parallel angewandt, um Wechselwirkungen zwischen der Konzentration von Signalkomponenten und der Ausprägung des Stoffwechsels in Keimlingen der Modellpflanze Arabidopsis thaliana zu untersuchen. Es wurde eine Prozessierungsmethode entwickelt, die es auf einfache Art und Weise erlaubt, Daten oder Komponenten verschiedenen Ursprungs wie Signalelemente, Gene und Metabolite, die in biologischen Systemen zeitlich versetzt aktiv oder verändert erscheinen, im Zusammenhang zu betrachten. Die abschließende Analyse aller Daten richtet sich auf die Abschätzung der Bedingtheit von Signal-Metabolismus Interaktionen.
137

Konzeption von Dokumentenservern für Digitale Bibliotheken im Hinblick auf Langzeitarchivierung und Retrieval

Ohme, Sebastian January 2003 (has links)
Entwickelt wird ein Dokument Management System zur elektronischen, Client-Server-basierten Publikation und Langzeitarchivierung von Hochschulschriften für die Universitätsbibliothek Potsdam. Der zu konzipierende Dokumentenserver muss den bibliothekarischen Anforderungen im Hinblick auf die Sicherung von Authentizität und Integrität des Servers und der einzelnen Textdokumente entsprechen. Eine Analyse der Eignung verbreiteter Dateiformate zur dauerhaften Speicherung unter Berücksichtigung von Verfügbarkeit, Strukturierbarkeit, Konvertierbarkeit und Austauschbarkeit sowie Recherchierbarkeit erbringt eine langfristig anzustrebende Präferenz für XML als Archivierungs- und Rechercheformat sowie PDF und/oder HTML als Präsentationsformate. Die Formalerfassung erfolgt über die Anreicherung des Dokumentes mit Metadaten nach dem DC qualified Standard, die in einer Datenbank strukturiert abgelegt sind. Der dauerhafte Zugang zur Publikation kann durch Verwendung einer zitierfähigen URN (Persistent Identifier) gesichert werden. Bestehende Archivierungssysteme werden untersucht und auf Vereinbarkeit mit den lokalen Bedürfnissen geprüft. <br><br> Ein Workflow für die Anlieferung von Dokument und beschreibenden Metadaten durch den Autor und die weitere Bearbeitung durch die Bibliothek wird erarbeitet und die technische Umsetzung mittels Perl, HTML, XML und einer MS Access Datenbank beschrieben. Der Dokumentenserver ermöglicht performantes Retrieval und ist als Dataprovider mit einer OAI-Schnittstelle für den weltweiten, standardisierten Datenaustausch ausgestattet. Das System kann in wissenschaftlichen Informationseinrichtungen als Internet- oder Intranet-Repositorium eingesetzt werden. (Fremdreferat)
138

Verkehrsentwicklung deutscher Städte im Spiegel des Systems repräsentativer Verkehrsbefragungen unter besonderer Berücksichtigung des Freizeitverkehrs

Badrow, Alexander 14 January 2001 (has links) (PDF)
Seit 1972 werden in Zusammenarbeit mit Städten nach dem an der Technischen Universität Dresden entwickelten System repräsentativer Verkehrsbefragungen (SrV) Informationen erhoben und Verkehrskennziffern berechnet. Die beteiligten Städte nutzten die gewonnenen Informationen für ihre Planungsaufgaben. Darüber hinaus war und ist der gesamte SrV - Ergebnispool auch stets Grundlage für Forschung und übergeordnete Planung. Dennoch konnten neue differenzierte Fragen mit diesem vorhandenen Ergebnispool nur mit hohem Aufwand oder oftmals gar nicht beantwortet werden. Die Entwicklung einer konsolidierten Datenbank war daher erforderlich. Der Verfasser hat SrV - Daten von 1987, 1991, 1994 und 1998 in einer einzigen neuen Datenbank vollständig integriert, so dass über diese Zeitreihe identische und ganzheitliche Abfragen möglich sind. In der vorliegenden Arbeit wurden auf dieser Grundlage wesentliche Entwicklungen des Verkehrs in ostdeutschen Städten dargestellt und interpretiert. Insbesondere konnte erstmalig der Freizeitverkehr, der bislang zu Unrecht eine untergeordnete Bedeutung im werktäglichen Verkehr hatte, quantifiziert werden. Die Darstellung und Interpretation des Ist - Zustandes, die Quantifizierung der Teilaktivitäten im Freizeitverkehr sowie die Abschätzung der Auswirkungen höherer Pkw - Verfügbarkeit älterer Bürger auf das spezifische Verkehrsaufkommen, der Verkehrsmittelwahl und der Verkehrsarbeit im werktäglichen Freizeitverkehr bis zum Jahr 2010 stellt beispielhaft dar, welche Möglichkeiten die erarbeitete SrV - Datenbank bietet. Zudem beschreibt die Arbeit auch methodische Zusammenhänge und Entwicklungen des SrV. Besondere Beachtung findet dabei das SrV 1998, das am Beispiel der Stadt Frankfurt am Main vertieft wird.
139

Datenqualität in Sensordatenströmen / Data Quality in Sensor Data Streams

Klein, Anja 23 March 2010 (has links) (PDF)
Die stetige Entwicklung intelligenter Sensorsysteme erlaubt die Automatisierung und Verbesserung komplexer Prozess- und Geschäftsentscheidungen in vielfältigen Anwendungsszenarien. Sensoren können zum Beispiel zur Bestimmung optimaler Wartungstermine oder zur Steuerung von Produktionslinien genutzt werden. Ein grundlegendes Problem bereitet dabei die Sensordatenqualität, die durch Umwelteinflüsse und Sensorausfälle beschränkt wird. Ziel der vorliegenden Arbeit ist die Entwicklung eines Datenqualitätsmodells, das Anwendungen und Datenkonsumenten Qualitätsinformationen für eine umfassende Bewertung unsicherer Sensordaten zur Verfügung stellt. Neben Datenstrukturen zur effizienten Datenqualitätsverwaltung in Datenströmen und Datenbanken wird eine umfassende Datenqualitätsalgebra zur Berechnung der Qualität von Datenverarbeitungsergebnissen vorgestellt. Darüber hinaus werden Methoden zur Datenqualitätsverbesserung entwickelt, die speziell auf die Anforderungen der Sensordatenverarbeitung angepasst sind. Die Arbeit wird durch Ansätze zur nutzerfreundlichen Datenqualitätsanfrage und -visualisierung vervollständigt.
140

Vergleich von Lösungsvarianten zur Automatisierung von Geschäftsvorgängen im URZ

Hüttmann, Jörg 14 June 1999 (has links)
Die Arbeit diskutiert Lösungsvarianten und beschreibt die Implementation eines Prototyps zur Re-Organisation der Nutzerverwaltung des URZ. Besondere Schwerpunkte liegen auf der Erstellung eines Web-Interfaces zur Datenverwaltung und auf der Untersuchung relationaler Datenbanksysteme hinsichtlich der Eignung zur Lösung der Aufgabe. Der Prototyp stellt lediglich eine beispielhafte Implementierung einiger Teilkomplexe des Gesamtsystems dar.

Page generated in 0.0583 seconds