• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 10
  • Tagged with
  • 56
  • 56
  • 56
  • 56
  • 56
  • 54
  • 27
  • 12
  • 11
  • 9
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Statistical approaches to enhance decision support in time series and causality problems

Bokelmann, Björn 11 November 2024 (has links)
Prädiktive Modelle sind hilfreiche Mittel zur quantitativen Entscheidungsunterstützung von modernen Unternehmen. Jedoch gibt es in vielen Fällen statistische Probleme in den genutzten Daten, die eine wirkungsvolle Anwendung prädiktiver Modelle zur Entscheidungsunterstützung verhindern. In dieser Doktorarbeit werden solche häufig auftretenden statistischen Probleme analysiert und statistische Methoden werden vorgestellt, mit denen man diese Probleme überwinden und damit prädiktive Modellierung und Entscheidungsunterstützung wirkungsvoll machen kann. Der erste Teil der Arbeit behandelt das Problem von "Concept Drift" in Google Trends Zeitreihen. Die Doktorarbeit bietet eine empirische Analyse des Problems und einen Ansatz um die Daten zu bereinigen. Für den speziellen Anwendungsfall der Tourismusnachfragevorhersage in Deutschland demonstriert die Arbeit empirisch den Nutzen der Bereinigungsmethode. Der zweite Teil der Arbeit setzt sich mit Experimenten und Modellen zur Schätzung von heterogenen Behandlungseffekten von Individuen auseinander. In solchen Anwendungen stellt Rauschen (Noise) in den Daten eine statistische Herausforderung dar, die zu einer hohen benötigten Fallzahl im Experiment und unerwarteten negativen Folgen bei der anschließenden selektiven Vergabe der Behandlung führen kann. Um diese Probleme zu überwinden entwickelt die Arbeit Methoden um Experimente mit einer kleineren Fallzahl durchzuführen, ohne Einbußen in der Qualität der Ergebnisse zu erleiden. Darüber hinaus analysiert die Arbeit die potenziell negativen Folgen von Noise auf die selektive Behandlungsvergabe und schlägt Ideen vor, wie man diese verhindern kann. / Predictive models are useful methods for quantitative decision support in contemporary business. However, often there are statistical problems in the data sets, hindering effective predictive modeling and decision support. This thesis analyzes such frequently occurring statistical problems and provides statistical approaches to overcome them and thereby enable efficient predictive modeling and decision support. The first part of the thesis focuses on concept drift in Google Trends time series data. The thesis provides an empirical analysis of the problem and an approach to sanitize the data. For the specific use case of tourism demand forecasting in Germany, the thesis demonstrates the usefulness of the statistical approach. The second part of the thesis focuses on experiments and models to estimate heterogeneous treatment effects of individuals. In such applications, noise in the data poses a statistical challenge, leading to high requirements in the sample size for randomized experiments and potentially leading to unexpected negative results in the treatment allocation process. To overcome this problem, the thesis proposes methods to conduct experiments with a limited number of individuals, without impairing the decision support. Moreover, the thesis analyzes the potential adverse effects of noise on the treatment allocation process and provides ideas on how to prevent them.
42

A Mixed-Method Study on Barriers to the Publication of Research Data in Learning Analytics

Biernacka, Katarzyna 07 November 2024 (has links)
Diese Studie untersucht umfassend Barrieren bei der Veröffentlichung von Forschungsdaten im Bereich Learning Analytics (LA) mithilfe eines Mixed-Methods-Ansatzes. Methodologisch gegliedert in vier Phasen – Systematic Literature Review (SLR), Leitfrageninterviews, eine weltweite Online-Umfrage und adaptive Workshops – zeigt die Forschung eine Vielzahl interdisziplinärer und internationaler Perspektiven auf. Das SLR bildet die Grundlage, indem es rechtliche, ethische und ressourcenbezogene Hindernisse für die Datenveröffentlichung identifiziert. Durch die Integration dieser Erkenntnisse in Interviews zeigt sich ein vertieftes Verständnis kultureller und institutioneller Unterschiede, die die Datenpublikation beeinflussen. Eine globale Umfrage verdeutlicht zudem eine Diskrepanz zwischen der Bereitschaft von Forschenden, Daten zu teilen, und ihrer Bewertung der Vorteile geteilten Wissens. Dies weist auf Vertrauensthemen und den geringen wahrgenommenen Nutzen gemeinsamer Daten in der Forschung hin, trotz zunehmender Infrastrukturen und Förderungen für Open Data. Adaptive Workshops beleuchten die Lücke zwischen der Anerkennung der Bedeutung von Datenfreigabe und der Fähigkeit der Forschenden, diese effektiv umzusetzen. Insbesondere Datenschutzbedenken, etwa zur DSGVO, und der Verlust von Kontrolle über geteilte Daten erweisen sich als große Hürden. Die Ergebnisse dieser Studie verdeutlichen, wie Barrieren der Datenpublikation je nach Disziplin und Region variieren und tief in kulturellen und institutionellen Rahmen eingebettet sind. / This study investigates barriers to research data publication in Learning Analytics (LA) through a mixed-method approach encompassing a Systematic Literature Review (SLR), semi-structured interviews, a global survey, and adaptive workshops. The SLR establishes a foundation by identifying legal, ethical, and resource-related barriers to data publication across disciplines. Findings from the SLR integrate in the subsequent interviews, which reveal cultural and institutional nuances affecting researchers' motivations and capabilities for data sharing. A global survey uncovers a discrepancy between researchers' willingness to share data and their perceived benefits from accessing others' data, highlighting trust issues within the scientific community despite growing support for open data. Adaptive workshops underscore the gap between researchers' recognition of data sharing importance and their practical ability to implement it, with data protection concerns, particularly related to GDPR compliance, emerging as major barriers alongside fears of losing data control. The findings from this study illustrate how barriers to data publication vary by discipline and region, being deeply embedded within cultural and institutional frameworks.
43

Analysis of diurnal gene regulation and metabolic diversity in Synechocystis sp. PCC 6803 and other phototrophic cyanobacteria

Beck, Johannes Christian 21 June 2018 (has links)
Cyanobakterien sind meist photoautotroph lebende Prokaryoten, welche nahezu alle Biotope der Welt besiedeln. Sie gehören zu den wichtigsten Produzenten der weltweiten Nahrungskette. Um sich auf den täglichen Wechsel von Tag und Nacht einzustellen, besitzen Cyanobakterien eine innere Uhr, bestehend aus den Proteinen KaiA, KaiB und KaiC, deren biochemische Interaktionen zu einem 24-stündigen Rhythmus von Phosphorylierung und Dephosphorylierung führen. Die circadiane Genexpression im Modellorganismus Synechocystis sp. PCC 6803 habe ich mittels drei verschiedener Zeitserienexperimente untersucht, wobei ich einen genauen Zeitplan der Genaktivierung in einer Tag-Nacht-Umgebung, aber keine selbsterhaltenden Rhythmen entdecken konnte. Allerdings beobachtete ich einen überaus starken Anstieg der ribosomalen RNA in der Dunkelheit. Aufgrund ihrer hohen Wachstumsraten und der geringen Anforderungen an die Umwelt bilden Cyanobakterien eine gute Grundlage für die nachhaltige Erzeugung von Biokraftstoffen, für einen industriellen Einsatz sind aber weitere Optimierung und ein verbessertes Verständnis des Metabolismus von Nöten. Hierfür habe ich die Orthologie von verschiedenen Cyanobakterien sowie die Konservierung von Genen und Stoffwechselwegen untersucht. Mit einer neu entwickelten Methode konnte ich gemeinsam vorkommende Gene identifizieren und zeigen, dass diese Gene häufig an einem gemeinsamen biologischen Prozess beteiligt sind, und damit bisher unbekannte Beziehungen aufdecken. Zusätzlich zu den diskutierten Modulen habe ich den SimilarityViewer entwickelt, ein grafisches Computerprogramm für die Identifizierung von gemeinsam vorkommenden Partnern für jedes beliebige Gen. Des Weiteren habe ich für alle Organismen automatische Rekonstruktionen des Stoffwechsels erstellt und konnte zeigen, dass diese die Synthese von gewünschten Stoffen gut vorhersagen, was hilfreich für zukünftige Forschung am Metabolismus von Cyanobakterien sein wird. / Cyanobacteria are photoautotrophic prokaryotes populating virtually all habitats on the surface of the earth. They are one of the prime producers for the global food chain. To cope with the daily alternation of light and darkness, cyanobacteria harbor a circadian clock consisting of the three proteins KaiA, KaiB, and KaiC, whose biochemical interactions result in a phosphorylation cycle with a period of approximately 24 hours. I conducted three time-series experiments in the model organism Synechocystis sp. PCC 6803, which revealed a tight diurnal schedule of gene activation. However, I could not identify any self-sustained oscillations. On the contrary, I observed strong diurnal accumulation of ribosomal RNAs during dark periods, which challenges common assumptions on the amount of ribosomal RNAs. Due to their high growth rates and low demand on their environment, cyanobacteria emerged as a viable option for sustainable production of biofuels. For an industrialized production, however, optimization of growth and comprehensive knowledge of the cyanobacterial metabolism is inevitable. To address this issue, I analyzed the orthology of multiple cyanobacteria and studied the conservation of genes and metabolic pathways. Systematic analysis of genes shared by similar subsets of organisms indicates high rates of functional relationship in such co-occurring genes. I designed a novel approach to identify modules of co-occurring genes, which exhibit a high degree of functional coherence and reveal unknown functional relationships between genes. Complementing the precomputed modules, I developed the SimilarityViewer, a graphical toolbox that facilitates further analysis of co-occurrence with respect to specific cyanobacterial genes of interest. Simulations of automatically generated metabolic reconstructions revealed the biosynthetic capacities of individual cyanobacterial strains, which will assist future research addressing metabolic engineering of cyanobacteria.
44

Radio frequency ranging for precise indoor localization

Sark, Vladica 15 February 2018 (has links)
In den letzten Jahrzehnten sind Satellitennavigationssysteme zu einem unverzichtbaren Teil des modernen Lebens geworden. Viele innovative Anwendungen bieten ortsabhängige Dienste an, welche auf diesen Navigationssystemen aufbauen. Allerdings sind diese Dienste in Innenräumen nicht verfügbar. Daher werden seit einigen Jahren alternative Lokalisierungsmethoden für Innenräume aktiv erforscht und entwickelt. Der Schwerpunkt dieser Arbeit liegt darauf, die Genauigkeit von Lokalisationsmethoden in Innenräumen zu erhöhen, sowie auf der effektiven Integration der entsprechenden Verfahren in drahtlose Kommunikationssysteme. Es werden zwei Ansätze vorgeschlagen und untersucht, welche die Präzision von ToF-basierten Methoden erhöhen. Zum einen wird im „Modified Equivalent Time Sampling“ (METS) Verfahren eine überabgetastete Version der vom Radioempfänger gelieferten Wellenform erzeugt und zur ToF Bestimmung verwendet. Der zweite erforschte Ansatz hat zum Ziel, Fehler auf Grund von Taktfrequenz-Abweichungen zu kompensieren. Dieses ist für kooperative Lokalisationsmethoden (N-Way ranging) von Bedeutung. Das in der Arbeit entwickelte Verfahren führt zu einer erheblichen Reduzierung der Fehler in der Abstandsmessung und damit der Positionsbestimmung. Darüber hinaus wurde eine neue Methode untersucht, um Lokalisationsverfahren in Funksysteme für die ISM Bänder bei 2,4 GHz und 5 GHz zu integrieren. Die Methode wurde auf einer Software Defined Radio (SDR) Plattform implementiert und bewertet. Es konnte eine Genauigkeit bis zu einem Meter in der Positionsbestimmung demonstriert werden. Schließlich wurde ein Verfahren vorgeschlagen und untersucht, mit welchem Lokalisationsfähigkeit in bestehende Funksysteme integriert werden kann. Die betrachtete Methode wurde in einem 60 GHz Funksystem mit hoher Datenrate implementiert. Die Untersuchungen zeigten eine Positionsgenauigkeit von 1 cm bei einer gleichzeitig hohen Datenrate für die Übertragung von Nutzdaten. / In the last couple of decades the Global Navigation Satellite Systems (GNSS) have become a very important part of our everyday life. A huge number of applications offer location based services and navigation functions which rely on these systems. Nevertheless, the offered localization services are not available indoors and their performance is significantly affected in urban areas. Therefore, in the recent years, a large number of wireless indoor localization systems are being actively investigated and developed. The main focus of this work is on improving precision and accuracy of indoor localization systems, as well as on the implementation and integration of localization functionality in wireless data transmission systems. Two approaches for improving the localization precision and accuracy of ToF based methods are proposed. The first approach, referred to as modified equivalent time sampling (METS) is used to reconstruct an oversampled versions of the waveforms acquired at the radio receiver and used for ToF based localization. The second proposed approach is used to compensate the ranging error due to clock frequency offset in cooperative localization schemes like N-Way ranging. This approach significantly reduces the ranging and, therefore, localization errors and has much better performance compared to the existing solutions. An approach for implementation of localization system in the 2.4/5 GHz ISM band is further proposed in this work. This approach is implemented and tested on a software defined radio platform. A ranging precision of better than one meter is demonstrated. Finally, an approach for integrating localization functionality into an arbitrary wireless data transmission system is proposed. This approach is implemented in a 60 GHz wireless system. A ranging precision of one centimeter is demonstrated.
45

Scalable and Efficient Analysis of Large High-Dimensional Data Sets in the Context of Recurrence Analysis

Rawald, Tobias 13 February 2018 (has links)
Die Recurrence Quantification Analysis (RQA) ist eine Methode aus der nicht-linearen Zeitreihenanalyse. Im Mittelpunkt dieser Methode steht die Auswertung des Inhalts sogenannter Rekurrenzmatrizen. Bestehende Berechnungsansätze zur Durchführung der RQA können entweder nur Zeitreihen bis zu einer bestimmten Länge verarbeiten oder benötigen viel Zeit zur Analyse von sehr langen Zeitreihen. Diese Dissertation stellt die sogenannte skalierbare Rekurrenzanalyse (SRA) vor. Sie ist ein neuartiger Berechnungsansatz, der eine gegebene Rekurrenzmatrix in mehrere Submatrizen unterteilt. Jede Submatrix wird von einem Berechnungsgerät in massiv-paralleler Art und Weise untersucht. Dieser Ansatz wird unter Verwendung der OpenCL-Schnittstelle umgesetzt. Anhand mehrerer Experimente wird demonstriert, dass SRA massive Leistungssteigerungen im Vergleich zu existierenden Berechnungsansätzen insbesondere durch den Einsatz von Grafikkarten ermöglicht. Die Dissertation enthält eine ausführliche Evaluation, die den Einfluss der Anwendung mehrerer Datenbankkonzepte, wie z.B. die Repräsentation der Eingangsdaten, auf die RQA-Verarbeitungskette analysiert. Es wird untersucht, inwiefern unterschiedliche Ausprägungen dieser Konzepte Einfluss auf die Effizienz der Analyse auf verschiedenen Berechnungsgeräten haben. Abschließend wird ein automatischer Optimierungsansatz vorgestellt, der performante RQA-Implementierungen für ein gegebenes Analyseszenario in Kombination mit einer Hardware-Plattform dynamisch bestimmt. Neben anderen Aspekten werden drastische Effizienzgewinne durch den Einsatz des Optimierungsansatzes aufgezeigt. / Recurrence quantification analysis (RQA) is a method from nonlinear time series analysis. It relies on the identification of line structures within so-called recurrence matrices and comprises a set of scalar measures. Existing computing approaches to RQA are either not capable of processing recurrence matrices exceeding a certain size or suffer from long runtimes considering time series that contain hundreds of thousands of data points. This thesis introduces scalable recurrence analysis (SRA), which is an alternative computing approach that subdivides a recurrence matrix into multiple sub matrices. Each sub matrix is processed individually in a massively parallel manner by a single compute device. This is implemented exemplarily using the OpenCL framework. It is shown that this approach delivers considerable performance improvements in comparison to state-of-the-art RQA software by exploiting the computing capabilities of many-core hardware architectures, in particular graphics cards. The usage of OpenCL allows to execute identical SRA implementations on a variety of hardware platforms having different architectural properties. An extensive evaluation analyses the impact of applying concepts from database technology, such memory storage layouts, to the RQA processing pipeline. It is investigated how different realisations of these concepts affect the performance of the computations on different types of compute devices. Finally, an approach based on automatic performance tuning is introduced that automatically selects well-performing RQA implementations for a given analytical scenario on specific computing hardware. Among others, it is demonstrated that the customised auto-tuning approach allows to considerably increase the efficiency of the processing by adapting the implementation selection.
46

Mobile privacy and apps: investigating behavior and attitude

Havelka, Stefanie 31 August 2020 (has links)
Diese Dissertation untersucht das Nutzerverhalten und die Einstellungen von Smartphone- und App-BenutzerInnen und welche Rolle die Kultur in Bezug auf mobile Privatsphäre spielt. Die zentrale Forschungsfrage lautet: Gibt es Unterschiede im Verhalten und in der Einstellung von amerikanischen und deutschen Studenten der Bibliotheks- und Informationswissenschaften in Bezug auf die mobile Privatsphäre? Im Mittelpunkt dieser Dissertation steht die ethnographische Forschung in einem interkulturellen Umfeld. Das Forschungsdesign besteht aus halb-strukturierten Interviews, gekoppelt mit Experimenten und Beobachtungen der Teilnehmer über die Nutzung mobiler Technologien. Die Feldforschung 1 wurde (in persona) an zwei verschiedenen Orten durchgeführt: an der Humboldt-Universität zu Berlin, Deutschland, und an der Rutgers State University of New Jersey, USA. Die Feldforschung 2 wurde (digital) über eine Online-Videokonferenzplattform durchgeführt. Im Gegensatz dazu, was die Autorin dieser vorliegenden Studie prognostizierte, kommt es zu folgenden Ergebnissen in dieser Studie: Bei den Probanden können fast keine kulturellen Unterschiede im Verhalten und in der Einstellung zur mobilen Privatsphäre festgestellt werden. Stattdessen werden in Bezug auf die mobile Privatsphäre ähnliche Einstellungen unter den Studienteilnehmenden festgestellt. Zum einen die Selbstzufriedenheit, zum anderen das Gefühl der Hilfslosigkeit und schließlich Pragmatismus scheinen, deutsche und amerikanische Studierende gleichermaßen zu beeinflussen. Das Ergebnis wurde aber ursprünglich nicht so erwartet, da eigentlich zu Beginn der Studie davon ausgegangen wurde, dass der unterschiedliche Kenntnis- und Bewusstseinsstand zur mobilen Privatsphäre in beiden Kulturen zu unterschiedlichen Reaktionen führen würde. Dennoch bieten die Ergebnisse dieser Studie sicher nachfolgenden WissenschaftlerInnen interessante Impulse und eine gute Ausgangsbasis für weitere Studien. / This dissertation examines the role of culture, mobile privacy, apps, and user behavior and attitude. The core research question is: Are there differences in the mobile privacy behaviors and attitudes of American and German library and information science students? This dissertation uses ethnography as its research methodology since culture is at the heart of ethnography. Furthermore, ethnographers try to make sense of behavior, customs, and attitudes of the culture they observe and research. This ethnographer aims to portray a thick narrative and transforms participants' mobile privacy attitude and behavior into a rich account. The research design is comprised of semi-structured interviews, coupled with experiments and participant observations about mobile technology use. Fieldwork 1 was conducted in two different sites: Humboldt-Universität zu Berlin, Germany, and Rutgers, the State University of New Jersey, USA. Fieldwork 2 was conducted via an online video conferencing platform. Contrary to what this researcher predicted, the findings have revealed that there are nearly no cultural differences in mobile privacy behavior and attitude. Similar attitudes, such as mobile privacy complacency, mobile privacy learned-helplessness, and mobile privacy pragmatism, seem to impact German and American students equally. The findings provide support for further research recommendations, and in conclusion, this researcher highlights three contributions this study makes to the scholarly literature.
47

Wireless Networking in Future Factories: Protocol Design and Evaluation Strategies

Naumann, Roman 17 January 2020 (has links)
Industrie-4.0 bringt eine wachsende Nachfrage an Netzwerkprotokollen mit sich, die es erlauben, Informationen vom Produktionsprozess einzelner Maschinen zu erfassen und verfügbar zu machen. Drahtlose Übertragung erfüllt hierbei die für industrielle Anwendungen benötigte Flexibilität, kann in herausfordernden Industrieumgebungen aber nicht immer zeitnahe und zuverlässige Übertragung gewährleisten. Die Beiträge dieser Arbeit behandeln schwerpunktmäßig Protokollentwurf und Protokollevaluation für industrielle Anwendungsfälle. Zunächst identifizieren wir Anforderungen für den industriellen Anwendungsfall und leiten daraus konkrete Entwufskriterien ab, die Protokolle erfüllen sollten. Anschließend schlagen wir Protokollmechanismen vor, die jene Entwurfskriterien für unterschiedliche Arten von Protokollen umsetzen, und die in verschiedenem Maße kompatibel zu existierenden Netzwerken und existierender Hardware sind: Wir zeigen, wie anwendungsfallspezifische Priorisierung von Netzwerkdaten dabei hilft, zuverlässige Übertragung auch unter starken Störeinflüssen zu gewährleisten, indem zunächst eine akkurate Vorschau von Prozessinformationen übertragen wird. Für deren Fehler leiten wir präziser Schranken her. Ferner zeigen wir, dass die Fairness zwischen einzelnen Maschinen durch Veränderung von Warteschlangen verbessert werden kann, wobei hier ein Teil der Algorithmen von Knoten innerhalb des Netzwerks durchgeführt wird. Ferner zeigen wir, wie Network-Coding zu unserem Anwendungsfall beitragen kann, indem wir spezialisierte Kodierungs- und Dekodierungsverfahren einführen. Zuletzt stellen wir eine neuartige Softwarearchitektur und Evaluationstechnik vor, die es erlaubt, potentiell proprietäre Protokollimplementierungen innerhalb moderner diskreter Ereignissimulatoren zu verwenden. Wir zeigen, dass unser vorgeschlagener Ansatz ausreichend performant für praktische Anwendungen ist und, darüber hinaus, die Validität von Evaluationsergebnissen gegenüber existierenden Ansätzen verbessert. / As smart factory trends gain momentum, there is a growing need for robust information transmission protocols that make available sensor information gathered by individual machines. Wireless transmission provides the required flexibility for industry adoption but poses challenges for timely and reliable information delivery in challenging industrial environments. This work focuses on to protocol design and evaluation aspects for industrial applications. We first introduce the industrial use case, identify requirements and derive concrete design principles that protocols should implement. We then propose mechanisms that implement these principles for different types of protocols, which retain compatibility with existing networks and hardware to varying degrees: we show that use-case tailored prioritization at the source is a powerful tool to implement robustness against challenged connectivity by conveying an accurate preview of information from the production process. We also derive precise bounds for the quality of that preview. Moving parts of the computational work into the network, we show that reordering queues in accordance with our prioritization scheme improves fairness among machines. We also demonstrate that network coding can benefit our use case by introducing specialized encoding and decoding mechanisms. Last, we propose a novel architecture and evaluation techniques that allows incorporating possibly proprietary networking protocol implementations with modern discrete event network simulators, rendering, among others, the adaption of protocols to specific industrial use cases more cost efficient. We demonstrate that our approach provides sufficient performance and improves the validity of evaluation results over the state of the art.
48

Quantitative Modeling and Verification of Evolving Software

Getir Yaman, Sinem 15 September 2021 (has links)
Mit der steigenden Nachfrage nach Innovationen spielt Software in verschiedenenWirtschaftsbereichen eine wichtige Rolle, wie z.B. in der Automobilindustrie, bei intelligenten Systemen als auch bei Kommunikationssystemen. Daher ist die Qualität für die Softwareentwicklung von großer Bedeutung. Allerdings ändern sich die probabilistische Modelle (die Qualitätsbewertungsmodelle) angesichts der dynamischen Natur moderner Softwaresysteme. Dies führt dazu, dass ihre Übergangswahrscheinlichkeiten im Laufe der Zeit schwanken, welches zu erheblichen Problemen führt. Dahingehend werden probabilistische Modelle im Hinblick auf ihre Laufzeit kontinuierlich aktualisiert. Eine fortdauernde Neubewertung komplexer Wahrscheinlichkeitsmodelle ist jedoch teuer. In letzter Zeit haben sich inkrementelle Ansätze als vielversprechend für die Verifikation von adaptiven Systemen erwiesen. Trotzdem wurden bei der Bewertung struktureller Änderungen im Modell noch keine wesentlichen Verbesserungen erzielt. Wahrscheinlichkeitssysteme werden als Automaten modelliert, wie bei Markov-Modellen. Solche Modelle können in Matrixform dargestellt werden, um die Gleichungen basierend auf Zuständen und Übergangswahrscheinlichkeiten zu lösen. Laufzeitmodelle wie Matrizen sind nicht signifikant, um die Auswirkungen von Modellveränderungen erkennen zu können. In dieser Arbeit wird ein Framework unter Verwendung stochastischer Bäume mit regulären Ausdrücken entwickelt, welches modular aufgebaut ist und eine aktionshaltige sowie probabilistische Logik im Kontext der Modellprüfung aufweist. Ein solches modulares Framework ermöglicht dem Menschen die Entwicklung der Änderungsoperationen für die inkrementelle Berechnung lokaler Änderungen, die im Modell auftreten können. Darüber hinaus werden probabilistische Änderungsmuster beschrieben, um eine effiziente inkrementelle Verifizierung, unter Verwendung von Bäumen mit regulären Ausdrücken, anwenden zu können. Durch die Bewertung der Ergebnisse wird der Vorgang abgeschlossen. / Software plays an innovative role in many different domains, such as car industry, autonomous and smart systems, and communication. Hence, the quality of the software is of utmost importance and needs to be properly addressed during software evolution. Several approaches have been developed to evaluate systems’ quality attributes, such as reliability, safety, and performance of software. Due to the dynamic nature of modern software systems, probabilistic models representing the quality of the software and their transition probabilities change over time and fluctuate, leading to a significant problem that needs to be solved to obtain correct evaluation results of quantitative properties. Probabilistic models need to be continually updated at run-time to solve this issue. However, continuous re-evaluation of complex probabilistic models is expensive. Recently, incremental approaches have been found to be promising for the verification of evolving and self-adaptive systems. Nevertheless, substantial improvements have not yet been achieved for evaluating structural changes in the model. Probabilistic systems are usually represented in a matrix form to solve the equations based on states and transition probabilities. On the other side, evolutionary changes can create various effects on theese models and force them to re-verify the whole system. Run-time models, such as matrices or graph representations, lack the expressiveness to identify the change effect on the model. In this thesis, we develop a framework using stochastic regular expression trees, which are modular, with action-based probabilistic logic in the model checking context. Such a modular framework enables us to develop change operations for the incremental computation of local changes that can occur in the model. Furthermore, we describe probabilistic change patterns to apply efficient incremental quantitative verification using stochastic regular expression trees and evaluate our results.
49

Answering Conjunctive Queries and FO+MOD Queries under Updates

Keppeler, Jens 26 June 2020 (has links)
In dieser Arbeit wird das dynamische Auswertungsproblem über dynamische Datenbanken betrachtet, bei denen Tupel hinzugefügt oder gelöscht werden können. Die Aufgabe besteht darin einen dynamischen Algorithmus zu konstruieren, welcher unmittelbar nachdem die Datenbank aktualisiert wurde, die Datenstruktur, die das Resultat repräsentiert, aktualisiert. Die Datenstruktur soll in konstanter Zeit aktualisiert werden und das Folgende unterstützen: * Teste in konstanter Zeit ob ein Tupel zur Ausgabemenge gehört, * gebe die Anzahl der Tupel in der Ausgabemenge in konstanter Zeit aus, * zähle die Tupel aus der Ausgabemenge mit konstanter Taktung auf und * zähle den Unterschied zwischen der neuen und der alten Ausgabemenge mit konstanter Taktung auf. Im ersten Teil werden konjunktive Anfragen und Vereinigungen konjunktiver Anfragen auf relationalen Datenbanken betrachtet. Die Idee der q-hierarchischen Anfragen (und t-hierarchische Anfragen für das Testen) wird eingeführt und es wird gezeigt, dass das Resultat für jede q-hierarchische Anfrage auf dynamischen Datenbanken effizient in dem oben beschriebenen Szenario ausgewertet werden können. Konjunktive Anfragen mit Aggregaten werden weiterhin betrachtet. Es wird gezeigt, dass das Lernen von polynomiellen Regressionsfunktionen in konstanter Zeit vorbereitet werden kann, falls die Trainingsdaten aus dem Anfrageergebnis kommen. Mit logarithmischer Update-Zeit kann folgende Routine unterstützt werden: Bei Eingabe einer Zahl j, gebe das j-te Tupel aus der Aufzählung aus. Im zweiten Teil werden Anfragen, die Formeln der Logik erster Stufe (FO) und deren Erweiterung mit Modulo-Zähl Quantoren (FO+MOD) sind, betrachtet, und es wird gezeigt, dass diese effizient unter Aktualisierungen ausgewertet können, wobei die dynamische Datenbank die Gradschranke nicht überschreitet, und bei der Auswertung die Zähl-, Test-, Aufzähl- und die Unterschied-Routine unterstützt werden. / This thesis investigates the query evaluation problem for fixed queries over fully dynamic databases, where tuples can be inserted or deleted. The task is to design a dynamic algorithm that immediately reports the new result of a fixed query after every database update. In particular, the goal is to construct a data structure that allows to support the following scenario. After every database update, the data structure can be updated in constant time such that afterwards we are able * to test within constant time for a given tuple whether or not it belongs to the query result, * to output the number of tuples in the query result, * to enumerate all tuples in the new query result with constant delay and * to enumerate the difference between the old and the new query result with constant delay. In the first part, conjunctive queries and unions of conjunctive queries on arbitrary relational databases are considered. The notion of q-hierarchical conjunctive queries (and t-hierarchical conjunctive queries for testing) is introduced and it is shown that the result of each such query on a dynamic database can be maintained efficiently in the sense described above. Moreover, this notion is extended to aggregate queries. It is shown that the preparation of learning a polynomial regression function can be done in constant time if the training data are taken (and maintained under updates) from the query result of a q-hierarchical query. With logarithmic update time the following routine is supported: upon input of a natural number j, output the j-th tuple that will be enumerated. In the second part, queries in first-order logic (FO) and its extension with modulo-counting quantifiers (FO+MOD) are considered, and it is shown that they can be efficiently evaluated under updates, provided that the dynamic database does not exceed a certain degree bound, and the counting, testing, enumeration and difference routines is supported.
50

Timeout Reached, Session Ends? / A Methodological Framework for Evaluating the Impact of Different Session-Identification Approaches

Dietz, Florian 14 December 2022 (has links)
Die Identifikation von Sessions zum Verständnis des Benutzerverhaltens ist ein Forschungsgebiet des Web Usage Mining. Definitionen und Konzepte werden seit über 20 Jahren diskutiert. Die Forschung zeigt, dass Session-Identifizierung kein willkürlicher Prozess sein sollte. Es gibt eine fragwürdige Tendenz zu vereinfachten mechanischen Sessions anstelle logischer Segmentierungen. Ziel der Dissertation ist es zu beweisen, wie unterschiedliche Session-Ansätze zu abweichenden Ergebnissen und Interpretationen führen. Die übergreifende Forschungsfrage lautet: Werden sich verschiedene Ansätze zur Session-Identifizierung auf Analyseergebnisse und Machine-Learning-Probleme auswirken? Ein methodischer Rahmen für die Durchführung, den Vergleich und die Evaluation von Sessions wird gegeben. Die Dissertation implementiert 135 Session-Ansätze in einem Jahr (2018) Daten einer deutschen Preisvergleichs-E-Commerce-Plattform. Die Umsetzung umfasst mechanische Konzepte, logische Konstrukte und die Kombination mehrerer Mechaniken. Es wird gezeigt, wie logische Sessions durch Embedding-Algorithmen aus Benutzersequenzen konstruiert werden: mit einem neuartigen Ansatz zur Identifizierung logischer Sessions, bei dem die thematische Nähe von Interaktionen anstelle von Suchanfragen allein verwendet wird. Alle Ansätze werden verglichen und quantitativ beschrieben sowie in drei Machine-Learning-Problemen (wie Recommendation) angewendet. Der Hauptbeitrag dieser Dissertation besteht darin, einen umfassenden Vergleich von Session-Identifikationsalgorithmen bereitzustellen. Die Arbeit bietet eine Methodik zum Implementieren, Analysieren und Evaluieren einer Auswahl von Mechaniken, die es ermöglichen, das Benutzerverhalten und die Auswirkungen von Session-Modellierung besser zu verstehen. Die Ergebnisse zeigen, dass unterschiedlich strukturierte Eingabedaten die Ergebnisse von Algorithmen oder Analysen drastisch verändern können. / The identification of sessions as a means of understanding user behaviour is a common research area of web usage mining. Different definitions and concepts have been discussed for over 20 years: Research shows that session identification is not an arbitrary task. There is a tendency towards simplistic mechanical sessions instead of more complex logical segmentations, which is questionable. This dissertation aims to prove how the nature of differing session-identification approaches leads to diverging results and interpretations. The overarching research question asks: will different session-identification approaches impact analysis and machine learning tasks? A comprehensive methodological framework for implementing, comparing and evaluating sessions is given. The dissertation provides implementation guidelines for 135 session-identification approaches utilizing a complete year (2018) of traffic data from a German price-comparison e-commerce platform. The implementation includes mechanical concepts, logical constructs and the combination of multiple methods. It shows how logical sessions were constructed from user sequences by employing embedding algorithms on interaction logs; taking a novel approach to logical session identification by utilizing topical proximity of interactions instead of search queries alone. All approaches are compared and quantitatively described. The application in three machine-learning tasks (such as recommendation) is intended to show that using different sessions as input data has a marked impact on the outcome. The main contribution of this dissertation is to provide a comprehensive comparison of session-identification algorithms. The research provides a methodology to implement, analyse and compare a wide variety of mechanics, allowing to better understand user behaviour and the effects of session modelling. The main results show that differently structured input data may drastically change the results of algorithms or analysis.

Page generated in 0.0488 seconds