• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 1
  • Tagged with
  • 16
  • 16
  • 16
  • 14
  • 14
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Collective Information Processing and Criticality, Evolution and Limited Attention.

Klamser, Pascal 23 August 2021 (has links)
Im ersten Teil analysiere ich die Selbstorganisation zur Kritikalität (hier ein Phasenübergang von Ordnung zu Unordnung) und untersuche, ob Evolution ein möglicher Organisationsmechanismus ist. Die Kernfrage ist, ob sich ein simulierter kohäsiver Schwarm, der versucht, einem Raubtier auszuweichen, durch Evolution selbst zum kritischen Punkt entwickelt, um das Ausweichen zu optimieren? Es stellt sich heraus, dass (i) die Gruppe den Jäger am besten am kritischen Punkt vermeidet, aber (ii) nicht durch einer verstärkten Reaktion, sondern durch strukturelle Veränderungen, (iii) das Gruppenoptimum ist evolutionär unstabiler aufgrund einer maximalen räumlichen Selbstsortierung der Individuen. Im zweiten Teil modelliere ich experimentell beobachtete Unterschiede im kollektiven Verhalten von Fischgruppen, die über mehrere Generationen verschiedenen Arten von größenabhängiger Selektion ausgesetzt waren. Diese Größenselektion soll Freizeitfischerei (kleine Fische werden freigelassen, große werden konsumiert) und die kommerzielle Fischerei mit großen Netzbreiten (kleine/junge Individuen können entkommen) nachahmen. Die zeigt sich, dass das Fangen großer Fische den Zusammenhalt und die Risikobereitschaft der Individuen reduziert. Beide Befunde lassen sich mechanistisch durch einen Aufmerksamkeits-Kompromiss zwischen Sozial- und Umweltinformationen erklären. Im letzten Teil der Arbeit quantifiziere ich die kollektive Informationsverarbeitung im Feld. Das Studiensystem ist eine an sulfidische Wasserbedingungen angepasste Fischart mit einem kollektiven Fluchtverhalten vor Vögeln (wiederholte kollektive Fluchttauchgängen). Die Fische sind etwa 2 Zentimeter groß, aber die kollektive Welle breitet sich über Meter in dichten Schwärmen an der Oberfläche aus. Es zeigt sich, dass die Wellengeschwindigkeit schwach mit der Polarisation zunimmt, bei einer optimalen Dichte am schnellsten ist und von ihrer Richtung relativ zur Schwarmorientierung abhängt. / In the first part, I focus on the self-organization to criticality (here an order-disorder phase transition) and investigate if evolution is a possible self-tuning mechanism. Does a simulated cohesive swarm that tries to avoid a pursuing predator self-tunes itself by evolution to the critical point to optimize avoidance? It turns out that (i) the best group avoidance is at criticality but (ii) not due to an enhanced response but because of structural changes (fundamentally linked to criticality), (iii) the group optimum is not an evolutionary stable state, in fact (iv) it is an evolutionary accelerator due to a maximal spatial self-sorting of individuals causing spatial selection. In the second part, I model experimentally observed differences in collective behavior of fish groups subject to multiple generation of different types of size-dependent selection. The real world analog to this experimental evolution is recreational fishery (small fish are released, large are consumed) and commercial fishing with large net widths (small/young individuals can escape). The results suggest that large harvesting reduces cohesion and risk taking of individuals. I show that both findings can be mechanistically explained based on an attention trade-off between social and environmental information. Furthermore, I numerically analyze how differently size-harvested groups perform in a natural predator and fishing scenario. In the last part of the thesis, I quantify the collective information processing in the field. The study system is a fish species adapted to sulfidic water conditions with a collective escape behavior from aerial predators which manifests in repeated collective escape dives. These fish measure about 2 centimeters, but the collective wave spreads across meters in dense shoals at the surface. I find that wave speed increases weakly with polarization, is fastest at an optimal density and depends on its direction relative to shoal orientation.
12

Scalable and Efficient Analysis of Large High-Dimensional Data Sets in the Context of Recurrence Analysis

Rawald, Tobias 13 February 2018 (has links)
Die Recurrence Quantification Analysis (RQA) ist eine Methode aus der nicht-linearen Zeitreihenanalyse. Im Mittelpunkt dieser Methode steht die Auswertung des Inhalts sogenannter Rekurrenzmatrizen. Bestehende Berechnungsansätze zur Durchführung der RQA können entweder nur Zeitreihen bis zu einer bestimmten Länge verarbeiten oder benötigen viel Zeit zur Analyse von sehr langen Zeitreihen. Diese Dissertation stellt die sogenannte skalierbare Rekurrenzanalyse (SRA) vor. Sie ist ein neuartiger Berechnungsansatz, der eine gegebene Rekurrenzmatrix in mehrere Submatrizen unterteilt. Jede Submatrix wird von einem Berechnungsgerät in massiv-paralleler Art und Weise untersucht. Dieser Ansatz wird unter Verwendung der OpenCL-Schnittstelle umgesetzt. Anhand mehrerer Experimente wird demonstriert, dass SRA massive Leistungssteigerungen im Vergleich zu existierenden Berechnungsansätzen insbesondere durch den Einsatz von Grafikkarten ermöglicht. Die Dissertation enthält eine ausführliche Evaluation, die den Einfluss der Anwendung mehrerer Datenbankkonzepte, wie z.B. die Repräsentation der Eingangsdaten, auf die RQA-Verarbeitungskette analysiert. Es wird untersucht, inwiefern unterschiedliche Ausprägungen dieser Konzepte Einfluss auf die Effizienz der Analyse auf verschiedenen Berechnungsgeräten haben. Abschließend wird ein automatischer Optimierungsansatz vorgestellt, der performante RQA-Implementierungen für ein gegebenes Analyseszenario in Kombination mit einer Hardware-Plattform dynamisch bestimmt. Neben anderen Aspekten werden drastische Effizienzgewinne durch den Einsatz des Optimierungsansatzes aufgezeigt. / Recurrence quantification analysis (RQA) is a method from nonlinear time series analysis. It relies on the identification of line structures within so-called recurrence matrices and comprises a set of scalar measures. Existing computing approaches to RQA are either not capable of processing recurrence matrices exceeding a certain size or suffer from long runtimes considering time series that contain hundreds of thousands of data points. This thesis introduces scalable recurrence analysis (SRA), which is an alternative computing approach that subdivides a recurrence matrix into multiple sub matrices. Each sub matrix is processed individually in a massively parallel manner by a single compute device. This is implemented exemplarily using the OpenCL framework. It is shown that this approach delivers considerable performance improvements in comparison to state-of-the-art RQA software by exploiting the computing capabilities of many-core hardware architectures, in particular graphics cards. The usage of OpenCL allows to execute identical SRA implementations on a variety of hardware platforms having different architectural properties. An extensive evaluation analyses the impact of applying concepts from database technology, such memory storage layouts, to the RQA processing pipeline. It is investigated how different realisations of these concepts affect the performance of the computations on different types of compute devices. Finally, an approach based on automatic performance tuning is introduced that automatically selects well-performing RQA implementations for a given analytical scenario on specific computing hardware. Among others, it is demonstrated that the customised auto-tuning approach allows to considerably increase the efficiency of the processing by adapting the implementation selection.
13

Computational mapping of regulatory domains of human genes

Patarčić, Inga 02 November 2021 (has links)
Ljudski genom sadrži milijune regulatornih elemenata - enhancera - koji kvantitativno reguliraju ekspresiju gena. Unatoč ogromnom napretku u razumijevanju načina na koji enhanceri reguliraju ekspresiju gena, području još uvijek nedostaje pristup koji je sustavan, integrativan i dostupan za otkrivanje i dokumentiranje cis-regulatornih odnosa u cijelom genomu. Razvili smo novu računalnu metodu - reg2gene - koja modelira i integrira aktivnost enhancera~ekspresije gena. reg2gene sastoji se od tri glavna koraka: 1) kvantifikacija podataka, 2) modeliranje podataka i procjena značaja, i 3) integracija podataka prikupljenih u reg2gene R paketu. Kao rezultat toga, identificirali smo dva skupa enhancer-gen interakcija (EGA): fleksibilni skup od ~ 230K EGA (flexibleC) i strogi skup od ~ 60K EGA (stringentC). Utvrdili smo velike razlike u prethodno objavljenim računalnim modelima enhancer-gen interakcija; uglavnom u lokaciji, broju i svojstvima definiranih enhancera i EGA. Izveli smo detaljno mjerenje performansi sedam skupova računalno modeliranih EGA-a, ali smo pokazali da se niti jedan od trenutno dostupnih skupova referentnih podataka ne može koristiti kao referentni skup podataka "zlatnI standard". Definirali smo dodatni referentni skup pozitivnih i negativnih EGA -a pomoću kojih smo pokazali da stringentC ima najveću pozitivnu prediktivnu vrijednost (PPV). Pokazali smo potencijal EGA-a za identifikaciju genskih meta nekodirajucih SNP-ova. Proveli smo funkcionalnu analizu kako bismo otkrili nove genske mete, pleiotropiju enhancera i mehanizme aktivnosti enhancera. Ovaj rad poboljšava naše razumijevanje regulacije ekspresije gena posredovane enhancerima. / Das menschliche Genom enthält Millionen von regulatorischen Elementen - Enhancern -, die die Genexpression quantitativ regulieren. Trotz des enormen Fortschritts beim Verständnis, wie Enhancer die Genexpression steuern, fehlt es in diesem Bereich immer noch an einem systematischen, integrativen und zugänglichen Ansatz zur Entdeckung und Dokumentation von cis-regulatorischen Beziehungen im gesamten Genom. Wir haben eine neuartige Methode - reg2gene - entwickelt, die Genexpression~Enhancer-Aktivität modelliert und integriert. reg2gene besteht aus drei Hauptschritten: 1) Datenquantifizierung, 2) Datenmodellierung und Signifikanzbewertung und 3) Datenintegration, die in dem R-Paket reg2gene zusammengefasst sind. Als Ergebnis haben wir zwei Sätze von Enhancer-Gen-Assoziationen (EGAs) identifiziert: den flexiblen Satz von ~230K EGAs (flexibleC) und den stringenten Satz von ~60K EGAs (stringentC). Wir haben große Unterschiede zwischen den bisher veröffentlichten Berechnungsmodellen für Enhancer-Gene-Assoziationen festgestellt, vor allem in Bezug auf die Lage, die Anzahl und die Eigenschaften der definierten Enhancer-Regionen und EGAs. Wir führten ein detailliertes Benchmarking von sieben Sets von rechnerisch modellierten EGAs durch, zeigten jedoch, dass keiner der derzeit verfügbaren Benchmark-Datensätze als "goldener Standard" verwendet werden kann. Wir definierten einen zusätzlichen Benchmark-Datensatz mit positiven und negativen EGAs, mit dem wir zeigten, dass das stringentC-Modell den höchsten positiven Vorhersagewert (PPV) hatte. Wir haben das Potenzial von EGAs zur Identifizierung von Genzielen von nicht-kodierenden SNP-Gene-Assoziationen nachgewiesen. Schließlich führten wir eine funktionelle Analyse durch, um neue Genziele, Enhancer-Pleiotropie und Mechanismen der Enhancer-Aktivität zu ermitteln. Insgesamt bringt diese Arbeit unser Verständnis der durch Enhancer vermittelten Regulierung der Genexpression in Gesundheit und Krankheit voran. / Human genome contains millions of regulatory elements - enhancers - that quantitatively regulate gene expression. Multiple experimental and computational approaches were developed to associate enhancers with their gene targets. Despite the tremendous progress in understanding how enhancers tune gene expression, the field still lacks an approach that is systematic, integrative and accessible for discovering and documenting cis-regulatory relationships across the genome. We developed a novel computational approach - reg2gene- that models and integrates gene expression ~ enhancer activity. reg2gene consists of three main steps: 1) data quantification, 2) data modelling and significance assessment, and 3) data integration gathered in the reg2gene R package. As a result we identified two sets of enhancer-gene associations (EGAs): the flexible set of ~230K EGAs (flexibleC), and the stringent set of ~60K EGAs (stringentC). We identified major differences across previously published computational models of enhancer-gene associations; mostly in the location, number and properties of defined enhancer regions and EGAs. We performed detailed benchmarking of seven sets of computationally modelled EGAs, but showed that none of the currently available benchmark datasets could be used as a “golden-standard” benchmark dataset. To account for that observation, we defined an additional benchmark set of positive and negative EGAs with which we showed that the stringentC model had the highest positive predictive value (PPV) across all analyzed computational models. We reviewed the influence of EGA sets on the functional analysis of risk SNPs and demonstrated the potential of EGAs to identify gene targets of non-coding SNP-gene associations. Lastly, we performed a functional analysis to detect novel gene targets, enhancer pleiotropy, and mechanisms of enhancer activity. Altogether, this work advances our understanding of enhancer-mediated gene expression regulation in health and disease.
14

Dependencies in Topic Delineation and Tracking

Struck, Alexander 03 January 2025 (has links)
Zitationsnetzwerke akademischer Publikationen werden zur Themenerkennung und -verfolgung mittels bibliometrischer Verfahren erstellt und zerteilt. Ergebnisse können jedoch nicht gegen eine Grundwahrheit geprüft werden. In vielen Arbeiten des Feldes fehlt es an Argumentation, Dokumentation und Validation für Entscheidungen im Prozess der Datenverarbeitung. Die Dissertation geht mit einem umfassenden Literaturreview und programmierten Experimenten in die Tiefe und identifiziert Abhängigkeiten. Diese Forschungsfragen werden beantwortet: #1 Welche Variablen beeinflussen die Themenerkennung und -verfolgung? #2 Welche Variablenwerte werden in der Literatur berichtet und wie wird gemessen? #3 In welchem Ausmaß unterscheiden sich Ergebnisse verschiedener Konfigurationen? Kapitel 1 führt in die Problematik ein und stellt Kontext her. In Kapitel 2 werden Annahmen der Bibliometrie beispielhaft seziert und das tatsächliche Zitationsverhalten aus Studien zusammengetragen. Kapitel 3 behandelt Datenquellen, deren Probleme und Selektion als Abhängigkeit. Kapitel 4 betrachtet verschiedene Aspekte von Forschungssoftware, die in bisherigen Untersuchungen als Einflussfaktor unterrepräsentiert blieb und schließt mit einem Review relevanter Software. Kapitel 5 behandelt verbreitete Datenmodelle und Algorithmen und dokumentiert Validations- und Vergleichstechniken. Im Kapitel 6 werden Ansätze zur Themenverfolgung diskutiert und Cluster Labels werden als Abhängigkeit identifiziert. Kapitel 7 zeigt die Datenquelle, Softwarekonfigurationen, Datenmodelle, Algorithmen und Vergleichsmethoden als Einflussfaktoren auf. Nur wenige Cluster ähneln sich in einer Weise, dass man vom "gleichen" Thema sprechen könnte. Die Arbeit zeigt, dass jede Prozessentscheidung Einfluss auf das Endergebnis nimmt und die weit verbreiteten Themenerkennungsstudien kaum mehr als lokale und stark subjektive Datenexplorationen sind. / Scholarly publications are used to construct citation-based networks and cluster algorithms are utilized to delineate topics from such networks. Topics are also investigated for development over time. Since there is no baseline, results validation is not trivial. Many scientometric publications lack argumentation, documentation and validation of decisions made in the processw. The dissertation provides an extensive literature review and reports programmed experiments for the identification of process dependencies. The following research questions are answered: #1 Which variables affect the outcome of topic delineation and tracking? #2 What variable values are reported in the literature and how are they measured? #3 To what extent does topic delineation and tracking yield different results for varied configurations? Chapter 1 introduces the situation and provides context of research evaluation. In chapter 2 we dissect assumptions and collect evidence about actual citation behavior. Chapter 3 deals with data sources, their problems and data utliziation as a dependency. Chapter 4 covers research software as an underreported dependency and reviews selected bibliometric applications. Chapter 5 discusses several suggested data models and algorithms including validation and comparison techniques. In chapter 6 we document topic tracking approaches, their influence and the cluster labels as dependencies. Chapter 7 reports the data model, software configurations, algorithms and comparison methods as dependencies. Only a miniscule number of clusters are similar enough to represent the 'same topic'. The dissertation showcases, that every decision in a topic delineation and tracking process affects the results. Scientometric topic delineation and tracking studies should be considered local and highly subjective data exploration exercises.
15

Timeout Reached, Session Ends? / A Methodological Framework for Evaluating the Impact of Different Session-Identification Approaches

Dietz, Florian 14 December 2022 (has links)
Die Identifikation von Sessions zum Verständnis des Benutzerverhaltens ist ein Forschungsgebiet des Web Usage Mining. Definitionen und Konzepte werden seit über 20 Jahren diskutiert. Die Forschung zeigt, dass Session-Identifizierung kein willkürlicher Prozess sein sollte. Es gibt eine fragwürdige Tendenz zu vereinfachten mechanischen Sessions anstelle logischer Segmentierungen. Ziel der Dissertation ist es zu beweisen, wie unterschiedliche Session-Ansätze zu abweichenden Ergebnissen und Interpretationen führen. Die übergreifende Forschungsfrage lautet: Werden sich verschiedene Ansätze zur Session-Identifizierung auf Analyseergebnisse und Machine-Learning-Probleme auswirken? Ein methodischer Rahmen für die Durchführung, den Vergleich und die Evaluation von Sessions wird gegeben. Die Dissertation implementiert 135 Session-Ansätze in einem Jahr (2018) Daten einer deutschen Preisvergleichs-E-Commerce-Plattform. Die Umsetzung umfasst mechanische Konzepte, logische Konstrukte und die Kombination mehrerer Mechaniken. Es wird gezeigt, wie logische Sessions durch Embedding-Algorithmen aus Benutzersequenzen konstruiert werden: mit einem neuartigen Ansatz zur Identifizierung logischer Sessions, bei dem die thematische Nähe von Interaktionen anstelle von Suchanfragen allein verwendet wird. Alle Ansätze werden verglichen und quantitativ beschrieben sowie in drei Machine-Learning-Problemen (wie Recommendation) angewendet. Der Hauptbeitrag dieser Dissertation besteht darin, einen umfassenden Vergleich von Session-Identifikationsalgorithmen bereitzustellen. Die Arbeit bietet eine Methodik zum Implementieren, Analysieren und Evaluieren einer Auswahl von Mechaniken, die es ermöglichen, das Benutzerverhalten und die Auswirkungen von Session-Modellierung besser zu verstehen. Die Ergebnisse zeigen, dass unterschiedlich strukturierte Eingabedaten die Ergebnisse von Algorithmen oder Analysen drastisch verändern können. / The identification of sessions as a means of understanding user behaviour is a common research area of web usage mining. Different definitions and concepts have been discussed for over 20 years: Research shows that session identification is not an arbitrary task. There is a tendency towards simplistic mechanical sessions instead of more complex logical segmentations, which is questionable. This dissertation aims to prove how the nature of differing session-identification approaches leads to diverging results and interpretations. The overarching research question asks: will different session-identification approaches impact analysis and machine learning tasks? A comprehensive methodological framework for implementing, comparing and evaluating sessions is given. The dissertation provides implementation guidelines for 135 session-identification approaches utilizing a complete year (2018) of traffic data from a German price-comparison e-commerce platform. The implementation includes mechanical concepts, logical constructs and the combination of multiple methods. It shows how logical sessions were constructed from user sequences by employing embedding algorithms on interaction logs; taking a novel approach to logical session identification by utilizing topical proximity of interactions instead of search queries alone. All approaches are compared and quantitatively described. The application in three machine-learning tasks (such as recommendation) is intended to show that using different sessions as input data has a marked impact on the outcome. The main contribution of this dissertation is to provide a comprehensive comparison of session-identification algorithms. The research provides a methodology to implement, analyse and compare a wide variety of mechanics, allowing to better understand user behaviour and the effects of session modelling. The main results show that differently structured input data may drastically change the results of algorithms or analysis.
16

One-to-One Marketing in Grocery Retailing

Gabel, Sebastian 28 June 2019 (has links)
In der akademischen Fachliteratur existieren kaum Forschungsergebnisse zu One-to-One-Marketing, die auf Anwendungen im Einzelhandel ausgerichtet sind. Zu den Hauptgründen zählen, dass Ansätze nicht auf die Größe typischer Einzelhandelsanwendungen skalieren und dass die Datenverfügbarkeit auf Händler und Marketing-Systemanbieter beschränkt ist. Die vorliegende Dissertation entwickelt neue deskriptive, prädiktive und präskriptive Modelle für automatisiertes Target Marketing, die auf Representation Learning und Deep Learning basieren, und untersucht deren Wirksamkeit in Praxisanwendungen. Im ersten Schritt zeigt die Arbeit, dass Representation Learning in der Lage ist, skalierbar Marktstrukturen zu analysieren. Der vorgeschlagene Ansatz zur Visualisierung von Marktstrukturen ist vollständig automatisiert und existierenden Methoden überlegen. Die Arbeit entwickelt anschließend ein skalierbares, nichtparametrisches Modell, das Produktwahl auf Konsumentenebene für alle Produkte im Sortiment großer Einzelhändler vorhersagt. Das Deep Neural Network übertrifft die Vorhersagekraft existierender Benchmarks und auf Basis des Modells abgeleitete Coupons erzielen signifikant höhere Umsatzsteigerungen. Die Dissertation untersucht abschließend eine Coupon-Engine, die auf den entwickelten Modellen basiert. Der Vergleich personalisierter Werbeaktionen mit Massenmarketing belegt, dass One-to-One Marketing Einlösungsraten, Umsätze und Gewinne steigern kann. Eine Analyse der Kundenreaktionen auf personalisierte Coupons im Rahmen eines Kundenbindungsprogrammes zeigt, dass personalisiertes Marketing Systemnutzung erhöht. Dies illustriert, wie Target Marketing und Kundenbindungsprogramme effizient kombiniert werden können. Die vorliegende Dissertation ist somit sowohl für Forscher als auch für Praktiker relevant. Neben leistungsfähigeren Modellansätzen bietet diese Arbeit relevante Implikationen für effizientes Promotion-Management und One-to-One-Marketing im Einzelhandel. / Research on one-to-one marketing with a focus on retailing is scarce in academic literature. The two main reasons are that the target marketing approaches proposed by researchers do not scale to the size of typical retail applications and that data regarding one-to-one marketing remain locked within retailers and marketing solution providers. This dissertation develops new descriptive, predictive, and prescriptive marketing models for automated target marketing that are based on representation learning and deep learning and studies the models’ impact in real-life applications. First, this thesis shows that representation learning is capable of analyzing market structures at scale. The proposed approach to visualizing market structures is fully automated and superior to existing mapping methods that are based on the same input data. The thesis then proposes a scalable, nonparametric model that predicts product choice for the entire assortment of a large retailer. The deep neural network outperforms benchmark methods for predicting customer purchases. Coupon policies based on the proposed model lead to substantially higher revenue lifts than policies based on the benchmark models. The remainder of the thesis studies a real-time offer engine that is based on the proposed models. The comparison of personalized promotions to non-targeted promotions shows that one-to-one marketing increases redemption rates, revenues, and profits. A study of customer responses to personalized price promotions within the retailer’s loyalty program reveals that personalized marketing also increases loyalty program usage. This illustrates how targeted price promotions can be integrated smoothly into loyalty programs. In summary, this thesis is highly relevant for both researchers and practitioners. The new deep learning models facilitate more scalable and efficient one-to-one marketing. In addition, this research offers pertinent implications for promotion management and one-to-one marketing.

Page generated in 0.0684 seconds