• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 753
  • 286
  • 49
  • 12
  • 1
  • 1
  • Tagged with
  • 1407
  • 705
  • 604
  • 437
  • 340
  • 340
  • 324
  • 315
  • 247
  • 240
  • 240
  • 207
  • 204
  • 204
  • 194
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1111

Essays on Modern Econometrics and Machine Learning

Keilbar, Georg 16 June 2022 (has links)
Diese Dissertation behandelt verschiedene Aspekte moderner Ökonometrie und Machine Learnings. Kapitel 2 stellt einen neuen Schätzer für die Regressionsparameter in einem Paneldatenmodell mit interaktiven festen Effekten vor. Eine Besonderheit unserer Methode ist die Modellierung der factor loadings durch nichtparametrische Funktionen. Wir zeigen die root-NT-Konvergenz sowie die asymptotische Normalverteilung unseres Schätzers. Kapitel 3 betrachtet die rekursive Schätzung von Quantilen mit Hilfe des stochastic gradient descent (SGD) Algorithmus mit Polyak-Ruppert Mittelwertbildung. Der Algorithmus ist rechnerisch und Speicher-effizient verglichen mit herkömmlichen Schätzmethoden. Unser Fokus ist die Untersuchung des nichtasymptotischen Verhaltens, indem wir eine exponentielle Wahrscheinlichkeitsungleichung zeigen. In Kapitel 4 stellen wir eine neue Methode zur Kalibrierung von conditional Value-at-Risk (CoVaR) basierend auf Quantilregression mittels Neural Networks vor. Wir modellieren systemische Spillovereffekte in einem Netzwerk von systemrelevanten Finanzinstituten. Eine Out-of-Sample Analyse zeigt eine klare Verbesserung im Vergleich zu einer linearen Grundspezifikation. Im Vergleich mit bestehenden Risikomaßen eröffnet unsere Methode eine neue Perspektive auf systemisches Risiko. In Kapitel 5 modellieren wir die gemeinsame Dynamik von Kryptowährungen in einem nicht-stationären Kontext. Um eine Analyse in einem dynamischen Rahmen zu ermöglichen, stellen wir eine neue vector error correction model (VECM) Spezifikation vor, die wir COINtensity VECM nennen. / This thesis focuses on different aspects of the union of modern econometrics and machine learning. Chapter 2 considers a new estimator of the regression parameters in a panel data model with unobservable interactive fixed effects. A distinctive feature of the proposed approach is to model the factor loadings as a nonparametric function. We show that our estimator is root-NT-consistent and asymptotically normal, as well that it reaches the semiparametric efficiency bound under the assumption of i.i.d. errors. Chapter 3 is concerned with the recursive estimation of quantiles using the stochastic gradient descent (SGD) algorithm with Polyak-Ruppert averaging. The algorithm offers a computationally and memory efficient alternative to the usual empirical estimator. Our focus is on studying the nonasymptotic behavior by providing exponentially decreasing tail probability bounds under minimal assumptions. In Chapter 4 we propose a novel approach to calibrate the conditional value-at-risk (CoVaR) of financial institutions based on neural network quantile regression. We model systemic risk spillover effects in a network context across banks by considering the marginal effects of the quantile regression procedure. An out-of-sample analysis shows great performance compared to a linear baseline specification, signifying the importance that nonlinearity plays for modelling systemic risk. A comparison to existing network-based risk measures reveals that our approach offers a new perspective on systemic risk. In Chapter 5 we aim to model the joint dynamics of cryptocurrencies in a nonstationary setting. In particular, we analyze the role of cointegration relationships within a large system of cryptocurrencies in a vector error correction model (VECM) framework. To enable analysis in a dynamic setting, we propose the COINtensity VECM, a nonlinear VECM specification accounting for a varying system-wide cointegration exposure.
1112

Microcircuit structures of inhibitory connectivity in the rat parahippocampal gyrus

Barreda Tomás, Federico José 16 May 2023 (has links)
Komplexe Berechnungen im Gehirn werden durch das Zusammenspiel von exzitatorischen und hemmenden Neuronen in lokalen Netzwerken ermöglicht. In kortikalen Netzwerken, wird davon ausgegangen, dass hemmende Neurone, besonders Parvalbumin positive Korbzellen, ein „blanket of inhibition” generieren. Dieser Sichtpunkt wurde vor kurzem durch Befunde strukturierter Inhibition infrage gestellt, jedoch ist die Organisation solcher Konnektivität noch unklar. In dieser Dissertation, präsentiere ich die Ergebnisse unserer Studie Parvabumin positiver Korbzellen, in Schichten II / III des entorhinalen Kortexes und Präsubiculums der Ratte. Im entorhinalen Kortex haben wir dorsale und ventrale Korbzellen beschrieben und festgestellt, dass diese morphologisch und physiologisch ähnlich, jedoch in ihrer Konnektivität zu Prinzipalzellen dorsal stärker als ventral verbunden sind. Dieser Unterschied korreliert mit Veränderungen der Gitterzellenphysiologie. Ähnlich zeige ich im Präsubiculum, dass inhibitorische Konnektivität eine essenzielle Rolle im lokalen Netzwerk spielt. Hemmung im Präsubiculum ist deutlich spärlicher ist als im entorhinalen Kortex, was ein unterschiedliches Prinzip der Netzwerkorganisation suggeriert. Um diesen Unterschied zu studieren, haben wir Morphologie und Netzwerkeigenschaften Präsubiculärer Korbzellen analysiert. Prinzipalzellen werden über ein vorherrschendes reziprokes Motif gehemmt die durch die polarisierte Struktur der Korbzellaxone ermöglicht wird. Unsere Netzwerksimulationen zeigen, dass eine polarisierte Inhibition Kopfrichtungs-Tuning verbessert. Insgesamt zeigen diese Ergebnisse, dass inhibitorische Konnektivität, funktioneller Anforderungen der lokalen Netzwerke zur Folge, unterschiedlich strukturiert sein kann. Letztlich stelle ich die Hypothese auf, dass für lokale inhibitorische Konnektivität eine Abweichung von „blanket of inhibition― zur „maßgeschneiderten― Inhibition zur Lösung spezifischer computationeller Probleme vorteilhaft sein kann. / Local microcircuits in the brain mediate complex computations through the interplay of excitatory and inhibitory neurons. It is generally assumed that fast-spiking parvalbumin basket cells, mediate a non-selective -blanket of inhibition-. This view has been recently challenged by reports structured inhibitory connectivity, but it’s precise organization and relevance remain unresolved. In this thesis, I present the results of our studies examining the properties of fast-spiking parvalbumin basket cells in the superficial medial entorhinal cortex and presubiculum of the rat. Characterizing these interneurons in the dorsal and ventral medial entorhinal cortex, we found basket cells of the two subregions are more likely to be connected to principal cells in the dorsal compared to the ventral region. This difference is correlated with changes in grid physiology. Our findings further indicated that inhibitory connectivity is essential for local computation in the presubiculum. Interestingly though, we found that in this region, local inhibition is lower than in the medial entorhinal cortex, suggesting a different microcircuit organizational principle. To study this difference, we analyzed the properties of fast-spiking basket cells in the presubiculum and found a characteristic spatially organized connectivity principle, facilitated by the polarized axons of the presubicular fast-spiking basket cells. Our network simulations showed that such polarized inhibition can improve head direction tuning of principal cells. Overall, our results show that inhibitory connectivity is differently organized in the medial entorhinal cortex and the presubiculum, likely due to functional requirements of the local microcircuit. As a conclusion to the studies presented in this thesis, I hypothesize that a deviation from the blanket of inhibition, towards a region-specific, tailored inhibition can provide solutions to distinct computational problems.
1113

Least Squares in Sampling Complexity and Statistical Learning

Bartel, Felix 19 January 2024 (has links)
Data gathering is a constant in human history with ever increasing amounts in quantity and dimensionality. To get a feel for the data, make it interpretable, or find underlying laws it is necessary to fit a function to the finite and possibly noisy data. In this thesis we focus on a method achieving this, namely least squares approximation. Its discovery dates back to around 1800 and it has since then proven to be an indispensable tool which is efficient and has the capability to achieve optimal error when used right. Crucial for the least squares method are the ansatz functions and the sampling points. To discuss them, we gather tools from probability theory, frame subsampling, and $L_2$-Marcinkiewicz-Zygmund inequalities. With that we give results in the worst-case or minmax setting, when a set of points is sought for approximating a class of functions, which we model as a generic reproducing kernel Hilbert space. Further, we give error bounds in the statistical learning setting for approximating individual functions from possibly noisy samples. Here, we include the covariate-shift setting as a subfield of transfer learning. In a natural way a parameter choice question arises for balancing over- and underfitting effect. We tackle this by using the cross-validation score, for which we show a fast way of computing as well as prove the goodness thereof.:1 Introduction 2 Least squares approximation 3 Reproducing kernel Hilbert spaces (RKHS) 4 Concentration inequalities 5 Subsampling of finite frames 6 L2 -Marcinkiewicz-Zygmund (MZ) inequalities 7 Least squares in the worst-case setting 8 Least squares in statistical learning 9 Cross-validation 10 Outlook
1114

Sample-Based Forecasting Exploiting Hierarchical Time Series

Fischer, Ulrike, Rosenthal, Frank, Lehner, Wolfgang 16 September 2022 (has links)
Time series forecasting is challenging as sophisticated forecast models are computationally expensive to build. Recent research has addressed the integration of forecasting inside a DBMS. One main benefit is that models can be created once and then repeatedly used to answer forecast queries. Often forecast queries are submitted on higher aggregation levels, e. g., forecasts of sales over all locations. To answer such a forecast query, we have two possibilities. First, we can aggregate all base time series (sales in Austria, sales in Belgium...) and create only one model for the aggregate time series. Second, we can create models for all base time series and aggregate the base forecast values. The second possibility might lead to a higher accuracy but it is usually too expensive due to a high number of base time series. However, we actually do not need all base models to achieve a high accuracy, a sample of base models is enough. With this approach, we still achieve a better accuracy than an aggregate model, very similar to using all models, but we need less models to create and maintain in the database. We further improve this approach if new actual values of the base time series arrive at different points in time. With each new actual value we can refine the aggregate forecast and eventually converge towards the real actual value. Our experimental evaluation using several real-world data sets, shows a high accuracy of our approaches and a fast convergence towards the optimal value with increasing sample sizes and increasing number of actual values respectively.
1115

From Deep Mixture Models towards Distributional Regression - Exploring Complex Multivariate Data

Kock, Lucas 04 June 2024 (has links)
Diese Dissertation stellt drei sich ergänzende Fortschritte in der statistischen Modellierung multivariater Daten vor und behandelt Herausforderungen im Bereich des modellbasierten Clusterings für hochdimensionale Daten, der Analyse longitudinaler Daten sowie der multivariaten Verteilungsregression. Der erste Forschungszweig konzentriert sich auf tiefe Gaußsche Mischmodelle, eine leistungsfähige Erweiterung herkömmlicher Gaußscher Mischmodelle. Wir erforschen Bayessche Inferenz mit Sparsamkeitsprioris zur Regularisierung der Schätzung tiefer Mischmodelle und stellen ein innovatives tiefes Mischmodell von Faktormodellen vor, das in der Lage ist, hochdimensionale Probleme zu bewältigen. Der zweite Forschungsstrang erweitert tiefe Mischmodelle von Clustering zu Regression. Unter Verwendung des tiefen Mischmodells von Faktormodellen als Prior für Zufallseffekte stellen wir einen innovativen Ansatz vor: tiefe Mischmodelle von linearen gemischten Modellen, der lineare gemischte Modelle so erweitert, dass er den Komplexitäten longitudinaler Daten mit vielen Beobachtungen pro Subjekt und komplexen zeitlichen Trends gerecht wird. Dieser Forschungszweig überwindet Beschränkungen gegenwärtiger Modelle und präsentiert eine anpassungsfähige Lösung für hochdimensionale Szenarien. Der dritte Forschungszweig setzt sich mit der Herausforderung auseinander, wahrhaft multivariate Verteilungen im Kontext von Generalisierten Additiven Modellen für Ort, Skala und Form zu modellieren. Wir präsentieren einen innovativen Ansatz, der Copula-Regression nutzt, um die Abhängigkeitsstruktur mittels einer Gauß-Copula zu modellieren. Dies ermöglicht die gemeinsame Modellierung hochdimensionaler Vektoren mit flexiblen marginalen Verteilungen. Hier erleichtert bayessche Inferenz die effiziente Schätzung des stark parametrisierten Modells und führt zu einem äußerst flexiblen Ansatz im Vergleich zu bestehenden Modellen. / This thesis introduces three complementary advancements in statistical modeling for multivariate data, addressing challenges in model-based clustering for high-dimensional data, longitudinal data analysis, and multivariate distributional regression. The first research strand focuses on deep Gaussian mixture models, a powerful extension of ordinary Gaussian mixture models. We explore the application of Bayesian inference with sparsity priors to regularize the estimation of deep mixtures, presenting a novel Bayesian deep mixtures of factor analyzers model capable of handling high-dimensional problems. The inclusion of sparsity-inducing priors in the model contributes to improved clustering results. A scalable natural gradient variational inference algorithm is developed to enhance computational efficiency. The second research strand extends deep mixture models from clustering towards regression. Leveraging the deep mixtures of factor analyzers model as a prior for random effects, we introduce a novel framework, deep mixtures of linear mixed models that extends mixtures of linear mixed models to accommodate the complexities of longitudinal data with many observations per subject and intricate temporal trends. We describe an efficient variational inference approach. This research addresses the limitations of current models and provides a flexible solution for high-dimensional settings. The third research strand tackles the challenge of modeling truly multivariate distributions in the context of Generalized Additive Models for Location, Scale, and Shape. We propose a novel approach utilizing copula regression to model the dependence structure through a Gaussian copula, allowing for joint modeling of high-dimensional response vectors with flexible marginal distributions. Here, Bayesian inference facilitates efficient estimation of the highly parameterized model, introducing a highly flexible and complementary approach to existing models.
1116

Early stopping for iterative estimation procedures

Stankewitz, Bernhard 07 June 2024 (has links)
Diese Dissertation ist ein Beitrag zum Forschungsfeld Early stopping im Kontext iterativer Schätzverfahren. Wir betrachten Early stopping dabei sowohl aus der Perspektive impliziter Regularisierungsverfahren als auch aus der Perspektive adaptiver Methoden Analog zu expliziter Regularisierung reduziert das Stoppen eines Schätzverfahrens den stochastischen Fehler/die Varianz des endgültigen Schätzers auf Kosten eines zusätzlichen Approximationsfehlers/Bias. In diesem Forschungsbereich präsentieren wir eine neue Analyse des Gradientenabstiegsverfahrens für konvexe Lernprobleme in einem abstrakten Hilbert-Raum. Aus der Perspektive adaptiver Methoden müssen iterative Schätzerverfahren immer mit einer datengetriebenen letzten Iteration m kombiniert werden, die sowohl under- als auch over-fitting verhindert. In diesem Forschungsbereichpräsentieren wir zwei Beiträge: In einem statistischen inversen Problem, das durch iteratives Trunkieren der Singulärwertzerlegung regularisiert wird, untersuchen wir, unter welchen Umständen optimale Adaptiertheit erreicht werden kann, wenn wir an der ersten Iteration m stoppen, an der die geglätteten Residuen kleiner sind als ein kritischer Wert. Für L2-Boosting mittels Orthogonal Matching Pursuit (OMP) in hochdimensionalen linearen Modellen beweisen wir, dass sequenzielle Stoppverfahren statistische Optimalität garantieren können. Die Beweise beinhalten eine subtile punktweise Analyse einer stochastischen Bias-Varianz-Zerlegung, die durch den Greedy-Algorithmus, der OMP unterliegt, induziert wird. Simulationsstudien zeigen, dass sequentielle Methoden zu deutlich reduzierten Rechenkosten die Leistung von Standardalgorithmen wie dem kreuzvalidierten Lasso oder der nicht-sequentiellen Modellwahl über ein hochdimensionales Akaike- Kriterium erbringen können. / This dissertation contributes to the growing literature on early stopping in modern statistics and machine learning. We consider early stopping from the perspective of both implicit regularization and adaptive estimation. From the former, analogous to an explicit regularization method, halting an iterative estimation procedure reduces the stochastic error/variance of the final estimator at the cost of some bias. In this area, we present a novel analysis of gradient descent learning for convex loss functions in an abstract Hilbert space setting, which combines techniques from inexact optimization and concentration of measure. From the perspective of adaptive estimation, iterative estimation procedures have to be combined with a data-driven choice m of the effectively selected iteration in order to avoid under- as well as over-fitting. In this area, we present two contributions: For truncated SVD estimation in statistical inverse problems, we examine under what circumstances optimal adaptation can be achieved by early stopping at the first iteration at which the smoothed residuals are smaller than a critical value. For L2-boosting via orthogonal matching pursuit (OMP) in high dimensional linear models, we prove that sequential early stopping rules can preserve statistical optimality in terms of a general oracle inequality for the empirical risk and recently established optimal convergence rates for the population risk.
1117

Mathematical Analysis of Charge and Heat Flow in Organic Semiconductor Devices

Liero, Matthias 05 January 2023 (has links)
Organische Halbleiterbauelemente sind eine vielversprechende Technologie, die das Spektrum der optoelektronischen Halbleiterbauelemente erweitert und etablierte Technologien basierend auf anorganischen Halbleitermaterialien ersetzen kann. Für Display- und Beleuchtungsanwendungen werden sie z. B. als organische Leuchtdioden oder Transistoren verwendet. Eine entscheidende Eigenschaft organischer Halbleitermaterialien ist, dass die Ladungstransporteigenschaften stark von der Temperatur im Bauelement beeinflusst werden. Insbesondere nimmt die elektrische Leitfähigkeit mit der Temperatur zu, so dass Selbsterhitzungseffekte, einen großen Einfluss auf die Leistung der Bauelemente haben. Mit steigender Temperatur nimmt die elektrische Leitfähigkeit zu, was wiederum zu größeren Strömen führt. Dies führt jedoch zu noch höheren Temperaturen aufgrund von Joulescher Wärme oder Rekombinationswärme. Eine positive Rückkopplung liegt vor. Im schlimmsten Fall führt dieses Verhalten zum thermischen Durchgehen und zur Zerstörung des Bauteils. Aber auch ohne thermisches Durchgehen führen Selbsterhitzungseffekte zu interessanten nichtlinearen Phänomenen in organischen Bauelementen, wie z. B. die S-förmige Beziehung zwischen Strom und Spannung. In Regionen mit negativem differentiellen Widerstand führt eine Verringerung der Spannung über dem Bauelement zu einem Anstieg des Stroms durch das Bauelement. Diese Arbeit soll einen Beitrag zur mathematischen Modellierung, Analysis und numerischen Simulation von organischen Bauteilen leisten. Insbesondere wird das komplizierte Zusammenspiel zwischen dem Fluss von Ladungsträgern (Elektronen und Löchern) und Wärme diskutiert. Die zugrundeliegenden Modellgleichungen sind Thermistor- und Energie-Drift-Diffusion-Systeme. Die numerische Diskretisierung mit robusten hybriden Finite-Elemente-/Finite-Volumen-Methoden und Pfadverfolgungstechniken zur Erfassung der in Experimenten beobachteten S-förmigen Strom-Spannungs-Charakteristiken wird vorgestellt. / Organic semiconductor devices are a promising technology to extend the range of optoelectronic semiconductor devices and to some extent replace established technologies based on inorganic semiconductor materials. For display and lighting applications, they are used as organic light-emitting diodes (OLEDs) or transistors. One crucial property of organic semiconductor materials is that charge-transport properties are heavily influenced by the temperature in the device. In particular, the electrical conductivity increases with temperature, such that self-heating effects caused by the high electric fields and strong recombination have a potent impact on the performance of devices. With increasing temperature, the electrical conductivity rises, which in turn leads to larger currents. This, however, results in even higher temperatures due to Joule or recombination heat, leading to a feedback loop. In the worst case, this loop leads to thermal runaway and the complete destruction of the device. However, even without thermal runaway, self-heating effects give rise to interesting nonlinear phenomena in organic devices, like the S-shaped relation between current and voltage resulting in regions where a decrease in voltage across the device results in an increase in current through it, commonly denoted as regions of negative differential resistance. This thesis aims to contribute to the mathematical modeling, analysis, and numerical simulation of organic semiconductor devices. In particular, the complicated interplay between the flow of charge carriers (electrons and holes) and heat is discussed. The underlying model equations are of thermistor and energy-drift-diffusion type. Moreover, the numerical approximation using robust hybrid finite-element/finite-volume methods and path-following techniques for capturing the S-shaped current-voltage characteristics observed in experiments are discussed.
1118

A mathematical study of the Darwin-Howie-Whelan equations for Transmission Electron Microscopy

Maltsi, Anieza 16 February 2023 (has links)
Diese Arbeit liefert einen Beitrag zur mathematischen Untersuchung der Darwin-Howie-Whelan (DHW) Gleichungen. Sie werden üblicherweise zur Beschreibung und Simulation der Diffraktion schneller Elektronen in der Transmissionselektronenmikroskopie (TEM) verwendet. Sie bilden ein System aus Gleichungen für unendlich viele Enveloppenfunktionen, das aus der Schrödinger-Gleichung abgeleitet werden kann. Allerdings wird für Simulation von TEM Bildern nur ein endlicher Satz von Enveloppenfunktionen verwendet, was zu einem System von gewöhnlichen Differentialgleichungen in Richtung der Dicke der Probe führt. Bis jetzt gibt es keine systematische Analyse zur Genauigkeit dieser Näherungen in Abhängigkeit von der Auswahl der verwendeten endlichen Sätze von Enveloppenfunktionen. Diese Frage wird hier untersucht, indem die mathematische Struktur des Systems analysiert wird und Fehlerabschätzungen zur Bewertung der Genauigkeit spezieller Näherungen hergeleitet werden, wie der Zweistrahl-Approximation oder der sogennanten systematischen Reihe. Anschließend wird ein mathematisches Modell und eine Toolchain für die numerische Simulation von TEM-Bildern von Halbleiter-Quantenpunkten entwickelt. Es wird eine Simulationsstudie an Indium-Gallium-Arsenid-Quantenpunkten mit unterschiedlicher Geometrie durchgeführt und die resultierenden TEM Bilder werden mit experimentellen Bildern verglichen. Schließlich werden die in TEM Bildern beobachteten Symmetrien im Hinblick auf die DHW Gleichungen untersucht. Dazu werden mathematische Resultate formuliert und bewiesen, die zeigen dass die Intensitäten der Lösungen der DHW Gleichungen unter bestimmten Transformationen invariant sind. Durch die Kombination dieser Invarianten mit spezifischen Eigenschaften des Deformationsfeldes können dann die in TEM Bildern beobachteten Symmetrien erklärt werden. Die Ergebnisse werden anhand ausgewählter Beispiele aus dem Bereich der Halbleiter-Nanostrukturen wie Quantensichten und Quantenpunkte demonstriert. / In this thesis a mathematical study on the Darwin--Howie--Whelan (DHW) equations is provided. The equations are commonly used to describe and simulate the scattering of fast electrons in transmission electron microscopy (TEM). They are a system for infinitely many envelope functions, derived from the Schrödinger equation. However, for the simulation of images only a finite set of envelope functions is used, leading to a finite system of ordinary differential equations in the thickness direction of the specimen. Until now, there has been no systematic discussion about the accuracy of approximations depending on the choice of the finite sets used. This question is approached here by studying the mathematical structure of the system and providing error estimates to evaluate the accuracy of special approximations, like the two-beam and the systematic-row approximation. Then a mathematical model and a toolchain for the numerical simulation of TEM images of semiconductor quantum dots (QDs) is developed. A simulation study is performed on indium gallium arsenide QDs with different shapes and the resulting TEM images are compared to experimental ones. Finally, symmetries observed in TEM images are investigated with respect to the DHW equations. Then, mathematical proofs are given showing that the intensities of the solutions of the DHW equations are invariant under specific transformations. A combination of these invariances with specific properties of the strain profile can then explain symmetries observed in TEM images. The results are demonstrated by using selected examples in the field of semiconductor nanostructures, such as quantum wells and quantum dots.
1119

Adaptive Weights Clustering and Community Detection

Besold, Franz Jürgen 19 April 2023 (has links)
Die vorliegende Dissertation widmet sich der theoretischen Untersuchung zweier neuer Algorithmen für Clustering und Community Detection: AWC (Adaptive Weights Clustering) und AWCD (Adaptive Weights Community Detection). Ein zentraler Aspekt sind dabei die Raten der Konsistenz. Bei der Betrachtung von AWC steht die Tiefe Lücke zwischen den Clustern, also die relative Differenz der jeweiligen Dichten, im Vordergrund. Bis auf logarithmische Faktoren ist die erreichte Konsistenzrate optimal. Dies erweitert die niedrigdimensionalen Ergebnisse von Efimov, Adamyan and Spokoiny (2019) auf das Mannigfaltigkeitenmodell und berücksichtigt darüber hinaus viel allgemeinere Bedingungen an die zugrunde liegende Dichte und die Form der Cluster. Insbesondere wird der Fall betrachtet, bei dem zwei Punkte des gleichen Clusters nahe an dessen Rand liegen. Zudem werden Ergebnisse für endliche Stichproben und die optimale Wahl des zentralen Parameters λ diskutiert. Bei der Untersuchung von AWCD steht die Asymptotik der Differenz θ − ρ zwischen den beiden Bernoulli Parametern eines symmetrischen stochastischen Blockmodells im Mittelpunkt. Es stellt sich heraus, dass das Gebiet der starken Konsistenz bei weitem nicht optimal ist. Es werden jedoch zwei Modifikationen des Algorithmus vorgeschlagen: Zum einen kann der Bias der beteiligten Schätzer minimiert werden. Zum anderen schlagen wir vor, die Größe der initialen Schätzung der Struktur der Gruppen zu erhöhen, indem auch längere Pfade mit berücksichtigt werden. Mithilfe dieser Modifikationen erreicht der Algorithmus eine nahezu optimale Konsistenzrate. Teilweise können diese Ergebnisse auch auf allgemeinere stochastische Blockmodelle erweitert werden. Für beide Probleme illustrieren und validieren wir außerdem die theoretischen Resultate durch umfangreiche Experimente. Abschließend lässt sich sagen, dass die vorliegende Arbeit die Lücke zwischen theoretischen und praktischen Ergebnissen für die Algorithmen AWC und AWCD schließt. Insbesondere sind beide Algorithmen nach einigen Modifikationen auf relevanten Modellen konsistent mit einer nahezu optimalen Rate. / This thesis presents a theoretical study of two novel algorithms for clustering and community detection: AWC (Adaptive Weights Clustering) and AWCD (Adaptive Weights Community Detection). Most importantly, we discuss rates of consistency. For AWC, we focus on the asymptotics of the depth ε of the gap between clusters, i.e. the relative difference between the density level of the clusters and the density level of the area between them. We show that AWC is consistent with a nearly optimal rate. This extends the low-dimensional results of Efimov, Adamyan and Spokoiny (2019) to the manifold model while also considering much more general assumptions on the underlying density and the shape of clusters. In particular, we also consider the case of two points in the same cluster that are relatively close to the boundary. Moreover, we provide finite sample guarantees as well as the optimal tuning parameter λ. For AWCD, we consider the asymptotics of the difference θ − ρ between the two Bernoulli parameters of a symmetric stochastic block model. As it turns out, the resulting regime of strong consistency is far from optimal. However, we propose two major modifications to the algorithm: Firstly, we discuss an approach to minimize the bias of the involved estimates. Secondly, we suggest increasing the starting neighborhood guess of the algorithm by taking into account paths of minimal path length k. Using these modifications, we are able to show that AWCD achieves a nearly optimal rate of strong consistency. We partially extend these results to more general stochastic block models. For both problems, we illustrate and validate the theoretical study through a wide range of numerical experiments. To summarize, this thesis closes the gap between the practical and theoretical studies for AWC and AWCD. In particular, after some modifications, both algorithms exhibit a nearly optimal performance on relevant models.
1120

Cutkosky's Theorem: one-loop and beyond

Mühlbauer, Maximilian 27 October 2023 (has links)
Wir untersuchen die analytische Struktur von Feynman Integralen als mengenwertige holomorphe Funktionen mit topologischen Methoden, spezifisch mit Techniken für singuläre Integrale. Der Hauptfokus liegt auf dem Ein-Schleifen-Fall. Zunächst geben wir einen gründlichen Überblick über die Theorie der singulären Integrale und füllen einige Lücken in der Literatur. Anschließend untersuchen wir die Topologie von endlichen Vereinigungen und Schnitten von bestimmten nicht-degenerierten affinen komplexes Quadriken, welche die relevante Geometrie von Ein-Schleifen Feynman Integralen darstellen. Wir etablieren einige grundsätzliche topologische Eigenschaften und führen eine Kompaktifizierung von Bündeln solcher Räume und eine Whitney Stratifizierung dieser ein. Des Weiteren berechnen wir die Homologiegruppen der Fasern durch eine Dekomposition in die auftretenden Schnitte komplexer Sphären. Das Einführen einer CW-Dekomposition einer spezifischen Faser führt zu einer kombinatorischen Studie, welche es uns erlaubt explizite Generatoren in Sinne dieser CW-Strukture zu berechnen. Unter Verwendung dieser Generatoren berechnen wir die relevanten Schnittindizes, welche im Ramifizierungsproblem auftreten. Durch Anwendung dieser Resultate auf Ein-Schleifen Feynman Integrale finden wir die klassischen Landau Gleichungen wieder und erhalten einen vollständigen Beweis von Cutkoskys Theorem. Des Weiteren untersuchen wir, wie viel dieses Mechanismus sich auf den Mehr-Schleifen Fall überträgt. Insbesondere betrachten wir zwei Beispiele von Mehr-Schleifen Integralen und erhalten Resultate die über den aktuellen Stand der Literatur hinaus gehen. / We investigate the analytic structure of Feynman integrals as multivalued holomorphic functions with topological methods, specifically with techniques for singular integrals. The main focus lies on the one-loop case. First, we conduct a thorough review of the theory of singular integrals, filling some gaps in the literature. Then, we investigate the topology of finite unions and intersections of certain non-degenerate affine complex quadrics which constitute the relevant geometry of one-loop Feynman integrals. We establish some basic topological properties and introduce a compactification of bundles of such spaces and a Whitney stratification thereof. Furthermore, we compute the homology groups of the fibers via a decomposition into the direct sum of all occurring intersections of complex spheres. Introducing a CW-decomposition of a specific fiber leads to a combinatorial study, allowing us to obtain explicit generators in terms of this CW-structure. Using these generators, we compute the relative intersection indices that occur in the ramification problem. Applying these results to one-loop Feynman integrals, we retrieve the classical Landau equations and obtain a full proof of Cutkosky's Theorem. Furthermore, we investigate how much of this machinery applies to the multi-loop case. In particular, we consider two examples of multi-loop integrals and obtain results beyond the current state of the literature.

Page generated in 0.0912 seconds