• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Random Tensor models : Combinatorics, Geometry, Quantum Gravity and Integrability / Modèles de tenseurs aléatoires : combinatoire, géométrie, gravité quantique et intégrabilité

Dartois, Stephane 09 October 2015 (has links)
Dans cette thèse nous explorons différentes facettes des modèles de tenseurs aléatoires. Les modèles de tenseurs aléatoires ont été introduits en physique dans le cadre de l'étude de la gravité quantique. En effet les modèles de matrices aléatoires, qui sont un cas particuliers de modèles de tenseurs, en sont une des origines. Ces modèles de matrices sont connus pour leur riche combinatoire et l'incroyable diversité de leurs propriétés qui les font toucher tous les domaines de l'analyse, la géométrie et des probabilités. De plus leur étude par les physiciens ont prouvé leur efficacité en ce qui concerne l'étude de la gravité quantique à deux dimensions. Les modèles de tenseurs aléatoires incarnent une généralisation possible des modèles de matrices. Comme leurs cousins, les modèles de matrices, ils posent questions dans les domaines de la combinatoire (comment traiter les cartes combinatoires d dimensionnelles ?), de la géométrie (comment contrôler la géométrie des triangulations générées ?) et de la physique (quel type d'espace-temps produisent-ils ? Quels sont leurs différentes phases ?). Cette thèse espère établir des pistes ainsi que des techniques d'études de ces modèles. Dans une première partie nous donnons une vue d'ensemble des modèles de matrices. Puis, nous discutons la combinatoire des triangulations en dimensions supérieures ou égales à trois en nous concentrant sur le cas tridimensionnelle (lequel est plus simple à visualiser). Nous définissons ces modèles et étudions certaines de leurs propriétés à l'aide de techniques combinatoires permettant de traiter les cartes d dimensionnelles. Enfin nous nous concentrons sur la généralisation de techniques issues des modèles de matrices dans le cas d'une famille particulières de modèles de tenseurs aléatoires. Ceci culmine avec le dernier chapitre de la thèse donnant des résultats partiels concernant la généralisation de la récurrence topologique de Eynard et Orantin à cette famille de modèles de tenseurs. / In this thesis manuscript we explore different facets of random tensor models. These models have been introduced to mimic the incredible successes of random matrix models in physics, mathematics and combinatorics. After giving a very short introduction to few aspects of random matrix models and recalling a physical motivation called Group Field Theory, we start exploring the world of random tensor models and its relation to geometry, quantum gravity and combinatorics. We first define these models in a natural way and discuss their geometry and combinatorics. After these first explorations we start generalizing random matrix methods to random tensors in order to describes the mathematical and physical properties of random tensor models, at least in some specific cases.
2

Extensions of principal components analysis

Brubaker, S. Charles 29 June 2009 (has links)
Principal Components Analysis is a standard tool in data analysis, widely used in data-rich fields such as computer vision, data mining, bioinformatics, and econometrics. For a set of vectors in n dimensions and a natural number k less than n, the method returns a subspace of dimension k whose average squared distance to that set is as small as possible. Besides saving computation by reducing the dimension, projecting to this subspace can often reveal structure that was hidden in high dimension. This thesis considers several novel extensions of PCA, which provably reveals hidden structure where standard PCA fails to do so. First, we consider Robust PCA, which prevents a few points, possibly corrupted by an adversary, from having a large effect on the analysis. When applied to learning noisy logconcave mixture models, the algorithm requires only slightly more separation between component means than is required for the noiseless case. Second, we consider Isotropic PCA, which can go beyond the first two moments in identifying ``interesting' directions in data. The method leads to the first affine-invariant algorithm that can provably learn mixtures of Gaussians in high dimensions, improving significantly on known results. Thirdly, we define the ``Subgraph Parity Tensor' of order r of a graph and reduce the problem of finding planted cliques in random graphs to the problem of finding the top principal component of this tensor.

Page generated in 0.1739 seconds