• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 12
  • 5
  • Tagged with
  • 50
  • 50
  • 21
  • 18
  • 14
  • 14
  • 14
  • 10
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Reconstitution tomographique de propriétés qualitatives et quantitatives d'images / Tomographic reconstruction of qualitative and quantitative properties of images

Abdmouleh, Fatma 12 November 2013 (has links)
La tomographie consiste à reconstruire un objet nD à partir de projections (n-1)D. Cette discipline soulève plusieurs questions auxquelles la recherche essaie d’apporter des réponses. On s’intéresse dans cette thèse à trois aspects de cette problématique : 1) la reconstruction de l’image 2D à partir de projections dans un cadre rarement étudié qui est celui des sources ponctuelles ; 2) l’unicité de cette reconstruction ; 3) l'estimation d’informations concernant un objet sans passer par l'étape de reconstitution de son image. Afin d’aborder le problème de reconstruction pour la classe des ensembles convexes, nous définissons une nouvelle classe d’ensembles ayant des propriétés de convexité qu’on appelle convexité par quadrants pour des sources ponctuelles. Après une étude de cette nouvelle classe d’ensembles, nous montrons qu’elle présente des liens forts avec la classe des ensembles convexes. Nous proposons alors un algorithme de reconstruction d’ensemblesconvexes par quadrants qui, si l’unicité de la reconstruction est garantie, permet de reconstruire des ensembles convexes en un temps polynomial. Nous montrons que si une conjecture, que nous avons proposée, est vraie, les conditions de l’unicité pour les ensembles convexes par quadrants sont les mêmes que celles pour les ensembles convexes. Concernant le troisième aspect étudié dans cette thèse, nous proposons une méthode qui permet d’estimer, à partir d’une seule projection, la surface d’un ensemble 2D. Concernant l’estimation du périmètre d’un ensemble 2D, en considérant les projections par une deuxième source d’un ensemble convexe, nous obtenons deux bornes inférieures et une borne supérieure pour le périmètre de l’objet projeté. / Tomography is about reconstructing an nD object from its (n-1)D projections. This discipline addresses many questions to which research tries to provide answers. In this work, we are interested to three aspects: 1) the 2D image reconstruction from projections in a rarely studies framework that is the point sources; 2) the uniqueness of this reconstruction; 3) estimating information about an object without going through the step of reconstructing its image. To approach the problem of tomographic reconstruction for the class of convex sets, we define a new class of sets having properties of convexity called quadrant convexity for point sources. After a study of this new class of sets, we show that it presents strong links with the class of convex sets. Wepropose a reconstruction algorithm for quadrant-convex sets that, if the uniqueness of the reconstruction is guaranteed, allows the reconstruction of convex sets in polynomial time. We also show that if a conjecture we have proposed is true the conditions of uniqueness for quadrant-convex sets are the same as those for convex sets. Regarding the third aspect studied in this thesis, we focus on two quantitative properties that are the surface and the perimeter. We propose a method to estimate, from only one projection, the surface of a 2D set. We obtain two lower bounds and an upper bound for the perimeter of a projected convexobject by considering the projections from a second point source.
42

La géométrie statistique : une étude sur les cases classique et quantique / Statistical geometry : a study on classical and quantum cases

Ari Wahyoedi, Seramika 22 July 2016 (has links)
Une théorie fixé de la gravitation est loin d' être complète. La théorie plus prometteuse parmi ces théories de la gravité dans ce siècle est la relativité générale (RG), qui est toujours rencontre des obstacles par plusieurs problèmes. Les problèmes que nous soulignons dans cette thèse sont les aspects thermodynamiques et la quantification de la gravitation. Les tentatives proposées pour comprendre d'aspect thermodynamique de RG ont déjà été étudiés par la thermodynamique des trous noirs, alors que la théorie de la gravité quantique a déjà eu plusieurs des candidats, l'un d' entre eux était la gravité quantique à boucles (LQG), celui qui est la théorie base de notre travail. La théorie correcte de la gravité quantique devrait offrir une limite classique qui est correcte et consistent , ce qui évidemment , la relativité générale. / A fixed theory of gravity is far from being complete. The most promising theory of gravity in this century is general relativity (GR), which is still plagued by several problems. The problems we highlight in this thesis are the thermodynamical aspects and the quantization of gravity. Attempts to understand the termodynamical aspect of GR have already been studied through the thermodynamics of black holes, while the theory of quantum gravity has already had several candidates, one of them being the canonical loop quantum gravity (LQG), which is the base theory in our work.
43

Discrete topology and geometry algorithms for quantitative human airway trees analysis based on computed tomography images / Topologie discrète et algorithmes géométriques pour l’analyse quantitative de l’arbre bronchique humain, basée sur des images de tomodensitométrie

Postolski, Michal 18 December 2013 (has links)
La tomodensitométrie est une technique très utile qui permet de mener avec succès des analyses non-invasives dans plusieurs types d'applications, par exemple médicales ou industrielles. L'analyse manuelle des structures d'intérêt présentes dans une image peut prendre beaucoup de temps, être laborieuse et parfois même impossible à faire en raison de sa complexité. C'est pour cela que dans cette thèse, nous proposons et développons des algorithmes nécessaires à cette analyse, basés sur la géométrie discrète et la topologie. Ces algorithmes peuvent servir dans de nombreuses applications, et en particulier au niveau de l'analyse quantitative automatique de l'arbre bronchique humain, sur la base d'images de tomodensitométrie. La première partie introduit les notions fondamentales de la topologie et de la géométrie discrètes utiles dans cette thèse. Ensuite, nous présentons le principe de méthodes utilisées dans de nombreuses applications : les algorithmes de squelettisation, de calcul de l'axe médian, les algorithmes de fermeture de tunnels et les estimateurs de tangentes. La deuxième partie présente les nouvelles méthodes que nous proposons et qui permettent de résoudre des problèmes particuliers. Nous avons introduit deux méthodes nouvelles de filtrage d'axe médian. La première, que nous appelons "hierarchical scale medial axis", est inspirée du "scale axis transform", sans les inconvénients qui sont propres à la méthode originale. La deuxième est une méthode nommée "discrete adaptive medial axis", où le paramètre de filtrage est adapté dynamiquement aux dimensions locales de l'objet. Dans cette partie, nous introduisons également des estimateurs de tangente nouveaux et efficaces, agissant sur des courbes discrètes tridimensionnelles, et que nous appelons "3Dlambda maximal segment tangent direction". Enfin, nous avons montré que la géométrie discrète et les algorithmes topologiques pouvaient être utiles dans le problème de l'analyse quantitative de l'arbre bronchique humain à partir d'images tomodensitométriques. Dans une chaîne de traitements de structure classique par rapport à l'état de l'art, nous avons appliqué des méthodes de topologie et de géométrie discrète afin de résoudre des problèmes particuliers dans chaque étape du processus de l'analyse quantitative. Nous proposons une méthode robuste pour segmenter l'arbre bronchique à partir d'un ensemble de données tomographiques (CT). La méthode est basée sur un algorithme de fermeture de tunnels qui est utilisé comme outil pour réparer des images CT abîmées par les erreurs d'acquisition. Nous avons aussi proposé un algorithme qui sert à créer un modèle artificiel d'arbre bronchique. Ce modèle est utilisé pour la validation des algorithmes présentés dans cette thèse. Ensuite nous comparons la qualité des différents algorithmes en utilisant un ensemble de test constitué de fantômes (informatiques) et d'un ensemble de données CT réelles. Nous montrons que les méthodes récemment présentées dans le cadre des complexes cubiques, combinées avec les méthodes présentées dans cette thèse, permettent de surmonter des problèmes indiqués par la littérature et peuvent être un bon fondement pour l'implémentation future des systèmes de quantification automatique des particularités de l'arbre bronchique / Computed tomography is a very useful technic which allow non-invasive diagnosis in many applications for example is used with success in industry and medicine. However, manual analysis of the interesting structures can be tedious and extremely time consuming, or even impossible due its complexity. Therefore in this thesis we study and develop discrete geometry and topology algorithms suitable for use in many practical applications, especially, in the problem of automatic quantitative analysis of the human airway trees based on computed tomography images. In the first part, we define basic notions used in discrete topology and geometry then we showed that several class of discrete methods like skeletonisation algorithms, medial axes, tunnels closing algorithms and tangent estimators, are widely used in several different practical application. The second part consist of a proposition and theory of a new methods for solving particular problems. We introduced two new medial axis filtering method. The hierarchical scale medial axis which is based on previously proposed scale axis transform, however, is free of drawbacks introduced in the previously proposed method and the discrete adaptive medial axis where the filtering parameter is dynamically adapted to the local size of the object. In this part we also introduced an efficient and parameter less new tangent estimators along three-dimensional discrete curves, called 3D maximal segment tangent direction. Finally, we showed that discrete geometry and topology algorithms can be useful in the problem of quantitative analysis of the human airway trees based on computed tomography images. According to proposed in the literature design of such system we applied discrete topology and geometry algorithms to solve particular problems at each step of the quantitative analysis process. First, we propose a robust method for segmenting airway tree from CT datasets. The method is based on the tunnel closing algorithm and is used as a tool to repair, damaged by acquisition errors, CT images. We also proposed an algorithm for creation of an artificial model of the bronchial tree and we used such model to validate algorithms presented in this work. Then, we compare the quality of different algorithms using set of experiments conducted on computer phantoms and real CT dataset. We show that recently proposed methods which works in cubical complex framework, together with methods introduced in this work can overcome problems reported in the literature and can be a good basis for the further implementation of the system for automatic quantification of bronchial tree properties
44

Simplification polyédrique optimale pour le rendu / Optimal polyhedral simplification for rendering

Charrier, Emilie 04 December 2009 (has links)
En informatique, les images sont numériques et donc composées de pixels en 2D et de voxels en 3D. Dans une scène virtuelle 3D, il est impossible de manipuler directement les objets comme des ensembles de voxels en raison du trop gros volume de données. Les objets sont alors polyédrisés, c’est-à-dire remplacés par une collection de facettes. Pour ce faire, il est primordial de savoir décider si un sous-ensemble de voxels peut être transformé en une facette dans la représentation polyédrique. Ce problème est appelé reconnaissance de plans discrets. Pour le résoudre, nous mettons en place un nouvel algorithme spécialement adapté pour les ensembles de voxels denses dans une boite englobante. Notre méthode atteint une complexité quasi-linéaire dans ce cas et s’avère efficace en pratique. En parallèle, nous nous intéressons à un problème algorithmique annexe intervenant dans notre méthode de reconnaissance de plans discrets. Il s’agit de calculer les deux enveloppes convexes des points de Z2 contenus dans un domaine vertical borné et situés de part et d’autre d’une droite quelconque. Nous proposons une méthode de complexité optimale et adaptative pour calculer ces enveloppes convexes. Nous présentons le problème de manière détournée : déterminer le nombre rationnel à dénominateur borné qui approxime au mieux un nombre réel donné. Nous établissons le lien entre ce problème numérique et son interprétation géométrique dans le plan. Enfin, nous proposons indépendamment un nouvel algorithme pour calculer l’épaisseur d’un ensemble de points dans le réseau Zd. Notre méthode est optimale en 2D et gloutonne mais efficace en dimension supérieure / In computer science, pictures are digital and so, they are composed of pixels in 2D or of voxels in 3D. In 3D virtual scenes, we cannot directly manipulate objects as sets of voxels because the data are too huge. As a result, the objects are transformed into polyhedra, i.e. collections of facets. For this, we must be able to decide if a subset of voxels can be replaced by a facet in the polyhedrisation. This problem is called digital plane recognition. To solve it, we design a new algorithm especially adapted for sets of voxels which are dense in a bounding box. Our method achieves a quasi-linear worst-case time complexity in this case and it is efficient in practice. In parallel, we study another algorithmic problem which occures in our digital plane recognition algorithm. It is computing the two convex hulls of grid points lying in a bounded vertical domain and located on either side of a straight line. We propose an optimal time complexity method to compute these convex hulls and which is also output sensitive. We present the problem in a different way : find the rational number of bounded denominator that best approximates a given real number. We establish the link between this numerical problem and geometry. Finally, we independently propose a new algorithm to compute the lattice width of a set of points in Zd. Our method is optimal in 2D and is greedy but efficent in higher dimension
45

Modèles de cycles normaux pour l'analyse des déformations / Normal cycle models for deformation analysis

Roussillon, Pierre 24 November 2017 (has links)
Dans cette thèse, nous développons un modèle du second ordre pour la représentation des formes (courbes et surfaces) grâce à la théorie des cycles normaux. Le cycle normal d'une forme est le courant associé à son fibré normal. En introduisant des métriques à noyaux sur les cycles normaux, nous obtenons une mesure de dissimilarité entre formes qui prend en compte leurs courbures. Cette mesure est ensuite utilisée comme terme d'attache aux données dans une optique d'appariement et d'analyse de formes par les déformations. Le chapitre 1 est une revue du domaine de l'analyse de formes par les déformations. Nous insistons plus particulièrement sur la mise en place théorique et numérique du modèle de Large Deformation Diffeomorphic Metric Mapping (LDDMM). Le chapitre 2 se concentre sur la représentation des formes par les cycles normaux dans un cadre unifié qui englobe à la fois les formes continues et discrètes. Nous précisons dans quelle mesure cette représentation contient des informations de courbure. Enfin nous montrons le lien entre le cycle normal d'une forme et son varifold. Dans le chapitre 3, nous introduisons les métriques à noyaux. Ainsi, nous pouvons considérer les cycles normaux dans un espace de Hilbert avec un produit scalaire explicite. Nous détaillons ce produit scalaire dans le cas des courbes et surfaces discrètes avec certains noyaux, ainsi que le gradient associé. Nous montrons enfin que malgré le choix de noyaux simples, nous ne perdons pas toutes les informations de courbures. Le chapitre 4 utilise cette nouvelle métrique comme terme d'attache aux données dans le cadre LDDMM. Nous présentons de nombreux appariements et estimations de formes moyennes avec des courbes ou des surfaces. L'objectif de ce chapitre est d'illustrer les différentes propriétés des cycles normaux pour l'analyse des déformations sur des exemples synthétiques et réels. / In this thesis, we develop a second order model for the representation of shapes (curves or surfaces) using the theory of normal cycles. The normal cycle of a shape is the current associated with its normal bundle. Introducing kernel metrics on normal cycles, we obtain a dissimilarity measure between shapes which takes into account curvature. This measure is used as a data attachment term for a purpose of registration and shape analysis by deformations. Chapter 1 is a review of the field of shape analysis. We focus on the setting of the theoretical and numerical model of the Large Deformation Diffeomorphic Metric Mapping(LDDMM).Chapter 2 focuses on the representation of shapes with normal cycles in a unified framework that encompasses both the continuous and the discrete shapes. We specify to what extend this representation encodes curvature information. Finally, we show the link between the normal cycle of a shape and its varifold. In chapter 3, we introduce the kernel metrics, so that we can consider normal cycles in a Hilbert space with an explicit scalar product. We detail this scalar product for discrete curves and surfaces with some kernels, as well as the associated gradient. We show that even with simple kernels, we do not get rid of all the curvature informations. The chapter 4 introduces this new metric as a data attachment term in the framework of LDDMM. We present numerous registrations and mean shape estimation for curves and surfaces. The aim of this chapter is to illustrate the different properties of normal cycles for the deformations analysis on synthetic and real examples.
46

Outils pour l'analyse des courbes discrètes bruitées / Tools for the analysis of noisy discrete curves

Nasser, Hayat 30 October 2018 (has links)
Dans cette thèse, nous nous intéressons à l’étude des courbes discrètes bruitées qui correspondent aux contours d’objets dans des images. Nous avons proposé plusieurs outils permettant de les analyser. Les points dominants (points dont l’estimation de la courbure est localement maximale) jouent un rôle très important dans la reconnaissance de formes et, nous avons développé une méthode non heuristique, rapide et fiable pour les détecter dans une courbe discrète. Cette méthode est une amélioration d’une méthode existante introduite par Nguyen et al. La nouvelle méthode consiste à calculer une mesure d’angle. Nous avons proposé aussi deux approches pour la simplification polygonale : une méthode automatique minimisant, et une autre fixant le nombre de sommets du polygone résultant. Ensuite, nous avons introduit un nouvel outil géométrique, nommé couverture tangentielle adaptative (ATC), reposant sur la détection des épaisseurs significatives introduites par Kerautret et al. Ces épaisseurs calculées en chaque point du contour à analyser, permettent d’estimer localement le niveau de bruit. Dans ce contexte notre algorithme de construction de la couverture tangentielle adaptative prend en considération les différents niveaux de bruits présents dans la courbe à étudier et ne nécessite pas de paramètre. Deux applications de l’ATC sont proposées en analyse d’images : d’une part la décomposition des contours d’une forme dans une image en arcs et en segments de droite et d’autre part, dans le cadre d’un projet avec une université d’Inde, autour du langage des signes et la reconnaissance des gestes de la main. Premièrement, la méthode de décomposition des courbes discrètes en arcs et en segments de droite est basée sur deux outils : la détection de points dominants en utilisant la couverture tangentielle adaptative et la représentation dans l’espace des tangentes du polygone, issue des points dominants détectés. Les expériences montrent la robustesse de la méthode w.r.t. le bruit. Deuxièmement, à partir des contours des mains extraits d’images prises par une Kinect, nous proposons différents descripteurs reposant sur des points dominants sélectionnés du contour des formes dans les images. Les descripteurs proposés, qui sont une combinaison entre descripteurs statistiques et descripteurs géométriques, sont efficaces et conviennent à la reconnaissance de gestes / In this thesis, we are interested in the study of noisy discrete curves that correspond to the contours of objects in images. We have proposed several tools to analyze them. The dominant points (points whose curvature estimation is locally maximal) play a very important role in pattern recognition and we have developed a non-heuristic, fast and reliable method to detect them in a discrete curve. This method is an improvement of an existing method introduced by Nguyen et al. The new method consists in calculating a measure of angle. We have also proposed two approaches for polygonal simplification: an automatic method minimizing, and another fixing the vertex number of the resulting polygon. Then we proposed a new geometric tool, called adaptive tangential cover ATC, based on the detection of meaningful thickness introduced by Kerautret et al. These thicknesses are calculated at each point of the contours allow to locally estimate the noise level. In this context our construction algorithm of adaptive tangential cover takes into account the different levels of noise present in the curve to be studied and does not require a parameter. Two applications of ATC in image analysis are proposed: on the one hand the decomposition of the contours of a shape in an image into arcs and right segments and on the other hand, within the framework of a project with an Indian university about the sign language and recognition of hand gestures. Firstly, the method to decompose discrete curves into arcs and straight segments is based on two tools: dominant point detection using adaptive tangential cover and tangent space representation of the polygon issued from detected dominant points. The experiments demonstrate the robustness of the method w.r.t. noise. Secondly, from the outlines of the hands extracted from images taken by a Kinect, we propose several descriptors from the selected dominant points computed from the adaptive tangential cover. The proposed descriptors, which are a combination of statistical descriptors and geometrical descriptors, are effective and suitable for gesture recognition
47

Analyse Complexe Discrète

Mercat, Christian 09 December 2009 (has links) (PDF)
Ma contribution principale porte sur la géométrie différentielle discrète, spécialement la géométrie conforme discrète. Les champs d'application principaux que j'étudie sont l'imagerie par ordinateur et les systèmes intégrables, tant les systèmes intégrables discrets que les systèmes statistiques intégrables. Ma thèse sur le modèle d'Ising a identifié la criticité dans le modèle de taille fini comme un point où le fermion, une observable particulière, devient holomorphe pour une structure conforme discrète sous-jacente. À l'université de Melbourne, je me suis intéressé avec Paul Pearce aux modèles ADE qui sont une généralisation du modèle d'Ising, dans le but (inachevé mais en bonne voie) d'y identifier un analogue discret de l'algèbre des opérateurs vertex (les conditions de bord conformes et intégrables) et des blocs conformes, en particulier dans l'espoir de comprendre la criticité comme une compatibilité à l'holomorphie discrète. À l'université technique de Berlin, avec Alexander Bobenko et son équipe, j'ai compris la nature intégrable du modèle associé à l'holomorphie discrète (linéaire et quadratique) et utilisé les outils très puissants de cette théorie (isomonodromie, transformations de Darboux-Bäcklund, finite-gap) pour mettre à jour la position centrale de l'analyse complexe discrète dans la hiérarchie des systèmes intégrables discrets. À Montpellier, dans l'équipe Arith dirigée par Valérie Berthé, j'ai appliqué cette théorie dans le cadre de la géométrie différentielle discrète, particulièrement dans le cadre voxellique de la géométrie digitale.
48

Modèles exactement solubles de mécanique statistique en dimension deux : modèle d'Ising, dimères et arbres couvrants.

De Tilière, Béatrice 25 November 2013 (has links) (PDF)
Ce mémoire donne un aperçu de mes travaux de recherche depuis la thèse. La thématique générale est la mécanique statistique, qui a pour but de comprendre le comportement macroscopique d'un système physique dont les interactions sont décrites au niveau microscopique. De nombreux modèles appartiennent à la mécanique statistique; nos résultats se concentrent sur le modèle d'Ising, le modèle de dimères et les arbres couvrants en dimension deux. Ces trois modèles ont la particularité d'être exactement solubles, c'est-à-dire qu'il existe une expression exacte et explicite pour la fonction de partition. Ce mémoire décrit et met en perspective les résultats de mes publications, et donne les étapes principales des démonstrations.
49

Unions finies de boules avec marges interne et externe / Finite unions of balls with inner and outer margins

Nguyen, Tuong 27 March 2018 (has links)
Représenter un objet géométrique complexe par un ensemble de primitives simples est une tâche souvent fondamentale, que ce soit pour la reconstruction et la réparation de données, ou encore pour faciliter la visualisation ou la manipulation des données. Le choix de la ou les primitives, ainsi que celui de la méthode d'approximation, impactent fortement les propriétés de la représentation de forme qui sera obtenue.Dans cette thèse, nous utilisons les boules comme seule primitive. Nous prenons ainsi un grand soin à décrire les unions finies de boules et leur structure. Pour cela, nous nous reposons sur les faisceaux de boules. En particulier, nous aboutissons à une description valide en toute dimension, sans hypothèse de position générale. En chemin, nous obtenons également plusieurs résultats portant sur les tests d'inclusion locale et globale dans une union de boules.Nous proposons également une nouvelle méthode d'approximation par union finie de boules, l'approximation par boules à (delta,epsilon)-près. Cette approche contraint l'union de boules à couvrir un sous-ensemble de la forme d'origine (précisément, un epsilon-érodé), tout en étant contenu dans un sur-ensemble de la forme (un delta-dilaté). En nous appuyant sur nos précédents résultats portant sur les unions de boules, nous démontrons plusieurs propriétés de ces approximations. Nous verrons ainsi que calculer une approximation par boules à (delta,epsilon)-près qui soit de cardinal minimum est un problème NP-complet. Pour des formes simples dans le plan, nous présentons un algorithme polynomial en temps et en espace qui permet de calculer ces approximations de cardinal minimum. Nous concluons par une généralisation de notre méthode d'approximation pour une plus large variété de sous-ensembles et sur-ensembles. / Describing a complex geometric shape with a set of simple primitives is often a fundamental task for shape reconstruction, visualization, analysis and manipulation. The type of primitives, as well as the choice of approximation scheme, both greatly impact the properties of the resulting shape representation.In this PhD, we focus on balls as primitives. Using pencils of balls, we carefully describe finite unions of balls and their structure. In particular, our description holds in all dimension without assuming general position. On our way, we also establish various results and tools to test local and global inclusions within these unions.We also propose a new approximation scheme by union of balls, the (delta,epsilon)-ball approximation. This scheme constrains the approximation to cover a core subset of the original shape (specifically, an epsilon-erosion), while being contained within a superset of the shape (a delta-dilation). Using our earlier results regarding finite unions of balls, we prove several properties of these approximations. We show that computing a cardinal minimum (delta,epsilon)-ball approximation is an NP-complete problem. For simple planar shapes however, we present a polynomial time and space algorithm that outputs a cardinal minimum approximation. We then conclude by generalizing the approximation scheme to a wider range of core subsets and bounding supersets.
50

Colored discrete spaces : Higher dimensional combinatorial maps and quantum gravity / Espaces discrets colorés : Cartes combinatoires en dimensions supérieures et gravité quantique

Lionni, Luca 08 September 2017 (has links)
On considère, en deux dimensions, une version euclidienne discrète de l’action d’Einstein-Hilbert, qui décrit la gravité en l’absence de matière. À l’intégration sur les géométries se substitue une sommation sur des surfaces triangulées aléatoires. Dans la limite physique de faible gravité, seules les triangulations planaires survivent. Leur limite en distribution, la carte brownienne, est une surface fractale continue dont l’importance dans le contexte de la gravité quantique en deux dimensions a été récemment précisée. Cet espace est interprété comme un espace-temps quantique, obtenu comme limite à grande échelle d’un ensemble statistique de surfaces discrètes aléatoires. En deux dimensions, on peut donc étudier les propriétés fractales de la gravité quantique via une approche discrète. Il est bien connu que les généralisations directes en dimensions supérieures échouent à produire des espace-temps quantiques aux propriétés adéquates : en dimension D>2, la limite en distribution des triangulations qui survivent dans la limite de faible gravité est l’arbre continu aléatoire, ou polymères branchés en physique. Si en deux dimensions on parvient aux mêmes conclusions en considérant non pas des triangulations, mais des surfaces discrètes aléatoires obtenues par recollements de 2p-gones, nous savons depuis peu que ce n’est pas toujours le cas en dimension D>2. L’apparition de nouvelles limites continues dans le cadre de théories de gravité impliquant des espaces discrets aléatoires reste une question ouverte. Nous étudions des espaces obtenus par recollements de blocs élémentaires, comme des polytopes à facettes triangulaires. Dans la limite de faible gravité, seuls les espaces qui maximisent la courbure moyenne survivent. Les identifier est cependant une tâche ardue dans le cas général, pour lequel les résultats sont obtenus numériquement. Afin d’obtenir des résultats analytiques, une coloration des (D-1)-cellules, les facettes, a été introduite. En toute dimension paire, on peut trouver des familles d’espaces discrets colorés de courbure moyenne maximale dans la classe d’universalité des arbres – convergeant vers l’arbre continu aléatoire, des cartes planaires – convergeant vers la carte brownienne, ou encore dans la classe de prolifération des bébé-univers. Cependant, ces résultats sont obtenus en raison de la simplicité de blocs élémentaires dont la structure uni ou bidimensionnelle ne rend pas compte de la riche diversité des blocs colorés en dimensions supérieures. Le premier objectif de cette thèse est donc d’établir des outils combinatoires qui permettraient une étude systématique des blocs élémentaires colorés et des espaces discrets qu’ils génèrent. Le principal résultat de ce travail est l’établissement d’une bijection entre ces espaces et des familles de cartes combinatoires, qui préserve l’information sur la courbure locale. Elle permet l’utilisation de résultats sur les surfaces discrètes et ouvre la voie à une étude systématique des espaces discrets en dimensions supérieures à deux. Cette bijection est appliquée à la caractérisation d’un certain nombre de blocs de petites tailles ainsi qu’à une nouvelle famille infinie. Le lien avec les modèles de tenseurs aléatoires est détaillé. Une attention particulière est donnée à la détermination du nombre maximal de (D-2)-cellules et de l’action appropriée du modèle de tenseurs correspondant. Nous montrons comment utiliser la bijection susmentionnée pour identifier les contributions à un tout ordre du développement en 1/N des fonctions à 2n points du modèle SYK coloré, et appliquons ceci à l’énumération des cartes unicellulaires généralisées – les espaces discrets obtenus par recollement d’un unique bloc élémentaire – selon leur courbure moyenne. Pour tout choix de blocs colorés, nous montrons comment réécrire la théorie d’Einstein-Hilbert discrète correspondante comme un modèle de matrices aléatoires avec traces partielles, dit représentation en champs intermédiaires. / In two dimensions, the Euclidean Einstein-Hilbert action, which describes gravity in the absence of matter, can be discretized over random triangulations. In the physical limit of small Newton's constant, only planar triangulations survive. The limit in distribution of planar triangulations - the Brownian map - is a continuum fractal space which importance in the context of two-dimensional quantum gravity has been made more precise over the last years. It is interpreted as a quantum continuum space-time, obtained in the thermodynamical limit from a statistical ensemble of random discrete surfaces. The fractal properties of two-dimensional quantum gravity can therefore be studied from a discrete approach. It is well known that direct higher dimensional generalizations fail to produce appropriate quantum space-times in the continuum limit: the limit in distribution of dimension D>2 triangulations which survive in the limit of small Newton's constant is the continuous random tree, also called branched polymers in physics. However, while in two dimensions, discretizing the Einstein-Hilbert action over random 2p-angulations - discrete surfaces obtained by gluing 2p-gons together - leads to the same conclusions as for triangulations, this is not always the case in higher dimensions, as was discovered recently. Whether new continuum limit arise by considering discrete Einstein-Hilbert theories of more general random discrete spaces in dimension D remains an open question.We study discrete spaces obtained by gluing together elementary building blocks, such as polytopes with triangular facets. Such spaces generalize 2p-angulations in higher dimensions. In the physical limit of small Newton's constant, only discrete spaces which maximize the mean curvature survive. However, identifying them is a task far too difficult in the general case, for which quantities are estimated throughout numerical computations. In order to obtain analytical results, a coloring of (D-1)-cells has been introduced. In any even dimension, we can find families of colored discrete spaces of maximal mean curvature in the universality classes of trees - converging towards the continuous random tree, of planar maps - converging towards the Brownian map, or of proliferating baby universes. However, it is the simple structure of the corresponding building blocks which makes it possible to obtain these results: it is similar to that of one or two dimensional objects and does not render the rich diversity of colored building blocks in dimensions three and higher.This work therefore aims at providing combinatorial tools which would enable a systematic study of the building blocks and of the colored discrete spaces they generate. The main result of this thesis is the derivation of a bijection between colored discrete spaces and colored combinatorial maps, which preserves the information on the local curvature. It makes it possible to use results from combinatorial maps and paves the way to a systematical study of higher dimensional colored discrete spaces. As an application, a number of blocks of small sizes are analyzed, as well as a new infinite family of building blocks. The relation to random tensor models is detailed. Emphasis is given to finding the lowest bound on the number of (D-2)-cells, which is equivalent to determining the correct scaling for the corresponding tensor model. We explain how the bijection can be used to identify the graphs contributing at any given order of the 1/N expansion of the 2n-point functions of the colored SYK model, and apply this to the enumeration of generalized unicellular maps - discrete spaces obtained from a single building block - according to their mean curvature. For any choice of colored building blocks, we show how to rewrite the corresponding discrete Einstein-Hilbert theory as a random matrix model with partial traces, the so-called intermediate field representation.

Page generated in 0.0728 seconds