• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 301
  • 209
  • 43
  • Tagged with
  • 524
  • 249
  • 129
  • 90
  • 83
  • 75
  • 74
  • 71
  • 68
  • 62
  • 57
  • 56
  • 56
  • 54
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Application de la théorie des matrices aléatoires pour les statistiques en grande dimension / Application of Random Matrix Theory to High Dimensional Statistics

Bun, Joël 06 September 2016 (has links)
De nos jours, il est de plus en plus fréquent de travailler sur des bases de données de très grandes tailles dans plein de domaines différents. Cela ouvre la voie à de nouvelles possibilités d'exploitation ou d'exploration de l'information, et de nombreuses technologies numériques ont été créées récemment dans cette optique. D'un point de vue théorique, ce problème nous contraint à revoir notre manière d'analyser et de comprendre les données enregistrées. En effet, dans cet univers communément appelé « Big Data », un bon nombre de méthodes traditionnelles d'inférence statistique multivariée deviennent inadaptées. Le but de cette thèse est donc de mieux comprendre ce phénomène, appelé fléau (ou malédiction) de la dimension, et ensuite de proposer différents outils statistiques exploitant explicitement la dimension du problème et permettant d'extraire des informations fiables des données. Pour cela, nous nous intéresserons beaucoup aux vecteurs propres de matrices symétriques. Nous verrons qu’il est possible d’extraire de l'information présentant un certain degré d’universalité. En particulier, cela nous permettra de construire des estimateurs optimaux, observables, et cohérents avec le régime de grande dimension. / Nowadays, it is easy to get a lot ofquantitative or qualitative data in a lot ofdifferent fields. This access to new databrought new challenges about data processingand there are now many different numericaltools to exploit very large database. In atheoretical standpoint, this framework appealsfor new or refined results to deal with thisamount of data. Indeed, it appears that mostresults of classical multivariate statisticsbecome inaccurate in this era of “Big Data”.The aim of this thesis is twofold: the first one isto understand theoretically this so-called curseof dimensionality that describes phenomenawhich arise in high-dimensional space.Then, we shall see how we can use these toolsto extract signals that are consistent with thedimension of the problem. We shall study thestatistics of the eigenvalues and especially theeigenvectors of large symmetrical matrices. Wewill highlight that we can extract someuniversal properties of these eigenvectors andthat will help us to construct estimators that areoptimal, observable and consistent with thehigh dimensional framework.
132

Théorie des matrices aléatoires pour l'apprentissage automatique en grande dimension et les réseaux de neurones / A random matrix framework for large dimensional machine learning and neural networks

Liao, Zhenyu 30 September 2019 (has links)
Le "Big Data'' et les grands systèmes d'apprentissage sont omniprésents dans les problèmes d'apprentissage automatique aujourd’hui. Contrairement à l'apprentissage de petite dimension, les algorithmes d'apprentissage en grande dimension sont sujets à divers phénomènes contre-intuitifs et se comportent de manière très différente des intuitions de petite dimension sur lesquelles ils sont construits. Cependant, en supposant que la dimension et le nombre des données sont à la fois grands et comparables, la théorie des matrices aléatoires (RMT) fournit une approche systématique pour évaluer le comportement statistique de ces grands systèmes d'apprentissage, lorsqu'ils sont appliqués à des données de grande dimension. L’objectif principal de cette thèse est de proposer un schéma d'analyse basé sur la RMT, pour une grande famille de systèmes d’apprentissage automatique: d'évaluer leurs performances, de mieux les comprendre et finalement les améliorer, afin de mieux gérer les problèmes de grandes dimensions aujourd'hui.Précisément, nous commençons par exploiter la connexion entre les grandes matrices à noyau, les projection aléatoires non-linéaires et les réseaux de neurones aléatoires simples. En considérant que les données sont tirées indépendamment d'un modèle de mélange gaussien, nous fournissons une caractérisation précise des performances de ces systèmes d'apprentissage en grande dimension, exprimée en fonction des statistiques de données, de la dimensionnalité et, surtout, des hyper-paramètres du problème. Lorsque des algorithmes d'apprentissage plus complexes sont considérés, ce schéma d'analyse peut être étendu pour accéder à de systèmes d'apprentissage qui sont définis (implicitement) par des problèmes d'optimisation convexes, lorsque des points optimaux sont atteints. Pour trouver ces points, des méthodes d'optimisation telles que la descente de gradient sont régulièrement utilisées. À cet égard, dans le but d'avoir une meilleur compréhension théorique des mécanismes internes de ces méthodes d'optimisation et, en particulier, leur impact sur le modèle d'apprentissage, nous évaluons aussi la dynamique de descente de gradient dans les problèmes d'optimisation convexes et non convexes.Ces études préliminaires fournissent une première compréhension quantitative des algorithmes d'apprentissage pour le traitement de données en grandes dimensions, ce qui permet de proposer de meilleurs critères de conception pour les grands systèmes d’apprentissage et, par conséquent, d'avoir un gain de performance remarquable lorsqu'il est appliqué à des jeux de données réels. Profondément ancré dans l'idée d'exploiter des données de grandes dimensions avec des informations répétées à un niveau "global'' plutôt qu'à un niveau "local'', ce schéma d'analyse RMT permet une compréhension renouvelée et la possibilité de contrôler et d'améliorer une famille beaucoup plus large de méthodes d'apprentissage automatique, ouvrant ainsi la porte à un nouveau schéma d'apprentissage automatique pour l'intelligence artificielle. / Large dimensional data and learning systems are ubiquitous in modern machine learning. As opposed to small dimensional learning, large dimensional machine learning algorithms are prone to various counterintuitive phenomena and behave strikingly differently from the low dimensional intuitions upon which they are built. Nonetheless, by assuming the data dimension and their number to be both large and comparable, random matrix theory (RMT) provides a systematic approach to assess the (statistical) behavior of these large learning systems, when applied on large dimensional data. The major objective of this thesis is to propose a full-fledged RMT-based framework for various machine learning systems: to assess their performance, to properly understand and to carefully refine them, so as to better handle large dimensional problems that are increasingly needed in artificial intelligence applications.Precisely, we exploit the close connection between kernel matrices, random feature maps, and single-hidden-layer random neural networks. Under a simple Gaussian mixture modeling for the input data, we provide a precise characterization of the performance of these large dimensional learning systems as a function of the data statistics, the dimensionality, and most importantly the hyperparameters (e.g., the choice of the kernel function or activation function) of the problem. Further addressing more involved learning algorithms, we extend the present RMT analysis framework to access large learning systems that are implicitly defined by convex optimization problems (e.g., logistic regression), when optimal points are assumed reachable. To find these optimal points, optimization methods such as gradient descent are regularly used. Aiming to have a better theoretical grasp of the inner mechanism of optimization methods and their impact on the resulting learning model, we further evaluate the gradient descent dynamics in training convex and non-convex objects.These preliminary studies provide a first quantitative understanding of the aforementioned learning algorithms when large dimensional data are processed, which further helps propose better design criteria for large learning systems that result in remarkable gains in performance when applied on real-world datasets. Deeply rooted in the idea of mining large dimensional data with repeated patterns at a global rather than a local level, the proposed RMT analysis framework allows for a renewed understanding and the possibility to control and improve a much larger range of machine learning approaches, and thereby opening the door to a renewed machine learning framework for artificial intelligence.
133

Modélisation de la structure fine de la turbulence quantique et classique / Modeling of the fine structure of quantum and classical turbulence

Reneuve, Jason 27 September 2019 (has links)
Cette thèse est constituée de deux parties, dont l'axe commun est la modélisation de phénomènes de petites échelles pour des écoulements turbulents.Dans une première partie on s'intéresse à l'influence des rotons sur la dynamique d'un modèle d'hélium superfluide. On commence par une calibration d'un modèle non-local d'interaction dans le but de reproduire la relation de dispersion expérimentale de l'hélium, mesurée par diffraction de neutrons. On utilise ensuite ce modèle calibré pour réaliser des simulations numériques directes (DNS) de l'équation de Gross-Pitaevskii, afin de sonder le phénomène de reconnexion des tourbillons quantiques. Ce phénomène est étudié en détail via une analyse géométrique et énergétique des résultats des DNS. On compare alors systématiquement ces résultats à ceux du modèle local afin d'étudier l'influence des rotons sur l'écoulement aux échelles de l'ordre de l'Angstrom.Dans un second temps on cherche à décrire la structure spatio-temporelle de la turbulence homogène et isotrope. Pour cela on commence par une analyse des propriétés statistiques du champ eulérien de vitesse, basée sur l'évaluation de ses incréments spatio-temporels. On utilise les données issues d'une DNS des équations de Navier-Stokes mises à disposition par l'Université Johns Hopkins. On propose ensuite un champ aléatoire spatio-temporel pour la vitesse eulérienne, en caractérisant d'abord la structure de ses corrélations par une approximation gaussienne. On modifie ensuite cette approximation par une mesure multi-fractale afin de reproduire les aspects non-gaussiens observés dans la DNS, tels que les hauts niveaux des coefficients d'asymétrie et d'aplatissement. / This thesis consists of two parts that share a common theme : the modeling of small-scale phenomena in turbulent flows.In a first part we focus on the influence of rotons on the dynamics of a model of superfluid helium. We begin by a calibration of a nonlocal model of the interaction, aiming at reproducing the experimental dispersion relation of helium, as measured by neutron scattering methods. This model is then used to perform Direct Numerical Simulations (DNS) of the Gross-Pitaevskii equation, in order to probe the reconnection of quantum vortices. This phenomenon is studied quantitatively through a geometrical and energetical analysis of the results of the DNS. We then systematically compare these results with those of the local model, so as to study the influence of rotons on flow scales of the order of the Angtstrom.The goal of the second part is to describe the spatio-temporal structure of homogeneous and isotropic turbulence. To achieve it we start by a standard analysis of the statistical properties of the eulerian velocity field, by computing its spatio-temporal increments. We use the data from a DNS of the Navier-Stokes equations, hosted and made available by the Johns Hopkins University. We then propose a random, spatio-temporal eulerian velocity field, by first characterizing the structure of its correlations through a gaussian approximation. This approximation is then modified by a multifractal measure in order to reproduce the non-gaussian features, as they are demanded by the observed high level of skewness and flatness of increments.
134

Algebraic area distribution of two-dimensional random walks and the Hofstadter model / Distribution de l'aire algébrique enclose par les marches aléatoires bi-dimensionnelles et le modèle de Hofstadter

Wu, Shuang 22 November 2018 (has links)
Cette thèse porte sur le modèle de Hofstadter i.e., un électron qui se déplace sur un réseau carré couplé à un champ magnétique homogène et perpendiculaire au réseau. Son spectre en énergie est l'un des célèbres fractals de la physique quantique, connu sous le nom "le papillon de Hofstadter". Cette thèse consiste en deux parties principales: la première est l'étude du lien profond entre le modèle de Hofstadter et la distribution de l’aire algébrique entourée par les marches aléatoires sur un réseau carré bidimensionnel. La seconde partie se concentre sur les caractéristiques spécifiques du papillon de Hofstadter et l'étude de la largeur de bande du spectre. On a trouvé une formule exacte pour la trace de l'Hamiltonien de Hofstadter en termes des coefficients de Kreft, et également pour les moments supérieurs de la largeur de bande.Cette thèse est organisée comme suit. Dans le chapitre 1, on commence par la motivation de notre travail. Une introduction générale du modèle de Hofstadter ainsi que des marches aléatoires sera présentée. Dans le chapitre 2, on va montrer comment utiliser le lien entre les marches aléatoires et le modèle de Hofstadter. Une méthode de calcul de la fonction génératrice de l'aire algébrique entourée par les marches aléatoires planaires sera expliquée en détail. Dans le chapitre 3, on va présenter une autre méthode pour étudier ces questions en utilisant le point de vue "point spectrum traces" et retrouver la trace de Hofstadter complète. De plus, l'avantage de cette construction est qu'elle peut être généralisée au cas de "l'amost Mathieu opérateur". Dans le chapitre 4, on va introduire la méthode développée par D.J.Thouless pour le calcul de la largeur de bande du spectre de Hofstadter. En suivant la même logique, on va montrer comment généraliser la formule de la largeur de bande de Thouless à son n-ième moment, à définir plus précisément ultérieurement. / This thesis is about the Hofstadter model, i.e., a single electron moving on a two-dimensional lattice coupled to a perpendicular homogeneous magnetic field. Its spectrum is one of the famous fractals in quantum mechanics, known as the Hofstadter's butterfly. There are two main subjects in this thesis: the first is the study of the deep connection between the Hofstadter model and the distribution of the algebraic area enclosed by two-dimensional random walks. The second focuses on the distinctive features of the Hofstadter's butterfly and the study of the bandwidth of the spectrum. We found an exact expression for the trace of the Hofstadter Hamiltonian in terms of the Kreft coefficients, and for the higher moments of the bandwidth.This thesis is organized as follows. In chapter 1, we begin with the motivation of our work and a general introduction to the Hofstadter model as well as to random walks will be presented. In chapter 2, we will show how to use the connection between random walks and the Hofstadter model. A method to calculate the generating function of the algebraic area distribution enclosed by planar random walks will be explained in details. In chapter 3, we will present another method to study these issues, by using the point spectrum traces to recover the full Hofstadter trace. Moreover, the advantage of this construction is that it can be generalized to the almost Mathieu operator. In chapter 4, we will introduce the method which was initially developed by D.J.Thouless to calculate the bandwidth of the Hofstadter spectrum. By following the same logic, I will show how to generalize the Thouless bandwidth formula to its n-th moment, to be more precisely defined later.
135

Estimating the number of solutions on cardinality constraints / Estimer le nombre de solutions sur les contraintes de cardinalité

Lo Bianco Accou, Giovanni Christian 30 October 2019 (has links)
La richesse de la programmation par contraintes repose sur la très large variété des algorithmes qu’elle utilise en puisant dans les grands domaines de l’Intelligence Artificielle, de la Programmation Logique et de la Recherche Opérationnelle. Cependant, cette richesse, qui offre aux spécialistes une palette quasi-illimitée de configurations possibles pour attaquer des problèmes combinatoires, devient une frein à la diffusion plus large du paradigme, car les outils actuels sont très loin d’une boîte noire, et leur utilisation suppose une bonne connaissance du domaine, notamment en ce qui concerne leur paramétrage. Dans cette thèse, nous proposons d’analyser le comportement des contraintes de cardinalité avec des modèles probabilistes et des outils de dénombrement, pour paramétrer automatiquement les solveurs de contraintes : heuristiques de choix de variables et de choix de valeurs et stratégies de recherche. / The main asset of constraint programming is its wide variety of algorithms that comes from the major areas of artificial intelligence, logic programming and operational research. It offers specialists a limitless range of possible configurations to tackle combinatorial problems, but it becomes an obstacle to the wider diffusion of the paradigm. The current tools are very far from being used as a black-box tool, and it assumes a good knowledge of the field, in particular regarding the parametrization of solvers.In this thesis, we propose to analyze the behavior of cardinality constraints with probabilistic models and counting tools, to automatically parameterize constraint solvers: heuristics of choice of variables and choice of values and search strategies.
136

Triangulations colorées aléatoires / Random colored triangulations

Carrance, Ariane 20 September 2019 (has links)
L'unification de la mécanique quantique et de la relativité générale est un des grands problèmes ouverts en physique théorique. Une des approches possibles est de définir des espaces géométriques aléatoires avec des bonnes propriétés, qui peuvent être interprétés comme des espaces-temps quantiques. Cette thèse aborde des aspects mathématiques des modèles de tenseurs colorés, un type de modèle de physique théorique qui s'inscrit dans cette approche. Ces modèles décrivent des espaces linéaires par morceaux appelés trisps colorés, en toute dimension.Au cours de cette thèse, nous avons tout d'abord étudié des modèles aléatoires uniformes sur les trisps colorés, en toute dimension. Nous prouvons que ces modèles ont une limite singulière, ce qui a aussi donné lieu à un théorème central limite sur le genre d'une grande carte aléatoire uniforme.Nous avons ensuite étudié le cas particulier de la dimension 2, où les trisps colorés sont un type particulier de cartes, les triangulations eulériennes. Nous montrons que les triangulations eulériennes planaires convergent vers la carte brownienne, qui est un objet aléatoire continu universel en dimension 2. Ce résultat est particulièrement remarquable étant donnée la complexité de la structure des triangulations eulériennes, en comparaison avec les autres familles de cartes qui convergent vers la carte brownienne / The unification of quantum mechanics and general relativity is one the great open problems of theoretical physics. A possible approach is to define random geometric spaces with nice properties, that can be interpreted as quantum spacetimes.This thesis tackles mathematical aspects of colored tensor models, a type of theoretical physics model that is inscribed in this approach. These models describe piecewise-linear spaces called colored trisps, in any dimension.In this thesis, we first studied random uniform models of colored trisps, in any dimension. We prove that these models have a singular limit, which also entails a central limit theorem for the genus of a large uniform map. We then studied the particular case of dimension 2, where colored trisps are a particular case of maps, Eulerian triangulations. We show that planar Eulerian triangulations converge to the Brownian map, which is a universal continuum object in dimension 2. This result is of particular interest, as Eulerian triangulations have a much more complex structure than the other families that are known to converge to the Brownian map
137

Méthodes d’apprentissage interactif pour la classification des messages courts / Interactive learning methods for short text classification

Bouaziz, Ameni 19 June 2017 (has links)
La classification automatique des messages courts est de plus en plus employée de nos jours dans diverses applications telles que l'analyse des sentiments ou la détection des « spams ». Par rapport aux textes traditionnels, les messages courts, comme les tweets et les SMS, posent de nouveaux défis à cause de leur courte taille, leur parcimonie et leur manque de contexte, ce qui rend leur classification plus difficile. Nous présentons dans cette thèse deux nouvelles approches visant à améliorer la classification de ce type de message. Notre première approche est nommée « forêts sémantiques ». Dans le but d'améliorer la qualité des messages, cette approche les enrichit à partir d'une source externe construite au préalable. Puis, pour apprendre un modèle de classification, contrairement à ce qui est traditionnellement utilisé, nous proposons un nouvel algorithme d'apprentissage qui tient compte de la sémantique dans le processus d'induction des forêts aléatoires. Notre deuxième contribution est nommée « IGLM » (Interactive Generic Learning Method). C'est une méthode interactive qui met récursivement à jour les forêts en tenant compte des nouvelles données arrivant au cours du temps, et de l'expertise de l'utilisateur qui corrige les erreurs de classification. L'ensemble de ce mécanisme est renforcé par l'utilisation d'une méthode d'abstraction permettant d'améliorer la qualité des messages. Les différentes expérimentations menées en utilisant ces deux méthodes ont permis de montrer leur efficacité. Enfin, la dernière partie de la thèse est consacrée à une étude complète et argumentée de ces deux prenant en compte des critères variés tels que l'accuracy, la rapidité, etc. / Automatic short text classification is more and more used nowadays in various applications like sentiment analysis or spam detection. Short texts like tweets or SMS are more challenging than traditional texts. Therefore, their classification is more difficult owing to their shortness, sparsity and lack of contextual information. We present two new approaches to improve short text classification. Our first approach is "Semantic Forest". The first step of this approach proposes a new enrichment method that uses an external source of enrichment built in advance. The idea is to transform a short text from few words to a larger text containing more information in order to improve its quality before building the classification model. Contrarily to the methods proposed in the literature, the second step of our approach does not use traditional learning algorithm but proposes a new one based on the semantic links among words in the Random Forest classifier. Our second contribution is "IGLM" (Interactive Generic Learning Method). It is a new interactive approach that recursively updates the classification model by considering the new data arriving over time and by leveraging the user intervention to correct misclassified data. An abstraction method is then combined with the update mechanism to improve short text quality. The experiments performed on these two methods show their efficiency and how they outperform traditional algorithms in short text classification. Finally, the last part of the thesis concerns a complete and argued comparative study of the two proposed methods taking into account various criteria such as accuracy, speed, etc.
138

Segmentation de maillages 3D par l'exemple / Segmentation by example of 3D meshes

Elghoul, Esma 29 September 2014 (has links)
Cette thèse présente une méthode de segmentation de modèles 3D en parties significatives ou fonctionnelles. La segmentation s’effectue par "transfert" d’une segmentation exemple : la segmentation d’un modèle est calculée en transférant les segments d’une segmentation exemple d’un objet appartenant à la même classe de modèles 3D. Pour ce faire, nous avons adapté et étendu la méthode de segmentation par les marches aléatoires et transformé notre problème en un problème de localisation et mise en correspondance de faces germes. Notre méthode comporte quatre étapes fondamentales : la mise en correspondance entre le modèle exemple et le modèle cible, la localisation automatique de germes sur le modèle cible pour initialiser les régions, le calcul des segments du modèle cible et l’amélioration de leurs frontières. En constatant que les critères de similarité diffèrent selon que les objets sont de type rigide (chaises, avions,…) ou de type articulé (humains, quadrupèdes,…), nous décomposons notre approche en deux. La première dédiée aux objets rigides, où la mise en correspondance est basée sur le calcul des transformations rigides afin d’aligner au mieux les parties significatives des deux objets comparés. La deuxième dédiée aux modèles articulés, où la mise en correspondance des parties fonctionnelles, présentant des variations de poses plus importantes, est basée sur des squelettes calculés via des diagrammes de Reeb. Nous montrons à travers des évaluations qualitatives et quantitatives que notre méthode obtient des résultats meilleurs que les techniques de segmentation individuelle et comparables aux techniques de co-segmentation avec un temps de calcul nettement inférieur. / In this dissertation, we present a new method to segment 3D models into their functional parts. The segmentation is performed by a transfer approach: a semantic-oriented segmentation of an object is calculated using a pre-segmented example model from the same class (chairs, humans, etc.). To this end, we adapted and extended the random walk segmentation method which allowed us to transform our problem into a problem of locating and matching seed faces. Our method consists of four fundamental steps: establishing correspondences between the example and the target model, localizing seeds to initialize regions in the target model, computing the segments and refining their boundaries in the target model. We decomposed our approach in two, taking into account similarity criteria which differ regarding the object type (rigid vs. articulated). The first approach is dedicated to rigid objects (chairs, airplanes, etc.), where the matching is based on rigid transformations to determine the best alignment between the functional parts of the compared objects. The second one focused on articulated objects (humans, quadrupeds, etc.), where coarse topological shape attributes are used in a skeleton-based approach to cover larger pose variations when computing correspondences between functional parts. We show through qualitative and quantitative evaluations that our method improves upon individual segmentation techniques and obtains results that are close to the co-segmentation techniques results with an important calculation time reduction.
139

Modélisation stochastique des caisses de retraite

Bédard, Diane January 1997 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
140

Étude des présupposés sous normalité dans les plans croisés suivie d'une analyse non paramétrique de certains d'entre eux

Bellavance, François January 1993 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0835 seconds