• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 2
  • Tagged with
  • 4
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Statistical Methods of Detection of Current Flow Structures in Stretches of Water. / Méthodes statistiques de détection des structures de courant dans les étendues d'eau.

Novikov, Dmitri 14 December 2011 (has links)
Ce projet adresse le problème de détection des structures directionnelles précises dans les champs de courant. L'accent est mis surtout sur la détection des structures tourbillonnaires, puisque les chercheurs dans le domaine de la dynamique des fluides considèrent ces structures comme étant particulièrement importantes. Chapitre 1 présente la motivation de ce projet et fournit les détails du contexte environnemental et mathématique du problème en soulignant les parties essentielles de la théorie qu'on utilise après pour la solution. Chapitre 2 propose une méthode statistique, basée sur la proportion des vraisemblances, pour adresser le problème particulier de la détection des tourbillons et montre l'efficacité de cette méthode sur les données simulées et réelles en discutant aussi les limitations. Chapitre 3 développe les idées discutées dans les chapitres 1 et 2 pour trouver un outil statistique plus général qui répare les défauts de la première méthode et permet la détection de toutes les structures directionnelles qui peuvent intéresser les chercheurs. Tous les outils nécessaires pour l'analyse des données en utilisant les deux méthodes développées dans ce projet se trouvent dans les annexes A et B de la thèse. / This work addresses the problem of detecting specific directional structures in flows of current. Specific emphasis is placed on vortex detection, as scientists studying fluid dynamics consider this structure to be of particular importance. Chapter 1 presents the motivation behind the project and provides details about the environmental and, subsequently, the mathematical context of the problem, highlighting the essential parts of the theory that is later used to propose the solution. Chapter 2 offers a statistical approach, based on a likelihood ratio, to solving the specific problem of vortex detection and demonstrates the effectiveness of the method on simulated and real data, also discussing the limitations of the approach. Chapter 3 expands on the ideas discussed in Chapters 1 and 2 to derive a generalized statistical test that remedies the flaws of the first approach and extends to the problem of detecting any directional structure of interest. All necessary tools for the analysis of data using the two methods developed in this project are given in Appendix A and B.
2

Détection et classification de changements sur des scènes urbaines en télédétection

Fournier, Alexandre 31 October 2008 (has links) (PDF)
Cette thèse aborde le problème de la détection de changements sur des images de scènes urbaines en télédétection. Les expériences ont été menées sur des couples d'images satellitaires panchromatiques haute résolution (< 1 m). À travers ce thème général, plusieurs problématiques, correspondant aux divers niveaux d'une chaîne de traitement, sont abordés, depuis la création d'un masque de changements jusqu'au raisonnement à un niveau objet. Dans ce manuscrit, nous abordons premièrement le problème de la détermination d'un masque de changements. Après avoir étudié les limites d'un algorithme de détection de changements, fondé sur l'analyse en composantes principales, nous proposons un algorithme tirant parti de l'invariance des lignes de niveau, fondé sur un modèle d'illumination et des hypothèses sur la régularité de la scène. Par la suite, nous abordons la classification des zones détectées comme changées au cours de l'étape précédente. D'abord, nous nous fondons uniquement sur les radiométries des couples de pixels. Enfin, nous étudions l'intérêt d'une composante géométrique dans la classification. Plus précisément, nous appliquons un algorithme d'approximation polygonale sur les zones connexes issues de la classification précédentes, puis nous classifions les formes obtenues compte tenu des orientations des côtés des polygones obtenus.
3

Contribution à la caractérisation multi-échelle de l'anisotropie des images texturées

Germain, Christian 17 December 1997 (has links) (PDF)
Ce travail est consacré à la caractérisation de l'anisotropie des images. Pour y parvenir, il est établi que, dans le cas de textures complexes, la mesure de l'orientation dominante comme celle de l'anisotropie dépendent fortement de l'échelle à laquelle la texture a été observée.<br />Le premier chapitre définit la notion de texture et celle d'échelle d'observation. Les différentes approches de caractérisation texturale existantes sont présentées et leur aptitude à rendre compte des phénomènes directionnels à différentes échelles d'observation est évaluée.<br />Le second chapitre présente les méthodes les plus courantes pour l'estimation de l'orientation dominante d'une texture. Un indicateur local est ensuite proposé : le Vecteur Directionnel Moyen. Il s'appuie sur des caractéristiques locales et peut être calculé à toute échelle d'observation. Ses performances sont étudiées sur des images de synthèse et sur des textures naturelles.<br />Le troisième chapitre introduit un nouvel indicateur d'anisotropie nommé Iso. Il est basé sur le calcul des différences locales des Vecteurs Directionnels Moyens obtenus à une échelle donnée. Ses performances sont comparées à celles des estimateurs classiques de dispersion directionnelle.<br />Le dernier chapitre est consacré à l'évaluation de l'anisotropie de textures complexes (microscopiques et macroscopiques) en fonction de l'échelle d'observation. Un modèle de texture complexe est construit et le comportement de l'indicateur Iso sur ce modèle est établi. L'indicateur est ensuite appliqué à la caractérisation de textures naturelles et de synthèse. Il est ensuite montré que l'évolution de cet indicateur en fonction de l'échelle d'observation fournit une courbe qui caractérise à la fois l'anisotropie de la texture traitée ainsi que la taille des différentes primitives texturales microscopiques et macroscopiques formant cette texture. L'indicateur Iso , calculé à différentes échelles, est appliqué à des textures synthétiques, à des textures de l'album de Brodatz ainsi qu'à des images de matériaux composites observés par microscopie électronique à transmission.
4

Von Mises-Fisher based (co-)clustering for high-dimensional sparse data : application to text and collaborative filtering data / Modèles de mélange de von Mises-Fisher pour la classification simple et croisée de données éparses de grande dimension

Salah, Aghiles 21 November 2016 (has links)
La classification automatique, qui consiste à regrouper des objets similaires au sein de groupes, également appelés classes ou clusters, est sans aucun doute l’une des méthodes d’apprentissage non-supervisé les plus utiles dans le contexte du Big Data. En effet, avec l’expansion des volumes de données disponibles, notamment sur le web, la classification ne cesse de gagner en importance dans le domaine de la science des données pour la réalisation de différentes tâches, telles que le résumé automatique, la réduction de dimension, la visualisation, la détection d’anomalies, l’accélération des moteurs de recherche, l’organisation d’énormes ensembles de données, etc. De nombreuses méthodes de classification ont été développées à ce jour, ces dernières sont cependant fortement mises en difficulté par les caractéristiques complexes des ensembles de données que l’on rencontre dans certains domaines d’actualité tel que le Filtrage Collaboratif (FC) et de la fouille de textes. Ces données, souvent représentées sous forme de matrices, sont de très grande dimension (des milliers de variables) et extrêmement creuses (ou sparses, avec plus de 95% de zéros). En plus d’être de grande dimension et sparse, les données rencontrées dans les domaines mentionnés ci-dessus sont également de nature directionnelles. En effet, plusieurs études antérieures ont démontré empiriquement que les mesures directionnelles, telle que la similarité cosinus, sont supérieurs à d’autres mesures, telle que la distance Euclidiennes, pour la classification des documents textuels ou pour mesurer les similitudes entre les utilisateurs/items dans le FC. Cela suggère que, dans un tel contexte, c’est la direction d’un vecteur de données (e.g., représentant un document texte) qui est pertinente, et non pas sa longueur. Il est intéressant de noter que la similarité cosinus est exactement le produit scalaire entre des vecteurs unitaires (de norme 1). Ainsi, d’un point de vue probabiliste l’utilisation de la similarité cosinus revient à supposer que les données sont directionnelles et réparties sur la surface d’une hypersphère unité. En dépit des nombreuses preuves empiriques suggérant que certains ensembles de données sparses et de grande dimension sont mieux modélisés sur une hypersphère unité, la plupart des modèles existants dans le contexte de la fouille de textes et du FC s’appuient sur des hypothèses populaires : distributions Gaussiennes ou Multinomiales, qui sont malheureusement inadéquates pour des données directionnelles. Dans cette thèse, nous nous focalisons sur deux challenges d’actualité, à savoir la classification des documents textuels et la recommandation d’items, qui ne cesse d’attirer l’attention dans les domaines de la fouille de textes et celui du filtrage collaborative, respectivement. Afin de répondre aux limitations ci-dessus, nous proposons une série de nouveaux modèles et algorithmes qui s’appuient sur la distribution de von Mises-Fisher (vMF) qui est plus appropriée aux données directionnelles distribuées sur une hypersphère unité. / Cluster analysis or clustering, which aims to group together similar objects, is undoubtedly a very powerful unsupervised learning technique. With the growing amount of available data, clustering is increasingly gaining in importance in various areas of data science for several reasons such as automatic summarization, dimensionality reduction, visualization, outlier detection, speed up research engines, organization of huge data sets, etc. Existing clustering approaches are, however, severely challenged by the high dimensionality and extreme sparsity of the data sets arising in some current areas of interest, such as Collaborative Filtering (CF) and text mining. Such data often consists of thousands of features and more than 95% of zero entries. In addition to being high dimensional and sparse, the data sets encountered in the aforementioned domains are also directional in nature. In fact, several previous studies have empirically demonstrated that directional measures—that measure the distance between objects relative to the angle between them—, such as the cosine similarity, are substantially superior to other measures such as Euclidean distortions, for clustering text documents or assessing the similarities between users/items in CF. This suggests that in such context only the direction of a data vector (e.g., text document) is relevant, not its magnitude. It is worth noting that the cosine similarity is exactly the scalar product between unit length data vectors, i.e., L 2 normalized vectors. Thus, from a probabilistic perspective using the cosine similarity is equivalent to assuming that the data are directional data distributed on the surface of a unit-hypersphere. Despite the substantial empirical evidence that certain high dimensional sparse data sets, such as those encountered in the above domains, are better modeled as directional data, most existing models in text mining and CF are based on popular assumptions such as Gaussian, Multinomial or Bernoulli which are inadequate for L 2 normalized data. In this thesis, we focus on the two challenging tasks of text document clustering and item recommendation, which are still attracting a lot of attention in the domains of text mining and CF, respectively. In order to address the above limitations, we propose a suite of new models and algorithms which rely on the von Mises-Fisher (vMF) assumption that arises naturally for directional data lying on a unit-hypersphere.

Page generated in 0.1717 seconds