• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 9
  • 5
  • Tagged with
  • 41
  • 41
  • 15
  • 14
  • 14
  • 13
  • 13
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Segmentation et mesures géométriques : application aux objets tubulaires métalliques / Segmentation and geometric measurements : application to metal tubular objects

Aubry, Nicolas 12 July 2017 (has links)
La présence de spécularité sur un objet est un problème récurrent qui limite l'application de nombreuses méthodes de segmentation. En effet, les spécularités sont des zones ayant une intensité très élevée et perturbent énormément la détection dès lors que l'on utilise la notion de gradient de l'image. Les travaux menés dans cette thèse permettent de proposer une nouvelle méthode de détection d'un objet tubulaire métallique dans une image. La méthode s'affranchit de la notion de gradient en utilisant la notion de profil d'intensité. Nous proposons dans ce manuscrit, un processus qui parcourt des zones rectangulaires prédéfinies de l'image, par balayage d'un segment discret à la recherche d'un profil d'intensité référence. Ces travaux s'inscrivent dans une collaboration avec Numalliance, une entreprise qui fabrique des machines-outils. Cette collaboration permet de mettre en pratique cette méthode dans le cadre d'un système de contrôle qualité automatique et temps-réel des pièces manufacturées par les machines-outils. Pour cela, la méthode présentée doit être rapide, robuste aux spécularités et à l'environnement industriel tout en étant suffisamment précise pour permettre de conclure sur la conformité ou non de la pièce / The presence of specularity on an object is a recurring problem that limits the application of many segmentation methods. Indeed, specularities are areas with a very high intensity and greatly disturb the detection when the notion of gradient of the image is used. The work carried out in this thesis makes it possible to propose a new detection method for a metallic tubular object in an image. The method avoids the notion of gradient by using the notion of intensity profile. We propose in this manuscript a process which traverses predefined rectangular areas of the image by scanning a discrete segment in search of a reference intensity profile. This work is part of a collaboration with Numalliance, a company that manufactures machine tools. This collaboration enables this method to be put into a real industrial application as part of an automatic and real-time quality control system for parts manufactured by machine tools. To this end, the method presented must be fast, robust to the specularities and to the industrial environment while being sufficiently precise to make it possible to conclude on the conformity or not of the part
32

Développement de méthodes de traitement d'images pour la détermination de paramètres variographiques locaux

Felder, Jean 02 December 2011 (has links) (PDF)
La géostatistique fournit de nombreux outils pour caractériser et traiter des données réparties dans l'espace. La plupart de ces outils sont basés sur l'analyse et la modélisation d'une fonction appelée variogramme qui permet de construire différents opérateurs spatiaux : le krigeage et les simulations. Les modèles variographiques sont relativement intuitifs : certains paramètres variographiques peuvent être directement interprétés en termes de caractéristiques structurales. Ces approches sont cependant limitées car elles ne permettent pas de prendre correctement en compte la structuration locale des données. Plusieurs types de modèles géostatistiques non-stationnaires existent. Ils requièrent généralement un paramétrage compliqué, peu intuitif, et ils n'apportent pas de réponse satisfaisante quant à certains de types de non-stationnarité. C'est pour répondre au besoin d'une prise en compte efficace et opérationnelle de la non-stationnarité dans un jeu de données que, dans le cadre de cette thèse, nous prenons le parti de déterminer des paramètres variographiques locaux, appelés M-Paramètres par des méthodes de traitement d'images. Notre démarche se fonde principalement sur la détermination des paramètres morphologiques de dimensions et d'orientations de structures. Il résulte de la détermination de M-Paramètres une meilleure adéquation entre modèles variographiques et caractéristiques structurales des données. Les méthodes de détermination de M-Paramètres développées ont été appliquées sur des données bathymétriques, sur des jeux de données laissant apparaître des corps géologiques complexes ou encore sur des jeux de données environnementaux, liés au domaine de la pollution en zone urbaine par exemple. Ces exemples illustrent les améliorations de résultats de traitement géostatistique obtenus avec M-Paramètres. Enfin, partant du constat que certains phénomènes ne respectent pas une propagation euclidienne, nous avons étudié l'influence du choix de la distance sur les résultats de krigeage et de simulation. En utilisant des distances géodésiques, nous avons pu obtenir des résultats d'estimation impossible à reproduire avec des distances euclidiennes.
33

Étude de paramètres géométriques à partir du code de Freeman

Trouillot, Xavier 12 December 2008 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de la géométrie discrète 2D avec pour principales applications l'analyse et la caractérisation de formes. Nous nous intéressons ici aux différents codages de contour de formes binaires que nous présentons dans un premier temps. Nous présentons ensuite plus en détail le plus ancien d'entre eux : le codage de Freeman, et nous développons plus particulièrement des algorithmes sur ce qu'il est possible de faire à partir de ce code. Nous étudions donc l'estimation de paramètres géométriques et de paramètres de formes sur une forme binaire comme le périmètre, l'aire, les diamètres apparents, la dimension fractale, et les coefficients de symétrie d'une forme. Nous voyons ensuite les transformations qu'il est possible d'effectuer sur le code de Freeman sans revenir à la représentation classique de la scène. Enfin, nous abordons la notion de morphologie mathématique en proposant une méthode d'obtention du code du dilaté et de l'érodé d'une forme connue par son code de Freeman.
34

Intégration de connaissances anatomiques a priori dans des modèles géométriques

Hassan, Sahar 20 June 2011 (has links) (PDF)
L'imagerie médicale est une ressource de données principale pour différents types d'applications. Bien que les images concrétisent beaucoup d'informations sur le cas étudié, toutes les connaissances a priori du médecin restent implicites. Elles jouent cependant un rôle très important dans l'interprétation et l'utilisation des images médicales. Dans cette thèse, des connaissances anatomiques a priori sont intégrées dans deux applications médicales. Nous proposons d'abord une chaîne de traitement automatique qui détecte, quantifie et localise des anévrismes dans un arbre vasculaire segmenté. Des lignes de centre des vaisseaux sont extraites et permettent la détection et la quantification automatique des anévrismes. Pour les localiser, une mise en correspondance est faite entre l'arbre vasculaire du patient et un arbre vasculaire sain. Les connaissances a priori sont fournies sous la forme d'un graphe. Dans le contexte de l'identification des sous-parties d'un organe représenté sous forme de maillage, nous proposons l'utilisation d'une ontologie anatomique, que nous enrichissons avec toutes les informations nécessaires pour accomplir la tâche de segmentation de maillages. Nous proposons ensuite un nouvel algorithme pour cette tâche, qui profite de toutes les connaissances a priori disponibles dans l'ontologie.
35

Extraction de paramètres morphométriques pour l'étude du réseau micro-vasculaire cérébral

Fouard, Céline 21 January 2005 (has links) (PDF)
L'objectif de cette thèse est de fournir des outils logiciels aux anatomistes et neuro-anatomistes afin de permettre une analyse tridimensionnelle quantitative des réseaux micro-vasculaires cérébraux. Cette analyse demande des images de très haute résolution (permettant de tenir compte du plus petit capillaire), mais aussi des images couvrant une surface du cortex suffisamment large pour être statistiquement significative. Comme elle ne peut être acquise en une seule fois, nous proposons de paver la surface à imager de plusieurs petites images et de créer ainsi une grande "mosaïque d'images". Chaque image est acquise grâce à un microscope confocal dont la résolution impose une grille anisotrope. Nous avons alors développé des outils de reconstruction spécifiques pour ce genre de mosaïques afin de générer des images à la fois très étendues et très précises. Or ces images sont trop volumineuses pour être chargées et traitées en une seule fois dans la mémoire d'un ordinateur standard. Nous avons donc développé des outils spécifiques de traitement d'image (filtrage, seuillage, outils de morphologie mathématique, de topologie discrète...) décomposés en traitements en sous-images. L'étude quantitative du réseau micro-vasculaire cérébral nécessite l'extraction des lignes centrales et une estimation des diamètres des vaisseaux. La géométrie discrète offre un cadre de travail rapide et puissant pour ce type de calculs. En effet, nous devons calculer une carte de distance en tout point de l'image. Afin d'avoir la meilleure précision possible tout en gardant un temps de traitement raisonnable, nous avons choisi une carte de distance du chanfrein. Une de nos contributions a été de proposer un calcul automatique des coefficients de chanfrein permettant de s'adapter à tout type d'anisotropie de grille. L'utilisation de telles cartes de distances permet de guider des algorithmes de squelettisation. De tels outils nécessitent la conservation d'une propriété globale, la topologie. Comme nous nous plaçons dans un cadre où l'on a accès qu'à des sous images, nous avons proposé un nouvel algorithme de squelettisation qui minimise le nombre d'accès à des sous-images afin de garantir un temps de calcul acceptable, tout en localisant correctement le squelette. Ces algorithmes ont été intégrés dans le logiciel ergonomique Amira et sont utilisés par les chercheurs de l'unité U455 de l'INSERM.
36

Reconstitution tomographique de propriétés qualitatives et quantitatives d'images / Tomographic reconstruction of qualitative and quantitative properties of images

Abdmouleh, Fatma 12 November 2013 (has links)
La tomographie consiste à reconstruire un objet nD à partir de projections (n-1)D. Cette discipline soulève plusieurs questions auxquelles la recherche essaie d’apporter des réponses. On s’intéresse dans cette thèse à trois aspects de cette problématique : 1) la reconstruction de l’image 2D à partir de projections dans un cadre rarement étudié qui est celui des sources ponctuelles ; 2) l’unicité de cette reconstruction ; 3) l'estimation d’informations concernant un objet sans passer par l'étape de reconstitution de son image. Afin d’aborder le problème de reconstruction pour la classe des ensembles convexes, nous définissons une nouvelle classe d’ensembles ayant des propriétés de convexité qu’on appelle convexité par quadrants pour des sources ponctuelles. Après une étude de cette nouvelle classe d’ensembles, nous montrons qu’elle présente des liens forts avec la classe des ensembles convexes. Nous proposons alors un algorithme de reconstruction d’ensemblesconvexes par quadrants qui, si l’unicité de la reconstruction est garantie, permet de reconstruire des ensembles convexes en un temps polynomial. Nous montrons que si une conjecture, que nous avons proposée, est vraie, les conditions de l’unicité pour les ensembles convexes par quadrants sont les mêmes que celles pour les ensembles convexes. Concernant le troisième aspect étudié dans cette thèse, nous proposons une méthode qui permet d’estimer, à partir d’une seule projection, la surface d’un ensemble 2D. Concernant l’estimation du périmètre d’un ensemble 2D, en considérant les projections par une deuxième source d’un ensemble convexe, nous obtenons deux bornes inférieures et une borne supérieure pour le périmètre de l’objet projeté. / Tomography is about reconstructing an nD object from its (n-1)D projections. This discipline addresses many questions to which research tries to provide answers. In this work, we are interested to three aspects: 1) the 2D image reconstruction from projections in a rarely studies framework that is the point sources; 2) the uniqueness of this reconstruction; 3) estimating information about an object without going through the step of reconstructing its image. To approach the problem of tomographic reconstruction for the class of convex sets, we define a new class of sets having properties of convexity called quadrant convexity for point sources. After a study of this new class of sets, we show that it presents strong links with the class of convex sets. Wepropose a reconstruction algorithm for quadrant-convex sets that, if the uniqueness of the reconstruction is guaranteed, allows the reconstruction of convex sets in polynomial time. We also show that if a conjecture we have proposed is true the conditions of uniqueness for quadrant-convex sets are the same as those for convex sets. Regarding the third aspect studied in this thesis, we focus on two quantitative properties that are the surface and the perimeter. We propose a method to estimate, from only one projection, the surface of a 2D set. We obtain two lower bounds and an upper bound for the perimeter of a projected convexobject by considering the projections from a second point source.
37

Discrete topology and geometry algorithms for quantitative human airway trees analysis based on computed tomography images / Topologie discrète et algorithmes géométriques pour l’analyse quantitative de l’arbre bronchique humain, basée sur des images de tomodensitométrie

Postolski, Michal 18 December 2013 (has links)
La tomodensitométrie est une technique très utile qui permet de mener avec succès des analyses non-invasives dans plusieurs types d'applications, par exemple médicales ou industrielles. L'analyse manuelle des structures d'intérêt présentes dans une image peut prendre beaucoup de temps, être laborieuse et parfois même impossible à faire en raison de sa complexité. C'est pour cela que dans cette thèse, nous proposons et développons des algorithmes nécessaires à cette analyse, basés sur la géométrie discrète et la topologie. Ces algorithmes peuvent servir dans de nombreuses applications, et en particulier au niveau de l'analyse quantitative automatique de l'arbre bronchique humain, sur la base d'images de tomodensitométrie. La première partie introduit les notions fondamentales de la topologie et de la géométrie discrètes utiles dans cette thèse. Ensuite, nous présentons le principe de méthodes utilisées dans de nombreuses applications : les algorithmes de squelettisation, de calcul de l'axe médian, les algorithmes de fermeture de tunnels et les estimateurs de tangentes. La deuxième partie présente les nouvelles méthodes que nous proposons et qui permettent de résoudre des problèmes particuliers. Nous avons introduit deux méthodes nouvelles de filtrage d'axe médian. La première, que nous appelons "hierarchical scale medial axis", est inspirée du "scale axis transform", sans les inconvénients qui sont propres à la méthode originale. La deuxième est une méthode nommée "discrete adaptive medial axis", où le paramètre de filtrage est adapté dynamiquement aux dimensions locales de l'objet. Dans cette partie, nous introduisons également des estimateurs de tangente nouveaux et efficaces, agissant sur des courbes discrètes tridimensionnelles, et que nous appelons "3Dlambda maximal segment tangent direction". Enfin, nous avons montré que la géométrie discrète et les algorithmes topologiques pouvaient être utiles dans le problème de l'analyse quantitative de l'arbre bronchique humain à partir d'images tomodensitométriques. Dans une chaîne de traitements de structure classique par rapport à l'état de l'art, nous avons appliqué des méthodes de topologie et de géométrie discrète afin de résoudre des problèmes particuliers dans chaque étape du processus de l'analyse quantitative. Nous proposons une méthode robuste pour segmenter l'arbre bronchique à partir d'un ensemble de données tomographiques (CT). La méthode est basée sur un algorithme de fermeture de tunnels qui est utilisé comme outil pour réparer des images CT abîmées par les erreurs d'acquisition. Nous avons aussi proposé un algorithme qui sert à créer un modèle artificiel d'arbre bronchique. Ce modèle est utilisé pour la validation des algorithmes présentés dans cette thèse. Ensuite nous comparons la qualité des différents algorithmes en utilisant un ensemble de test constitué de fantômes (informatiques) et d'un ensemble de données CT réelles. Nous montrons que les méthodes récemment présentées dans le cadre des complexes cubiques, combinées avec les méthodes présentées dans cette thèse, permettent de surmonter des problèmes indiqués par la littérature et peuvent être un bon fondement pour l'implémentation future des systèmes de quantification automatique des particularités de l'arbre bronchique / Computed tomography is a very useful technic which allow non-invasive diagnosis in many applications for example is used with success in industry and medicine. However, manual analysis of the interesting structures can be tedious and extremely time consuming, or even impossible due its complexity. Therefore in this thesis we study and develop discrete geometry and topology algorithms suitable for use in many practical applications, especially, in the problem of automatic quantitative analysis of the human airway trees based on computed tomography images. In the first part, we define basic notions used in discrete topology and geometry then we showed that several class of discrete methods like skeletonisation algorithms, medial axes, tunnels closing algorithms and tangent estimators, are widely used in several different practical application. The second part consist of a proposition and theory of a new methods for solving particular problems. We introduced two new medial axis filtering method. The hierarchical scale medial axis which is based on previously proposed scale axis transform, however, is free of drawbacks introduced in the previously proposed method and the discrete adaptive medial axis where the filtering parameter is dynamically adapted to the local size of the object. In this part we also introduced an efficient and parameter less new tangent estimators along three-dimensional discrete curves, called 3D maximal segment tangent direction. Finally, we showed that discrete geometry and topology algorithms can be useful in the problem of quantitative analysis of the human airway trees based on computed tomography images. According to proposed in the literature design of such system we applied discrete topology and geometry algorithms to solve particular problems at each step of the quantitative analysis process. First, we propose a robust method for segmenting airway tree from CT datasets. The method is based on the tunnel closing algorithm and is used as a tool to repair, damaged by acquisition errors, CT images. We also proposed an algorithm for creation of an artificial model of the bronchial tree and we used such model to validate algorithms presented in this work. Then, we compare the quality of different algorithms using set of experiments conducted on computer phantoms and real CT dataset. We show that recently proposed methods which works in cubical complex framework, together with methods introduced in this work can overcome problems reported in the literature and can be a good basis for the further implementation of the system for automatic quantification of bronchial tree properties
38

Modèles de cycles normaux pour l'analyse des déformations / Normal cycle models for deformation analysis

Roussillon, Pierre 24 November 2017 (has links)
Dans cette thèse, nous développons un modèle du second ordre pour la représentation des formes (courbes et surfaces) grâce à la théorie des cycles normaux. Le cycle normal d'une forme est le courant associé à son fibré normal. En introduisant des métriques à noyaux sur les cycles normaux, nous obtenons une mesure de dissimilarité entre formes qui prend en compte leurs courbures. Cette mesure est ensuite utilisée comme terme d'attache aux données dans une optique d'appariement et d'analyse de formes par les déformations. Le chapitre 1 est une revue du domaine de l'analyse de formes par les déformations. Nous insistons plus particulièrement sur la mise en place théorique et numérique du modèle de Large Deformation Diffeomorphic Metric Mapping (LDDMM). Le chapitre 2 se concentre sur la représentation des formes par les cycles normaux dans un cadre unifié qui englobe à la fois les formes continues et discrètes. Nous précisons dans quelle mesure cette représentation contient des informations de courbure. Enfin nous montrons le lien entre le cycle normal d'une forme et son varifold. Dans le chapitre 3, nous introduisons les métriques à noyaux. Ainsi, nous pouvons considérer les cycles normaux dans un espace de Hilbert avec un produit scalaire explicite. Nous détaillons ce produit scalaire dans le cas des courbes et surfaces discrètes avec certains noyaux, ainsi que le gradient associé. Nous montrons enfin que malgré le choix de noyaux simples, nous ne perdons pas toutes les informations de courbures. Le chapitre 4 utilise cette nouvelle métrique comme terme d'attache aux données dans le cadre LDDMM. Nous présentons de nombreux appariements et estimations de formes moyennes avec des courbes ou des surfaces. L'objectif de ce chapitre est d'illustrer les différentes propriétés des cycles normaux pour l'analyse des déformations sur des exemples synthétiques et réels. / In this thesis, we develop a second order model for the representation of shapes (curves or surfaces) using the theory of normal cycles. The normal cycle of a shape is the current associated with its normal bundle. Introducing kernel metrics on normal cycles, we obtain a dissimilarity measure between shapes which takes into account curvature. This measure is used as a data attachment term for a purpose of registration and shape analysis by deformations. Chapter 1 is a review of the field of shape analysis. We focus on the setting of the theoretical and numerical model of the Large Deformation Diffeomorphic Metric Mapping(LDDMM).Chapter 2 focuses on the representation of shapes with normal cycles in a unified framework that encompasses both the continuous and the discrete shapes. We specify to what extend this representation encodes curvature information. Finally, we show the link between the normal cycle of a shape and its varifold. In chapter 3, we introduce the kernel metrics, so that we can consider normal cycles in a Hilbert space with an explicit scalar product. We detail this scalar product for discrete curves and surfaces with some kernels, as well as the associated gradient. We show that even with simple kernels, we do not get rid of all the curvature informations. The chapter 4 introduces this new metric as a data attachment term in the framework of LDDMM. We present numerous registrations and mean shape estimation for curves and surfaces. The aim of this chapter is to illustrate the different properties of normal cycles for the deformations analysis on synthetic and real examples.
39

Analyse Complexe Discrète

Mercat, Christian 09 December 2009 (has links) (PDF)
Ma contribution principale porte sur la géométrie différentielle discrète, spécialement la géométrie conforme discrète. Les champs d'application principaux que j'étudie sont l'imagerie par ordinateur et les systèmes intégrables, tant les systèmes intégrables discrets que les systèmes statistiques intégrables. Ma thèse sur le modèle d'Ising a identifié la criticité dans le modèle de taille fini comme un point où le fermion, une observable particulière, devient holomorphe pour une structure conforme discrète sous-jacente. À l'université de Melbourne, je me suis intéressé avec Paul Pearce aux modèles ADE qui sont une généralisation du modèle d'Ising, dans le but (inachevé mais en bonne voie) d'y identifier un analogue discret de l'algèbre des opérateurs vertex (les conditions de bord conformes et intégrables) et des blocs conformes, en particulier dans l'espoir de comprendre la criticité comme une compatibilité à l'holomorphie discrète. À l'université technique de Berlin, avec Alexander Bobenko et son équipe, j'ai compris la nature intégrable du modèle associé à l'holomorphie discrète (linéaire et quadratique) et utilisé les outils très puissants de cette théorie (isomonodromie, transformations de Darboux-Bäcklund, finite-gap) pour mettre à jour la position centrale de l'analyse complexe discrète dans la hiérarchie des systèmes intégrables discrets. À Montpellier, dans l'équipe Arith dirigée par Valérie Berthé, j'ai appliqué cette théorie dans le cadre de la géométrie différentielle discrète, particulièrement dans le cadre voxellique de la géométrie digitale.
40

Modèles exactement solubles de mécanique statistique en dimension deux : modèle d'Ising, dimères et arbres couvrants.

De Tilière, Béatrice 25 November 2013 (has links) (PDF)
Ce mémoire donne un aperçu de mes travaux de recherche depuis la thèse. La thématique générale est la mécanique statistique, qui a pour but de comprendre le comportement macroscopique d'un système physique dont les interactions sont décrites au niveau microscopique. De nombreux modèles appartiennent à la mécanique statistique; nos résultats se concentrent sur le modèle d'Ising, le modèle de dimères et les arbres couvrants en dimension deux. Ces trois modèles ont la particularité d'être exactement solubles, c'est-à-dire qu'il existe une expression exacte et explicite pour la fonction de partition. Ce mémoire décrit et met en perspective les résultats de mes publications, et donne les étapes principales des démonstrations.

Page generated in 0.0833 seconds