• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 7
  • Tagged with
  • 16
  • 16
  • 9
  • 9
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Extraction, caractérisation et mesure de courbes imparfaites en résolution limitée / Extraction, characterization and measurement of imperfect curves in limited resolution

Rahmoun, Somia 04 December 2017 (has links)
Dans le domaine moléculaire, les polymères sont observés et étudiés par microscopie. Les formes obtenues sont souvent imprécises en raison de l'effet de convolution et de diffraction de l'acquisition par microscopie. Par conséquent, le polymère apparait comme une courbe épaisse, bruitée et floue. Pour étudier les caractéristiques d'une chaîne de polymère, une des approches possibles consiste à réduire la forme acquise par microscope à une représentation minimale, soit une courbe. Cette dernière doit représenter au mieux l'objet étudié malgré les différentes difficultés rencontrées telles que la qualité des images ou les imprécisions dues à la discrétisation. De plus, un polymère adopte un mouvement "Reptilien" et peut former des géométries complexes telles que des courbes fermées ou avec boucles. L'objet de cette thèse est donc l'extraction de courbes visant à fournir une représentation minimale des polymères à des fins d'analyse. La méthode que nous proposons comprend deux grandes étapes à savoir : L'extraction des géodésiques et leur fusion. La première étape consiste à calculer un ensemble de géodésiques, chacune parcourant une partie distincte de la forme. Ces morceaux de géodésiques sont fusionnés dans la seconde étape afin de générer la courbe complète. Afin de représenter la reptation, les géodésiques doivent être fusionnées dans un ordre précis. Nous modélisons ce problème par graphes et nous cherchons l'ordre de fusion en parcourant le graphe. La fusion est effectuée selon le chemin optimal minimisant différentes contraintes. / In the molecular field, polymers are observed and studied by microscopy. The shapes obtained are often inaccurate because of the convolution and diffraction effect of microscopy. Therefore, the polymer appears as a thick, noisy and fuzzy curve. In order to study a polymer chain, one of the possible approaches consists in reducing the acquired shape to a minimal representation, ie a curve. This curve must represent the studied object in the best way, despite the various encountered difficulties, such as the quality of the images or inaccuracies due to discretization. In addition, a polymer performs a "Reptilian" movement and can form complex geometries such as closed and looped curves. The object of this thesis is, therefore, the extraction of curves aimed at providing a minimal representation of the polymers for analysis. The proposed method comprises two major steps: geodesics extraction and their fusion. The first step is to compute a set of geodesics, each one traversing a distinct part of the shape. These pieces of geodesics are fused in the second step to generate the complete curve. In order to represent the reptation, the geodesics have to be merged in a precise order. We model this problem by graphs and consider the fusion as a graph traversal problem. The fusion is performed according to the optimal path minimizing various constraints.
12

Discrete shape analysis for global illumination / Analyse de formes pour l'illumination globale

Noel, Laurent 15 December 2015 (has links)
Les images de synthèse sont présentes à travers un grand nombre d'applications tel que les jeux vidéo, le cinéma, l'architecture, la publicité, l'art, la réalité virtuelle, la visualisation scientifique, l'ingénierie en éclairage, etc. En conséquence, la demande en photoréalisme et techniques de rendu rapide ne cesse d'augmenter. Le rendu réaliste d'une scène virtuelle nécessite l'estimation de son illumination globale grâce à une simulation du transport de lumière, un processus coûteux en temps de calcul dont la vitesse de convergence diminue généralement lorsque la complexité de la scène augmente. En particulier, une forte illumination indirecte combinée à de nombreuses occlusions constitue une caractéristique globale de la scène que les techniques existantes ont du mal à gérer. Cette thèse s'intéresse à ce problème à travers l'application de techniques d'analyse de formes pour le rendu 3D.Notre principal outil est un squelette curviligne du vide de la scène, représenté par un graphe contenant des informations sur la topologie et la géométrie de la scène. Ce squelette nous permet de proposer de nouvelles méthodes pour améliorer des techniques de rendu temps réel et non temps réel. Concernant le rendu temps réel, nous utilisons les informations géométriques du squelette afin d'approximer le rendu des ombres projetés par un grand nombre de points virtuels de lumière représentant l'illumination indirecte de la scène 3D.Pour ce qui est du rendu non temps réel, nos travaux se concentrent sur des algorithmes basés sur l'échantillonnage de chemins, constituant actuellement le principal paradigme en rendu physiquement plausible. Notre squelette mène au développement de nouvelles stratégies d'échantillonnage de chemins, guidés par des caractéristiques topologiques et géométriques. Nous adressons également ce problème à l'aide d'un second outil d'analyse de formes: la fonction d'ouverture du vide de la scène, décrivant l'épaisseur locale du vide en chacun de ses points. Nos contributions offrent une amélioration des méthodes existantes and indiquent clairement que l'analyse de formes offre de nombreuses opportunités pour le développement de nouvelles techniques de rendu 3D / Nowadays, computer generated images can be found everywhere, through a wide range of applications such as video games, cinema, architecture, publicity, artistic design, virtual reality, scientific visualization, lighting engineering, etc. Consequently, the need for visual realism and fast rendering is increasingly growing. Realistic rendering involves the estimation of global illumination through light transport simulation, a time consuming process for which the convergence rate generally decreases as the complexity of the input virtual 3D scene increases. In particular, occlusions and strong indirect illumination are global features of the scene that are difficult to handle efficiently with existing techniques. This thesis addresses this problem through the application of discrete shape analysis to rendering. Our main tool is a curvilinear skeleton of the empty space of the scene, a sparse graph containing important geometric and topological information about the structure of the scene. By taking advantage of this skeleton, we propose new methods to improve both real-time and off-line rendering methods. Concerning real-time rendering, we exploit geometric information carried by the skeleton for the approximation of shadows casted by a large set of virtual point lights representing the indirect illumination of the 3D scene. Regarding off-line rendering, our works focus on algorithms based on path sampling, that constitute the main paradigm of state-of-the-art methods addressing physically based rendering. Our skeleton leads to new efficient path sampling strategies guided by topological and geometric features. Addressing the same problem, we also propose a sampling strategy based on a second tool from discrete shape analysis: the opening function of the empty space of the scene, describing the local thickness of that space at each point. Our contributions demonstrate improvements over existing approaches and clearly indicate that discrete shape analysis offers many opportunities for the development of new rendering techniques
13

Modèles de cycles normaux pour l'analyse des déformations / Normal cycle models for deformation analysis

Roussillon, Pierre 24 November 2017 (has links)
Dans cette thèse, nous développons un modèle du second ordre pour la représentation des formes (courbes et surfaces) grâce à la théorie des cycles normaux. Le cycle normal d'une forme est le courant associé à son fibré normal. En introduisant des métriques à noyaux sur les cycles normaux, nous obtenons une mesure de dissimilarité entre formes qui prend en compte leurs courbures. Cette mesure est ensuite utilisée comme terme d'attache aux données dans une optique d'appariement et d'analyse de formes par les déformations. Le chapitre 1 est une revue du domaine de l'analyse de formes par les déformations. Nous insistons plus particulièrement sur la mise en place théorique et numérique du modèle de Large Deformation Diffeomorphic Metric Mapping (LDDMM). Le chapitre 2 se concentre sur la représentation des formes par les cycles normaux dans un cadre unifié qui englobe à la fois les formes continues et discrètes. Nous précisons dans quelle mesure cette représentation contient des informations de courbure. Enfin nous montrons le lien entre le cycle normal d'une forme et son varifold. Dans le chapitre 3, nous introduisons les métriques à noyaux. Ainsi, nous pouvons considérer les cycles normaux dans un espace de Hilbert avec un produit scalaire explicite. Nous détaillons ce produit scalaire dans le cas des courbes et surfaces discrètes avec certains noyaux, ainsi que le gradient associé. Nous montrons enfin que malgré le choix de noyaux simples, nous ne perdons pas toutes les informations de courbures. Le chapitre 4 utilise cette nouvelle métrique comme terme d'attache aux données dans le cadre LDDMM. Nous présentons de nombreux appariements et estimations de formes moyennes avec des courbes ou des surfaces. L'objectif de ce chapitre est d'illustrer les différentes propriétés des cycles normaux pour l'analyse des déformations sur des exemples synthétiques et réels. / In this thesis, we develop a second order model for the representation of shapes (curves or surfaces) using the theory of normal cycles. The normal cycle of a shape is the current associated with its normal bundle. Introducing kernel metrics on normal cycles, we obtain a dissimilarity measure between shapes which takes into account curvature. This measure is used as a data attachment term for a purpose of registration and shape analysis by deformations. Chapter 1 is a review of the field of shape analysis. We focus on the setting of the theoretical and numerical model of the Large Deformation Diffeomorphic Metric Mapping(LDDMM).Chapter 2 focuses on the representation of shapes with normal cycles in a unified framework that encompasses both the continuous and the discrete shapes. We specify to what extend this representation encodes curvature information. Finally, we show the link between the normal cycle of a shape and its varifold. In chapter 3, we introduce the kernel metrics, so that we can consider normal cycles in a Hilbert space with an explicit scalar product. We detail this scalar product for discrete curves and surfaces with some kernels, as well as the associated gradient. We show that even with simple kernels, we do not get rid of all the curvature informations. The chapter 4 introduces this new metric as a data attachment term in the framework of LDDMM. We present numerous registrations and mean shape estimation for curves and surfaces. The aim of this chapter is to illustrate the different properties of normal cycles for the deformations analysis on synthetic and real examples.
14

Characterization of high-purity, multi-segmented germanium detectors / Charactérisation de détecteurs multi-segmentés au germanium hyper pur

Ginsz, Michaël 30 September 2015 (has links)
L’apparition de la segmentation électrique des détecteurs au GeHP et de l’électronique numérique a ouvert la voie à des applications prometteuses, telles que le tracking γ, l’imagerie γ ou la mesure bas bruit de fond, pour lesquelles une connaissance fine de la réponse du détecteur est un atout. L’IPHC a développé une table de scan utilisant un faisceau collimaté, qui sonde la réponse d’un détecteur dans tout son volume en fonction de la localisation de l’interaction. Elle est conçue pour utiliser une technique innovante de scan 3D, le Pulse Shape Comparison Scan, qui a été d’abord simulée afin de démontrer son efficacité. Un détecteur AGATA a été scanné de manière approfondie. Des scan 2D classiques ont permis, entre autres, de mettre en évidence des effets locaux de modification de la collection des charges, liés à la segmentation. Pour la première fois, une base de données 3D, complète, de formes d’impulsions fonction de la position d’interaction a été établie. Elle permettra notamment d’améliorer les performances du spectromètre AGATA. / Recent developments of electrical segmentation of HPGe detectors, coupled with digital electronics have led to promising applications such as γ-ray tracking, γ-ray imaging or low-background measurements which will benefit from a fine knowledge of the detector response. The IPHC has developed a new scanning table which uses a collimated γ-ray beam to investigate the detector response as a function of the location of the γ-ray interaction. It is designed to use the Pulse Shape Comparison Scan technique, which has been simulated in order to prove its efficiency. An AGATA detector has been thoroughly scanned. 2D classical scans brought out, for example, local charge collection modification effects such as charge sharing, due to the segmentation. For the first time, a 3D, complete pulse-shape database has been established. It will especially allow to improve the overall AGATA array performances.
15

Spectral analysis of the cerebral cortex complexity / Analyse spectrale de la complexité du cortex cérébral

Rabiei, Hamed 26 September 2017 (has links)
La complexité de la forme de la surface est une caractéristique morphologique des surfaces pliées. Dans cette thèse, nous visons à développer des méthodes spectrales pour quantifier cette caractéristique du cortex cérébral humain reconstruit à partir d'images MR structurales. Tout d'abord, nous suggérons certaines propriétés qu'une mesure standard de la complexité de surface devrait posséder. Ensuite, nous proposons deux définitions claires de la complexité de la surface en fonction des propriétés de flexion de surface. Pour quantifier ces définitions, nous avons étendu la transformée de Fourier à fenêtres illustrée récemment pour transformer en maillage des surfaces. Grâce à certaines expériences sur les surfaces synthétiques, nous montrons que nos mesures basées sur la courbure permettent de surmonter les surfaces classiques basées sur la surface, ce qui ne distingue pas les plis profonds des oscillants ayant une surface égale. La méthode proposée est appliquée à une base de données de 124 sujets adultes en bonne santé. Nous définissons également la complexité de la surface par la régularité de Hölder des mouvements browniens fractionnés définis sur les collecteurs. Ensuite, pour la première fois, nous développons un algorithme de régression spectrale pour quantifier la régularité de Hölder d'une surface brownienne fractionnée donnée en estimant son paramètre Hurst H. La méthode proposée est évaluée sur un ensemble de sphères browniennes fractionnées simulées. En outre, en supposant que le cortex cérébral est une surface brownienne fractionnée, l'algorithme proposé est appliqué pour estimer les paramètres Hurst d'un ensemble de 14 corticus cérébraux fœtaux. / Surface shape complexity is a morphological characteristic of folded surfaces. In this thesis, we aim at developing some spectral methods to quantify this feature of the human cerebral cortex reconstructed from structural MR images. First, we suggest some properties that a standard measure of surface complexity should possess. Then, we propose two clear definitions of surface complexity based on surface bending properties. To quantify these definitions, we extended the recently introduced graph windowed Fourier transform to mesh model of surfaces. Through some experiments on synthetic surfaces, we show that our curvature-based measurements overcome the classic surface area-based ones which may not distinguish deep folds from oscillating ones with equal area. The proposed method is applied to a database of 124 healthy adult subjects. We also define the surface complexity by the Hölder regularity of fractional Brownian motions defined on manifolds. Then, for the first time, we develop a spectral-regression algorithm to quantify the Hölder regularity of a given fractional Brownian surface by estimating its Hurst parameter H. The proposed method is evaluated on a set of simulated fractional Brownian spheres. Moreover, assuming the cerebral cortex is a fractional Brownian surface, the proposed algorithm is applied to estimate the Hurst parameters of a set of 14 fetal cerebral cortices.
16

Quantitative Analysis of Open Curves in Brain Imaging: Applications to White Matter Fibers and Sulci

Mani, Meenakshi 31 January 2011 (has links) (PDF)
Il y a dans le cerveau humain environ 100 sillons corticaux, et plus de 100 milliards de faisceaux de matière blanche. Si le nombre, la configuration et la fonction de ces deux structures anatomiques diffèrent, elles possèdent toutefois une propriété géométrique commune: ce sont des courbes ouvertes continues. Cette thèse se propose d'étudier comment les caractéristiques des courbes ouvertes peuvent être exploitées afin d'analyser quantitativement les sillons corticaux et les faisceaux de matière blanche. Les quatre caractéristiques d'une courbe ouverte-forme, taille, orientation et position- ont des propriétés différentes, si bien que l'approche usuelle est de traiter chacune séparément à l'aide d'une métrique ad hoc. Nous introduisons un cadre riemannien adapté dans lequel il est possible de fusionner les espaces de caractéristiques afin d'analyser conjointement plusieurs caractéristiques. Cette approche permet d'apparier et de comparer des courbes suivant des distances géodésiques. Les correspondances entre courbes sont établies automatiquement en utilisant une métrique élastique. Dans cette thèse, nous validerons les métriques introduites et nous montrerons leurs applications pratiques, entre autres dans le cadre de plusieurs problèmes cliniques importants. Dans un premier temps, nous étudierons spécifiquement les fibres du corps calleux, afin de montrer comment le choix de la métrique influe sur le résultat du clustering. Nous proposons ensuite des outils permettant de calculer des statistiques sommaires sur les courbes, ce qui est un premier pas vers leur analyse statistique. Nous représentons les groupes de faisceaux par la moyenne et la variance de leurs principales caractéristiques, ce qui permet de réduire le volume des données dans l'analyse des faisceaux de matière blanche. Ensuite, nous présentons des méthodes permettant de détecter les changements morphologiques et les atteintes de la matière blanche. Quant aux sillons corticaux, nous nous intéressons au problème de leur labellisation.

Page generated in 0.0656 seconds