• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 6
  • 2
  • Tagged with
  • 20
  • 8
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Topological tools for discrete shape analysis / Utilisation de la topologie pour l'analyse de formes discrètes

Chaussard, John 02 December 2010 (has links)
L'analyse d'images est devenue ces dernières années une discipline de plus en plus riche de l'informatique. La topologie discrète propose un panel d'outils incontournables dans le traitement d'images, notamment grâce à l'outil du squelette, qui permet de simplifier des objets tout en conservant certaines informations intactes. Cette thèse étudie comment certains outils de la topologie discrète, notamment les squelettes, peuvent être utilisés pour le traitement d'images de matériaux.Le squelette d'un objet peut être vu comme une simplification d'un objet, possédant certaines caractéristiques identiques à celles de l'objet original. Il est alors possible d'étudier un squelette et de généraliser certains résultats à l'objet entier. Dans une première partie, nous proposons une nouvelle méthode pour conserver, dans un squelette, certaines caractéristiques géométriques de l'objet original (méthode nécessitant un paramètre de filtrage de la part de l'utilisateur) et obtenir ainsi un squelette possédant la même apparence que l'objet original. La seconde partie propose de ne plus travailler avec des objets constitués de voxels, mais avec des objets constitués de complexes cubiques. Dans ce nouveau cadre, nous proposons de nouveaux algorithmes de squelettisation, dont certains permettent de conserver certaines caractéristiques géométriques de l'objet de départ dans le squelette, de façon automatique (aucun paramètre de filtrage ne doit être donné par l'utilisateur). Nous montrerons ensuite comment un squelette, dans le cadre des complexes cubiques, peut être décomposé en différentes parties. Enfin, nous montrerons nos résultats sur différentes applications, allant de l'étude des matériaux à l'imagerie médicale / These last years, the domain of image analysis has drastically evolved. Digital topology offer a set of tools adapted to image analysis, especially the skeletonization process (also called homotopic thinning) which can simplify input data while keeping specific information untouched. In this thesis, we focus on how digital topology, especially skeletons, can help material image analysis.The goal of a skeletonization process is to remove unnecessary information from an input, and provide a simplified object, called the skeleton, having the same characteristics than the original data. It is then possible to perform some computations on the skeleton and generalise their results to the original data. In the first part of this thesis, we propose some new tools for preserving, during skeletonization, important geometrical features of the original data, and obtain a skeleton with the same visual appearance than the input.In the second part, we present the cubical complex framework, where objects are no more made only of voxels. We propose in this framework new skeletonization algorithms, some of them preserving automatically the visual aspect of the input during the thinning process (no filtering parameter from the user is required). We then show how a skeleton, in the cubical complexes framework, can be decomposed into basic parts, and we show some applications of these algorithms to material image analysis and medical image analysis
12

Détection automatique d'objets géologiques à partir de données numériques d'affleurements 3D

Kudelski, Dimitri 08 December 2011 (has links)
Depuis plusieurs années, le LIDAR est utilisé en géologie pour acquérir la géométrie des affleurements sous forme de nuages de points et de surfaces. L'objectif de cette thèse consiste à développer des techniques visant à automatiser le traitement de ces données et notamment l'interprétation de structures géologiques sur affleurements numériques. Ces travaux s'insèrent dans un projet de recherche plus important financé par ENI qui a pour objectif de concevoir des méthodologies pour intégrer des données d'affleurements aux modèles géologiques. La problématique de cette thèse se focalise sur l'extraction d'objets géologiques (ie, traces de fractures ou de limites stratigraphiques) à partir de modèles numériques 3D d'affleurements. L'idée fondamentale consiste à considérer ces entités géologiques comme des lignes de ravins (ie, des lignes de forte concavité). Ce problème fait référence à la détection de lignes caractéristiques en informatique graphique. Dans un premier temps, nous proposons une méthode reposant sur les propriétés différentielles de troisième ordre de la surface (ie, dérivées de courbures). Un traitement est intégré afin de prendre en compte une connaissance a priori pour n'extraire que les objets orientés selon une direction particulière. Du fait du caractère rugueux et erratique des géométries d'affleurements, plusieurs limites apparaissent et mettent en défaut ce genre d'approche. Ainsi, dans un second temps, nous présentons deux algorithmes alternatifs afin de détecter de manière pertinente les objets géologiques ciblés. Ceux-ci prennent le contre-pied des techniques existantes en s'appuyant sur un marquage de sommets, établi depuis des propriétés différentielles de second ordre, suivi d'une opération de squelettisation. Nous validons, dans une dernière partie, l'ensemble des méthodes développées et proposons diverses applications afin de souligner la généricité des approches. / For a few years now, the LIDAR technology has been employed in geology to capture outcrop geometries as point clouds and surfaces. The objective of this thesis is to develop solutions aiming at processing these data automatically and particularly interpreting geological structures on numerical outcrops. This work is funded by ENI-Agip and fits into a larger project which is devoted to creating methodologies to integrate outcrop data into geological models. The problematic of this thesis focuses on the extraction of geological objects (ie, fractures and stratigraphic limit traces) depicted as polylines from numerical outcrop data. The fundamental idea therefore considers these geological entities as ravine lines (ie, lines with high concavity). This problem belongs to the large domain of feature line detection in computer graphics. We propose an approach based on third-order differential properties of the surface (ie, curvature derivatives). An a priori knowledge is integrated to constrain the detection in order to extract the geological structures oriented in a particular direction.The outcrop rugosity and erratic body geometries however raise several limits of this kind of method. We present two alternative algorithms to detect targeted geological objects in a pertinent way. These algorithms rely on a vertex labeling which is executed according to second-order differential properties and followed by a skeletonization process overcoming traditional approaches of feature detection. We finally present a different context of application than the detection of geological structures to validate the proposed approaches and emphasize their genericity.
13

Mise en place d'une chaîne complète d'analyse de l'arbre trachéo-bronchique à partir d'examen(s) issus d'un scanner-CT : de la 3D vers la 4D

Balacey, Hugo 28 February 2013 (has links) (PDF)
Afin de répondre au problème de santé publique que représente l'asthme, l'imagerie tomodensitométrique associé aux traitements informatiques permettent la quantification et le suivi des dommages subis par les bronches. Le but de l'imagerie bronchique, lors d'un examen de type scanner-CT est de disposer de mesures fiables et reproductibles des différents paramètres bronchiques qui sont des marqueurs de l'importance de la pathologie et de son évolution sous traitements. Ces marqueurs correspondent à deux mesures LA ( Lumen Area) et WA ( Wall Area) prises sur des coupes perpendiculaires à la bronche. La mise en place d'une chaîne de traitements constitué de maillons d'extraction et de squelettisation de l'arbre trachéo-bronchique permet l'obtention de tels mesures. Durant cette thèse nous nous sommes focalisés sur la création d'une chaîne de traitements en proposant une contribution sur chacun des maillons. Notre chaîne est modulable et adaptée au travail en 4D (différentes phases respiratoires) et à fait l'objet d'une implémentation logiciel intitulée Neko4D.
14

Rhéologie des suspensions concentrées de fibres : application à la mise en forme des matériaux composites

Guiraud, Olivier 23 September 2011 (has links) (PDF)
Cette étude porte sur la mise en forme des matériaux composites renforcés par des fibres ou des mèches de fibres courtes tels que les SMC ou les BMC. Un travail expérimental a dans un premier temps été réalisé à l'échelle macroscopique. Ce travail a permis de mettre au point un rhéomètre de compression lubrifiée ainsi que des méthodes d'essais et de dépouillement. Ceci permet de mieux caractériser la rhéologie des compounds SMC et BMC en traitant les problématiques de leur compressibilité et des frottements éventuels entre les parois du rhéomètre et la matière déformée. Un travail numérique a ensuite permis de simuler la mise en forme d'un BMC après l'identification des paramètres d'un modèle rhéologique simple à partir des données expérimentales obtenues sur le rhéomètre. Enfin, un travail expérimental à l'échelle microscopique a permis d'une part de caractériser finement les microstuctures de SMC modèles à partir de microtomographies à rayons X, et d'autre part de caractériser et de modéliser par le biais d'essais d'extraction de fibres les interactions entre les mèches formant le renfort fibreux de ces matériaux.
15

Extraction de paramètres morphométriques pour l'étude du réseau micro-vasculaire cérébral

Fouard, Céline 21 January 2005 (has links) (PDF)
L'objectif de cette thèse est de fournir des outils logiciels aux anatomistes et neuro-anatomistes afin de permettre une analyse tridimensionnelle quantitative des réseaux micro-vasculaires cérébraux. Cette analyse demande des images de très haute résolution (permettant de tenir compte du plus petit capillaire), mais aussi des images couvrant une surface du cortex suffisamment large pour être statistiquement significative. Comme elle ne peut être acquise en une seule fois, nous proposons de paver la surface à imager de plusieurs petites images et de créer ainsi une grande "mosaïque d'images". Chaque image est acquise grâce à un microscope confocal dont la résolution impose une grille anisotrope. Nous avons alors développé des outils de reconstruction spécifiques pour ce genre de mosaïques afin de générer des images à la fois très étendues et très précises. Or ces images sont trop volumineuses pour être chargées et traitées en une seule fois dans la mémoire d'un ordinateur standard. Nous avons donc développé des outils spécifiques de traitement d'image (filtrage, seuillage, outils de morphologie mathématique, de topologie discrète...) décomposés en traitements en sous-images. L'étude quantitative du réseau micro-vasculaire cérébral nécessite l'extraction des lignes centrales et une estimation des diamètres des vaisseaux. La géométrie discrète offre un cadre de travail rapide et puissant pour ce type de calculs. En effet, nous devons calculer une carte de distance en tout point de l'image. Afin d'avoir la meilleure précision possible tout en gardant un temps de traitement raisonnable, nous avons choisi une carte de distance du chanfrein. Une de nos contributions a été de proposer un calcul automatique des coefficients de chanfrein permettant de s'adapter à tout type d'anisotropie de grille. L'utilisation de telles cartes de distances permet de guider des algorithmes de squelettisation. De tels outils nécessitent la conservation d'une propriété globale, la topologie. Comme nous nous plaçons dans un cadre où l'on a accès qu'à des sous images, nous avons proposé un nouvel algorithme de squelettisation qui minimise le nombre d'accès à des sous-images afin de garantir un temps de calcul acceptable, tout en localisant correctement le squelette. Ces algorithmes ont été intégrés dans le logiciel ergonomique Amira et sont utilisés par les chercheurs de l'unité U455 de l'INSERM.
16

Squelettes pour la reconstruction 3D : de l'estimation de la projection du squelette dans une image 2D à la triangulation du squelette en 3D / Skeletons for 3D reconstruction : from the estimation of the skeleton projection in a 2D image to the triangulation of the 3D skeleton

Durix, Bastien 12 December 2017 (has links)
La reconstruction 3D consiste à acquérir des images d’un objet, et à s’en servir pour en estimer un modèle 3D. Dans ce manuscrit, nous développons une méthode de reconstruction basée sur la modélisation par squelette. Cette méthode a l’avantage de renvoyer un modèle 3D qui est un objet virtuel complet (i.e. fermé) et aisément éditable, grâce à la structure du squelette. Enfin, l’objet acquis n’a pas besoin d’être texturé, et entre 3 et 5 images sont suffisantes pour la reconstruction. Dans une première partie, nous étudions les aspects 2D de l’étude. En effet, l’estimation d’un squelette 3D nécessite d’étudier la formation de la silhouette de l’objet à partir de son squelette, et donc les propriétés de sa projection perspective, appelée squelette perspectif. Cette étude est suivie par notre première contribution : un algorithme d’estimation de la projection perspective d’un squelette 3D curviligne, constitué d’un ensemble de courbes. Cet algorithme a toutefois tendance, comme beaucoup d’algorithmes estimant un squelette, à générer des branches peu informatives, notamment sur une image rastérisée. Notre seconde contribution est donc un algorithme d’estimation de squelette 2D, capable de prendre en compte la discrétisation du contour de la forme 2D, et d’éviter ces branches peu informatives. Cet algorithme, d’abord conçu pour estimer un squelette classique, est ensuite généralisé à l’estimation d’un squelette perspectif. Dans une seconde partie, nous estimons le squelette 3D d’un objet à partir de ses projections. Tout d’abord, nous supposons que le squelette de l’objet 3D à reconstruire est curviligne. Ainsi, chaque squelette perspectif estimé correspond à la projection du squelette 3D de l’objet, sous différents points de vue. La topologie du squelette étant affectée par la projection, nous proposons notre troisième contribution, l’estimation de la topologie du squelette 3D à partir de l’ensemble de ses projections. Une fois celle-ci estimée, la projection d’une branche 3D du squelette est identifiée sur chaque image, i.e. sur chacun des squelettes perspectifs. Avec cette identification, nous pouvons trianguler les branches du squelette 3D, ce qui constitue notre quatrième contribution : nous sommes donc en mesure d’estimer un squelette curviligne associé à un ensemble d’images d’un objet. Toutefois, les squelettes 3D ne sont pas tous constitués d’un ensemble de courbes : certains d’entre eux possèdent aussi des parties surfaciques. Notre dernière contribution, pour reconstruire des squelettes 3D surfaciques, est une nouvelle approche pour l’estimation d’un squelette 3D à partir d’images : son principe est de faire grandir le squelette 3D, sous les contraintes données par les images de l’objet. / The principle of 3D reconstruction is to acquire one or more images of an object, and to use it to estimate a 3D model of the object. In this manuscript, we develop a reconstruction method based on a particular model, the skeleton. The main advantages of our reconstruction approach are: we do reconstruct a whole, complete objet, and thanks to the skeleton structure, easily editable. Moreover, the method we propose allows us to free ourselves from constraints related to more classical reconstruction methods: the reconstructed object does not need to be textured, and between 3 and 5 images are sufficient to perform the reconstruction. In the first part, we focus on the 2D aspects of the work. Indeed, before estimating a 3D skeleton, we study the perspective silhouette of the object, and thus evaluate the properties of the perspective projection of the skeleton. Thus, our first contribution is an algorithm estimating the perspective projection of a curvilinear 3D skeleton, consisting of a set of curves. This algorithm, however, like most skeletonisation algorithms, tends to generate non-informative branches, in particular on a rasterized image. Our second contribution is thus an original 2D skeleton estimation algorithm, able to take into account the noise on the contour of the 2D shape, and to avoid uninformative skeleton branches. This algorithm, first designed to estimate a classical skeleton, is then generalized for computing a perspective skeleton. In a second part, we estimate the 3D skeleton of an object from its projections. First, we assume that the skeleton of the considered object is curvilinear. Thus, each estimated perspective skeleton corresponds to the projection of the 3D skeleton, from several viewpoints. The topology of the skeleton is however affected by the perspective projection, so we propose our third contribution: the estimation of the topology of the 3D skeleton based on its projections. Once this topology is estimated, for any 3D branch of the skeleton we indentify its projections on each image, that is a branch on each of the perspective skeletons. From this identification, we triangulate the branches of the 3D skeleton, which is our fourth contribution. Thus, we are able to estimate a curvilinear skeleton associated with a set of images of a 3D object. However, 3D skeletons are not necessarily made up of a set of curves, and some of them also have surface parts. Our last contribution is a new approach for the estimation of a general 3D skeleton (with surface parts) from images, which principle is to increase the 3D skeleton under the constraints given by the different images of the object.
17

Discrete shape analysis for global illumination / Analyse de formes pour l'illumination globale

Noel, Laurent 15 December 2015 (has links)
Les images de synthèse sont présentes à travers un grand nombre d'applications tel que les jeux vidéo, le cinéma, l'architecture, la publicité, l'art, la réalité virtuelle, la visualisation scientifique, l'ingénierie en éclairage, etc. En conséquence, la demande en photoréalisme et techniques de rendu rapide ne cesse d'augmenter. Le rendu réaliste d'une scène virtuelle nécessite l'estimation de son illumination globale grâce à une simulation du transport de lumière, un processus coûteux en temps de calcul dont la vitesse de convergence diminue généralement lorsque la complexité de la scène augmente. En particulier, une forte illumination indirecte combinée à de nombreuses occlusions constitue une caractéristique globale de la scène que les techniques existantes ont du mal à gérer. Cette thèse s'intéresse à ce problème à travers l'application de techniques d'analyse de formes pour le rendu 3D.Notre principal outil est un squelette curviligne du vide de la scène, représenté par un graphe contenant des informations sur la topologie et la géométrie de la scène. Ce squelette nous permet de proposer de nouvelles méthodes pour améliorer des techniques de rendu temps réel et non temps réel. Concernant le rendu temps réel, nous utilisons les informations géométriques du squelette afin d'approximer le rendu des ombres projetés par un grand nombre de points virtuels de lumière représentant l'illumination indirecte de la scène 3D.Pour ce qui est du rendu non temps réel, nos travaux se concentrent sur des algorithmes basés sur l'échantillonnage de chemins, constituant actuellement le principal paradigme en rendu physiquement plausible. Notre squelette mène au développement de nouvelles stratégies d'échantillonnage de chemins, guidés par des caractéristiques topologiques et géométriques. Nous adressons également ce problème à l'aide d'un second outil d'analyse de formes: la fonction d'ouverture du vide de la scène, décrivant l'épaisseur locale du vide en chacun de ses points. Nos contributions offrent une amélioration des méthodes existantes and indiquent clairement que l'analyse de formes offre de nombreuses opportunités pour le développement de nouvelles techniques de rendu 3D / Nowadays, computer generated images can be found everywhere, through a wide range of applications such as video games, cinema, architecture, publicity, artistic design, virtual reality, scientific visualization, lighting engineering, etc. Consequently, the need for visual realism and fast rendering is increasingly growing. Realistic rendering involves the estimation of global illumination through light transport simulation, a time consuming process for which the convergence rate generally decreases as the complexity of the input virtual 3D scene increases. In particular, occlusions and strong indirect illumination are global features of the scene that are difficult to handle efficiently with existing techniques. This thesis addresses this problem through the application of discrete shape analysis to rendering. Our main tool is a curvilinear skeleton of the empty space of the scene, a sparse graph containing important geometric and topological information about the structure of the scene. By taking advantage of this skeleton, we propose new methods to improve both real-time and off-line rendering methods. Concerning real-time rendering, we exploit geometric information carried by the skeleton for the approximation of shadows casted by a large set of virtual point lights representing the indirect illumination of the 3D scene. Regarding off-line rendering, our works focus on algorithms based on path sampling, that constitute the main paradigm of state-of-the-art methods addressing physically based rendering. Our skeleton leads to new efficient path sampling strategies guided by topological and geometric features. Addressing the same problem, we also propose a sampling strategy based on a second tool from discrete shape analysis: the opening function of the empty space of the scene, describing the local thickness of that space at each point. Our contributions demonstrate improvements over existing approaches and clearly indicate that discrete shape analysis offers many opportunities for the development of new rendering techniques
18

Rhéologie des suspensions concentrées de fibres : application à la mise en forme des matériaux composites / Rheology of concentrated fibre suspensions : Application to polymer composite forming

Guiraud, Olivier 23 September 2011 (has links)
Cette étude porte sur la mise en forme des matériaux composites renforcés par des fibres ou des mèches de fibres courtes tels que les SMC ou les BMC. Un travail expérimental a dans un premier temps été réalisé à l’échelle macroscopique. Ce travail a permis de mettre au point un rhéomètre de compression lubrifiée ainsi que des méthodes d’essais et de dépouillement. Ceci permet de mieux caractériser la rhéologie des compounds SMC et BMC en traitant les problématiques de leur compressibilité et des frottements éventuels entre les parois du rhéomètre et la matière déformée. Un travail numérique a ensuite permis de simuler la mise en forme d’un BMC après l’identification des paramètres d’un modèle rhéologique simple à partir des données expérimentales obtenues sur le rhéomètre. Enfin, un travail expérimental à l’échelle microscopique a permis d’une part de caractériser finement les microstuctures de SMC modèles à partir de microtomographies à rayons X, et d’autre part de caractériser et de modéliser par le biais d’essais d’extraction de fibres les interactions entre les mèches formant le renfort fibreux de ces matériaux. / This study focuses on the processing of composite materials reinforced with short fibres or fibres bundles such as SMC or BMC. Firstly, an experimental work was carried-out at the macroscopic scale. This work led to the development of a lubricated compression rheometer and associated analysis methods to better characterize the rheology of SMC and BMC compounds, by accounting for the compressibility of compounds and the possible friction between the rheometer wall and the flowing composite. Numerical simulation was then achieved in order to simulate the forming of a BMC. For that purpose, the constitutive parameters of a simple tensorial rheological model were determined from experimental data obtained with the rheometer. Finally, an experimental work at the microscopic level allowed (i) the microstuctures of SMC models from X-ray microtomography micrographs and (ii) fibre pull-out experiment to be characterized, and the interaction mechanisms between the fiber bundles forming the fiber reinforcement of these materials to be modelled.
19

Squelettisation d’images en niveaux de gris et applications / Skeletonization of grayscale images and applications

Douss, Rabaa 26 November 2015 (has links)
L’opération morphologique de squelettisation transforme chaque objet d’une image en une forme linéique qui préserve la topologie de ce dernier (propriété d’homotopie). Elle est largement utilisée en biométrie mais aussi dans la reconnaissance des caractères ainsi que pour l’extraction de la microarchitecture osseuse. L’objectif de cette thèse est de développer une méthode de squelettisation appliquée directement sur les niveaux de gris de l’image, ce qui a pour large avantage de s’affranchir de prétraitement comme la binarisation. Une revue des méthodes de squelettisation en niveaux de gris permet de constater que l’amincissement est l’une des approches les plus usitées de par sa propriété d’homotopie. Cependant, cette approche est sensible au bruit de l’image et produit des squelettes sur-connectés. Un premier paramétrage de l’amincissement a été proposé dans la littérature afin d’abaisser des configurations de pixels liées au bruit. La première contribution de ce travail est de proposer un ajustement de ce paramètre basé sur une décision statistique. Il s’agit d’identifier les tests d’hypothèses correspondants aux différentes configurations d’abaissement en vue de fixer ce paramètre de façon locale. Ceci conduit à la mise en place d’une squelettisation appelée Self Contrast Controlled Thinning (SCCT) puisque robuste au bruit tout en s’adaptant automatiquement au contraste de l’image. La squelettisation SCCT est rendue accessible aux domaines d’application grâce à son implantation optimisée basée sur les files d’attente hiérarchiques. Ayant noté le peu d’efforts consacrés à l’évaluation de la squelettisation en niveaux de gris, la deuxième contribution de ce travail est de proposer un protocole visant à évaluer l’opération de squelettisation sur la base des propriétés requises à savoir la préservation de la topologie et de la géométrie. Ce protocole est déroulé sur une base d’images synthétiques et nous permet de comparer notre approche à celles de la littérature. La troisième contribution est de proposer une structuration du squelette en graphe donnant accès aux descripteurs structurels et morphométriques des objets étudiés en vue d’une exploitation du squelette par les experts des domaines d’applications. Dans le cadre du projet Voxelo coordonné par le laboratoire B2OA de l’Université Paris Diderot, cette structuration est exploitée pour extraire les descripteurs de la qualité de la microarchitecture osseuse à partir d’images RX haute résolution. / Skeletonization is an image transformation that aims to represent objects by their medial axis while preserving their topological characteristics (homotopy). It is widely used in biometrics, character recognition and also in the extraction of bone microarchitecture. The objective of this thesis is to develop a skeletonization method applied directly on image gray levels. This has the large advantage of freeing the operation from preprocessing techniques such as binarization. A review of grayscale skeletonization methods shows that the morphological thinning is one of the most used approaches for its topology preservation property. However, this approach is sensitive to image noise and produces inexploitable skeletons. A first parameterization of the thinning process has been proposed in the literature to reduce noise-related information. The first contribution of this work is to propose an adjustment of this parameter based on a statistical decision. To this end, a hypothesis test is identified for each lowering criterion in order to set the thinning parameter locally. This leads us to propose the Self Contrast Controlled Thinning method SCCT that is robust to noise and is automatically adjusted to image contrast. The SCCT is made available to application domains through its optimized implementation based on hierarchical queues. Noticing the lack of efforts to assess grayscale skeletonization, the second contribution of this work is to propose a quantitative evaluation protocol assessing skeletonization with regard to its fundamental properties that are namely the preservation of topology and geometry. This protocol is conducted over a synthetic images database and allows us to compare SCCT to approaches from the literature. The third contribution consists in structuring the skeleton into a graph that gives access to objects structural and morphometric descriptors and enables the exploitation of the skeleton by experts from various fields of application. This structuring is applied in the context of Voxelo project which is coordinated by B2OA laboratory of the University Paris Diderot. In this context, descriptors of bone microarchitecture quality are extracted from X-ray high resolution images.
20

Méthodes de génération et de validation de champs de déformation pour la recombinaison de distribution de dose à l’aide d’images 4DCT dans le cadre d’une planification de traitement de cancers pulmonaires

Labine, Alexandre 12 1900 (has links)
Des efforts de recherche considérables ont été déployés afin d'améliorer les résultats de traitement de cancers pulmonaires. L'étude de la déformation de l'anatomie du patient causée par la ventilation pulmonaire est au coeur du processus de planification de traitement radio-oncologique. À l'aide d'images de tomodensitométrie quadridimensionnelles (4DCT), une simulation dosimétrique peut être calculée sur les 10 ensembles d'images du 4DCT. Une méthode doit être employée afin de recombiner la dose de radiation calculée sur les 10 anatomies représentant une phase du cycle respiratoire. L'utilisation de recalage déformable d'images (DIR), une méthode de traitement d'images numériques, génère neuf champs vectoriels de déformation permettant de rapporter neuf ensembles d'images sur un ensemble de référence correspondant habituellement à la phase d'expiration profonde du cycle respiratoire. L'objectif de ce projet est d'établir une méthode de génération de champs de déformation à l'aide de la DIR conjointement à une méthode de validation de leur précision. Pour y parvenir, une méthode de segmentation automatique basée sur la déformation surfacique de surface à été créée. Cet algorithme permet d'obtenir un champ de déformation surfacique qui décrit le mouvement de l'enveloppe pulmonaire. Une interpolation volumétrique est ensuite appliquée dans le volume pulmonaire afin d'approximer la déformation interne des poumons. Finalement, une représentation en graphe de la vascularisation interne du poumon a été développée afin de permettre la validation du champ de déformation. Chez 15 patients, une erreur de recouvrement volumique de 7.6 ± 2.5[%] / 6.8 ± 2.1[%] et une différence relative des volumes de 6.8 ± 2.4 [%] / 5.9 ± 1.9 [%] ont été calculées pour le poumon gauche et droit respectivement. Une distance symétrique moyenne 0.8 ± 0.2 [mm] / 0.8 ± 0.2 [mm], une distance symétrique moyenne quadratique de 1.2 ± 0.2 [mm] / 1.3 ± 0.3 [mm] et une distance symétrique maximale 7.7 ± 2.4 [mm] / 10.2 ± 5.2 [mm] ont aussi été calculées pour le poumon gauche et droit respectivement. Finalement, 320 ± 51 bifurcations ont été détectées dans le poumons droit d'un patient, soit 92 ± 10 et 228 ± 45 bifurcations dans la portion supérieure et inférieure respectivement. Nous avons été en mesure d'obtenir des champs de déformation nécessaires pour la recombinaison de dose lors de la planification de traitement radio-oncologique à l'aide de la méthode de déformation hiérarchique des surfaces. Nous avons été en mesure de détecter les bifurcations de la vascularisation pour la validation de ces champs de déformation. / Purpose: To allow a reliable deformable image registration (DIR) method for dose calculation in radiation therapy and to investigate an automatic vessel bifurcations detection algorithm for DIR assessment to improve lung cancer radiation treatment. Methods: 15 4DCT datasets are acquired and deep exhale respiratory phases are exported to Varian treatment planning system (TPS) Eclipse^{\text{TM}} for contouring. Voxelized contours are smoothed by a Gaussian filter and then transformed into a surface mesh representation. Such mesh is adapted by rigid and elastic deformations based on hierarchical surface deformation to match each subsequent lung volumes. The segmentation efficiency is assessed by comparing the segmented lung contour and the TPS contour considering two volume metrics, defined as Volumetric Overlap Error (VOE) [%] and Relative Volume Difference (RVD) [%] and three surface metrics, defined as Average Symmetric Surface Distance (ASSD) [mm], Root Mean Square Symmetric Surface Distance (RMSSD) [mm] and Maximum Symmetric Surface Distance (MSSD) [mm]. Vesselness filter was applied within the segmented lung volumes to identify blood vessels and airways. Segmented blood vessels and airways were skeletonised using a hierarchical curve-skeleton algorithm based on a generalized potential field approach. A graph representation of the computed skeleton was generated to assign one of three labels to each node: the termination node, the continuation node or the branching node. Results: The volume metrics obtained are a VOE of 7.6 ± 2.5[%] / 6.8 ± 2.1[%] and a RVD of 6.8 ± 2.4 [%] / 5.9 ± 1.9 [%] respectively for left and right lung. The surface metrics computed are an ASSD of 0.8 ± 0.2 [mm] / 0.8 ± 0.2 [mm], a RMSSD of 1.2 ± 0.2 [mm] / 1.3 ± 0.3 [mm] and a MSSD of 7.7 ± 2.4 [mm] / 10.2 ± 5.2 [mm] respectively for left and right lung. 320 ± 51 bifurcations were detected in the right lung of a patient for the 10 breathing phases. 92 ± 10 bifurcations were found in the upper half of the lung and 228 ± 45 bifurcations were found in the lower half of the lung. Discrepancies between ten vessel trees were mainly ascribed to the segmentation methode. Conclusions: This study shows that the morphological segmentation algorithm can provide an automatic method to capture an organ motion from 4DCT scans and translate it into a volume deformation grid needed by DIR method for dose distribution combination. We also established an automatic method for DIR assessment using the morphological information of the patient anatomy. This approach allows a description of the lung’s internal structure movement, which is needed to validate the DIR deformation fields.

Page generated in 0.0804 seconds