Return to search

Recalage de groupes d’images médicales 3D par extraction de points d’intérêt / 3D medical images groupwise registration by interest points extraction

Les imageurs des hôpitaux produisent de plus en plus d'images 3D et il y a un nombre croissant d'études de cohortes. Afin d'ouvrir la voie à des méthodes utilisant de larges bases de données, il est nécessaire de développer des approches permettant de rendre ces bases cohérentes en recalant les images. Les principales méthodes actuelles de recalage de groupes utilisent des données denses (voxels) et sélectionnent une référence pour mettre en correspondance l'ensemble des images. Nous proposons une approche de recalage par groupes, sans image de référence, en utilisant seulement des points d'intérêt (Surf3D), applicable à des bases de plusieurs centaines d'images médicales. Nous formulons un problème global fondé sur l'appariement de points d'intérêt. La variabilité inter-individu étant grande, le taux de faux positifs (paires aberrantes) peut être très important (70\%). Une attention particulière est portée sur l'élimination des appariements erronés. Une première contribution effectue le recalage rigide de groupes d'images. Nous calculons les recalages de toutes les paires d'images. En s'appuyant sur le graphe complet de ces recalages, nous formulons le problème global en utilisant l'opérateur laplacien. Des expérimentations avec 400 images scanner CT 3D hétérogènes illustrent la robustesse de notre méthode et sa vitesse d'exécution. Une seconde contribution calcule le recalage déformable de groupes d'images. Nous utilisons des demi-transformations, paramétrées par des pyramides de B-splines, entre chaque image et un espace commun. Des comparaisons sur un jeu de données de référence montrent que notre approche est compétitive avec la littérature tout en étant beaucoup plus rapide. Ces résultats montrent le potentiel des approches basées sur des points d'intérêt pour la mise en correspondance de grandes bases d'images. Nous illustrons les perspectives de notre approche par deux applications : la segmentation multi-atlas et l'anthropologie. / The ever-increasing amount of medical images stored in hospitals offers a great opportunity for big data analysis. In order to pave the way for huge image groups screening, we need to develop methods able to make images databases consistent by group registering those images. Currently, group registration methods generally use dense, voxel-based, representations for images and often pick a reference to register images. We propose a group registration framework, without reference image, by using only interest points (Surf3D), able to register hundreds of medical images. We formulate a global problem based on interest point matching. The inter-patient variability is high, and the outliers ratio can be large (70\%). We pay a particular attention on inhibiting outliers contribution. Our first contribution is a two-step rigid groupwise registration. In the first step, we compute the pairwise rigid registration of each image pair. In a second step, a complete graph of those registrations allows us to formulate a global problem using the laplacian operator. We show experimental results for groups of up to 400 CT-scanner 3D heterogeneous images highlighting the robustness and speed of our approach. In our second contribution, we compute a non-rigid groupwise registration. Our approach involves half-transforms, parametrized by a b-spline pyramid, between each image and a common space. A reference dataset shows that our algorithm provides competitive results while being much faster than previous methods. Those results show the potential of our interest point based registration method for huge datasets of 3D medical images. We also provide to promising perspectives: multi-atlas based segmentation and anthropology.

Identiferoai:union.ndltd.org:theses.fr/2017LYSEI093
Date23 October 2017
CreatorsAgier, Rémi
ContributorsLyon, Prost, Rémy
Source SetsDépôt national des thèses électroniques françaises
LanguageFrench
Detected LanguageFrench
TypeElectronic Thesis or Dissertation, Text

Page generated in 0.0026 seconds