• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 177
  • 126
  • 20
  • Tagged with
  • 326
  • 326
  • 191
  • 178
  • 96
  • 83
  • 71
  • 70
  • 69
  • 64
  • 60
  • 58
  • 54
  • 52
  • 51
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Recalage et fusion d'informations multimodales pour l'optimisation de la thérapie de resynchronisation cardiaque / Multimodal data registration and fusion for cardiac resynchronisation therapy optimisation

Bruge, Sophie 13 March 2017 (has links)
La thérapie de resynchronisation cardiaque (CRT) est une thérapie électrique reconnue pour le traitement de l'insuffisance cardiaque liée à un asynchronisme cardiaque. Toutefois, environ un tiers des patients traités s'avèrent non-répondeurs à la CRT. Les travaux présentés dans cette thèse portent sur l'optimisation de la CRT par un meilleur positionnement de la sonde de stimulation du ventricule gauche (VG). L'approche proposée se décompose en deux temps. Une analyse pré-opératoire permet d'abord de définir les sites du VG optimaux et de caractériser leurs accès grâce à plusieurs étapes de recalage et fusion d'informations multimodales. Ensuite, un système d'assistance per-opératoire, basé sur la fusion des données pré- et per-opératoire, est proposé aux cliniciens afin de guider le geste vers les sites de stimulation pré-définis. L'analyse pré-opératoire utilisée pour la planification de la CRT s'inscrit dans la continuité des travaux menés au LTSI depuis plusieurs années. Dans ces travaux, de nouvelles méthodes pour la segmentation semi-interactive des veines coronaires en imagerie TDM ainsi que pour la caractérisation de la fibrose diffuse en IRM ont été proposées puis l'ensemble des méthodes développées au laboratoire ont été intégrés dans un même outil logiciel. Dans un second temps, une assistance per-opératoire est fourni à l'aide d'un recalage 3D/2D entre un modèle 3D de planification, issu de l'analyse pré-opératoire, et les images angiographiques 2D utilisées en routine clinique. Afin de permettre ce recalage, des méthodes d'extraction des images télé-systoliques et de segmentation automatique des veines coronaires dans ces dernières ont d'abord été définies. Ensuite, le recalage 3D/2D, effectué entre les veines coronaires 3D extraites en imagerie TDM et leur équivalent 2D dans les images angiographiques, permet la fusion des données pré- et per-opératoire. / Cardiac Resynchronization Therapy (CRT) is a recognized electrical therapy to correct cardiac asynchronism. However, about one third of implanted patients do not respond properly to the therapy. This thesis is focused on the improvement of the CRT through the optimization of the left ventricular lead placement. The proposed approach here is defined in two parts. Firstly, a pre-operative analysis defines the best left ventricle sites to stimulate thanks to several steps of registration and fusion of multimodales informations. Secondly, a per-operative assistance system is proposed in order to guide clinicians to use these pre-defined implantation sites. The CRT planification is a research theme in the LTSI for many years. In this thesis, novel semi-automatic segmentation methods have been developed for both the coronary veins in CT and diffuse fibrosis characterization in MRI. The previous developments and these novel methods have been gathered and integrated in one software. Then, a 2D/3D registration between angiographic frames, used in clinical routine, and a 3D model produced by the pre-operative analysis is used to assist the implantation. To perform the registration, dedicated methods to extract end-systolic images and segment coronary veins in these images have been developed. Next, the registration is performed between the 3D coronary veins (extracted from the CT volumes) and their 2D equivalent which allows the pre- and per-operative data to be fused.
12

Prognostic and predictive 18F-FDG PET/CT-based imaging biomarkers in metastatic colorectal cancer

Woff, Erwin 14 July 2020 (has links) (PDF)
The aim of this thesis was to develop and validate prognostic and predictive biomarkers in order to better identify among patients with metastatic colorectal cancer those at high-risk of early death or progression. The interest in developing such biomarkers is that their subsequent use in clinical practice would avoid exposing a patient for months to the toxic side effects of ineffective and expensive treatments, and thus to limit the financial impact of these treatments on our healthcare systems.The projects carried out in the framework of this thesis have shown that:The biomarker WB-MATV (metabolically active tumor volume of the whole body) measured before the start of the last line treatment has a high prognostic value, higher than the general clinical parameters commonly used. This biomarker was then validated in first line treatment and was shown to have a high prognostic value, also higher than the general clinical parameters.The biomarker cfDNA (circulating DNA) also representing the tumor load was then investigated to assess its value added to the previously validated WB-MATV. We showed that the presence of high levels of cfDNA before starting the last-line treatment is significantly associated with poor prognosis and that these two biomarkers are prognostically complementary, each providing an added value.The biomarker of early metabolic response to last line treatment has a high negative predictive value (95%). This biomarker was then validated as a predictive biomarker independent of WB-MATV and clinical factors in first-line treatment setting.In conclusion, the results of this thesis strongly support the clinical use of these prognostic and predictive biomarkers in patients with metastatic colorectal cancer. Allowing a more accurate stratification of patients, the use of the combination of these biomarkers should become an essential tool to help oncologists in tailoring therapeutic strategies according to the patients’ individual risk. / Doctorat en Sciences médicales (Médecine) / info:eu-repo/semantics/nonPublished
13

Statistiques géométriques pour l'anatomie numérique / Geometric statistics for computational anatomy

Miolane, Nina 16 December 2016 (has links)
Cette thèse développe les statistiques géométriques pour l'analyse de lavariabilité normale et pathologique des formes d'organe en anatomienumérique. Les statistiques géométriques s’intéressent aux données issues devariétés avec structures géométriques additionnelles. En anatomie numérique,les formes d'un organe peuvent être vues comme des déformations d'un organede référence - i.e. comme éléments d'un groupe de Lie, une variété avec unestructure de groupe - ou comme les classes d'équivalence de leur configuration3D sous l'action de transformations - i.e. comme éléments d'un quotient, unevariété avec une stratification. Les images médicales peuvent êtrereprésentées par des variétés avec une distribution horizontale. Lacontribution de cette thèse est d'étendre les statistiques géométriques au delàdes géométries riemanniennes ou métriques maintenant classiques pourprendre en compte des structures additionnelles. Premièrement, nousdéfinissons les statistiques géométriques sur les groupes de Lie. Nousproposons une construction algorithmique de (pseudo-)métriqueRiemannienne, compatible avec la structure de groupe, lorsqu'elle existe. Noustrouvons que certains groupes n'admettent pas de telle (pseudo-)métrique etdéfendons l'idée de statistiques non-métriques sur les groupes de Lie. Ensuite,nous utilisons les statistiques géométriques pour analyser l'algorithme decalcul d'organe de référence, reformulé avec des espaces quotient. Nousmontrons son biais et suggérons un algorithme amélioré. Enfin, nousappliquons les statistiques géométriques au traitement d'images, engénéralisant les structures sous-Riemanniennes, utilisées en 2D, au 3D / This thesis develops Geometric Statistics to analyze the normal andpathological variability of organ shapes in Computational Anatomy. Geometricstatistics consider data that belong to manifolds with additional geometricstructures. In Computational Anatomy, organ shapes may be modeled asdeformations of a template - i.e. as elements of a Lie group, a manifold with agroup structure - or as the equivalence classes of their 3D configurations underthe action of transformations - i.e. as elements of a quotient space, a manifoldwith a stratification. Medical images can be modeled as manifolds with ahorizontal distribution. The contribution of this thesis is to extend GeometricStatistics beyond the now classical Riemannian and metric geometries in orderto account for these additional structures. First, we tackle the definition ofGeometric Statistics on Lie groups. We provide an algorithm that constructs a(pseudo-)Riemannian metric compatible with the group structure when itexists. We find that some groups do not admit such a (pseudo-)metric andadvocate for non-metric statistics on Lie groups. Second, we use GeometricStatistics to analyze the algorithm of organ template computation. We show itsasymptotic bias by considering the geometry of quotient spaces. We illustratethe bias on brain templates and suggest an improved algorithm. We then showthat registering organ shapes induces a bias in their statistical analysis, whichwe offer to correct. Third, we apply Geometric Statistics to medical imageprocessing, providing the mathematics to extend sub-Riemannian structures,already used in 2D, to our 3D images
14

Développement d’un fantôme anthropomorphique pour validation inter et intra modalités d’algorithmes de déformation d’image

D. Vincent, Sharlie 20 April 2018 (has links)
Un des défis de la radiothérapie externe est d’adapter la planification de traitement à l’anatomie du patient tout au long de son traitement. Il est possible de faire de la thérapie adaptative grâce à l’imagerie de repositionnement en utilisant des algorithmes de recalage d’image. Les contours et la planification peuvent être conformes à l’anatomie du jour des patients au moment de leur fraction quotidienne. Il faut s’assurer préalablement de l’efficacité et la constance de ces algorithmes. Il est plus simple d’isoler des déformations spécifiques avec un fantôme anthropomorphique tridimensionnel que sur des images de patients. Le fantôme construit dans cette étude a permis de construire une banque d’images montrant 7 déformations différentes en intra et intermodalité Cette étude montre l’utilité du fantôme dans la validation et ainsi que l’efficacité de deux algorithmes de recalage d’image. Cette validation permet de cerner les lacunes de cette technologie pour éventuellement l’utiliser en clinique.
15

Combinaison de technologie de suivi électromagnétique et imagerie médicale 3D pour la reconstruction des implants utilisés en curiethérapie à haut débit de dose

Gomez Sarmiento, Isaac Neri 08 February 2024 (has links)
Titre de l'écran-titre (visionné le 1er février 2024) / La curiethérapie à haut débit de dose permet de faire des traitements localisés du cancer en utilisant une source radioactive placée temporairement à proximité ou dans la tumeur du patient à l'aide des implants. La source est acheminée par un projecteur de source. Le succès de ce type de traitement est en partie lié à la localisation exacte de ces implants grâce à l'imagerie médicale tridimensionnelle (3D) ; leurs coordonnées 3D sont utilisées pour optimiser la dose administrée à la tumeur tout en épargnant les tissus sains environnants. Présentement en clinique, les coordonnées sont obtenues par reconstruction manuelle par des physicien(ne)s médical(e)s, mais il peut y avoir des erreurs d'identification lorsque les cathéters se chevauchent, l'épaisseur de coupe des images est trop grande ou le contraste n'est pas suffisant. Le Centre intégré de cancérologie du CHU de Québec-Université Laval, possède l'un des trois prototypes de recherche de projecteur de source au monde qui intègre un capteur de suivi électromagnétique (EM). Celui-ci permet la reconstruction automatique de la géométrie 3D des implants, ainsi surmontant les limitations des reconstructions basées sur les images, tel que le contraste et la résolution spatiale. L'un des défis de la technologie EM est qu'elle ne partage pas intrinsèquement le même référentiel que l'imagerie médicale du patient. Ce mémoire compare des méthodologies de reconstruction des implants avec le capteur EM (statique et en mouvement continu) dans des environnements cliniquement pertinents, ainsi que des méthodes pour recaler ces mesures dans le référentiel d'un ensemble d'images de tomodensitométrie (TDM) et d'imagerie par résonance magnétique (IRM). Un nouveau fantôme a été utilisé pour faire des expériences d'assurance qualité et valider une méthode de recalage novatrice basée sur la géométrie d'un applicateur gynécologique. La méthodologie d'acquisition EM en mouvement continu et la méthode de recalage avec l'applicateur ont permis d'erreurs de recalage moyennes (EM vers TDM) avec une exactitude cliniquement acceptable (< 2 mm) et un temps de reconstruction de 6 minutes dans les salles de curiethérapie avec TDM et IRM. Puisque l'applicateur est aussi visible dans l'IRM, cette méthodologie pourrait potentiellement être étendue pour la planification de curiethérapie gynécologique interstitielle utilisant seulement l'IRM, où les cathéters interstitiels sont difficiles à visualiser. Bien qu'il reste encore à faire plusieurs mesures de validation, cette approche pourrait éviter le déplacement des patientes pour faire un examen d'imagerie TDM afin de reconstruire les cathéters, gagnant ainsi du temps et évitant le rayonnement supplémentaire du TDM.
16

Exploitation d'infrastructures hétérogènes de calcul distribué pour la simulation Monte-Carlo dans le domaine médical

Pop, Sorina 21 October 2013 (has links) (PDF)
Les applications Monte-Carlo sont facilement parallélisables, mais une parallélisation efficace sur des grilles de calcul est difficile à réaliser. Des stratégies avancées d'ordonnancement et de parallélisation sont nécessaires pour faire face aux taux d'erreur élevés et à l'hétérogénéité des ressources sur des architectures distribuées. En outre, la fusion des résultats partiels est également une étape critique. Dans ce contexte, l'objectif principal de notre travail est de proposer de nouvelles stratégies pour une exécution plus rapide et plus fiable des applications Monte-Carlo sur des grilles de calcul. Ces stratégies concernent à la fois le phase de calcul et de fusion des applications Monte-Carlo et visent à être utilisées en production. Dans cette thèse, nous introduisons une approche de parallélisation basée sur l'emploi des tâches pilotes et sur un nouvel algorithme de partitionnement dynamique. Les résultats obtenus en production sur l'infrastructure de grille européenne (EGI) en utilisant l'application GATE montrent que l'utilisation des tâches pilotes apporte une forte amélioration par rapport au système d'ordonnancement classique et que l'algorithme de partitionnement dynamique proposé résout le problème d'équilibrage de charge des applications Monte-Carlo sur des systèmes distribués hétérogènes. Puisque toutes les tâches finissent presque simultanément, notre méthode peut être considérée comme optimale à la fois en termes d'utilisation des ressources et de temps nécessaire pour obtenir le résultat final (makespan). Nous proposons également des stratégies de fusion avancées avec plusieurs tâches de fusion. Une stratégie utilisant des sauvegardes intermédiaires de résultat (checkpointing) est utilisée pour permettre la fusion incrémentale à partir des résultats partiels et pour améliorer la fiabilité. Un modèle est proposé pour analyser le comportement de la plateforme complète et aider à régler ses paramètres. Les résultats expérimentaux montrent que le modèle correspond à la réalité avec une erreur relative de 10% maximum, que l'utilisation de plusieurs tâches de fusion parallèles réduit le temps d'exécution total de 40% en moyenne, que la stratégie utilisant des sauvegardes intermédiaires permet la réalisation de très longues simulations sans pénaliser le makespan. Pour évaluer notre équilibrage de charge et les stratégies de fusion, nous mettons en œuvre une simulation de bout-en-bout de la plateforme décrite ci-dessus. La simulation est réalisée en utilisant l'environnement de simulation SimGrid. Les makespan réels et simulés sont cohérents, et les conclusions tirées en production sur l'influence des paramètres tels que la fréquence des sauvegardes intermédiaires et le nombre de tâches de fusion sont également valables en simulation. La simulation ouvre ainsi la porte à des études paramétriques plus approfondies.
17

Évaluation des performances du scanner LabPET

Bergeron, Mélanie January 2009 (has links)
Ce mémoire porte sur l'évaluation et l'amélioration des performances du premier appareil commercial de Tomographie d'Émission par Positrons (TEP) pour petits animaux basé sur des détecteurs à photodiode avalanche (PDA) et une électronique de traitement entièrement numérique. Cet appareil est la version améliorée d'un premier prototype TEP basé sur les PDA datant de 1995. Cette nouvelle version a été conçue sur une plateforme électronique numérique pour améliorer à la fois la résolution spatiale, permettant de détecter de plus petites structures chez la souris, et la sensibilité afin d'injecter une dose de radiotraceur plus faible à l'animal. Le but d'utiliser une électronique numérique était d'augmenter la flexibilité du traitement des signaux pour l'adapter selon de nouvelles applications. Afin de vérifier toutes ces caractéristiques potentielles, nous avons effectué une évaluation systématique et exhaustive des performances de ce nouveau scanner (désigné sous le sigle commercial « LabPET ») pour l'application en imagerie moléculaire. Des procédures d'ajustement automatique de plusieurs paramètres du scanner, dont la tension de polarisation des détecteurs PDA dans les conditions optimales d'opération, ont été mises au point pour faciliter l'étalonnage du grand nombre de détecteurs (1536 ou 3072 selon la version du scanner). Une technique pour normaliser les délais temporels de chaque détecteur a permis d'améliorer les performances temporelles du scanner et la qualité d'image. Cette technique a aussi servi à caractériser de façon individuelle les détecteurs au niveau de leur résolution en temps, ce qui permet de connaître leurs performances et de suivre leur possible dégradation à long terme. Par la suite, les performances de l'appareil pour l'imagerie, telles que la résolution spatiale et temporelle, la résolution en énergie, la sensibilité, le temps mort et le taux de comptage, ont été mesurées en suivant dans la mesure du possible les recommandations des normes de la National Electrical Manufacturers Association (NEMA) pour l'évaluation d'appareils d'imagerie. De plus, des balises pour l'élaboration de protocoles d'acquisition ont été établies afin d'obtenir des images optimales. Pour ce faire, une caractérisation plus exhaustive de la qualité d'image à l'aide de mires et d'images de rats et de souris a été réalisée. Deux appareils avec champ axial de 3.75 et 7.5 cm ont été caractérisés dans le cadre de ce projet de maîtrise. À la suite de toutes les améliorations apportées à l'appareil et à la lumière des résultats obtenus, la plupart des concepts utilisés pour la fabrication de l'appareil ont conduit à des images de qualité supérieure.
18

Correction de l'effet de volume partiel en tomographie d'émission par positrons chez le modelé animal

Guillette, Nicolas January 2011 (has links)
La quantification de la concentration de radiotraceur en imagerie par tomographie d'émission par positrons (TEP) est capitale, que ce soit au niveau clinique, mais majoritairement dans le domaine de la recherche, notamment pour l'analyse pharmacocinétique, appliquée chez l'humain et l'animal. Parmi les corrections importantes en imagerie TEP, l'effet de volume partiel (EVP) est l'un des plus complexes à corriger. Il dépend de divers phénomènes physiques liés aux performances de l'appareil, à la reconstruction de l'image ainsi qu'aux propriétés de l'objet mesuré.La correction pour l'EVP est cruciale afin de pallier la faible résolution spatiale de l'appareil TEP. Les conséquences principales de l'EVP sont une sous-estimation de la concentration d'un radiotraceur dans les objets de petite taille ainsi qu'une difficulté à cerner correctement les contours de l'objet observé. De nombreuses méthodes appliquées directement sur les images reconstruites sont proposées dans la littérature et sont utilisées dans certains cas, mais aucun consensus sur une méthode n'a encore été établi jusqu'à présent. Ce travail porte sur la compréhension de la problématique de l'EVP par différents tests mathématiques et des simulations, ainsi que sur le développement et l'application d'une nouvelle méthode de correction appliquée à l'imagerie TEP. L'argument principal de cette technique de correction est que le défaut de la résolution spatiale est enregistré au niveau des détecteurs et la correction pour ce défaut devrait être effectuée avant la reconstruction de l'image. En outre, la technique proposée a l'avantage de tenir compte non seulement de la taille, mais également de la forme de l'objet selon les différentes projections, ce qui représente un bénéfice par rapport aux approches appliquées directement sur l'image.La correction est basée sur la déconvolution des projections mesurées par des fonctions d'étalement appropriées. Celles-ci sont obtenues expérimentalement à partir de mires de cylindres de différents diamètres. Pour tester les capacités de cette technique, l'étude s'est limitée à la correction d'objets initialement isolés par régions d'intérêt sur l'image.La technique a ensuite été testée sur des images de tumeurs isolées et du coeur chez le rat, obtenues par injection de [indice supérieur 18] F-fluorodésoxy-D-glucose (FDG). Les conséquences de la correction de l'EVP ont enfin été étudiées par l'application du modèle d'analyse pharmacocinétique compartimentale du FDG dans le coeur de rat.
19

Filtrage, réduction de dimension, classification et segmentation morphologique hyperspectrale

Noyel, Guillaume 22 September 2008 (has links) (PDF)
Le traitement d'images hyperspectrales est la généralisation de l'analyse des images couleurs, à trois composantes rouge, vert et bleu, aux images multivariées à plusieurs dizaines ou plusieurs centaines de composantes. Dans un sens général, les images hyperspectrales ne sont pas uniquement acquises dans le domaine des longueurs d'ondes mais correspondent à une description d'un pixel par un ensemble de valeurs : c'est à dire un vecteur. Chacune des composantes d'une image hyperspectrale constitue un canal spectral, et le vecteur associé à chaque pixel est appelé spectre. Pour valider la généralité de nos méthodes de traitement, nous les avons appliquées à plusieurs types d'imagerie correspondant aux images hyperspectrales les plus variées : des photos avec quelques dizaines de composantes acquises dans le domaine des longueurs d'ondes, des images satellites de télédétection, des séries temporelles d'imagerie par résonance dynamique (DCE-MRI) et des séries temporelles d'imagerie thermique. Durant cette thèse, nous avons développé une chaîne complète de segmentation automatique des images hyperspectrales par des techniques morphologiques. Pour ce faire, nous avons mis au point une méthode efficace de débruitage spectral, par Analyse Factorielle des Correspondances (AFC), qui permet de conserver les contours spatiaux des objets, ce qui est très utile pour la segmentation morphologique. Puis nous avons fait de la réduction de dimension, par des méthodes d'analyse de données ou par modélisation des spectres, afin d'obtenir un autre représentation de l'image avec un nombre restreint de canaux. A partir de cette image de plus faible dimension, nous avons effectué une classification (supervisée ou non) pour grouper les pixels en classes spectralement homogènes. Cependant, les classes obtenues n'étant pas homogènes spatialement, i.e. connexes, une étape de segmentation s'est donc avérée nécessaire. Nous avons démontré que la méthode récente de la Ligne de Partage des Eaux Probabiliste était particulièrement adaptée à la segmentation des images hyperspectrales. Elle utilise différentes réalisations de marqueurs aléatoires, conditionnés par la classification spectrale, pour obtenir des réalisations de contours par Ligne de Partage des Eaux (LPE). Ces réalisations de contours permettent d'estimer une fonction de densité de probabilité de contours (pdf) qui est très facile à segmenter par une LPE classique. En définitive, la LPE probabiliste est conditionnée par la classification spectrale et produit donc des segmentations spatio-spectrales dont les contours sont très lisses. Cette chaîne de traitement à été mise en œuvre sur des séquences d'imagerie par résonance magnétique dynamique (DCE-MRI) et a permis d'établir une méthode automatique d'aide au diagnostic pour la détection de tumeurs cancéreuses. En outre, d'autres techniques de segmentation spatio-spectrales ont été développées pour les images hyperspectrales : les régions η-bornées et les boules µ-géodésiques. Grâce à l'introduction d'information régionale, elles améliorent les segmentations par zones quasi-plates qui n'utilisent quant à elles que de l'information locale. Enfin, nous avons mis au point une méthode très efficace de calcul de toutes les paires de distances géodésiques d'une image, puisqu'elle permet de réduire jusqu'à 50 % le nombre d'opérations par rapport à une approche naïve et jusqu'à 30 % par rapport aux autres méthodes. Le calcul efficace de ce tableau de distances offre des perspectives très prometteuses pour la réduction de dimension spatio-spectrale.
20

Morphologie mathématique et graphes : application à la segmentation interactive d'images médicales

Stawiaski, Jean 13 October 2008 (has links) (PDF)
La recherche en imagerie médicale est une des disciplines les plus actives du traitement d'images. La segmentation et l'analyse d'images dans un contexte clinique reste un problème majeur de l'imagerie médicale. La multiplicité des modalités d'imagerie, ainsi que les fortes variabilités des structures et pathologies à analyser rendent cette tâche fastidieuse. Dans la plupart des cas, la supervision de spécialistes, tels que des radiologistes, est nécessaire pour valider ou interpréter les résultats obtenus par analyse d'images. L'importante quantité de données, ainsi que les nombreuses applications liées à l'imagerie médicale, nécessitent des outils logiciels de très haut niveau combinant des interfaces graphique complexe avec des algorithmes interactifs rapides. Les récentes recherches en segmentation d'images ont montré l'intérêt des méthodes à base de graphes. L'intérêt suscité dans la communauté scientifique a permis de développer et d'utiliser rapidement ces techniques dans de nombreuses applications. Nous avons étudié les arbres de recouvrement minimaux, les coupes minimales ainsi que les arbres de chemins les plus courts. Notre étude a permis de mettre en lumière des liens entre ces structures a priori très différentes. Nous avons prouvé que les forêts des chemins les plus courts, ainsi que les coupes minimales convergent toutes les deux, en appliquant une transformation spécifique du graphe, vers une structure commune qui n'est autre qu'une forêt de recouvrement minimale. Cette étude nous a aussi permis de souligner les limitations et les possibilités de chacune de ces techniques pour la segmentation d'images. Dans un deuxième temps, nous avons proposé des avancées théoriques et pratiques sur l'utilisation des coupe minimales. Cette structure est particulièrement intéressante pour segmenter des images à partir de minimisation d'énergie. D'une part, nous avons montré que l'utilisation de graphes de régions d'une segmentation morphologique permet d'accélérer les méthodes de segmentation à base de coupe minimales. D'autre part nous avons montré que l'utilisation de graphes de régions permet d'étendre la classe d'énergie pouvant être minimisée par coupe de graphes. Ces techniques ont toutes les caractéristiques pour devenir des méthodes de référence pour la segmentation d'images médicales. Nous avons alors étudié qualitativement et quantitativement nos méthodes de segmentation à travers des applications médicales. Nous avons montré que nos méthodes sont particulièrement adaptées à la détection de tumeurs pour la planification de radiothérapie, ainsi que la création de modèles pour la simulation et la planification de chirurgie cardiaque. Nous avons aussi mené une étude quantitative sur la segmentation de tumeurs du foie. Cette étude montre que nos algorithmes offrent des résultats plus stables et plus précis que de nombreuses techniques de l'état de l'art. Nos outils ont aussi été comparés à des segmentations manuelles de radiologistes, prouvant que nos techniques sont adaptées à être utilisée en routine clinique. Nous avons aussi revisité une méthode classique de segmentation d'images : la ligne de partages des eaux. La contribution de notre travail se situe dans la re-définition claire de cette transformation dans le cas des graphes et des images multi spectrales. Nous avons utilisé les algèbres de chemins pour montrer que la ligne de partages des eaux correspond à des cas particuliers de forêt des chemins les plus courts dans un graphe. Finalement, nous proposons quelques extensions intéressantes du problème des coupes minimales. Ces extensions sont basées sur l'ajout de nouveaux types de contraintes. Nous considérons particulièrement les coupes minimales contraintes à inclure un ensemble prédéfini d'arêtes, ainsi que les coupes minimales contraintes par leur cardinalité et leur aires. Nous montrons comment ces problèmes peuvent être avantageusement utilisé pour la segmentation d'images.

Page generated in 0.1024 seconds