• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 16
  • 10
  • Tagged with
  • 60
  • 60
  • 30
  • 23
  • 18
  • 17
  • 16
  • 15
  • 14
  • 13
  • 12
  • 11
  • 11
  • 11
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Outils et méthodes d'analyse d'images 3D texturées : application à la segmentation des images échographiques

Paulhac, Ludovic 24 November 2009 (has links) (PDF)
Le travail présenté dans cette thèse s'inscrit dans le domaine de l'analyse d'images texturées et plus particulièrement d'images 3D (ensembles de voxels). Pour ces dernières, les difficultés d'analyse sont principalement dues à la très grande quantité d'informations à prendre en compte et à traiter, ce qui rend inefficaces les méthodes dédiées aux images 2D. De plus, outre le faible nombre de travaux proposant des méthodes réellement 3D, la majeure partie des méthodes d'analyse de textures existantes n'ont pas une applicabilité très étendue et sont incapables d'identifier certaines classes de textures. En comparaison, le système visuel humain s'adapte à tous types de textures, même en présence d'un contexte défavorable. Les textures sont donc facilement discernées par l'humain, mais très difficiles à définir sous forme d'un modèle mathématique unique offrant une description purement quantitative. Partant de l'hypothèse qu'il est plus pertinent de décrire une texture avec des adjectifs qualificatifs (description qualitative) plutôt qu'avec un modèle mathématique unique, nous avons choisi dans un premier temps de définir un nouvel ensemble de descripteurs de textures permettant une caractérisation qualitative des textures contenues dans les images 3D. Il est difficile de produire une définition consensuelle du terme "texture". Néanmoins, la première contribution de cette thèse est la proposition d'un nouvel ensemble de caractéristiques de textures solides construit à partir de propriétés de textures facilement appréhendable par l'utilisateur humain. Ces nouveaux descripteurs permettent entre autres de décrire des propriétés texturales telles que la directionnalité, la rugosité et le contraste. La deuxième contribution de cette thèse correspond aux techniques multi-résolutions que nous proposons d'exploiter pour extraire ces caractéristiques des images 3D, techniques basées sur une décomposition en ondelette couplée à une analyse des composantes géométriques contenues dans les représentations obtenues. Enfin, le système de segmentation interactif d'images échographiques 3D de la peau, intégrant nos descripteurs de textures solides, couplé à un mécanisme de clustering et à une interface homme-machine adaptée constitue, selon nous, une troisième contribution. Ce système nous a permis de valider expérimentalement la robustesse et la généricité de nos propositions, et intéresse aujourd'hui de nombreux acteurs du monde de la santé (médecins, dermatologues, industriels, ...).
12

Segmentation par contours actifs basés alpha-divergences : application à la segmentation d'images médicales et biomédicales

Meziou, Leïla 28 November 2013 (has links) (PDF)
La segmentation de régions d'intérêt dans le cadre de l'analyse d'images médicales et biomédicales reste encore à ce jour un challenge en raison notamment de la variété des modalités d'acquisition et des caractéristiques associées (bruit par exemple).Dans ce contexte particulier, cet exposé présente une méthode de segmentation de type contour actif dont l 'énergie associée à l'obtention de l'équation d'évolution s'appuie sur une mesure de similarité entre les densités de probabilités (en niveau de gris) des régions intérieure et extérieure au contour au cours du processus itératif de segmentation. En particulier, nous nous intéressons à la famille particulière des alpha-divergences. L'intérêt principal de cette méthode réside (i) dans la flexibilité des alpha-divergences dont la métrique intrinsèque peut être paramétrisée via la valeur du paramètre alpha et donc adaptée aux distributions statistiques des régions de l'image à segmenter ; et (ii) dans la capacité unificatrice de cette mesure statistique vis-à-vis des distances classiquement utilisées dans ce contexte (Kullback- Leibler, Hellinger...). Nous abordons l'étude de cette mesure statistique tout d'abord d'un point de vue supervisé pour lequel le processus itératif de segmentation se déduit de la minimisation de l'alpha-divergence (au sens variationnel) entre la densité de probabilité courante et une référence définie a priori. Puis nous nous intéressons au point de vue non supervisé qui permet de s'affranchir de l'étape de définition des références par le biais d'une maximisation de distance entre les densités de probabilités intérieure et extérieure au contour. Par ailleurs, nous proposons une démarche d'optimisation de l'évolution du paramètre alpha conjointe au processus de minimisation ou de maximisation de la divergence permettant d'adapter itérativement la divergence à la statistique des données considérées. Au niveau expérimental, nous proposons une étude comparée des différentes approches de segmentation : en premier lieu, sur des images synthétiques bruitées et texturées, puis, sur des images naturelles. Enfin, nous focalisons notre étude sur différentes applications issues des domaines biomédicaux (microscopie confocale cellulaire) et médicaux (radiographie X, IRM) dans le contexte de l'aide au diagnotic. Dans chacun des cas, une discussion sur l'apport des alpha-divergences est proposée.
13

Estimation des déformations du ventricule gauche sur des séquences ciné-IRM non-marquées

Randrianarisolo, Solofohery 03 March 2009 (has links) (PDF)
Cette thèse présente un nouveau concept pour l'évaluation des déformations cardiaques à partir de ciné-IRM standard sans avoir recours aux images IRM marquées. Nous avons adapté la méthode des ensembles de niveaux afin de segmenter le myocarde et évalué le déplacement des contours endo et épicardique. Le processus de segmentation est appliqué directement sur un ensemble d'images pseudo-volumique 2D + t. Cela conduit à une méthode de segmentation efficace tenant compte à la fois des contraintes de continuité spatiale et temporelle. Puis, nous avons évalué le déplacement des contours endo et épicardique détectés avec une technique de mise en correspondance fondée sur les ensembles de niveaux. La vitesse de déplacement au sein de la paroi myocardique est évaluée par une méthode de flot optique, contrainte avec le déplacement des contours. Enfin, de ce champ de vitesses du myocarde, nous tirons des mesures pertinentes de la contraction cardiaque. La validation de la méthode proposée est effectuée sur des séquences d'images synthétiques, et en comparant sur les mêmes patients nos mesures à celles obtenues avec la méthode de référence HARP appliquée sur des images IRM taggées correspondantes. Les résultats de la méthode sont encourageants, ils sont pratiquement identiques à ceux de l'approche HARP. Cette méthode présente deux avantages principaux: premièrement elle exploite les ciné-IRM standard non taggées, deuxièmement elle permet des évaluations des déformations à haute résolution spatiale. Cette méthode est déjà disponible et peut rendre accessible l'évaluation des déformations du ventricule gauche du myocarde en routine clinique à partir des séquences ciné-IRM
14

Segmentation par coupes de graphe avec a priori de forme Application à l'IRM cardiaque

Grosgeorge, Damien 27 May 2014 (has links) (PDF)
Le contourage des ventricules cardiaques sur IRM est nécessaire à la détermination de la fonction contractile du cœur. Cette tâche est difficile, en particulier pour le ventricule droit (VD), due au flou aux frontières des cavités, aux irrégularités des intensités et à sa forme complexe et variable. Peu de travaux ont cependant été réalisés afin de résoudre cette problématique de segmentation. Dans ce but, nous avons proposé et développé deux méthodes de segmentation basées sur la méthode des coupes de graphe (GC), à laquelle nous avons incorporé des a priori de forme. La première méthode, semi-automatique, repose sur une carte d'a priori statistique créée à base d'Analyses en Composantes Principales et intégrée à la méthode des GC binaires. La seconde, automatique, permet la segmentation d'un ensemble d'objets par GC multi-labels à partir d'un modèle de forme probabiliste basé sur le recalage et la fusion d'atlas. Ces méthodes ont été évaluées sur une base importante d'IRM cardiaques, composée de 48 patients. Une comparaison aux méthodes de l'état de l'art pour cette application à travers le challenge de segmentation du VD MICCAI'12, que nous avons organisé, montre l'efficacité de nos méthodes.
15

Knowledge-based image segmentation using sparse shape priors and high-order MRFs / Segmentation d’images avec des a priori de forme parcimonieux et des champs de Markov aléatoires d’ordre supérieur

Xiang, Bo 28 November 2013 (has links)
Nous présentons dans cette thèse une approche nouvelle de la segmentation d’images, avec des descripteurs a priori utilisant des champs de Markov d’ordre supérieur. Nous représentons le modèle de forme par un graphe de distribution de points qui décrit les informations a priori des invariants de pose grâce à des cliques L1 discrètes d’ordre supérieur. Chaque clique de triplet décrit les variations statistiques locales de forme par des mesures d’angle,ce qui assure l’invariance aux transformations globales (translation, rotation et échelle). L’apprentissage d’une structure de graphe discret d’ordre supérieur est réalisé grâce à l’apprentissage d’un champ de Markov aléatoire utilisant une décomposition duale, ce qui renforce son efficacité tout en préservant sa capacité à rendre compte des variations.Nous introduisons la connaissance a priori d’une manière innovante pour la segmentation basée sur un modèle. Le problème de la segmentation est ici traité par estimation statistique d’un maximum a posteriori (MAP). L’optimisation des paramètres de la modélisation- c’est à dire de la position des points de contrôle - est réalisée par le calcul d’une fonction d’énergie globale de champs de Markov (MRF). On combine ainsi les calculs statistiques régionaux et le suivi des frontières avec la connaissance a priori de la forme.Les descripteurs invariants sont estimés par des potentiels de Markov d’ordre 2, tandis que les caractéristiques régionales sont transposées dans un espace de caractéristiques et calculées grâce au théorème de la Divergence.De plus, nous proposons une nouvelle approche pour la segmentation conjointe de l’image et de sa modélisation ; cette méthode permet d’obtenir une segmentation plus fine lorsque la délimitation précise d’un objet est recherchée. Un modèle graphique combinant l’information a priori et les informations de pixel est développé pour réaliser l’unité des modules "top-down" et "bottom-up". La cohérence entre l’image et sa modélisation est assurée par une décomposition qui associe les parties du modèle avec la labellisation de chaque pixel.Les deux champs de Markov d’ordre supérieur considérés sont optimisés par les algorithmes de l’état de l’art. Les résultats prometteurs dans les domaines de la vision par ordinateur et de l’imagerie médicale montrent le potentiel de cette méthode appliquée à la segmentation. / In this thesis, we propose a novel framework for knowledge-based segmentation using high-order Markov Random Fields (MRFs). We represent the shape model as a point distribution graphical model which encodes pose invariant shape priors through L1 sparse higher order cliques. Each triplet clique encodes the local shape variation statistics on the angle measurements which inherit invariance to global transformations (i.e. translation,rotation and scale). A sparse higher-order graph structure is learned through MRF training using dual decomposition, producing boosting efficiency while preserving its ability to represent the shape variation.We incorporate the prior knowledge in a novel framework for model-based segmentation.We address the segmentation problem as a maximum a posteriori (MAP) estimation in a probabilistic framework. A global MRF energy function is defined to jointly combine regional statistics, boundary support as well as shape prior knowledge for estimating the optimal model parameters (i.e. the positions of the control points). The pose-invariant priors are encoded in second-order MRF potentials, while regional statistics acting on a derived image feature space can be exactly factorized using Divergence theorem. Furthermore, we propose a novel framework for joint model-pixel segmentation towardsa more refined segmentation when exact boundary delineation is of interest. Aunified model-based and pixel-driven integrated graphical model is developed to combine both top-down and bottom-up modules simultaneously. The consistency between the model and the image space is introduced by a model decomposition which associates the model parts with pixels labeling. Both of the considered higher-order MRFs are optimized efficiently using state-of the-art MRF optimization algorithms. Promising results on computer vision and medical image applications demonstrate the potential of the proposed segmentation methods.
16

Segmentation of facade images with shape priors / Segmentation des images de façade avec à priori sur la forme

Kozinski, Mateusz 30 June 2015 (has links)
L'objectif de cette thèse concerne l'analyse automatique d'images de façades de bâtiments à partir de descriptions formelles à priori de formes géométriques. Ces informations suggérées par un utilisateur permettent de modéliser, de manière formelle, des contraintes spatiales plus ou moins dures quant à la segmentation sémantique produite par le système. Ceci permet de se défaire de deux principaux écueils inhérents aux méthodes d'analyse de façades existantes qui concernent d'une part la coûteuse fidélité de la segmentation résultante aux données visuelles de départ, d'autre part, la spécificité architecturale des règles imposées lors du processus de traitement. Nous proposons d'explorer au travers de cette thèse, différentes méthodes alternatives à celles proposées dans la littérature en exploitant un formalisme de représentation d'à priori de haut niveau d'abstraction, les propriétés engendrées par ces nouvelles méthodes ainsi que les outils de résolution mis en œuvres par celles-ci. Le système résultant est évalué tant quantitativement que qualitativement sur de multiples bases de données standards et par le biais d'études comparatives à des approches à l'état de l'art en la matière. Parmi nos contributions, nous pouvons citer la combinaison du formalisme des grammaires de graphes exprimant les variations architecturales de façades de bâtiments et les modèles graphiques probabilistes modélisant l'énergie attribuée à une configuration paramétrique donnée, dans un schéma d'optimisation par minimisation d'énergie; ainsi qu'une nouvelle approche par programmation linéaire d'analyse avec à priori de formes. Enfin, nous proposons un formalisme flexible de ces à priori devançant de par ses performances les méthodes à l'état de l'art tout en combinant les avantages de la généricité de contraintes simples manuellement imposées par un utilisateur, à celles de la précision de la segmentation finale qui se faisait jusqu'alors au prix d'un encodage préliminaire restrictif de règles grammaticales complexes propres à une famille architecturale donnée. Le système décrit permet également de traiter avec robustesse des scènes comprenant des objets occultants et pourrait encore être étendu notamment afin de traiter l'extension tri-dimensionnelle de la sémantisation d'environnements urbains sous forme de nuages de points 3D ou d'une analyse multi-image de bâtiments / The aim of this work is to propose a framework for facade segmentation with user-defined shape priors. In such a framework, the user specifies a shape prior using a rigorously defined shape prior formalism. The prior expresses a number of hard constraints and soft preference on spatial configuration of segments, constituting the final segmentation. Existing approaches to the problem are affected by a compromise between the type of constraints, the satisfaction of which can be guaranteed by the segmentation algorithm, and the capability to approximate optimal segmentations consistent with a prior. In this thesis we explore a number of approaches to facade parsing that combine prior formalism featuring high expressive power, guarantees of conformance of the resulting segmentations to the prior, and effective inference. We evaluate the proposed algorithms on a number of datasets. Since one of our focus points is the accuracy gain resulting from more effective inference algorithms, we perform a fair comparison to existing methods, using the same data term. Our contributions include a combination of graph grammars for expressing variation of facade structure with graphical models encoding the energy of models of given structures for different positions of facade elements. We also present the first linear formulation of facade parsing with shape priors. Finally, we propose a shape prior formalism that enables formulating the problem of optimal segmentation as the inference in a Markov random field over the standard four-connected grid of pixels. The last method advances the state of the art by combining the flexibility of a user-defined grammar with segmentation accuracy that was reserved for frameworks with pre-defined priors before. It also enables handling occlusions by simultaneously recovering the structure of the occluded facade and segmenting the occluding objects. We believe that it can be extended in many directions, including semantizing three-dimensional point clouds and parsing images of general urban scenes
17

Perfectionnement de métaheuristiques pour l'optimisation continue

Boussaid, Ilhem 29 June 2013 (has links) (PDF)
Les métaheuristiques sont des algorithmes génériques, souvent inspirés de la nature, conçues pour résoudre des problèmes d'optimisation complexes. Parmi les métaheuristiques les plus récentes, nous retenons celle basée sur la théorie de la biogéographie insulaire: Biogeography-based optimization (BBO).Dans cette thèse, nous considérons à la fois les problèmes d'optimisation globale à variables continues avec et sans contraintes. De nouvelles versions hybrides de BBO sont proposées comme des solutions très prometteuses pour résoudre les problèmes considérés. Les méthodes proposées visent à pallier les inconvénients de la convergence lente et du manque de diversité de l'algorithme BBO. Dans la première partie de cette thèse, nous présentons la méthode que nous avons développée, issue d'une hybridation de BBO avec l'évolution différentielle (DE) pour résoudre des problèmes d'optimisation sans contraintes. Nous montrons que les résultats de l'algorithme proposé sont plus précis, notamment pour des problèmes multimodaux, qui sont parmi les problèmes les plus difficiles pour de nombreux algorithmes d'optimisation. Pour résoudre des problèmes d'optimisation sous contraintes, nous proposons trois nouvelles variantes de BBO. Des expérimentations ont été menées pour rendre compte de l'utilité des méthodes proposées. Dans une deuxième partie, nous nous intéressons à l'étude des capacités des méthodes proposées à résoudre des problèmes d'optimisation, issus du monde réel. Nous nous proposons d'abord de résoudre le problème d'allocation optimale de puissance pour la détection décentralisée d'un signal déterministe dans un réseau de capteurs sans fil, compte tenu des fortes contraintes en ressources énergétiques et en bande passante des noeuds répartis. L'objectif est de minimiser la puissance totale allouée aux capteurs, tout en gardant la probabilité d'erreur de détection au dessous d'un seuil requis. Dans un deuxième temps, nous nous focalisons sur la segmentation d'images en niveaux de gris par seuillage multi-niveaux. Les seuils sont déterminés de manière à maximiser l'entropie floue. Ce problème d'optimisation est résolu en appliquant une variante de BBO (DBBO-Fuzzy) que nous avons développée. Nous montrons l'efficacité de la méthode proposée aux travers de résultats expérimentaux
18

Segmentation par contours actifs basés alpha-divergences : application à la segmentation d’images médicales et biomédicales / Active contours segmentation based on alpha-divergences : Segmentation of medical and biomedical images

Meziou, Leïla Ikram 28 November 2013 (has links)
La segmentation de régions d'intérêt dans le cadre de l'analyse d'images médicales et biomédicales reste encore à ce jour un challenge en raison notamment de la variété des modalités d'acquisition et des caractéristiques associées (bruit par exemple).Dans ce contexte particulier, cet exposé présente une méthode de segmentation de type contour actif dont l ‘énergie associée à l'obtention de l'équation d'évolution s'appuie sur une mesure de similarité entre les densités de probabilités (en niveau de gris) des régions intérieure et extérieure au contour au cours du processus itératif de segmentation. En particulier, nous nous intéressons à la famille particulière des alpha-divergences. L'intérêt principal de cette méthode réside (i) dans la flexibilité des alpha-divergences dont la métrique intrinsèque peut être paramétrisée via la valeur du paramètre alpha et donc adaptée aux distributions statistiques des régions de l'image à segmenter ; et (ii) dans la capacité unificatrice de cette mesure statistique vis-à-vis des distances classiquement utilisées dans ce contexte (Kullback- Leibler, Hellinger...). Nous abordons l'étude de cette mesure statistique tout d'abord d'un point de vue supervisé pour lequel le processus itératif de segmentation se déduit de la minimisation de l'alpha-divergence (au sens variationnel) entre la densité de probabilité courante et une référence définie a priori. Puis nous nous intéressons au point de vue non supervisé qui permet de s'affranchir de l'étape de définition des références par le biais d'une maximisation de distance entre les densités de probabilités intérieure et extérieure au contour. Par ailleurs, nous proposons une démarche d'optimisation de l'évolution du paramètre alpha conjointe au processus de minimisation ou de maximisation de la divergence permettant d'adapter itérativement la divergence à la statistique des données considérées. Au niveau expérimental, nous proposons une étude comparée des différentes approches de segmentation : en premier lieu, sur des images synthétiques bruitées et texturées, puis, sur des images naturelles. Enfin, nous focalisons notre étude sur différentes applications issues des domaines biomédicaux (microscopie confocale cellulaire) et médicaux (radiographie X, IRM) dans le contexte de l'aide au diagnotic. Dans chacun des cas, une discussion sur l'apport des alpha-divergences est proposée. / In the particular field of Computer-Aided-Diagnosis, the segmentation of particular regions of interest corresponding usually to organs is still a challenging issue mainly because of the various existing for which the charateristics of acquisition are very different (corrupting noise for instance). In this context, this PhD work introduces an original histogram-based active contour segmentation using alpha-divergence family as similarity measure. The method keypoint are twofold: (i) the flexibility of alpha-divergences whose metric could be parametrized using alpha value can be adaptedto the statistical distribution of the different regions of the image and (ii) the ability of alpha-divergence ability to enbed standard distances like the Kullback-Leibler's divergence or the Hellinger's one makes these divergences an interesting unifying tool.In this document, first, we propose a supervised version of proposed approach:. In this particular case, the iterative process of segmentation comes from alpha-divergenceminimization between the current probability density function and a reference one which can be manually defined for instance. In a second part, we focus on the non-supervised version of the method inorder to be able.In that particular case, the alpha-divergence maximization between probabilitydensity functions of inner and outer regions defined by the active contour is maximized. In addition, we propose an optimization scheme of the alpha parameter jointly with the optimization of the divergence in order to adapt iteratively the divergence to the inner statistics of processed data. Furthermore, a comparative study is proposed between the different segmentation schemes : first, on synthetic images then, on natural images. Finally, we focus on different kinds of biomedical images (cellular confocal microscopy) and medical ones (X-ray) for computer-aided diagnosis.
19

Graph-based variational optimization and applications in computer vision / Optimisation variationnelle discrète et applications en vision par ordinateur

Couprie, Camille 10 October 2011 (has links)
De nombreuses applications en vision par ordinateur comme le filtrage, la segmentation d'images, et la stéréovision peuvent être formulées comme des problèmes d'optimisation. Récemment les méthodes discrètes, convexes, globalement optimales ont reçu beaucoup d'attention. La méthode des "graph cuts'", très utilisée en vision par ordinateur est basée sur la résolution d'un problème de flot maximum discret, mais les solutions souffrent d'un effet de blocs,notamment en segmentation d'images. Une nouvelle formulation basée sur le problème continu est introduite dans le premier chapitre et permet d'éviter cet effet. La méthode de point interieur employée permet d'optimiser le problème plus rapidement que les méthodes existantes, et la convergence est garantie. Dans le second chapitre, la formulation proposée est efficacement étendue à la restauration d'image. Grâce à une approche du à la contrainte et à un algorithme proximal parallèle, la méthode permet de restaurer (débruiter, déflouter, fusionner) des images rapidement et préserve un meilleur contraste qu'avec la méthode de variation totale classique. Le chapitre suivant met en évidence l'existence de liens entre les méthodes de segmentation "graph-cuts'", le "randomwalker'', et les plus courts chemins avec un algorithme de segmentation par ligne de partage des eaux (LPE). Ces liens ont inspiré un nouvel algorithme de segmentation multi-labels rapide produisant une ligne de partage des eaux unique, moins sensible aux fuites que la LPE classique. Nous avons nommé cet algorithme "LPE puissance''. L'expression de la LPE sous forme d'un problème d'optimisation a ouvert la voie à de nombreuses applications possibles au delà de la segmentation d'images, par exemple dans le dernier chapitre en filtrage pour l'optimisation d'un problème non convexe, en stéréovision, et en reconstruction rapide de surfaces lisses délimitant des objets à partir de nuages de points bruités / Many computer vision applications such as image filtering, segmentation and stereovision can be formulated as optimization problems. Recently discrete, convex, globally optimal methods have received a lot of attention. Many graph-based methods suffer from metrication artefacts, segmented contours are blocky in areas where contour information is lacking. In the first part of this work, we develop a discrete yet isotropic energy minimization formulation for the continuous maximum flow problem that prevents metrication errors. This new convex formulation leads us to a provably globally optimal solution. The employed interior point method can optimize the problem faster than the existing continuous methods. The energy formulation is then adapted and extended to multi-label problems, and shows improvements over existing methods. Fast parallel proximal optimization tools have been tested and adapted for the optimization of this problem. In the second part of this work, we introduce a framework that generalizes several state-of-the-art graph-based segmentation algorithms, namely graph cuts, random walker, shortest paths, and watershed. This generalization allowed us to exhibit a new case, for which we developed a globally optimal optimization method, named "Power watershed''. Our proposed power watershed algorithm computes a unique global solution to multi labeling problems, and is very fast. We further generalize and extend the framework to applications beyond image segmentation, for example image filtering optimizing an L0 norm energy, stereovision and fast and smooth surface reconstruction from a noisy cloud of 3D points
20

Parallélisation de la ligne de partage des eaux dans le cadre des graphes à arêtes valuées sur architecture multi-cœurs / Parallelization of the watershed transform in weighted graphs on multicore architecture

Braham, Yosra 24 November 2018 (has links)
Notre travail s'inscrit dans le cadre de la parallélisation d’algorithmes de calcul de la Ligne de Partage des Eaux (LPE) en particulier la LPE d’arêtes qui est une notion de la LPE introduite dans le cadre des Graphes à Arêtes Valuées. Nous avons élaboré un état d'art sur les algorithmes séquentiels de calcul de la LPE afin de motiver le choix de l'algorithme qui fait l'objet de notre étude qui est l'algorithme de calcul de noyau par M-bord. L'objectif majeur de cette thèse est de paralléliser cet algorithme afin de réduire son temps de calcul. En premier lieu, nous avons présenté les travaux qui se sont intéressés à la parallélisation des différentes variantes de la LPE et ce afin de dégager les problématiques que soulèvent cette tâche et les solutions adéquates à notre contexte. Dans un second lieu, nous avons montré que malgré la localité de l'opération de base de cet algorithme qui est l’abaissement de la valeur de certaines arêtes nommées arêtes M-bord, son exécution parallèle se trouve pénaliser par un problème de dépendance de données, en particulier au niveau des arêtes M-bord qui ont un sommet non minimum commun. Dans ce contexte, nous avons proposé trois stratégies de parallélisation de cet algorithme visant à résoudre ce problème de dépendance de données. La première stratégie consiste à diviser le graphe de départ en des bandes appelées partitions, et les traiter en parallèle sur P processeurs. La deuxième stratégie consiste à diviser les arêtes du graphe de départ en alternance en des sous-ensembles d’arêtes indépendantes. La troisième stratégie consiste à examiner les sommets au lieu des arêtes du graphe initial tout en préservant le paradigme d’amincissement sur lequel est basé l’algorithme séquentiel initial. Par conséquent, l’ensemble des sommets non-minima adjacents aux sommets minima sont traités en parallèle. En dernier lieu, nous avons étudié la parallélisation d'une technique de segmentation basée sur l'algorithme de calcul de noyau par M-bord. Cette technique comprend les étapes suivantes : la recherche des minima régionaux, la pondération des sommets et le calcul des sommets minima et enfin calcul du noyau par M-bord. A cet égard, nous avons commencé par faire une étude relative à la dépendance des données des différentes étapes qui la constituent et nous avons proposé des algorithmes parallèles pour chacune d'entre elles. Afin d'évaluer nos contributions, nous avons implémenté les différents algorithmes parallèles proposés dans le cadre de cette thèse sur une architecture multi-cœurs à mémoire partagée. Les résultats obtenus ont montré des gains en termes de temps d’exécution. Ce gain est traduit par des facteurs d’accélération qui augmentent avec le nombre de processeurs et ce quel que soit la taille des images à segmenter / Our work is a contribution of the parallelization of the Watershed Transform in particular the Watershed cuts which are a notion of watershed introduced in the framework of Edge Weighted Graphs. We have developed a state of art on the sequential watershed algorithms in order to motivate the choice of the algorithm that is the subject of our study, which is the M-border Kernel algorithm. The main objective of this thesis is to parallelize this algorithm in order to reduce its running time. First, we presented a review on the works that have treated the parallelization of the different types of Watershed in order to identify the issues raised by this task and the appropriate solutions to our context. In a second place, we have shown that despite the locality of the basic operation of this algorithm which is the lowering of some edges named the M-border edges; its parallel execution raises a data dependency problem, especially at the M-border edges which have a common non-minimum vertex. In this context, we have proposed three strategies of parallelization of this algorithm that solve this problematic: the first strategy consists of dividing the initial graph into bands called partitions processed in parallel by P processors. The second strategy is to divide the edges of the initial graph alternately into subsets of independent edges. The third strategy consists in examining the vertices instead of the edges of the initial graph while preserving the thinning paradigm on which the sequential algorithm is based. Therefore, the set of non-minima vertices adjacent to the minima ones are processed in parallel. Finally, we studied the parallelization of a segmentation technique based on the M-border kernel algorithm. This technique consists of three main steps which are: regional minima detection, vertices valuation and M-border kernel computation. For this purpose, we began by studying the data dependency of the different stages of this technique and we proposed parallel algorithms for each one of them. In order to evaluate our contributions, we implemented the parallel algorithms proposed in this thesis, on a shared memory multi-core architecture. The results obtained showed a notable gain in terms of execution time. This gain is translated by speedup factors that increase with the number of processors whatever is the resolution of the input images

Page generated in 0.5387 seconds