• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 9
  • 7
  • 6
  • 6
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 55
  • 55
  • 30
  • 26
  • 13
  • 11
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Automatiserad inlärning av detaljer för igenkänning och robotplockning / Autonomous learning of parts for recognition and robot picking

Wernersson, Björn, Södergren, Mikael January 2005 (has links)
Just how far is it possible to make learning of new parts for recognition and robot picking autonomous? This thesis initially gives the prerequisites for the steps in learning and calibration that are to be automated. Among these tasks are to select a suitable part model from numerous candidates with the help of a new part segmenter, as well as computing the spatial extent of this part, facilitating robotic collision handling. Other tasks are to analyze the part model in order to highlight correct and suitable edge segments for increasing pattern matching certainty, and to choose appropriate acceptance levels for pattern matching. Furthermore, tasks deal with simplifying camera calibration by analyzing the calibration pattern, as well as compensating for differences in perspective at great depth variations, by calculating the centre of perspective of the image. The image processing algorithms created in order to solve the tasks are described and evaluated thoroughly. This thesis shows that simplification of steps of learning and calibration, by the help of advanced image processing, really is possible.
42

Reconstruction de formes tubulaires à partir de nuages de points : application à l’estimation de la géométrie forestière

Ravaglia, Joris January 2017 (has links)
Les capacités des technologies de télédétection ont augmenté exponentiellement au cours des dernières années : de nouveaux scanners fournissent maintenant une représentation géométrique de leur environnement sous la forme de nuage de points avec une précision jusqu'ici inégalée. Le traitement de nuages de points est donc devenu une discipline à part entière avec ses problématiques propres et de nombreux défis à relever. Le coeur de cette thèse porte sur la modélisation géométrique et introduit une méthode robuste d'extraction de formes tubulaires à partir de nuages de points. Nous avons choisi de tester nos méthodes dans le contexte applicatif difficile de la foresterie pour mettre en valeur la robustesse de nos algorithmes et leur application à des données volumineuses. Nos méthodes intègrent les normales aux points comme information supplémentaire pour atteindre les objectifs de performance nécessaire au traitement de nuages de points volumineux.Cependant, ces normales ne sont généralement pas fournies par les capteurs, il est donc nécessaire de les pré-calculer.Pour préserver la rapidité d'exécution, notre premier développement a donc consisté à présenter une méthode rapide d'estimation de normales. Pour ce faire nous avons approximé localement la géométrie du nuage de points en utilisant des "patchs" lisses dont la taille s'adapte à la complexité locale des nuages de points. Nos travaux se sont ensuite concentrés sur l’extraction robuste de formes tubulaires dans des nuages de points denses, occlus, bruités et de densité inhomogène. Dans cette optique, nous avons développé une variante de la transformée de Hough dont la complexité est réduite grâce aux normales calculées. Nous avons ensuite couplé ces travaux à une proposition de contours actifs indépendants de leur paramétrisation. Cette combinaison assure la cohérence interne des formes reconstruites et s’affranchit ainsi des problèmes liés à l'occlusion, au bruit et aux variations de densité. Notre méthode a été validée en environnement complexe forestier pour reconstruire des troncs d'arbre afin d'en relever les qualités par comparaison à des méthodes existantes. La reconstruction de troncs d'arbre ouvre d'autres questions à mi-chemin entre foresterie et géométrie. La segmentation des arbres d'une placette forestière est l'une d’entre elles. C'est pourquoi nous proposons également une méthode de segmentation conçue pour contourner les défauts des nuages de points forestiers et isoler les différents objets d'un jeu de données. Durant nos travaux nous avons utilisé des approches de modélisation pour répondre à des questions géométriques, et nous les avons appliqué à des problématiques forestières.Il en résulte un pipeline de traitements cohérent qui, bien qu'illustré sur des données forestières, est applicable dans des contextes variés. / Abstract : The potential of remote sensing technologies has recently increased exponentially: new sensors now provide a geometric representation of their environment in the form of point clouds with unrivalled accuracy. Point cloud processing hence became a full discipline, including specific problems and many challenges to face. The core of this thesis concerns geometric modelling and introduces a fast and robust method for the extraction of tubular shapes from point clouds. We hence chose to test our method in the difficult applicative context of forestry in order to highlight the robustness of our algorithms and their application to large data sets. Our methods integrate normal vectors as a supplementary geometric information in order to achieve the performance goal necessary for large point cloud processing. However, remote sensing techniques do not commonly provide normal vectors, thus they have to be computed. Our first development hence consisted in the development of a fast normal estimation method on point cloud in order to reduce the computing time on large point clouds. To do so, we locally approximated the point cloud geometry using smooth ''patches`` of points which size adapts to the local complexity of the point cloud geometry. We then focused our work on the robust extraction of tubular shapes from dense, occluded, noisy point clouds suffering from non-homogeneous sampling density. For this objective, we developed a variant of the Hough transform which complexity is reduced thanks to the computed normal vectors. We then combined this research with a new definition of parametrisation-invariant active contours. This combination ensures the internal coherence of the reconstructed shapes and alleviates issues related to occlusion, noise and variation of sampling density. We validated our method in complex forest environments with the reconstruction of tree stems to emphasize its advantages and compare it to existing methods. Tree stem reconstruction also opens new perspectives halfway in between forestry and geometry. One of them is the segmentation of trees from a forest plot. Therefore we also propose a segmentation approach designed to overcome the defects of forest point clouds and capable of isolating objects inside a point cloud. During our work we used modelling approaches to answer geometric questions and we applied our methods to forestry problems. Therefore, our studies result in a processing pipeline adapted to forest point cloud analyses, but the general geometric algorithms we propose can also be applied in various contexts.
43

Segmentační metody ve zpracování biomedicínských obrazů / Segmentation Methods in Biomedical Image Processing

Mikulka, Jan January 2011 (has links)
The PhD thesis deals with modern methods of image processing, especially image segmentation, classification and evaluation of parameters. It is focused primarily on processing medical images of soft tissues obtained by magnetic resonance tomography (MR) and microscopic images of tissues. It is easy to describe edges of the sought objects using of segmented images. The edges found can be useful for further processing of monitored object such as calculating the perimeter, surface and volume evaluation or even three-dimensional shape reconstruction. The proposed solutions can be used for the classification of healthy/unhealthy tissues in MR or other imaging. Application examples of the proposed segmentation methods are shown in this thesis. Research in the area of image segmentation is focused on methods based on solving partial differential equations. This is a modern method for image processing, often called the active contour method. It is of great advantage in the segmentation of real images degraded by noise with fuzzy edges and transitions between objects. The results of the thesis are methods proposed for automatic image segmentation and classification.
44

Tvorba 3D modelu čelistního kloubu / Creating 3D Model of Temporomandibular Joint

Šmirg, Ondřej January 2015 (has links)
The dissertation thesis deals with 3D reconstruction of the temporomandibular joint from 2D slices of tissue obtained by magnetic resonance. The current practice uses 2D MRI slices in diagnosing. 3D models have many advantages for the diagnosis, which are based on the knowledge of spatial information. Contemporary medicine uses 3D models of tissues, but with the temporomandibular joint tissues there is a problem with segmenting the articular disc. This small tissue, which has a low contrast and very similar statistical characteristics to its neighborhood, is very complicated to segment. For the segmentation of the articular disk new methods were developed based on the knowledge of the anatomy of the joint area of the disk and on the genetic-algorithm-based statistics. A set of 2D slices has different resolutions in the x-, y- and z-axes. An up-sampling algorithm, which seeks to preserve the shape properties of the tissue was developed to unify the resolutions in the axes. In the last phase of creating 3D models standard methods were used, but these methods for smoothing and decimating have different settings (number of polygons in the model, the number of iterations of the algorithm). As the aim of this thesis is to obtain the most precise model possible of the real tissue, it was necessary to establish an objective method by which it would be possible to set the algorithms so as to achieve the best compromise between the distortion and the model credibility achieve.
45

Computergestützte Entwurfsmethoden auf gekrümmten Oberflächen

Kühnert, Tom 27 August 2015 (has links) (PDF)
Im Fokus dieser Arbeit steht die Entwicklung und Realisierung einer Nutzerschnittstelle für die computergestützte Bearbeitung von Oberflächen dreidimensionaler Designobjekte, die durch herkömmliche CAD-Systeme nur unzureichend unterstützt werden können. Es werden Methoden und Algorithmen erarbeitet, um die Interaktion des Benutzers direkt auf Basis der für das Design relevanten 3D Objektoberflächen zu ermöglichen. Den Ausgangspunkt bildet das Proxy-Konzept des Forschungsfeldes zur Mensch-Maschine-Interaktion, in welchem physische Stellvertreterobjekte zur Manipulation virtueller Objekte genutzt werden. Im ersten Teil der Arbeit wird dieses Konzept um eine auf die Oberfläche des bearbeiteten Objektes bezogene Interaktion und Designfunktionalität erweitert. Dazu wird das Konzept eines CAD-Proxys entwickelt und verschiedene Umsetzungen und Anwendungen erläutert. Dabei werden die CAD-Proxys in drei Typen unterschieden. Der exakte CAD-Proxy ermöglicht es, ein virtuelles Objekt mit einem formgleichen, physischen Gegenstück zu bearbeiten. Beim abstrakten CAD-Proxy wird gezeigt, wie auch ein anders geformtes Gegenstück zum Einsatz kommen kann. Der augmentierte CAD-Proxy erlaubt die Anzeige des Designs direkt auf dem physischen Gegenstück. Nutzerstudien belegen, dass die CAD-Proxys zur Erstellung eines Designs auf einer Oberfläche deutlich besser geeignet sind als eine klassische Nutzerschnittstelle. Dies gilt insbesondere für anspruchsvolle Designaufgaben, etwa im künstlerischen Design. Im zweiten Teil der Arbeit wird die Verarbeitung von Linienzügen im Gestaltungsprozess eingeführt, welche das Konzept der aktiven Konturen auf Oberflächen erweitern. Diese Linienzüge werden auf die Form der Oberfläche bezogen verarbeitet und beachten gleichzeitig wichtige Merkmale, wie bspw. die Kanten des Objektes. Es wird ein neues Verfahren vorgestellt, mit dem aktive Konturen auch auf schlecht vernetzten Oberflächen eingesetzt werden können und gleichzeitig Formen flexibler repräsentieren können als bisherige Ansätze. Für den Bezug der Designlinien zur Oberfläche wird eine neue Datenstruktur eingeführt, die ein geometrisches Nachbarschaftsproblem löst. Es wird gezeigt, dass diese Struktur auf den getesteten Objekten mindestens um Faktor 14 schneller ist als alternative Ansätze und auch direkt auf andere Problemstellungen anwendbar ist. Der dritte Teil enthält die Betrachtungen zum Formverständnis der Designobjekte, welche für die Designlinien und die Modellierung der Designobjekte benötigt werden. Dabei kommt die Krümmungsberechnung als etabliertes Werkzeug derartiger Analysen zum Einsatz. Hier wird eine neue Betrachtung erarbeitet, die den Einfluss unterschiedlicher Faktoren auf die Genauigkeit der Krümmungsschätzung und auf die Eignung verschiedener Schätzungsverfahren erstmals umfassend untersucht. Durch die Kombination existierender Verfahren kann das Verfahren der Shape Operator Approximation entwickelt werden, welches Eigenschaften wie Schätzungsgenauigkeit, Performanz und eine einfache Formulierung bekannter Verfahren vereint.
46

Real-time Detection And Tracking Of Human Eyes In Video Sequences

Savas, Zafer 01 September 2005 (has links) (PDF)
Robust, non-intrusive human eye detection problem has been a fundamental and challenging problem for computer vision area. Not only it is a problem of its own, it can be used to ease the problem of finding the locations of other facial features for recognition tasks and human-computer interaction purposes as well. Many previous works have the capability of determining the locations of the human eyes but the main task in this thesis is not only a vision system with eye detection capability / Our aim is to design a real-time, robust, scale-invariant eye tracker system with human eye movement indication property using the movements of eye pupil. Our eye tracker algorithm is implemented using the Continuously Adaptive Mean Shift (CAMSHIFT) algorithm proposed by Bradski and the EigenFace method proposed by Turk &amp / Pentland. Previous works for scale invariant object detection using Eigenface method are mostly dependent on limited number of user predefined scales which causes speed problems / so in order to avoid this problem an adaptive eigenface method using the information extracted from CAMSHIFT algorithm is implemented to have a fast and scale invariant eye tracking. First of all / human face in the input image captured by the camera is detected using the CAMSHIFT algorithm which tracks the outline of an irregular shaped object that may change size and shape during the tracking process based on the color of the object. Face area is passed through a number of preprocessing steps such as color space conversion and thresholding to obtain better results during the eye search process. After these preprocessing steps, search areas for left and right eyes are determined using the geometrical properties of the human face and in order to locate each eye indivually the training images are resized by the width information supplied by the CAMSHIFT algortihm. Search regions for left and right eyes are individually passed to the eye detection algortihm to determine the exact locations of each eye. After the detection of eyes, eye areas are individually passed to the pupil detection and eye area detection algorithms which are based on the Active Contours method to indicate the pupil and eye area. Finally, by comparing the geometrical locations of pupil with the eye area, human gaze information is extracted. As a result of this thesis a software named &ldquo / TrackEye&rdquo / with an user interface having indicators for the location of eye areas and pupils, various output screens for human computer interaction and controls for allowing to test the effects of color space conversions and thresholding types during object tracking has been built.
47

Algorithmen zur automatisierten Dokumentation und Klassifikation archäologischer Gefäße

Hörr, Christian 30 September 2011 (has links) (PDF)
Gegenstand der vorliegenden Dissertation ist die Entwicklung von Algorithmen und Methoden mit dem Ziel, Archäologen bei der täglichen wissenschaftlichen Arbeit zu unterstützen. Im Teil I werden Ideen präsentiert, mit denen sich die extrem zeitintensive und stellenweise stupide Funddokumentation beschleunigen lässt. Es wird argumentiert, dass das dreidimensionale Erfassen der Fundobjekte mittels Laser- oder Streifenlichtscannern trotz hoher Anschaffungskosten wirtschaftlich und vor allem qualitativ attraktiv ist. Mithilfe von nicht fotorealistischen Visualisierungstechniken können dann wieder aussagekräftige, aber dennoch objektive Bilder generiert werden. Außerdem ist speziell für Gefäße eine vollautomatische und umfassende Merkmalserhebung möglich. Im II. Teil gehen wir auf das Problem der automatisierten Gefäßklassifikation ein. Nach einer theoretischen Betrachtung des Typbegriffs in der Archäologie präsentieren wir eine Methodologie, in der Verfahren sowohl aus dem Bereich des unüberwachten als auch des überwachten Lernens zum Einsatz kommen. Besonders die letzteren haben sich dabei als überaus praktikabel erwiesen, um einerseits unbekanntes Material einer bestehenden Typologie zuzuordnen, andererseits aber auch die Struktur der Typologie selbst kritisch zu hinterfragen. Sämtliche Untersuchungen haben wir beispielhaft an den bronzezeitlichen Gräberfeldern von Kötitz, Altlommatzsch (beide Lkr. Meißen), Niederkaina (Lkr. Bautzen) und Tornow (Lkr. Oberspreewald-Lausitz) durchgeführt und waren schließlich sogar in der Lage, archäologisch relevante Zusammenhänge zwischen diesen Fundkomplexen herzustellen. / The topic of the dissertation at hand is the development of algorithms and methods aiming at supporting the daily scientific work of archaeologists. Part I covers ideas for accelerating the extremely time-consuming and often tedious documentation of finds. It is argued that digitizing the objects with 3D laser or structured light scanners is economically reasonable and above all of high quality, even though those systems are still quite expensive. Using advanced non-photorealistic visualization techniques, meaningful but at the same time objective pictures can be generated from the virtual models. Moreover, specifically for vessels a fully-automatic and comprehensive feature extraction is possible. In Part II, we deal with the problem of automated vessel classification. After a theoretical consideration of the type concept in archaeology we present a methodology, which employs approaches from the fields of both unsupervised and supervised machine learning. Particularly the latter have proven to be very valuable in order to assign unknown entities to an already existing typology, but also to challenge the typology structure itself. All the analyses have been exemplified by the Bronze Age cemeteries of Kötitz, Altlommatzsch (both district of Meißen), Niederkaina (district of Bautzen), and Tornow (district Oberspreewald-Lausitz). Finally, we were even able to discover archaeologically relevant relationships between these sites.
48

Segmentation et interprétation d'images naturelles pour l'identification de feuilles d'arbres sur smartphone / Segmentation and interpretation of natural images for tree leaf identification on smartphones

Cerutti, Guillaume 21 November 2013 (has links)
Les espèces végétales, et en particulier les espèces d'arbres, forment un cadre de choix pour un processus de reconnaissance automatique basé sur l'analyse d'images. Les critères permettant de les identifier sont en effet le plus souvent des éléments morphologiques visuels, bien décrits et référencés par la botanique, qui laissent à penser qu'une reconnaissance par la forme est envisageable. Les feuilles constituent dans ce contexte les organes végétaux discriminants les plus faciles à appréhender, et sont de ce fait les plus communément employés pour ce problème qui connaît actuellement un véritable engouement. L'identification automatique pose toutefois un certain nombre de problèmes complexes, que ce soit dans le traitement des images ou dans la difficulté même de la classification en espèces, qui en font une application de pointe en reconnaissance de formes.Cette thèse place le problème de l'identification des espèces d'arbres à partir d'images de leurs feuilles dans le contexte d'une application pour smartphones destinée au grand public. Les images sur lesquelles nous travaillons sont donc potentiellement complexes et leur acquisition peu supervisée. Nous proposons alors des méthodes d'analyse d'images dédiées, permettant la segmentation et l'interprétation des feuilles d'arbres, en se basant sur une modélisation originale de leurs formes, et sur des approches basées modèles déformables. L'introduction de connaissances a priori sur la forme des objets améliore ainsi de façon significative la qualité et la robustesse de l'information extraite de l'image. Le traitement se déroulant sur l'appareil, nous avons développé ces algorithmes en prenant en compte les contraintes matérielles liées à leur utilisation.Nous introduisons également une description spécifique des formes des feuilles, inspirée par les caractéristiques déterminantes recensées dans les ouvrages botaniques. Ces différents descripteurs fournissent des informations de haut niveau qui sont fusionnées en fin de processus pour identifier les espèces, tout en permettant une interprétation sémantique intéressante dans le cadre de l'interaction avec un utilisateur néophyte. Les performances obtenues en termes de classification, sur près de 100 espèces d'arbres, se situent par ailleurs au niveau de l'état de l'art dans le domaine, et démontrent une robustesse particulière sur les images prises en environnement naturel. Enfin, nous avons intégré l'implémentation de notre système de reconnaissance dans l'application Folia pour iPhone, qui constitue une validation de nos approches et méthodes dans un cadre réel. / Plant species, and especially tree species, constitute a well adapted target for an automatic recognition process based on image analysis. The criteria that make their identification possible are indeed often morphological visual elements, which are well described and referenced by botany. This leads to think that a recognition through shape is worth considering. Leaves stand out in this context as the most accessible discriminative plant organs, and are subsequently the most often used for this problem recently receiving a particular attention. Automatic identification however gives rise to a fair amount of complex problems, linked with the processing of images, or in the difficult nature of the species classification itself, which make it an advanced application for pattern recognition.This thesis considers the problem of tree species identification from leaf images within the framework of a smartphone application intended for a non-specialist audience. The images on which we expect to work are then potentially very complex scenes and their acquisition rather unsupervised. We consequently propose dedicated methods for image analysis, in order to segment and interpret tree leaves, using an original shape modelling and deformable templates. The introduction on prior knowledge on the shape of objects enhances significatively the quality and the robustness of the information we extract from the image. All processing being carried out on the mobile device, we developed those algorithms with concern towards the material constraints of their exploitation. We also introduce a very specific description of leaf shapes, inspired by the determining characteristics listed in botanical references. These different descriptors constitute independent sources of high-level information that are fused at the end of the process to identify species, while providing the user with a possible semantic interpretation. The classification performance demonstrated over approximately 100 tree species are competitive with state-of-the-art methods of the domain, and show a particular robustness to difficult natural background images. Finally, we integrated the implementation of our recognition system into the \textbf{Folia} application for iPhone, which constitutes a validation of our approaches and methods in a real-world use.
49

Estimation des déformations myocardiques par analyse d'images / Myocardial deformation assessment by image processing

Chenoune, Yasmina 27 March 2008 (has links)
Les travaux présentés dans cette thèse s'inscrivent dans le contexte du traitement des images cardiaques et l'étude de la fonction contractile du coeur, pour une meilleure compréhension de physiopathologie cardiaque et l'aide au diagnostic. Nous avons implémenté une méthode de segmentation des parois endocardiques sur des ciné-IRM non marquées. Nous avons utilisé une approche fondée sur les ensembles de niveaux, avec une formulation basée-région qui donne des résultats satisfaisants sur des cas sains et pathologiques. Nous avons proposé une méthode pratique pour la quantification des déformations segmentaires afin decaractériser la contractilité myocardique. La méthode a fait l'objet d'une validation clinique par l'expertise de médecins et par comparaison à la méthode HARP sur des IRM marquées. Pour améliorer la précision des mesures, nous avons proposé un algorithme de recalage iconique multimodal IRM/TDM, utilisant la maximisation de l'information culturelle. Nous l'avons appliqué à la localisation de coupes petit-axe dans des volumes TDM avec des résultats encourageants. Ce travail a pour perspective son application à l'obtention de séquences TDM de hautes résolutions spatiale et temporelle / The work presented in this thesis is related to the cardiac images processing and the cardiac contractile function study, for a better comprehension of cardiac physiopathology and diagnosis. We implemented a method for the segmentation of the endocardial walls on standard MRI without tags. We used an approach based on the level set method, with a region-based formulation which gives satisfactory results on healthy and pathological cases. We proposed a practical method for the quantification of the segmental deformations in order to characterize the myocardial contractility. The method was clinically validated by the assesment of doctors and by comparison with the HARP method on tagget MRI. To improve the measurements precision, we proposed an iconic MRI/CT multimodal registration algorithm, using the maximization of the mutual information. We applied it to the localization of short-axis slices in CT volumes with good results. This work has as prospect its application to obtain high spatial and temporal resolutions CT sequences
50

Segmentation d'image échographique par minimisation de la complexité stochastique en vue du diagnostic sénologique.

Jaegler, Arnaud 18 January 2011 (has links)
L'objectif de cette thèse est de proposer et d'étudier une méthode de segmentation qui soit adaptée à l'imagerie échographique ultrasonore (US) et qui tienne compte de certaines contraintes rencontrées en milieu clinique. De ce fait, cette méthode se doit d'être robuste au bruit de speckle et à l'atténuation des ondes US dans le milieu, mais aussi rapide et ne nécessiter que peu, voire aucun paramètre à régler par l'opérateur. Dans ce cadre, les solutions fondées sur des contours actifs fondés sur la Minimisation de la Complexité Stochastique ont été étudiées. L'impact de différentes modélisations du speckle sur les résultats de ces techniques de segmentation a été caractérisé. Il a été montré qu'il est important de prendre en compte les variations de l'intensité moyenne du speckle induites par l'atténuation dans chaque région de l'image, à la fois pour la segmentation et pour l'analyse des propriétés du speckle. De plus, une stratégie hiérarchique de segmentation a été développée. Celle-ci permet notamment d'accroître la qualité des segmentations et de diminuer les temps de calcul.Les algorithmes de segmentation considérés étaient initialement conçus pour des formes polygonales peu adaptées à celles rencontrées dans le cadre d'applications médicales. Nous avons donc développé un nouveau modèle de contour fondé sur la théorie de l'information qui permet toujours une mise en oeuvre rapide des algorithmes et ne dépend d'aucun paramètre à régler par l'utilisateur. Testé sur des images synthétiques et réelles de fantômes échographiques, ce nouveau modèle permet de mieux décrire les formes régulières et arrondies des objets rencontrés en imagerie échographique. / The purpose of this PhD thesis is to propose and study a segmentation method adapted to echographic ultrasound imaging that could be clinically operational (i.e. fast and parameter-free) and robust to both the speckle noise and the attenuation of the ultrasonic signal in the medium. The solutions we studied rely on statistical active contour methods that are based on the Minimization of the Stochastic Complexity (MSC). The impact on the segmentation results of several speckle noise models that still lead to fast segmentation algorithms has been characterized. A key feature of these models, that appears to be crucial for both the segmentation and the speckle characterization, is the ability to take into account the spatial variation of the average intensity induced by the attenuation of the signal in the medium. In addition, we proposed a hierarchical optimization strategy that improves segmentation results and decreases the computation time.Finally, a novel contour model that is adapted to smooth boundaries that are met in medical imaging is also proposed for the considered MSC segmentation algorithms. The construction of this contour model relies on Information Theory concepts. It still allows one to get low computation times and does not contain any tuning parameter. Evaluations performed on synthetic images and real echographic phantom images indicate that this contour model provides better segmentation results for smooth inclusions that usually compose the echographic images.

Page generated in 0.4626 seconds