• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1475
  • 473
  • 437
  • 372
  • 104
  • 74
  • 68
  • 34
  • 33
  • 32
  • 28
  • 26
  • 21
  • 18
  • 10
  • Tagged with
  • 3658
  • 1091
  • 748
  • 488
  • 458
  • 440
  • 418
  • 390
  • 389
  • 348
  • 344
  • 327
  • 319
  • 317
  • 315
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Convex optimization for cosegmentation / Optimisation convexe pour la cosegmentation

Joulin, Armand 17 December 2012 (has links)
La simplicité apparente avec laquelle un humain perçoit ce qui l'entoure suggère que le processus impliqué est en partie mécanique, donc ne nécessite pas un haut degré de réflexion. Cette observation suggère que notre perception visuelle du monde peut être simulée sur un ordinateur. La vision par ordinateur est le domaine de recherche consacré au problème de la création d'une forme de perception visuelle pour des ordinateurs. La puissance de calcul des ordinateurs des années 50 ne permettait pas de traiter et d'analyser les données visuelles nécessaires à l'élaboration d'une perception visuelle virtuelle. Depuis peu, la puissance de calcul et la capacité de stockage ont permis à ce domaine de vraiment émerger. En deux décennies, la vision par ordinateur a permis de répondre à problèmes pratiques ou industrielles comme la détection des visages, de personnes au comportement suspect dans une foule ou de défauts de fabrication dans des chaînes de production. En revanche, en ce qui concerne l'émergence d'une perception visuelle virtuelle non spécifique à une tâche donnée, peu de progrès ont été réalisés et la communauté est toujours confrontée à des problèmes fondamentaux. Un de ces problèmes est de segmenter un stimuli optique ou une image en régions porteuses de sens, en objets ou actions. La segmentation de scène est naturelle pour les humains, mais aussi essentielle pour comprendre pleinement son environnement. Malheureusement elle est aussi extrêmement difficile à reproduire sur un ordinateur car il n'existe pas de définition claire de la région "significative''. En effet, en fonction de la scène ou de la situation, une région peut avoir des interprétations différentes. Etant donnée une scène se passant dans la rue, on peut considérer que distinguer un piéton est important dans cette situation, par contre ses vêtements ne le semblent pas nécessairement. Si maintenant nous considérons une scène ayant lieu pendant un défilé de mode, un vêtement devient un élément important, donc une région significative. Ici, nous nous concentrons sur ce problème de segmentation et nous l'abordons sous un angle particulier pour éviter cette difficulté fondamentale. Nous considérerons la segmentation comme un problème d'apprentissage faiblement supervisé, c'est-à-dire qu'au lieu de segmenter des images selon une certaine définition prédéfinie de régions "significatives'', nous développons des méthodes permettant de segmenter simultanément un ensemble d'images en régions qui apparaissent régulièrement. Nous définissons donc une région "significative'' d'un point de vue statistique: Ce sont les régions qui apparaissent régulièrement dans l'ensemble des images données. Pour cela nous concevons des modèles ayant une portée qui va au-delà de l'application à la vision. Notre approche prend ses racines dans l'apprentissage statistique, dont l'objectif est de concevoir des méthodes efficaces pour extraire et/ou apprendre des motifs récurrents dans des jeux de données. Ce domaine a récemment connu une forte popularité en raison de l'augmentation du nombre et de la taille des bases de données disponibles. Nous nous concentrons ici sur des méthodes conçues pour découvrir l'information "cachée'' dans une base à partir d'annotations incomplètes ou inexistantes. Enfin, nos travaux prennent racine dans le domaine de l'optimisation numérique afin d'élaborer des algorithmes efficaces et adaptés à nos problèmes. En particulier, nous utilisons et adaptons des outils récemment développés afin de relaxer des problèmes combinatoires complexes en des problèmes convexes pour lesquels il est garanti de trouver la solution optimale. Nous illustrons la qualité de nos formulations et algorithmes aussi sur des problèmes tirés de domaines autres que la vision par ordinateur. En particulier, nous montrons que nos travaux peuvent être utilisés dans la classification de texte et en biologie cellulaire. / People and most animals have a natural ability to see the world and understand it effortlessly. The apparent simplicity of this task suggests that this ability is, to some extend, mechanical, i.e., does not require high level thinking or profound reasoning. This observation suggests that this visual perception of the world should be reproducible on a mechanical device such as a computer. Computer vision is the field of research dedicated to creating a form of visual perception on computers. The first work on computer vision dates from the 50's but the amount of power needed for treating and analyzing visual data was not available at this time. It is only recently that improvements in computer power and storage capacities, have permitted this field to really emerge. On the one hand, constant progress in computer vision has allowed to develop dedicated solutions to practical or industrial problems. Detecting human faces, tracking people in crowded areas or default in production chains are industrial applications where computer vision is used. On the other hand, when it comes to creating a general visual perception for computers, it is probably fair to say that less progress has been made, and the community is still struggling with fundamental problems. One of these problems is to reproduce our ability of grouping into meaningful regions, the visual input data recorded by an optical device. This procedure, called segmentation, separates a scene into meaningful entities (e.g., objects or actions). Segmentation seems not only natural but essential for people to fully understand a given scene, but it is still very challenging for a computer. One reason is the difficulty of clearly identify what ``meaningful'' should be, i.e., depending on the scene or the situation, a region may have different interpretations. In this thesis, we will focus on the segmentation task and will try to avoid this fundamental difficulty by considering segmentation as a weakly supervised learning problem. Instead of segmenting images according to some predefined definition of ``meaningful'' regions, we develop methods to segment multiple images jointly into entities that repeatedly appear across the set of images. In other words, we define ``meaningful'' regions from a statistical point of view: they are regions that appears frequently in a dataset, and we design procedures to discover them. This leads us to design models whose a scope goes beyond this application to vision. Our approach takes its roots in the field of machine learning, whose goal is to design efficient methods to retrieve and/or learn common patterns in data. The field of machine learning has also gained in popularity in the last decades due to the recent improvement in computer power and the ever growing size of databases now available. In this thesis, we focus on methods tailored to retrieving hidden information from poorly annotated data, i.e., with incomplete or partial annotations. In particular, given a specific segmentation task defined by a set of images, we aim at segmenting the images and learn a related model as to segment unannotated images. Finally, our research drives us to explore the field of numerical optimization so as to design algorithms especially tailored for our problems. In particular, many numerical problems considered in this thesis cannot be solved by off-the-shelf software because of the complexity of their formulation. We use and adapt recently developed tools to approximate problems by solvable ones. We illustrate the promise of our formulations and algorithms on other general applications in different fields beside computer vision. In particular, we show that our work may also be used in text classification and discovery of cell configurations.
282

Segmentace trhu pleťové kosmetiky / Segmentation of the facial care market

Fialová, Zdeňka January 2010 (has links)
The main goal of the Master's Thesis is to discover significant differences in consumers' behaviour. Based on these differences it determinates and describes the segmenents of consumers. An important goal is to design marketing strategies for these segments as well. The theoretical part of the thesis includes the explanation of the segmentation process. The analytical part covers the characteristics of the Czech facial care market and the analysis of the Market&Media&Lifestyle data. The practical part of the thesis focuses on the process of segmentation using questionares and the IBM SPSS Statistics programme. The output of the thesis reveals three segments of the market and suggests relevant marketing strategies for them.
283

Filtrage, segmentation et suivi d'images échographiques : applications cliniques / Filtering, Segmentation and ultrasound images tracking. : clinical applications.

Dahdouh, Sonia 23 September 2011 (has links)
La réalisation des néphrolithotomies percutanées est essentiellement conditionnée par la qualité dela ponction calicièle préalable. En effet, en cas d’échec de celle-ci, l’intervention ne peut avoir lieu.Réalisée le plus souvent sous échographie, sa qualité est fortement conditionnée par celle du retouréchographique, considéré comme essentiel par la deuxième consultation internationale sur la lithiase pour limiter les saignements consécutifs à l’intervention.L’imagerie échographique est largement plébiscitée en raison de son faible coût, de l’innocuité del’examen, liée à son caractère non invasif, de sa portabilité ainsi que de son excellente résolutiontemporelle ; elle possède toutefois une très faible résolution spatiale et souffre de nombreux artefacts tels que la mauvaise résolution des images, un fort bruit apparent et une forte dépendance àl’opérateur.L’objectif de cette thèse est de concevoir une méthode de filtrage des données échographiques ainsiqu’une méthode de segmentation et de suivi du rein sur des séquences ultrasonores, dans le butd’améliorer les conditions d’exécution d’interventions chirurgicales telles que les néphrolithotomiespercutanées.Le filtrage des données, soumis et publié dans SPIE 2010, est réalisé en exploitant le mode deformation des images : le signal radiofréquence est filtré directement, avant même la formation del’image 2D finale. Pour ce faire, nous utilisons une méthode basée sur les ondelettes, en seuillantdirectement les coefficients d’ondelettes aux différentes échelles à partir d’un algorithme de typesplit and merge appliqué avant reconstruction de l’image 2D.La méthode de suivi développée (une étude préliminaire a été publiée dans SPIE 2009), exploiteun premier contour fourni par le praticien pour déterminer, en utilisant des informations purementlocales, la position du contour sur l’image suivante de la séquence. L’image est transformée pourne plus être qu’un ensemble de vignettes caractérisées par leurs critères de texture et une premièresegmentation basée région est effectuée sur cette image des vignettes. Cette première étape effectuée, le contour de l’image précédente de la séquence est utilisé comme initialisation afin de recalculer le contour de l’image courante sur l’image des vignettes segmentée. L’utilisation d’informations locales nous a permis de développer une méthode facilement parallélisable, ce qui permettra de travailler dans une optique temps réel.La validation de la méthode de filtrage a été réalisée sur des signaux radiofréquence simulés. Laméthode a été comparée à différents algorithmes de l’état de l’art en terme de ratio signal sur bruitet de calcul de USDSAI. Les résultats ont montré la qualité de la méthode proposée comparativement aux autres. La méthode de segmentation, quant-à elle, a été validée sans filtrage préalable, sur des séquences 2D réelles pour un temps d’exécution sans optimisation, inférieur à la minute pour des images 512*512. / The achievement of percutaneous nephrolithotomies is mainly conditioned by the quality of the initial puncture. Indeed, if it is not well performed , the intervention cannot be fulfilled.In order to make it more accurate this puncture is often realized under ultrasound control. Thus the quality of the ultrasound feedback is very critical and when clear enough it greatly helps limiting bleeding.Thanks to its low cost, its non invasive nature and its excellent temporal resolution, ultrasound imaging is considered very appropriate for this purpose. However, this solution is not perfect it is characterized by a low spatial resolution and the results present artifacts due to a poor image resolution (compared to images provided by some other medical devices) and speckle noise.Finally this technic is greatly operator dependent.Aims of the work presented here are, first to design a filtering method for ultrasound data and then to develop a segmentation and tracking algorithm on kidney ultrasound sequences in order to improve the executing conditions of surgical interventions such as percutaneous nephrolithotomies.The results about data filtering was submitted and published in SPIE 2010. The method uses the way ultrasound images are formed to filter them: the radiofrequency signal is directly filtered, before the bi-dimensional reconstruction. In order to do so, a wavelet based method, thresholding directly wavelet coefficients at different scales has been developed. The method is based on a “split and merge” like algorithm.The proposed algorithm was validated on simulated signals and its results compared to the ones obtained with different state of the art algorithms. Experiments show that this new proposed approach is better.The segmentation and tracking method (of which a prospective study was published in SPIE 2009) uses a first contour given by a human expert and then determines, using only local informations, the position of the next contour on the following image of the sequence. The tracking technique was validated on real data with no previous filtering and successfully compared with state of the art methods.
284

Segmentation de l'os cortical pour la prédiction des fractures ostéoporotiques. Application à l'imagerie in vivo (HRpQCT). / Cortical bone segmentation for the prediction of osteoporotic fractures. Application in vivo (HRpQCT)

Hafri, Mohamed 23 November 2017 (has links)
Cette thèse concerne la segmentation d’images HRpQCT et l’évaluation d’indices morphologiques de l’os cortical pour le diagnostic de l’ostéoporose et la prédiction des fractures osseuses. Dans un premier temps,deux méthodes sont proposées pour la segmentation de l’os cortical. La première utilise une nouvelle approche des contours actifs basée sur la logique floue suivie d’une nouvelle technique de remplissage développée pour imiter le comportement des opérateurs pour séparer l’os cortical de l’os trabéculaire. La deuxième approche est une technique 3D à double contours actifs combinant à la fois les informations locales le long et entre les deux contours. Les deux approches de segmentation sont comparées à celles de l’état de l’art afin de valider leurs performances. Dans un second temps, différents indices extraits de l’os cortical sont utilisés pour déterminer leur potentiel de prédiction des fractures ostéoporotiques. Les résultats obtenus montent que l’analyse globale de l’os cortical masque des variations potentiellement importantes.Par conséquent, une décomposition régionale de l’enveloppe corticale est proposée afin d’améliorer la prédiction du risque fracturaire. / This thesis concerns the segmentation of HRpQCT images and the evaluation of the cortical bone parameters for the osteoporosis characterization and the fracture prediction. Firstly, two approaches were proposed to segment the cortical bone. The first uses a new fuzzy energy active contours approach followed by a new filling technique designed to mimic the behaviour of clinicians while extracting the cortical bone from the trabecularone. The second approach is a local based 3D dual active contours approach proposed to separate between three regions constituting the image. To move, this approach combines the local information along each point in the two contours conjointly with the information between them. The segmentation results of these approaches were confronted to the state of the art methods to validate their performance. Secondly,different parameters were extracted from the segmented cortical bone to monitor the association of these parameters with the osteoporotic fracture prediction. Global analysis of the cortical bone obscures potentially important regional variations. Therefore, regional cortical decomposition was proposed to illustrate that cortical sub-regions could improve the evaluation of fracture risk than the global analysis of the cortical bone.
285

Un modèle de l'évolution des gliomes diffus de bas grade sous chimiothérapie / A model of the evolution of diffuse low-grade gliomas under chemotherapy

Ben Abdallah, Mériem 12 December 2016 (has links)
Les gliomes diffus de bas grade sont des tumeurs cérébrales des jeunes adultes. Dans cette thèse, nous nous intéressons à la segmentation et à la modélisation de ces tumeurs. Dans la première partie du manuscrit, nous étudions la segmentation des gliomes diffus de bas grade à base de différentes méthodes manuelles et semi-automatiques. La délimitation de ces tumeurs peut être problématique en raison de leur caractère très infiltrant et inhomogène. En pratique clinique, le suivi des gliomes diffus de bas grade repose sur l'estimation du volume tumoral, soit par une segmentation suivie d'une reconstruction logicielle, soit par la méthode des trois diamètres. Pour la segmentation, elle est manuelle et est exécutée par des praticiens sur des IRM en pondération FLAIR ou T2. La méthode des trois diamètres est rapide mais s'avère difficile à implémenter dans le cas de gliomes diffus de bas grade très infiltrants ou en post-traitement. La solution par segmentation manuelle et reconstruction logicielle du volume est chronophage mais demeure plus précise en comparaison de la méthode des trois diamètres. Nous étudions ici la reproductibilité de la segmentation manuelle avec le logiciel OsiriX en réalisant un test subjectif dans le Living Lab PROMETEE de TELECOM Nancy. Les résultats de cette étude montrent que ni la spécialité du praticien ni le nombre d’années d’expérience ne semblent impacter significativement la qualité de la segmentation. Nous comparons par ailleurs les résultats obtenus à ceux d'un deuxième test où nous appliquons la méthode des trois diamètres. Enfin, nous explorons deux algorithmes de segmentation semi-automatique basés, respectivement, sur les contours actifs et sur la méthode des level set. Même si la segmentation automatique semble être une voie prometteuse, nous recommandons aujourd’hui l’utilisation de la segmentation manuelle du fait notamment du caractère diffus des gliomes de bas grade qui rend le contour complexe à délimiter. La seconde partie du manuscrit est consacrée à la modélisation des gliomes diffus de bas grade eux-mêmes ou, plus exactement, à la modélisation de l'évolution du diamètre tumoral en phase de chimiothérapie. La prise en charge thérapeutique des patients atteints de ces tumeurs inclut en effet souvent une chimiothérapie. Pour ce travail, nous nous intéressons à la chimiothérapie par Témozolomide en première ligne de traitement. Une fois le traitement entamé, les praticiens aimeraient déterminer l'instant optimal d'arrêt de traitement. Nous proposons une modélisation statistique du diamètre tumoral sous chimiothérapie. Cette modélisation s'appuie sur des modèles de régression linéaire et exponentielle. Elle permet de prédire le diamètre tumoral à partir d'un jeu de données d'apprentissage et d'alerter le clinicien sur l'état d'évolution du diamètre sous traitement. Nous espérons que ces modèles pourront un jour être utilisés comme un outil dans la planification de la chimiothérapie en milieu clinique. / Diffuse low-grade gliomas are brain tumors of young adults. In this thesis, we focus on the segmentation and on the modeling of these tumors. In the first part of the manuscript, we study the segmentation of diffuse low-grade gliomas based on different manual and semi-automatic methods. The delineation of these tumors can be problematic because of their very infiltrating and inhomogeneous nature. In clinical practice, the monitoring of diffuse low-grade gliomas is based on the estimation of tumor volume, obtained either through a segmentation followed by a software reconstruction or through the three diameters method. As for the segmentation, it is manual and it is performed by practitioners on FLAIR-weighted or T2-weighted MRI.The three diameters approach is fast but it is difficult to implement in the case of highly infiltrating diffuse low grade gliomas or after a treatment. The manual segmentation and software-based volume reconstruction solution is time-consuming but it remains more accurate in comparison with the three diameters method. We investigate in this work the reproducibility of the manual segmentation with the OsiriX software by performing a subjective test in the Living Lab PROMETEE in TELECOM Nancy. The results of this study show that neither the practitioners' specialty nor their number of years of experience seem to have a significant impact on the quality of the segmentation. We also compare the results to those of a second test where we apply the three diameters method. Finally, we explore two semi-automatic segmentation algorithms which are, respectively, based on active contours and on the level set method. Even if automatic segmentation seems to be a promising avenue, we recommend for now the use of manual segmentation because of the diffuse nature of low-grade gliomas, which makes the tumor's contours complex to delineate. The second part of the manuscript is dedicated to the modeling of diffuse low-grade gliomas themselves or, to be more precise, to the modeling of the evolution of the tumor's diameter during chemotherapy. The therapeutic management of patients with these tumors often includes indeed chemotherapy. For this work, we focus on Temozolomide chemotherapy in first-line treatment. After the beginning of the treatment, the practitioners would like to determine the optimum time of discontinuation. We propose a statistical modeling of tumor diameter under chemotherapy. This modeling is based on linear and exponential regression models. It can predict the tumor diameter from a set of training dataset and can alert the clinician on the state of change in diameter under treatment. We hope that these models will, eventually, be used as a tool in the planning of chemotherapy in a clinical environment.
286

Avaliação da reprodutibilidade intra e interobservador da segmentação manual de sarcomas ósseos em imagens de ressonância magnética / Evaluation of intra- and inter-observer manual segmentation reproducibility in magnetic images of bone sarcomas

Dionísio, Fernando Carrasco Ferreira 29 May 2017 (has links)
Os sarcomas ósseos representam uma proporção significativa de tumores na faixa etária pediátrica, ainda apresentando um quadro desafiador devido a sua significativa taxa de morbimortalidade. Pesquisas para o desenvolvimento de novas modalidades terapêuticas e para o desenvolvimento de métodos que identifiquem características da doença que possam permitir melhor estratificação dos pacientes através de dados clinicamente relevantes para individualizar as condutas clínicas são necessárias. Dentro deste contexto surge o conceito de radiômica, que visa extrair dados clinicamente relevantes a partir de imagens médicas. Entretanto, para colocar a radiômica em prática, é necessário selecionar, nas imagens médicas, as áreas de interesse referentes às patologias estudadas, e este processo se denomina segmentação. O objetivo primário deste estudo foi avaliar a reprodutibilidade intra e inter-observador da segmentação manual de sarcomas ósseos em imagens de ressonância magnética (RM). Como objetivo secundário, foi avaliada a capacidade da segmentação semiautomática em reduzir o tempo necessário para segmentação, mantendo similaridade com a segmentação manual. O estudo foi realizado de forma retrospectiva com inclusão de pacientes com diagnóstico de osteossarcoma ou sarcoma de Ewing confirmado por estudo histopatológico e que tivessem imagens de RM realizadas no Hospital Universitário de nossa Instituição realizadas previamente a qualquer intervenção terapêutica. Três médicos radiologistas, de forma independente e às cegas em relação as demais segmentações e em relação ao resultado histopatológico, realizaram a segmentação manual dos contornos destes tumores utilizando o software 3DSlicer, permitindo que fosse realizada avaliação da reprodutibilidade interobservador. Um dos radiologistas realizou uma segunda segmentação manual dos mesmos casos, possibilitando a avaliação da reprodutibilidade intraobservador, e, ainda, uma terceira segmentação foi realizada, utilizando metodologia semiautomática, disponível no software mencionado. Para a análise estatística, foi utilizado o coeficiente de similaridade de Dice (DICE), a distância Hausdorff (DH), comparações de volumes e análises dos intervalos de tempo necessários para realização das segmentações. Os parâmetros avaliados demonstraram haver boa reprodutibilidade intraobservador, com DICE variando entre 0,83 a 0,97; e distância Hausdorff variando entre 3,37 a 28,73 mm. Também foi demonstrada boa reprodutibilidade interobservador com DICE variando entre 0,73 a 0,97; e distância Hausdorff variando entre 3,93 a 33,40 mm. A segmentação semiautomática demonstrou boa similaridade em relação à segmentação manual (DICE variando entre 0,71 a 0,96 e DH variando entre 5,38 a 31,54 mm), havendo redução significativa do tempo necessário para segmentação. Entre todas as situações comparadas, os volumes não apresentaram diferenças estatisticamente significativas (p-valor>0,05). / Bone sarcomas represent a significant proportion of tumors in the pediatric age group and they still are a challenge due to their significant morbidity and mortality rates. Reseaches are important for the development of new therapeutic modalities and for the development of methods that identify features that allow better stratification of the patients with theses diseases for individualization of their treatments. In this context emerges the concept of radiomics, which is the process of extraction of clinically relevant data from medical images. It is important to segment the areas of interest im medical images for the pratice of this process. The primary objective of this study was to evaluate the intra- and interobserver reproducibility of manual segmentation of bone sarcomas on magnetic resonance imaging (MRI). As a secondary objective, it was evaluated if the semiautomatic segmentation could be similar to manual segmentation and if the semiautomatic method could reduce the time required for segmentation. The study was performed retrospectively with the inclusion of patients with osteosarcoma or Ewing sarcoma confirmed by histopathological study and who had MRI performed at the University Hospital of our Institution prior to any therapeutic intervention. Three radiologists, independently and blindly in relation to the other segmentations and in relation to the histopathological results, performed the manual segmentation of the contours of these tumors using 3DSlicer software, allowing an interobserver reproducibility evaluation. One of the radiologists performed a second manual segmentation of the same cases, allowing the evaluation of intraobserver reproducibility. A third segmentation was performed, using semi-automatic methodology, available in the mentioned software. For the statistical analysis, Dice similarity coefficient (DICE), Hausdorff distance (DH), comparisons between volumes and time intervals for segmentations were used. The parameters evaluated demonstrated a good intraobserver reproducibility, with DICE ranging from 0.83 to 0.97 and Hausdorff distance ranging from 3.37 to 28.73 mm. Good interobserver reproducibility was also demonstrated with DICE ranging from 0.73 to 0.97 and Hausdorff distance ranging from 3.93 to 33.40 mm. Semiautomatic segmentation demonstrated good similarity to manual segmentation (DICE ranging from 0.71 to 0.96 and HD ranging from 5.38 to 31.54mm), and there was significant reduction in the time required for segmentation. Among all the situations compared, the volumes did not present significant statistical differences (p-value> 0.05).
287

A market segmentation study on electronic calculators as a household product in Hong Kong.

January 1976 (has links)
Kwan Wing Hon. / Thesis (M.B.A.)--Chinese University of Hong Kong. / Bibliography: leaves 128-129.
288

Graph based approaches for image segmentation and object tracking / Méthodes de graphe pour la segmentation d'images et le suivi d'objets dynamiques

Wang, Xiaofang 27 March 2015 (has links)
Cette thèse est proposée en deux parties. Une première partie se concentre sur la segmentation d’image. C’est en effet un problème fondamental pour la vision par ordinateur. En particulier, la segmentation non supervisée d’images est un élément important dans de nombreux algorithmes de haut niveau et de systèmes d’application. Dans cette thèse, nous proposons trois méthodes qui utilisent la segmentation d’images se basant sur différentes méthodes de graphes qui se révèlent être des outils puissants permettant de résoudre ces problèmes. Nous proposons dans un premier temps de développer une nouvelle méthode originale de construction de graphe. Nous analysons également différentes méthodes similaires ainsi que l’influence de l’utilisation de divers descripteurs. Le type de graphe proposé, appelé graphe local/global, encode de manière adaptative les informations sur la structure locale et globale de l’image. De plus, nous réalisons un groupement global en utilisant une représentation parcimonieuse des caractéristiques des superpixels sur le dictionnaire de toutes les caractéristiques en résolvant un problème de minimisation l0. De nombreuses expériences sont menées par la suite sur la base de données <Berkeley Segmentation>, et la méthode proposée est comparée avec des algorithmes classiques de segmentation. Les résultats démontrent que notre méthode peut générer des partitions visuellement significatives, mais aussi que des résultats quantitatifs très compétitifs sont obtenus en comparaison des algorithmes usuels. Dans un deuxième temps, nous proposons de travailler sur une méthode reposant sur un graphe d’affinité discriminant, qui joue un rôle essentiel dans la segmentation d’image. Un nouveau descripteur, appelé patch pondéré par couleur, est développé pour calculer le poids des arcs du graphe d’affinité. Cette nouvelle fonctionnalité est en mesure d’intégrer simultanément l’information sur la couleur et le voisinage en représentant les pixels avec des patchs de couleur. De plus, nous affectons à chaque pixel une pondération à la fois local et globale de manière adaptative afin d’atténuer l’effet trop lisse lié à l’utilisation de patchs. Des expériences approfondies montrent que notre méthode est compétitive par rapport aux autres méthodes standards à partir de plusieurs paramètres d’évaluation. Finalement, nous proposons une méthode qui combine superpixels, représentation parcimonieuse, et une nouvelle caractéristisation de mi-niveau pour décrire les superpixels. Le nouvelle caractérisation de mi-niveau contient non seulement les mêmes informations que les caractéristiques initiales de bas niveau, mais contient également des informations contextuelles supplémentaires. Nous validons la caractéristisation de mi-niveau proposée sur l’ensemble de données MSRC et les résultats de segmentation montrent des améliorations à la fois qualitatives et quantitatives par rapport aux autres méthodes standards. Une deuxième partie se concentre sur le suivi d’objets multiples. C’est un domaine de recherche très actif, qui est d’une importance majeure pour un grand nombre d’applications, par exemple la vidéo-surveillance de piétons ou de véhicules pour des raisons de sécurité ou l’identification de motifs de mouvements animaliers. / Image segmentation is a fundamental problem in computer vision. In particular, unsupervised image segmentation is an important component in many high-level algorithms and practical vision systems. In this dissertation, we propose three methods that approach image segmentation from different angles of graph based methods and are proved powerful to address these problems. Our first method develops an original graph construction method. We also analyze different types of graph construction method as well as the influence of various feature descriptors. The proposed graph, called a local/global graph, encodes adaptively the local and global image structure information. In addition, we realize global grouping using a sparse representation of superpixels’ features over the dictionary of all features by solving a l0-minimization problem. Extensive experiments are conducted on the Berkeley Segmentation Database, and the proposed method is compared with classical benchmark algorithms. The results demonstrate that our method can generate visually meaningful partitions, but also that very competitive quantitative results are achieved compared with state-of-the-art algorithms. Our second method derives a discriminative affinity graph that plays an essential role in graph-based image segmentation. A new feature descriptor, called weighted color patch, is developed to compute the weight of edges in an affinity graph. This new feature is able to incorporate both color and neighborhood information by representing pixels with color patches. Furthermore, we assign both local and global weights adaptively for each pixel in a patch in order to alleviate the over-smooth effect of using patches. The extensive experiments show that our method is competitive compared to the other standard methods with multiple evaluation metrics. The third approach combines superpixels, sparse representation, and a new midlevel feature to describe superpixels. The new mid-level feature not only carries the same information as the initial low-level features, but also carries additional contextual cue. We validate the proposed mid-level feature framework on the MSRC dataset, and the segmented results show improvements from both qualitative and quantitative viewpoints compared with other state-of-the-art methods. Multi-target tracking is an intensively studied area of research and is valuable for a large amount of applications, e.g. video surveillance of pedestrians or vehicles motions for sake of security, or identification of the motion pattern of animals or biological/synthetic particles to infer information about the underlying mechanisms. We propose a detect-then-track framework to track massive colloids’ motion paths in active suspension system. First, a region based level set method is adopted to segment all colloids from long-term videos subject to intensity inhomogeneity. Moreover, the circular Hough transform further refines the segmentation to obtain colloid individually. Second, we propose to recover all colloids’ trajectories simultaneously, which is a global optimal problem that can be solved efficiently with optimal algorithms based on min-cost/max flow. We evaluate the proposed framework on a real benchmark with annotations on 9 different videos. Extensive experiments show that the proposed framework outperforms standard methods with large margin.
289

Contributions au clustering collaboratif et à ses potentielles applications en imagerie à très haute résolution / Contributions to collaborative clustering and its potential applications on very high resolution satellite images

Sublime, Jérémie 09 November 2016 (has links)
Cette thèse présente plusieurs algorithmes développés dans le cadre du projet ANR COCLICO et contient deux axes principaux :Le premier axe concerne l'introduction d'un algorithme applicable aux images satellite à très haute résolution, qui est basé sur les champs aléatoires de Markov et qui apporte des notions sémantiques sur les clusters découverts. Cet algorithme est inspiré de l'algorithme Iterated conditional modes (ICM) et permet de faire un clustering sur des segments d'images pré-traitées. La méthode que nous proposons permet de gérer des voisinages irréguliers entre segments et d'obtenir des informations sémantiques de bas niveau sur les clusters de l'image traitée.Le second axe porte sur le développement de méthodes de clustering collaboratif applicables à autant d'algorithmes que possible, ce qui inclut les algorithmes du premier axe. La caractéristique principale des méthodes proposées dans cette thèse est leur applicabilité aux deux cas suivants : 1) plusieurs algorithmes travaillant sur les mêmes objets dans des espaces de représentation différents, 2) plusieurs algorithmes travaillant sur des données différentes ayant des distributions similaires. Les méthodes que nous proposons peuvent s'appliquer à de nombreux algorithmes comme l'ICM, les K-Moyennes, l'algorithme EM, ou les cartes topographiques (SOM et GTM). Contrairement aux méthodes précédemment proposées, notre modèle permet à des algorithmes très différents de collaborer ensemble, n'impose pas de contrainte sur le nombre de clusters recherchés et a une base mathématique solide. / This thesis presents several algorithms developed in the context of the ANR COCLICO project and contains two main axis: The first axis is concerned with introducing Markov Random Fields (MRF) based models to provide a semantic rich and suited algorithm applicable to images that are already segmented. This method is based on the Iterated Conditional Modes Algorithm (ICM algorithm) and can be applied to the segments of very high resolution (VHR) satellite pictures. Our proposed method can cope with highly irregular neighborhood dependencies and provides some low level semantic information on the clusters and their relationship within the image. The second axis deals with collaborative clustering methods developed with the goal of being applicable to as many clustering algorithms as possible, including the algorithms used in the first axis of this work. A key feature of the methods proposed in this thesis is that they can deal with either of the following two cases: 1) several clustering algorithms working together on the same data represented in different feature spaces, 2) several clustering algorithms looking for similar clusters in different data sets having similar distributions. Clustering algorithms to which these methods are applicable include the ICM algorithm, the K-Means algorithm, density based algorithms such as DB-scan, all Expectation-Maximization (EM) based algorithms such as the Self-Organizing Maps (SOM) and the Generative Topographic Mapping (GTM) algorithms. Unlike previously introduced methods, our models have no restrictions in term of types of algorithms that can collaborate together, do not require that all methods be looking for the same number of clusters, and are provided with solid mathematical foundations.
290

Connectivité anatomique des ganglions de la base : développements méthodologiques et application aux troubles moteurs / Anatomical connectivity of the basal ganglia : methodological developments and application to motor disorders

Kacem, Linda 08 July 2011 (has links)
Les dernières avancées dans le domaine de l’imagerie par résonance magnétique permettent aujourd’hui de mieux comprendre l’anatomie et le fonctionnement du cerveau humain. L’IRM s’avère d’ailleurs aujourd’hui un outil clé pour la recherche de biomarqueurs d’imagerie dans la plupart des pathologies cérébrales. Nous nous sommes intéressés dans le cadre de cette thèse à l’étude de la connectivité anatomique des noyaux gris centraux, structures impliquées dans de nombreuses boucles cortico-sous-cortico-corticales, et dont l’atteinte est à l’origine de troubles moteurs à l’instar de la maladie de Huntington, du syndrome Gilles de la Tourette et de la maladie de Parkinson. Nous avons pour cela effectué plusieurs développements méthodologiques qui permettent de segmenter les noyaux gris centraux et d’inférer leur connectivité anatomique. Tout d’abord, nous avons développé une méthode de segmentation des noyaux gris centraux à partir de différents contrastes et capable de s’adapter à des cas pathologiques présentant une forte modification de ces structures. Ensuite, nous avons développé des méthodes robustes d’analyse et de sélection des fibres reliant les différentes structures cérébrales, obtenues à l’aide de méthodes de tractographie par IRM du processus de diffusion cérébrale. Ces nouvelles méthodes de sélection présentent l’avantage de tenir compte d’a priori anatomiques, et fournissent ainsi des résultats plus proches de la réalité que les résultats obtenus dans la littérature. Nous avons également développé une méthodologie permettant de construire des cartes de connectivité surfaciques afin de projeter les connexions des noyaux gris centraux sur la surface corticale et de comparer le profil de connectivité corticale des noyaux gris au sein d’une population et entre populations. Enfin, nous avons utilisé ces outils pour étudier les modifications putatives de la connectivité anatomique des noyaux gris centraux dans la maladie de Huntington et dans le syndrome Gilles de la Tourette. / The recent advances in magnetic resonance imaging helped understanding brain anatomy and function. Today, MR imaging is a key tool for inferring imaging-based biomarkers for most neuropathologies. In this work, we focused on the anatomical connectivity of the basal ganglia which are involved in several cortico-subcortical loops and which dysfunction is the origin of motor disorders like Huntington and Parkinson diseases and Gilles de la Tourette syndrome. We developed several tools allowing the segmentation of the basal ganglia and inferring their anatomical connectivity. First, we developed a method for deep nuclei segmentation using several contrasts and that was adapted for pathological cases presenting high modifications in the morphology of these structures. Second, we developed robust methods for the analysis and the selection of the fiber tracts linking different brain structures and obtained using dMRI and tractography methods. These novel tools have the advantage of taking into account anatomical prior knowledge. Therefore the obtained results are closer to the real anatomy than those obtained using the tools available in the literature. We also developed surface connectivity maps that project the cortical connections of the deep nuclei directly on the cortical surface and that allow the comparison of the connectivity profile of the deep nuclei between different subjects and different groups. Finally, we used these tools to study the putative modifications of the anatomical connectivity of the deep nuclei in the Huntington disease and Gilles de la Tourette syndrome.

Page generated in 0.1786 seconds