• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1486
  • 473
  • 437
  • 372
  • 104
  • 74
  • 68
  • 34
  • 33
  • 32
  • 28
  • 26
  • 21
  • 18
  • 10
  • Tagged with
  • 3672
  • 1095
  • 749
  • 488
  • 460
  • 447
  • 419
  • 390
  • 389
  • 348
  • 344
  • 328
  • 320
  • 317
  • 316
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Modélisation statistique du Speckle en OCT : application à la segmentation d'images de la peau / Statistical modelization of speckle in Optical Coherence Tomography (OCT) : application of skin images segmentation

Mcheik, Ali 28 October 2010 (has links)
Cette thèse porte sur la segmentation d'images OCT cutanées. Cette modalité d'imagerie permet de visualiser les structures superficielles avec une profondeur de l'ordre du millimètre. En dermatologie, elle permet d'explorer l'épiderme et sa jonction avec le derme. Cependant, les images OCT sont sévèrement affectées par le bruit speckle. Ce phénomène conjugué à la complexité inhérente aux structures de la peau rend l'interprétation des images difficile même pour des experts. L'approche classique consiste à filtrer le speckle avant de faire des traitements de segmentation. A l'inverse, dans cette thèse nous exploitons exclusivement le bruit comme information pour segmenter. Notre approche repose sur la modélisation statistique du speckle. La segmentation se fait par classification des paramètres de ce modèle probabiliste. Ainsi, - On montre que le speckle ne suit pas une loi Rayleigh, comme cela est établi analytiquement. - On ajuste plusieurs lois de probabilité à l'amplitude OCT; et on montre que celle-ci est distribuée selon la loi Gamma généralisée. - On établit que les paramètres de cette loi discriminent statistiquement les couches de la peau. - On conçoit une méthode de segmentation par classification des paramètres locaux du speckle. Les nombreuses expérimentations faites sur plusieurs corpus d'images in-vivo confirment la validité de notre approche. / This thesis deals with the segmentation of skin OCT images. This modality provides the means to visualize superficial structures down to a millimeter depth. In dermatology, it is used to examine the epidermis and its junction with the dermis. However, OCT images are severely affected by the speckle noise. This random phenomenon added to the complexity of human skin structures makes the visual interpretation of images very difficult. Classical image processing techniques filter this noise prior to any segmentation step. In this thesis, we rely exclusively on the properties of the speckle to perform segmentation. Our approach is based on the statistical modeling of the speckle. Images are segmented by classifying parameters of the statistical model. Therefore, - We show that speckle does not follow the Rayleigh distribution, as developed analytically in the literature. - We fit various probability laws to model OCT signal amplitude ; we show that Generalized Gamma has the best goodness of fit. - We establish that statistical parameters of this distribution discriminate skin layers with good variability. - We develop a segmentation method based on the classification of local statistical parameters. The various experimental results with a number of in-vivo images reported in the thesis confirm the validity of our approach
282

Multi-Manifold learning and Voronoi region-based segmentation with an application in hand gesture recognition

Hettiarachchi, Randima 12 1900 (has links)
A computer vision system consists of many stages, depending on its application. Feature extraction and segmentation are two key stages of a typical computer vision system and hence developments in feature extraction and segmentation are significant in improving the overall performance of a computer vision system. There are many inherent problems associated with feature extraction and segmentation processes of a computer vision system. In this thesis, I propose novel solutions to some of these problems in feature extraction and segmentation. First, I explore manifold learning, which is a non-linear dimensionality reduction technique for feature extraction in high dimensional data. The classical manifold learning techniques perform dimensionality reduction assuming that original data lie on a single low dimensional manifold. However, in reality, data sets often consist of data belonging to multiple classes, which lie on their own manifolds. Thus, I propose a multi-manifold learning technique to simultaneously learn multiple manifolds present in a data set, which cannot be achieved through classical single manifold learning techniques. Secondly, in image segmentation, when the number of segments of the image is not known, automatically determining the number of segments becomes a challenging problem. In this thesis, I propose an adaptive unsupervised image segmentation technique based on spatial and feature space Dirichlet tessellation as a solution to this problem. Skin segmentation is an important as well as a challenging problem in computer vision applications. Thus, thirdly, I propose a novel skin segmentation technique by combining the multi-manifold learning-based feature extraction and Vorono\"{i} region-based image segmentation. Finally, I explore hand gesture recognition, which is a prevalent topic in intelligent human computer interaction and demonstrate that the proposed improvements in the feature extraction and segmentation stages improve the overall recognition rates of the proposed hand gesture recognition framework. I use the proposed skin segmentation technique to segment the hand, the object of interest in hand gesture recognition and manifold learning for feature extraction to automatically extract the salient features. Furthermore, in this thesis, I show that different instances of the same dynamic hand gesture have similar underlying manifolds, which allows manifold-matching based hand gesture recognition. / February 2017
283

Convex optimization for cosegmentation / Optimisation convexe pour la cosegmentation

Joulin, Armand 17 December 2012 (has links)
La simplicité apparente avec laquelle un humain perçoit ce qui l'entoure suggère que le processus impliqué est en partie mécanique, donc ne nécessite pas un haut degré de réflexion. Cette observation suggère que notre perception visuelle du monde peut être simulée sur un ordinateur. La vision par ordinateur est le domaine de recherche consacré au problème de la création d'une forme de perception visuelle pour des ordinateurs. La puissance de calcul des ordinateurs des années 50 ne permettait pas de traiter et d'analyser les données visuelles nécessaires à l'élaboration d'une perception visuelle virtuelle. Depuis peu, la puissance de calcul et la capacité de stockage ont permis à ce domaine de vraiment émerger. En deux décennies, la vision par ordinateur a permis de répondre à problèmes pratiques ou industrielles comme la détection des visages, de personnes au comportement suspect dans une foule ou de défauts de fabrication dans des chaînes de production. En revanche, en ce qui concerne l'émergence d'une perception visuelle virtuelle non spécifique à une tâche donnée, peu de progrès ont été réalisés et la communauté est toujours confrontée à des problèmes fondamentaux. Un de ces problèmes est de segmenter un stimuli optique ou une image en régions porteuses de sens, en objets ou actions. La segmentation de scène est naturelle pour les humains, mais aussi essentielle pour comprendre pleinement son environnement. Malheureusement elle est aussi extrêmement difficile à reproduire sur un ordinateur car il n'existe pas de définition claire de la région "significative''. En effet, en fonction de la scène ou de la situation, une région peut avoir des interprétations différentes. Etant donnée une scène se passant dans la rue, on peut considérer que distinguer un piéton est important dans cette situation, par contre ses vêtements ne le semblent pas nécessairement. Si maintenant nous considérons une scène ayant lieu pendant un défilé de mode, un vêtement devient un élément important, donc une région significative. Ici, nous nous concentrons sur ce problème de segmentation et nous l'abordons sous un angle particulier pour éviter cette difficulté fondamentale. Nous considérerons la segmentation comme un problème d'apprentissage faiblement supervisé, c'est-à-dire qu'au lieu de segmenter des images selon une certaine définition prédéfinie de régions "significatives'', nous développons des méthodes permettant de segmenter simultanément un ensemble d'images en régions qui apparaissent régulièrement. Nous définissons donc une région "significative'' d'un point de vue statistique: Ce sont les régions qui apparaissent régulièrement dans l'ensemble des images données. Pour cela nous concevons des modèles ayant une portée qui va au-delà de l'application à la vision. Notre approche prend ses racines dans l'apprentissage statistique, dont l'objectif est de concevoir des méthodes efficaces pour extraire et/ou apprendre des motifs récurrents dans des jeux de données. Ce domaine a récemment connu une forte popularité en raison de l'augmentation du nombre et de la taille des bases de données disponibles. Nous nous concentrons ici sur des méthodes conçues pour découvrir l'information "cachée'' dans une base à partir d'annotations incomplètes ou inexistantes. Enfin, nos travaux prennent racine dans le domaine de l'optimisation numérique afin d'élaborer des algorithmes efficaces et adaptés à nos problèmes. En particulier, nous utilisons et adaptons des outils récemment développés afin de relaxer des problèmes combinatoires complexes en des problèmes convexes pour lesquels il est garanti de trouver la solution optimale. Nous illustrons la qualité de nos formulations et algorithmes aussi sur des problèmes tirés de domaines autres que la vision par ordinateur. En particulier, nous montrons que nos travaux peuvent être utilisés dans la classification de texte et en biologie cellulaire. / People and most animals have a natural ability to see the world and understand it effortlessly. The apparent simplicity of this task suggests that this ability is, to some extend, mechanical, i.e., does not require high level thinking or profound reasoning. This observation suggests that this visual perception of the world should be reproducible on a mechanical device such as a computer. Computer vision is the field of research dedicated to creating a form of visual perception on computers. The first work on computer vision dates from the 50's but the amount of power needed for treating and analyzing visual data was not available at this time. It is only recently that improvements in computer power and storage capacities, have permitted this field to really emerge. On the one hand, constant progress in computer vision has allowed to develop dedicated solutions to practical or industrial problems. Detecting human faces, tracking people in crowded areas or default in production chains are industrial applications where computer vision is used. On the other hand, when it comes to creating a general visual perception for computers, it is probably fair to say that less progress has been made, and the community is still struggling with fundamental problems. One of these problems is to reproduce our ability of grouping into meaningful regions, the visual input data recorded by an optical device. This procedure, called segmentation, separates a scene into meaningful entities (e.g., objects or actions). Segmentation seems not only natural but essential for people to fully understand a given scene, but it is still very challenging for a computer. One reason is the difficulty of clearly identify what ``meaningful'' should be, i.e., depending on the scene or the situation, a region may have different interpretations. In this thesis, we will focus on the segmentation task and will try to avoid this fundamental difficulty by considering segmentation as a weakly supervised learning problem. Instead of segmenting images according to some predefined definition of ``meaningful'' regions, we develop methods to segment multiple images jointly into entities that repeatedly appear across the set of images. In other words, we define ``meaningful'' regions from a statistical point of view: they are regions that appears frequently in a dataset, and we design procedures to discover them. This leads us to design models whose a scope goes beyond this application to vision. Our approach takes its roots in the field of machine learning, whose goal is to design efficient methods to retrieve and/or learn common patterns in data. The field of machine learning has also gained in popularity in the last decades due to the recent improvement in computer power and the ever growing size of databases now available. In this thesis, we focus on methods tailored to retrieving hidden information from poorly annotated data, i.e., with incomplete or partial annotations. In particular, given a specific segmentation task defined by a set of images, we aim at segmenting the images and learn a related model as to segment unannotated images. Finally, our research drives us to explore the field of numerical optimization so as to design algorithms especially tailored for our problems. In particular, many numerical problems considered in this thesis cannot be solved by off-the-shelf software because of the complexity of their formulation. We use and adapt recently developed tools to approximate problems by solvable ones. We illustrate the promise of our formulations and algorithms on other general applications in different fields beside computer vision. In particular, we show that our work may also be used in text classification and discovery of cell configurations.
284

Segmentace trhu pleťové kosmetiky / Segmentation of the facial care market

Fialová, Zdeňka January 2010 (has links)
The main goal of the Master's Thesis is to discover significant differences in consumers' behaviour. Based on these differences it determinates and describes the segmenents of consumers. An important goal is to design marketing strategies for these segments as well. The theoretical part of the thesis includes the explanation of the segmentation process. The analytical part covers the characteristics of the Czech facial care market and the analysis of the Market&Media&Lifestyle data. The practical part of the thesis focuses on the process of segmentation using questionares and the IBM SPSS Statistics programme. The output of the thesis reveals three segments of the market and suggests relevant marketing strategies for them.
285

Filtrage, segmentation et suivi d'images échographiques : applications cliniques / Filtering, Segmentation and ultrasound images tracking. : clinical applications.

Dahdouh, Sonia 23 September 2011 (has links)
La réalisation des néphrolithotomies percutanées est essentiellement conditionnée par la qualité dela ponction calicièle préalable. En effet, en cas d’échec de celle-ci, l’intervention ne peut avoir lieu.Réalisée le plus souvent sous échographie, sa qualité est fortement conditionnée par celle du retouréchographique, considéré comme essentiel par la deuxième consultation internationale sur la lithiase pour limiter les saignements consécutifs à l’intervention.L’imagerie échographique est largement plébiscitée en raison de son faible coût, de l’innocuité del’examen, liée à son caractère non invasif, de sa portabilité ainsi que de son excellente résolutiontemporelle ; elle possède toutefois une très faible résolution spatiale et souffre de nombreux artefacts tels que la mauvaise résolution des images, un fort bruit apparent et une forte dépendance àl’opérateur.L’objectif de cette thèse est de concevoir une méthode de filtrage des données échographiques ainsiqu’une méthode de segmentation et de suivi du rein sur des séquences ultrasonores, dans le butd’améliorer les conditions d’exécution d’interventions chirurgicales telles que les néphrolithotomiespercutanées.Le filtrage des données, soumis et publié dans SPIE 2010, est réalisé en exploitant le mode deformation des images : le signal radiofréquence est filtré directement, avant même la formation del’image 2D finale. Pour ce faire, nous utilisons une méthode basée sur les ondelettes, en seuillantdirectement les coefficients d’ondelettes aux différentes échelles à partir d’un algorithme de typesplit and merge appliqué avant reconstruction de l’image 2D.La méthode de suivi développée (une étude préliminaire a été publiée dans SPIE 2009), exploiteun premier contour fourni par le praticien pour déterminer, en utilisant des informations purementlocales, la position du contour sur l’image suivante de la séquence. L’image est transformée pourne plus être qu’un ensemble de vignettes caractérisées par leurs critères de texture et une premièresegmentation basée région est effectuée sur cette image des vignettes. Cette première étape effectuée, le contour de l’image précédente de la séquence est utilisé comme initialisation afin de recalculer le contour de l’image courante sur l’image des vignettes segmentée. L’utilisation d’informations locales nous a permis de développer une méthode facilement parallélisable, ce qui permettra de travailler dans une optique temps réel.La validation de la méthode de filtrage a été réalisée sur des signaux radiofréquence simulés. Laméthode a été comparée à différents algorithmes de l’état de l’art en terme de ratio signal sur bruitet de calcul de USDSAI. Les résultats ont montré la qualité de la méthode proposée comparativement aux autres. La méthode de segmentation, quant-à elle, a été validée sans filtrage préalable, sur des séquences 2D réelles pour un temps d’exécution sans optimisation, inférieur à la minute pour des images 512*512. / The achievement of percutaneous nephrolithotomies is mainly conditioned by the quality of the initial puncture. Indeed, if it is not well performed , the intervention cannot be fulfilled.In order to make it more accurate this puncture is often realized under ultrasound control. Thus the quality of the ultrasound feedback is very critical and when clear enough it greatly helps limiting bleeding.Thanks to its low cost, its non invasive nature and its excellent temporal resolution, ultrasound imaging is considered very appropriate for this purpose. However, this solution is not perfect it is characterized by a low spatial resolution and the results present artifacts due to a poor image resolution (compared to images provided by some other medical devices) and speckle noise.Finally this technic is greatly operator dependent.Aims of the work presented here are, first to design a filtering method for ultrasound data and then to develop a segmentation and tracking algorithm on kidney ultrasound sequences in order to improve the executing conditions of surgical interventions such as percutaneous nephrolithotomies.The results about data filtering was submitted and published in SPIE 2010. The method uses the way ultrasound images are formed to filter them: the radiofrequency signal is directly filtered, before the bi-dimensional reconstruction. In order to do so, a wavelet based method, thresholding directly wavelet coefficients at different scales has been developed. The method is based on a “split and merge” like algorithm.The proposed algorithm was validated on simulated signals and its results compared to the ones obtained with different state of the art algorithms. Experiments show that this new proposed approach is better.The segmentation and tracking method (of which a prospective study was published in SPIE 2009) uses a first contour given by a human expert and then determines, using only local informations, the position of the next contour on the following image of the sequence. The tracking technique was validated on real data with no previous filtering and successfully compared with state of the art methods.
286

Segmentation de l'os cortical pour la prédiction des fractures ostéoporotiques. Application à l'imagerie in vivo (HRpQCT). / Cortical bone segmentation for the prediction of osteoporotic fractures. Application in vivo (HRpQCT)

Hafri, Mohamed 23 November 2017 (has links)
Cette thèse concerne la segmentation d’images HRpQCT et l’évaluation d’indices morphologiques de l’os cortical pour le diagnostic de l’ostéoporose et la prédiction des fractures osseuses. Dans un premier temps,deux méthodes sont proposées pour la segmentation de l’os cortical. La première utilise une nouvelle approche des contours actifs basée sur la logique floue suivie d’une nouvelle technique de remplissage développée pour imiter le comportement des opérateurs pour séparer l’os cortical de l’os trabéculaire. La deuxième approche est une technique 3D à double contours actifs combinant à la fois les informations locales le long et entre les deux contours. Les deux approches de segmentation sont comparées à celles de l’état de l’art afin de valider leurs performances. Dans un second temps, différents indices extraits de l’os cortical sont utilisés pour déterminer leur potentiel de prédiction des fractures ostéoporotiques. Les résultats obtenus montent que l’analyse globale de l’os cortical masque des variations potentiellement importantes.Par conséquent, une décomposition régionale de l’enveloppe corticale est proposée afin d’améliorer la prédiction du risque fracturaire. / This thesis concerns the segmentation of HRpQCT images and the evaluation of the cortical bone parameters for the osteoporosis characterization and the fracture prediction. Firstly, two approaches were proposed to segment the cortical bone. The first uses a new fuzzy energy active contours approach followed by a new filling technique designed to mimic the behaviour of clinicians while extracting the cortical bone from the trabecularone. The second approach is a local based 3D dual active contours approach proposed to separate between three regions constituting the image. To move, this approach combines the local information along each point in the two contours conjointly with the information between them. The segmentation results of these approaches were confronted to the state of the art methods to validate their performance. Secondly,different parameters were extracted from the segmented cortical bone to monitor the association of these parameters with the osteoporotic fracture prediction. Global analysis of the cortical bone obscures potentially important regional variations. Therefore, regional cortical decomposition was proposed to illustrate that cortical sub-regions could improve the evaluation of fracture risk than the global analysis of the cortical bone.
287

Un modèle de l'évolution des gliomes diffus de bas grade sous chimiothérapie / A model of the evolution of diffuse low-grade gliomas under chemotherapy

Ben Abdallah, Mériem 12 December 2016 (has links)
Les gliomes diffus de bas grade sont des tumeurs cérébrales des jeunes adultes. Dans cette thèse, nous nous intéressons à la segmentation et à la modélisation de ces tumeurs. Dans la première partie du manuscrit, nous étudions la segmentation des gliomes diffus de bas grade à base de différentes méthodes manuelles et semi-automatiques. La délimitation de ces tumeurs peut être problématique en raison de leur caractère très infiltrant et inhomogène. En pratique clinique, le suivi des gliomes diffus de bas grade repose sur l'estimation du volume tumoral, soit par une segmentation suivie d'une reconstruction logicielle, soit par la méthode des trois diamètres. Pour la segmentation, elle est manuelle et est exécutée par des praticiens sur des IRM en pondération FLAIR ou T2. La méthode des trois diamètres est rapide mais s'avère difficile à implémenter dans le cas de gliomes diffus de bas grade très infiltrants ou en post-traitement. La solution par segmentation manuelle et reconstruction logicielle du volume est chronophage mais demeure plus précise en comparaison de la méthode des trois diamètres. Nous étudions ici la reproductibilité de la segmentation manuelle avec le logiciel OsiriX en réalisant un test subjectif dans le Living Lab PROMETEE de TELECOM Nancy. Les résultats de cette étude montrent que ni la spécialité du praticien ni le nombre d’années d’expérience ne semblent impacter significativement la qualité de la segmentation. Nous comparons par ailleurs les résultats obtenus à ceux d'un deuxième test où nous appliquons la méthode des trois diamètres. Enfin, nous explorons deux algorithmes de segmentation semi-automatique basés, respectivement, sur les contours actifs et sur la méthode des level set. Même si la segmentation automatique semble être une voie prometteuse, nous recommandons aujourd’hui l’utilisation de la segmentation manuelle du fait notamment du caractère diffus des gliomes de bas grade qui rend le contour complexe à délimiter. La seconde partie du manuscrit est consacrée à la modélisation des gliomes diffus de bas grade eux-mêmes ou, plus exactement, à la modélisation de l'évolution du diamètre tumoral en phase de chimiothérapie. La prise en charge thérapeutique des patients atteints de ces tumeurs inclut en effet souvent une chimiothérapie. Pour ce travail, nous nous intéressons à la chimiothérapie par Témozolomide en première ligne de traitement. Une fois le traitement entamé, les praticiens aimeraient déterminer l'instant optimal d'arrêt de traitement. Nous proposons une modélisation statistique du diamètre tumoral sous chimiothérapie. Cette modélisation s'appuie sur des modèles de régression linéaire et exponentielle. Elle permet de prédire le diamètre tumoral à partir d'un jeu de données d'apprentissage et d'alerter le clinicien sur l'état d'évolution du diamètre sous traitement. Nous espérons que ces modèles pourront un jour être utilisés comme un outil dans la planification de la chimiothérapie en milieu clinique. / Diffuse low-grade gliomas are brain tumors of young adults. In this thesis, we focus on the segmentation and on the modeling of these tumors. In the first part of the manuscript, we study the segmentation of diffuse low-grade gliomas based on different manual and semi-automatic methods. The delineation of these tumors can be problematic because of their very infiltrating and inhomogeneous nature. In clinical practice, the monitoring of diffuse low-grade gliomas is based on the estimation of tumor volume, obtained either through a segmentation followed by a software reconstruction or through the three diameters method. As for the segmentation, it is manual and it is performed by practitioners on FLAIR-weighted or T2-weighted MRI.The three diameters approach is fast but it is difficult to implement in the case of highly infiltrating diffuse low grade gliomas or after a treatment. The manual segmentation and software-based volume reconstruction solution is time-consuming but it remains more accurate in comparison with the three diameters method. We investigate in this work the reproducibility of the manual segmentation with the OsiriX software by performing a subjective test in the Living Lab PROMETEE in TELECOM Nancy. The results of this study show that neither the practitioners' specialty nor their number of years of experience seem to have a significant impact on the quality of the segmentation. We also compare the results to those of a second test where we apply the three diameters method. Finally, we explore two semi-automatic segmentation algorithms which are, respectively, based on active contours and on the level set method. Even if automatic segmentation seems to be a promising avenue, we recommend for now the use of manual segmentation because of the diffuse nature of low-grade gliomas, which makes the tumor's contours complex to delineate. The second part of the manuscript is dedicated to the modeling of diffuse low-grade gliomas themselves or, to be more precise, to the modeling of the evolution of the tumor's diameter during chemotherapy. The therapeutic management of patients with these tumors often includes indeed chemotherapy. For this work, we focus on Temozolomide chemotherapy in first-line treatment. After the beginning of the treatment, the practitioners would like to determine the optimum time of discontinuation. We propose a statistical modeling of tumor diameter under chemotherapy. This modeling is based on linear and exponential regression models. It can predict the tumor diameter from a set of training dataset and can alert the clinician on the state of change in diameter under treatment. We hope that these models will, eventually, be used as a tool in the planning of chemotherapy in a clinical environment.
288

Avaliação da reprodutibilidade intra e interobservador da segmentação manual de sarcomas ósseos em imagens de ressonância magnética / Evaluation of intra- and inter-observer manual segmentation reproducibility in magnetic images of bone sarcomas

Dionísio, Fernando Carrasco Ferreira 29 May 2017 (has links)
Os sarcomas ósseos representam uma proporção significativa de tumores na faixa etária pediátrica, ainda apresentando um quadro desafiador devido a sua significativa taxa de morbimortalidade. Pesquisas para o desenvolvimento de novas modalidades terapêuticas e para o desenvolvimento de métodos que identifiquem características da doença que possam permitir melhor estratificação dos pacientes através de dados clinicamente relevantes para individualizar as condutas clínicas são necessárias. Dentro deste contexto surge o conceito de radiômica, que visa extrair dados clinicamente relevantes a partir de imagens médicas. Entretanto, para colocar a radiômica em prática, é necessário selecionar, nas imagens médicas, as áreas de interesse referentes às patologias estudadas, e este processo se denomina segmentação. O objetivo primário deste estudo foi avaliar a reprodutibilidade intra e inter-observador da segmentação manual de sarcomas ósseos em imagens de ressonância magnética (RM). Como objetivo secundário, foi avaliada a capacidade da segmentação semiautomática em reduzir o tempo necessário para segmentação, mantendo similaridade com a segmentação manual. O estudo foi realizado de forma retrospectiva com inclusão de pacientes com diagnóstico de osteossarcoma ou sarcoma de Ewing confirmado por estudo histopatológico e que tivessem imagens de RM realizadas no Hospital Universitário de nossa Instituição realizadas previamente a qualquer intervenção terapêutica. Três médicos radiologistas, de forma independente e às cegas em relação as demais segmentações e em relação ao resultado histopatológico, realizaram a segmentação manual dos contornos destes tumores utilizando o software 3DSlicer, permitindo que fosse realizada avaliação da reprodutibilidade interobservador. Um dos radiologistas realizou uma segunda segmentação manual dos mesmos casos, possibilitando a avaliação da reprodutibilidade intraobservador, e, ainda, uma terceira segmentação foi realizada, utilizando metodologia semiautomática, disponível no software mencionado. Para a análise estatística, foi utilizado o coeficiente de similaridade de Dice (DICE), a distância Hausdorff (DH), comparações de volumes e análises dos intervalos de tempo necessários para realização das segmentações. Os parâmetros avaliados demonstraram haver boa reprodutibilidade intraobservador, com DICE variando entre 0,83 a 0,97; e distância Hausdorff variando entre 3,37 a 28,73 mm. Também foi demonstrada boa reprodutibilidade interobservador com DICE variando entre 0,73 a 0,97; e distância Hausdorff variando entre 3,93 a 33,40 mm. A segmentação semiautomática demonstrou boa similaridade em relação à segmentação manual (DICE variando entre 0,71 a 0,96 e DH variando entre 5,38 a 31,54 mm), havendo redução significativa do tempo necessário para segmentação. Entre todas as situações comparadas, os volumes não apresentaram diferenças estatisticamente significativas (p-valor>0,05). / Bone sarcomas represent a significant proportion of tumors in the pediatric age group and they still are a challenge due to their significant morbidity and mortality rates. Reseaches are important for the development of new therapeutic modalities and for the development of methods that identify features that allow better stratification of the patients with theses diseases for individualization of their treatments. In this context emerges the concept of radiomics, which is the process of extraction of clinically relevant data from medical images. It is important to segment the areas of interest im medical images for the pratice of this process. The primary objective of this study was to evaluate the intra- and interobserver reproducibility of manual segmentation of bone sarcomas on magnetic resonance imaging (MRI). As a secondary objective, it was evaluated if the semiautomatic segmentation could be similar to manual segmentation and if the semiautomatic method could reduce the time required for segmentation. The study was performed retrospectively with the inclusion of patients with osteosarcoma or Ewing sarcoma confirmed by histopathological study and who had MRI performed at the University Hospital of our Institution prior to any therapeutic intervention. Three radiologists, independently and blindly in relation to the other segmentations and in relation to the histopathological results, performed the manual segmentation of the contours of these tumors using 3DSlicer software, allowing an interobserver reproducibility evaluation. One of the radiologists performed a second manual segmentation of the same cases, allowing the evaluation of intraobserver reproducibility. A third segmentation was performed, using semi-automatic methodology, available in the mentioned software. For the statistical analysis, Dice similarity coefficient (DICE), Hausdorff distance (DH), comparisons between volumes and time intervals for segmentations were used. The parameters evaluated demonstrated a good intraobserver reproducibility, with DICE ranging from 0.83 to 0.97 and Hausdorff distance ranging from 3.37 to 28.73 mm. Good interobserver reproducibility was also demonstrated with DICE ranging from 0.73 to 0.97 and Hausdorff distance ranging from 3.93 to 33.40 mm. Semiautomatic segmentation demonstrated good similarity to manual segmentation (DICE ranging from 0.71 to 0.96 and HD ranging from 5.38 to 31.54mm), and there was significant reduction in the time required for segmentation. Among all the situations compared, the volumes did not present significant statistical differences (p-value> 0.05).
289

A market segmentation study on electronic calculators as a household product in Hong Kong.

January 1976 (has links)
Kwan Wing Hon. / Thesis (M.B.A.)--Chinese University of Hong Kong. / Bibliography: leaves 128-129.
290

Graph based approaches for image segmentation and object tracking / Méthodes de graphe pour la segmentation d'images et le suivi d'objets dynamiques

Wang, Xiaofang 27 March 2015 (has links)
Cette thèse est proposée en deux parties. Une première partie se concentre sur la segmentation d’image. C’est en effet un problème fondamental pour la vision par ordinateur. En particulier, la segmentation non supervisée d’images est un élément important dans de nombreux algorithmes de haut niveau et de systèmes d’application. Dans cette thèse, nous proposons trois méthodes qui utilisent la segmentation d’images se basant sur différentes méthodes de graphes qui se révèlent être des outils puissants permettant de résoudre ces problèmes. Nous proposons dans un premier temps de développer une nouvelle méthode originale de construction de graphe. Nous analysons également différentes méthodes similaires ainsi que l’influence de l’utilisation de divers descripteurs. Le type de graphe proposé, appelé graphe local/global, encode de manière adaptative les informations sur la structure locale et globale de l’image. De plus, nous réalisons un groupement global en utilisant une représentation parcimonieuse des caractéristiques des superpixels sur le dictionnaire de toutes les caractéristiques en résolvant un problème de minimisation l0. De nombreuses expériences sont menées par la suite sur la base de données <Berkeley Segmentation>, et la méthode proposée est comparée avec des algorithmes classiques de segmentation. Les résultats démontrent que notre méthode peut générer des partitions visuellement significatives, mais aussi que des résultats quantitatifs très compétitifs sont obtenus en comparaison des algorithmes usuels. Dans un deuxième temps, nous proposons de travailler sur une méthode reposant sur un graphe d’affinité discriminant, qui joue un rôle essentiel dans la segmentation d’image. Un nouveau descripteur, appelé patch pondéré par couleur, est développé pour calculer le poids des arcs du graphe d’affinité. Cette nouvelle fonctionnalité est en mesure d’intégrer simultanément l’information sur la couleur et le voisinage en représentant les pixels avec des patchs de couleur. De plus, nous affectons à chaque pixel une pondération à la fois local et globale de manière adaptative afin d’atténuer l’effet trop lisse lié à l’utilisation de patchs. Des expériences approfondies montrent que notre méthode est compétitive par rapport aux autres méthodes standards à partir de plusieurs paramètres d’évaluation. Finalement, nous proposons une méthode qui combine superpixels, représentation parcimonieuse, et une nouvelle caractéristisation de mi-niveau pour décrire les superpixels. Le nouvelle caractérisation de mi-niveau contient non seulement les mêmes informations que les caractéristiques initiales de bas niveau, mais contient également des informations contextuelles supplémentaires. Nous validons la caractéristisation de mi-niveau proposée sur l’ensemble de données MSRC et les résultats de segmentation montrent des améliorations à la fois qualitatives et quantitatives par rapport aux autres méthodes standards. Une deuxième partie se concentre sur le suivi d’objets multiples. C’est un domaine de recherche très actif, qui est d’une importance majeure pour un grand nombre d’applications, par exemple la vidéo-surveillance de piétons ou de véhicules pour des raisons de sécurité ou l’identification de motifs de mouvements animaliers. / Image segmentation is a fundamental problem in computer vision. In particular, unsupervised image segmentation is an important component in many high-level algorithms and practical vision systems. In this dissertation, we propose three methods that approach image segmentation from different angles of graph based methods and are proved powerful to address these problems. Our first method develops an original graph construction method. We also analyze different types of graph construction method as well as the influence of various feature descriptors. The proposed graph, called a local/global graph, encodes adaptively the local and global image structure information. In addition, we realize global grouping using a sparse representation of superpixels’ features over the dictionary of all features by solving a l0-minimization problem. Extensive experiments are conducted on the Berkeley Segmentation Database, and the proposed method is compared with classical benchmark algorithms. The results demonstrate that our method can generate visually meaningful partitions, but also that very competitive quantitative results are achieved compared with state-of-the-art algorithms. Our second method derives a discriminative affinity graph that plays an essential role in graph-based image segmentation. A new feature descriptor, called weighted color patch, is developed to compute the weight of edges in an affinity graph. This new feature is able to incorporate both color and neighborhood information by representing pixels with color patches. Furthermore, we assign both local and global weights adaptively for each pixel in a patch in order to alleviate the over-smooth effect of using patches. The extensive experiments show that our method is competitive compared to the other standard methods with multiple evaluation metrics. The third approach combines superpixels, sparse representation, and a new midlevel feature to describe superpixels. The new mid-level feature not only carries the same information as the initial low-level features, but also carries additional contextual cue. We validate the proposed mid-level feature framework on the MSRC dataset, and the segmented results show improvements from both qualitative and quantitative viewpoints compared with other state-of-the-art methods. Multi-target tracking is an intensively studied area of research and is valuable for a large amount of applications, e.g. video surveillance of pedestrians or vehicles motions for sake of security, or identification of the motion pattern of animals or biological/synthetic particles to infer information about the underlying mechanisms. We propose a detect-then-track framework to track massive colloids’ motion paths in active suspension system. First, a region based level set method is adopted to segment all colloids from long-term videos subject to intensity inhomogeneity. Moreover, the circular Hough transform further refines the segmentation to obtain colloid individually. Second, we propose to recover all colloids’ trajectories simultaneously, which is a global optimal problem that can be solved efficiently with optimal algorithms based on min-cost/max flow. We evaluate the proposed framework on a real benchmark with annotations on 9 different videos. Extensive experiments show that the proposed framework outperforms standard methods with large margin.

Page generated in 0.1125 seconds