281 |
Adaptability and extensibility of deep neural networksPagé Fortin, Mathieu 28 June 2024 (has links)
L'apprentissage profond a considérablement gagné en popularité au cours de la dernière décennie grâce à sa capacité à développer des modèles puissants qui apprennent directement à partir de données non structurées. Cette approche a été appliquée avec succès à divers domaines tels que le traitement du langage naturel, la vision par ordinateur et le traitement des signaux, et le rythme des progrès réalisés par la recherche académique et industrielle ne cesse de s'accélérer. Cependant, la majorité des recherches suppose la disponibilité de grands ensembles de données d'entraînement statiques. Par exemple, de nombreuses techniques sont conçues pour améliorer les capacités de généralisation des modèles d'apprentissage profond en utilisant des bases de données comme MS-COCO qui contient environ 300K images, ImageNet avec environ 1,5M d'exemples, et Visual Genome avec environ 3,8M d'instances d'objets. Or, récolter et annoter de tels ensembles de données peut être trop coûteux pour de nombreuses applications réelles. De plus, il est généralement supposé que l'entraînement peut être effectué en une seule étape, considérant ainsi que toutes les classes sont disponibles simultanément. Cela diffère d'applications réelles où les cas d'utilisation peuvent évoluer pour inclure de nouvelles classes au fil du temps, induisant ainsi la nécessité d'adapter continuellement les modèles existants, et faisant ainsi de l'apprentissage continuel. Dans cette thèse, nous visons à contribuer à l'*adaptabilité* et à l'*extensibilité* des réseaux de neurones profonds par le biais de l'apprentissage à partir de peu d'exemples et de l'apprentissage continuel. Plus précisément, nous proposons une méthode d'apprentissage qui exploite des relations contextuelles et des représentations multimodales pour former de meilleurs prototypes de classe en se basant sur des connaissances préalables, permettant l'*adaptation* à de nouvelles tâches avec seulement quelques exemples. De plus, nous contribuons à l'apprentissage continuel de classes, qui vise à permettre aux modèles d'apprentissage profond d'*étendre* leurs connaissances en intégrant de nouveaux concepts sans perdre la capacité de résoudre les tâches précédemment apprises. Contrairement à la majorité des travaux précédents qui ont exploré l'apprentissage continuel dans un contexte de classification d'images sur des bases de données simples (p. ex. MNIST et CIFAR), nos méthodes contribuent à l'apprentissage continuel de la segmentation sémantique, la détection d'objets et la segmentation d'instances, qui sont des problèmes plus complexes mais aussi plus applicatifs. Pour la segmentation sémantique continuelle, nous proposons un module d'apprentissage faiblement supervisé afin d'aborder les problèmes de dérive de l'arrière-plan (*background shift*) et des coûts élevés d'annotation. Nous introduisons également deux variantes d'un mécanisme de répétition qui permet de rejouer des régions d'images ou des caractéristiques intermédiaires sous la forme d'une technique d'augmentation de données. Nous explorons ensuite l'apprentissage continuel de la détection d'objets et de la segmentation d'instances en développant une architecture dynamique et une nouvelle méthode de distillation des connaissances qui augmente la plasticité tout en préservant une bonne stabilité. Finalement, nous étudions l'apprentissage continuel de la détection d'objets dans le contexte d'applications agricoles telles que la détection de plantes et de maladies. Pour ce faire, nous adaptons deux bases de données publiques pour simuler des scénarios d'apprentissage continuel et nous comparons diverses méthodes, introduisant ainsi deux scénarios experimentaux de référence pour étudier la vision numérique appliquée à des problèmes agricoles. Ensemble, ces contributions abordent plusieurs défis en lien avec l'apprentissage à partir de peu d'exemples et avec l'apprentissage continuel, faisant ainsi progresser le développement de modèles adaptables capables d'élargir progressivement leur base de connaissances au fil du temps. De plus, nous mettons un accent particulier sur l'étude de ces problèmes dans des configurations expérimentales impliquant des scènes complexes, qui sont plus représentatives des applications réelles déployées dans des environnements de production. / Deep learning has gained tremendous popularity in the last decade thanks to its ability to develop powerful models directly by learning from unstructured data. It has been successfully applied to various domains such as natural language processing, computer vision and signal processing, and the rate of progress made by academic and industrial research is still increasing. However, the majority of research assumes the availability of large, static training datasets. For instance, techniques are often designed to improve the generalization capabilities of deep learning models using datasets like MS-COCO with approximately 300K images, ImageNet with around 1.5M examples, and Visual Genome with roughly 3.8M object instances. Gathering and annotating such large datasets can be too costly for many real-world applications. Moreover, it is generally assumed that training is performed in a single step, thereby considering that all classes are available simultaneously. This differs from real applications where use cases can evolve to include novel classes, thus inducing the necessity to continuously adapt existing models and thereby performing continual learning. In this thesis, we aim to contribute to the *adaptability* and *extensibility* of deep neural networks through learning from few examples and continual learning. Specifically, we propose a few-shot learning method which leverages contextual relations and multimodal representations to learn better class prototypes, allowing to *adapt* to novel tasks with only a few examples. Moreover, we contribute to continual learning, aiming to allow deep learning models to *extend* their knowledge by learning new classes without loosing the ability to solve previously learned tasks. Contrarily to the majority of previous work which explores continual image classification on simple datasets (e.g. MNIST and CIFAR), our methods contribute to semantic segmentation, object detection and instance segmentation, which are more complex and practical problems. For continual semantic segmentation, we propose a weakly-supervised learning module to address the problems of background shift and annotation costs. We also introduce two variants of a rehearsal mechanism that can replay image patches or intermediate features in the form of a data augmentation technique. We then explore continual object detection and continual instance segmentation by developing a dynamic architecture and a novel knowledge distillation method which increases plasticity while ensuring stability. Finally, we experiment class-incremental object detection within the context of agricultural applications such as plant and disease detection. For that, we adapt two public datasets to simulate continual learning scenarios and we compare various continual and non-continual learning methods, thereby introducing a novel benchmark to study agricultural problems. Together, these contributions address several challenges of few-shot learning and continual learning, thus advancing the development of adaptable models capable of gradually expanding their knowledge base over time. Moreover, we have put a particular emphasis to study these problems within experimental setups that involve complex scenes, which are more representative of real applications as deployed in production environments.
|
282 |
Segmentation et construction de descripteurs appliqués à des nuages de points à grande échelle pour la géolocalisation d'un véhicule semi-autonomeRousseau, Kévin 02 February 2024 (has links)
Dans ce mémoire nous présentons une méthode pour référencer deux nuages de points denses. Cette méthode commence par l'analyse d'un nuage de points de grand volume, composé d’environ 2 millions de points recueillis par un LiDAR (Light Detection And Ranging) monté sur une voiture, afin de le segmenter en surfaces représentatives pertinentes en termes de géométrie et de localisation. Ensuite, nous présentons la construction de descripteurs pour chacun des segments trouvés afin d’obtenir des caractéristiques significatives des segments. Ces descripteurs sont le FPFH (Fast Point Feature Histograms) et l’histogramme des orientations de surface. Pour finir, les descripteurs recueillis sur deux nuages de points différents du même environnement extérieur sont comparés pour repérer les segments similaires et ainsi permettre la localisation du véhicule par rapport à l'environnement extérieur. / In this work we present a method to reference two dense point clouds. We begin by analyzing a point cloud of a large number of points, approximately 2 million points collected by a LiDAR mounted on a car, in order to segment this point cloud into surfaces that feature representative regions of the point cloud that are interesting in terms of geometry. Then the construction of descriptors for each segment found is made to identify significant features. These descriptors are the FPFH (Fast Point Feature Histograms) and the surface orientation histogram. Finally, the descriptors collected on two different point clouds of the same outdoor environment are compared to identify similar segments and thus to allow the location of the vehicle in relation to the outdoor environment.
|
283 |
Segmenting participants of a charity sport eventOgura, Toshiyuki 09 October 2014 (has links)
The increased competition among charity sport events (CSEs) require charity organizations to utilize more sophisticated marketing programs - segmenting and targeting diverse participants more effectively. The study examines the effectiveness of demographic, psychographic, behavioral segmentation variables. In-depths interviews with 14 participants were conducted to obtain profiles of the four segments of survivor-centered teams, family and friends, company-sponsored teams, and other organization teams. The distinct profile of each segment had a combination of psychological, behavioral and demographic characteristics. Participation mode was identified as a proxy segmentation variable that can be easily obtained by event organizers at the time of participant registration Management of participant segments was discussed. / text
|
284 |
Modélisation statistique du Speckle en OCT : application à la segmentation d'images de la peau / Statistical modelization of speckle in Optical Coherence Tomography (OCT) : application of skin images segmentationMcheik, Ali 28 October 2010 (has links)
Cette thèse porte sur la segmentation d'images OCT cutanées. Cette modalité d'imagerie permet de visualiser les structures superficielles avec une profondeur de l'ordre du millimètre. En dermatologie, elle permet d'explorer l'épiderme et sa jonction avec le derme. Cependant, les images OCT sont sévèrement affectées par le bruit speckle. Ce phénomène conjugué à la complexité inhérente aux structures de la peau rend l'interprétation des images difficile même pour des experts. L'approche classique consiste à filtrer le speckle avant de faire des traitements de segmentation. A l'inverse, dans cette thèse nous exploitons exclusivement le bruit comme information pour segmenter. Notre approche repose sur la modélisation statistique du speckle. La segmentation se fait par classification des paramètres de ce modèle probabiliste. Ainsi, - On montre que le speckle ne suit pas une loi Rayleigh, comme cela est établi analytiquement. - On ajuste plusieurs lois de probabilité à l'amplitude OCT; et on montre que celle-ci est distribuée selon la loi Gamma généralisée. - On établit que les paramètres de cette loi discriminent statistiquement les couches de la peau. - On conçoit une méthode de segmentation par classification des paramètres locaux du speckle. Les nombreuses expérimentations faites sur plusieurs corpus d'images in-vivo confirment la validité de notre approche. / This thesis deals with the segmentation of skin OCT images. This modality provides the means to visualize superficial structures down to a millimeter depth. In dermatology, it is used to examine the epidermis and its junction with the dermis. However, OCT images are severely affected by the speckle noise. This random phenomenon added to the complexity of human skin structures makes the visual interpretation of images very difficult. Classical image processing techniques filter this noise prior to any segmentation step. In this thesis, we rely exclusively on the properties of the speckle to perform segmentation. Our approach is based on the statistical modeling of the speckle. Images are segmented by classifying parameters of the statistical model. Therefore, - We show that speckle does not follow the Rayleigh distribution, as developed analytically in the literature. - We fit various probability laws to model OCT signal amplitude ; we show that Generalized Gamma has the best goodness of fit. - We establish that statistical parameters of this distribution discriminate skin layers with good variability. - We develop a segmentation method based on the classification of local statistical parameters. The various experimental results with a number of in-vivo images reported in the thesis confirm the validity of our approach
|
285 |
Multi-Manifold learning and Voronoi region-based segmentation with an application in hand gesture recognitionHettiarachchi, Randima 12 1900 (has links)
A computer vision system consists of many stages, depending on its application. Feature extraction and segmentation are two key stages of a typical computer vision system and hence developments in feature extraction and segmentation are significant in improving the overall performance of a computer vision system. There are many inherent problems associated with feature extraction and segmentation processes of a computer vision system. In this thesis, I propose novel solutions to some of these problems in feature extraction and segmentation.
First, I explore manifold learning, which is a non-linear dimensionality reduction technique for feature extraction in high dimensional data. The classical manifold learning techniques perform dimensionality reduction assuming that original data lie on a single low dimensional manifold. However, in reality, data sets often consist of data belonging to multiple classes, which lie on their own manifolds. Thus, I propose a multi-manifold learning technique to simultaneously learn multiple manifolds present in a data set, which cannot be achieved through classical single manifold learning techniques.
Secondly, in image segmentation, when the number of segments of the image is not known, automatically determining the number of segments becomes a challenging problem. In this thesis, I propose an adaptive unsupervised image segmentation technique based on spatial and feature space Dirichlet tessellation as a solution to this problem. Skin segmentation is an important as well as a challenging problem in computer vision applications. Thus, thirdly, I propose a novel skin segmentation technique by combining the multi-manifold learning-based feature extraction and Vorono\"{i} region-based image segmentation.
Finally, I explore hand gesture recognition, which is a prevalent topic in intelligent human computer interaction and demonstrate that the proposed improvements in the feature extraction and segmentation stages improve the overall recognition rates of the proposed hand gesture recognition framework. I use the proposed skin segmentation technique to segment the hand, the object of interest in hand gesture recognition and manifold learning for feature extraction to automatically extract the salient features. Furthermore, in this thesis, I show that different instances of the same dynamic hand gesture have similar underlying manifolds, which allows manifold-matching based hand gesture recognition. / February 2017
|
286 |
Convex optimization for cosegmentation / Optimisation convexe pour la cosegmentationJoulin, Armand 17 December 2012 (has links)
La simplicité apparente avec laquelle un humain perçoit ce qui l'entoure suggère que le processus impliqué est en partie mécanique, donc ne nécessite pas un haut degré de réflexion. Cette observation suggère que notre perception visuelle du monde peut être simulée sur un ordinateur. La vision par ordinateur est le domaine de recherche consacré au problème de la création d'une forme de perception visuelle pour des ordinateurs. La puissance de calcul des ordinateurs des années 50 ne permettait pas de traiter et d'analyser les données visuelles nécessaires à l'élaboration d'une perception visuelle virtuelle. Depuis peu, la puissance de calcul et la capacité de stockage ont permis à ce domaine de vraiment émerger. En deux décennies, la vision par ordinateur a permis de répondre à problèmes pratiques ou industrielles comme la détection des visages, de personnes au comportement suspect dans une foule ou de défauts de fabrication dans des chaînes de production. En revanche, en ce qui concerne l'émergence d'une perception visuelle virtuelle non spécifique à une tâche donnée, peu de progrès ont été réalisés et la communauté est toujours confrontée à des problèmes fondamentaux. Un de ces problèmes est de segmenter un stimuli optique ou une image en régions porteuses de sens, en objets ou actions. La segmentation de scène est naturelle pour les humains, mais aussi essentielle pour comprendre pleinement son environnement. Malheureusement elle est aussi extrêmement difficile à reproduire sur un ordinateur car il n'existe pas de définition claire de la région "significative''. En effet, en fonction de la scène ou de la situation, une région peut avoir des interprétations différentes. Etant donnée une scène se passant dans la rue, on peut considérer que distinguer un piéton est important dans cette situation, par contre ses vêtements ne le semblent pas nécessairement. Si maintenant nous considérons une scène ayant lieu pendant un défilé de mode, un vêtement devient un élément important, donc une région significative. Ici, nous nous concentrons sur ce problème de segmentation et nous l'abordons sous un angle particulier pour éviter cette difficulté fondamentale. Nous considérerons la segmentation comme un problème d'apprentissage faiblement supervisé, c'est-à-dire qu'au lieu de segmenter des images selon une certaine définition prédéfinie de régions "significatives'', nous développons des méthodes permettant de segmenter simultanément un ensemble d'images en régions qui apparaissent régulièrement. Nous définissons donc une région "significative'' d'un point de vue statistique: Ce sont les régions qui apparaissent régulièrement dans l'ensemble des images données. Pour cela nous concevons des modèles ayant une portée qui va au-delà de l'application à la vision. Notre approche prend ses racines dans l'apprentissage statistique, dont l'objectif est de concevoir des méthodes efficaces pour extraire et/ou apprendre des motifs récurrents dans des jeux de données. Ce domaine a récemment connu une forte popularité en raison de l'augmentation du nombre et de la taille des bases de données disponibles. Nous nous concentrons ici sur des méthodes conçues pour découvrir l'information "cachée'' dans une base à partir d'annotations incomplètes ou inexistantes. Enfin, nos travaux prennent racine dans le domaine de l'optimisation numérique afin d'élaborer des algorithmes efficaces et adaptés à nos problèmes. En particulier, nous utilisons et adaptons des outils récemment développés afin de relaxer des problèmes combinatoires complexes en des problèmes convexes pour lesquels il est garanti de trouver la solution optimale. Nous illustrons la qualité de nos formulations et algorithmes aussi sur des problèmes tirés de domaines autres que la vision par ordinateur. En particulier, nous montrons que nos travaux peuvent être utilisés dans la classification de texte et en biologie cellulaire. / People and most animals have a natural ability to see the world and understand it effortlessly. The apparent simplicity of this task suggests that this ability is, to some extend, mechanical, i.e., does not require high level thinking or profound reasoning. This observation suggests that this visual perception of the world should be reproducible on a mechanical device such as a computer. Computer vision is the field of research dedicated to creating a form of visual perception on computers. The first work on computer vision dates from the 50's but the amount of power needed for treating and analyzing visual data was not available at this time. It is only recently that improvements in computer power and storage capacities, have permitted this field to really emerge. On the one hand, constant progress in computer vision has allowed to develop dedicated solutions to practical or industrial problems. Detecting human faces, tracking people in crowded areas or default in production chains are industrial applications where computer vision is used. On the other hand, when it comes to creating a general visual perception for computers, it is probably fair to say that less progress has been made, and the community is still struggling with fundamental problems. One of these problems is to reproduce our ability of grouping into meaningful regions, the visual input data recorded by an optical device. This procedure, called segmentation, separates a scene into meaningful entities (e.g., objects or actions). Segmentation seems not only natural but essential for people to fully understand a given scene, but it is still very challenging for a computer. One reason is the difficulty of clearly identify what ``meaningful'' should be, i.e., depending on the scene or the situation, a region may have different interpretations. In this thesis, we will focus on the segmentation task and will try to avoid this fundamental difficulty by considering segmentation as a weakly supervised learning problem. Instead of segmenting images according to some predefined definition of ``meaningful'' regions, we develop methods to segment multiple images jointly into entities that repeatedly appear across the set of images. In other words, we define ``meaningful'' regions from a statistical point of view: they are regions that appears frequently in a dataset, and we design procedures to discover them. This leads us to design models whose a scope goes beyond this application to vision. Our approach takes its roots in the field of machine learning, whose goal is to design efficient methods to retrieve and/or learn common patterns in data. The field of machine learning has also gained in popularity in the last decades due to the recent improvement in computer power and the ever growing size of databases now available. In this thesis, we focus on methods tailored to retrieving hidden information from poorly annotated data, i.e., with incomplete or partial annotations. In particular, given a specific segmentation task defined by a set of images, we aim at segmenting the images and learn a related model as to segment unannotated images. Finally, our research drives us to explore the field of numerical optimization so as to design algorithms especially tailored for our problems. In particular, many numerical problems considered in this thesis cannot be solved by off-the-shelf software because of the complexity of their formulation. We use and adapt recently developed tools to approximate problems by solvable ones. We illustrate the promise of our formulations and algorithms on other general applications in different fields beside computer vision. In particular, we show that our work may also be used in text classification and discovery of cell configurations.
|
287 |
Segmentace trhu pleťové kosmetiky / Segmentation of the facial care marketFialová, Zdeňka January 2010 (has links)
The main goal of the Master's Thesis is to discover significant differences in consumers' behaviour. Based on these differences it determinates and describes the segmenents of consumers. An important goal is to design marketing strategies for these segments as well. The theoretical part of the thesis includes the explanation of the segmentation process. The analytical part covers the characteristics of the Czech facial care market and the analysis of the Market&Media&Lifestyle data. The practical part of the thesis focuses on the process of segmentation using questionares and the IBM SPSS Statistics programme. The output of the thesis reveals three segments of the market and suggests relevant marketing strategies for them.
|
288 |
Filtrage, segmentation et suivi d'images échographiques : applications cliniques / Filtering, Segmentation and ultrasound images tracking. : clinical applications.Dahdouh, Sonia 23 September 2011 (has links)
La réalisation des néphrolithotomies percutanées est essentiellement conditionnée par la qualité dela ponction calicièle préalable. En effet, en cas d’échec de celle-ci, l’intervention ne peut avoir lieu.Réalisée le plus souvent sous échographie, sa qualité est fortement conditionnée par celle du retouréchographique, considéré comme essentiel par la deuxième consultation internationale sur la lithiase pour limiter les saignements consécutifs à l’intervention.L’imagerie échographique est largement plébiscitée en raison de son faible coût, de l’innocuité del’examen, liée à son caractère non invasif, de sa portabilité ainsi que de son excellente résolutiontemporelle ; elle possède toutefois une très faible résolution spatiale et souffre de nombreux artefacts tels que la mauvaise résolution des images, un fort bruit apparent et une forte dépendance àl’opérateur.L’objectif de cette thèse est de concevoir une méthode de filtrage des données échographiques ainsiqu’une méthode de segmentation et de suivi du rein sur des séquences ultrasonores, dans le butd’améliorer les conditions d’exécution d’interventions chirurgicales telles que les néphrolithotomiespercutanées.Le filtrage des données, soumis et publié dans SPIE 2010, est réalisé en exploitant le mode deformation des images : le signal radiofréquence est filtré directement, avant même la formation del’image 2D finale. Pour ce faire, nous utilisons une méthode basée sur les ondelettes, en seuillantdirectement les coefficients d’ondelettes aux différentes échelles à partir d’un algorithme de typesplit and merge appliqué avant reconstruction de l’image 2D.La méthode de suivi développée (une étude préliminaire a été publiée dans SPIE 2009), exploiteun premier contour fourni par le praticien pour déterminer, en utilisant des informations purementlocales, la position du contour sur l’image suivante de la séquence. L’image est transformée pourne plus être qu’un ensemble de vignettes caractérisées par leurs critères de texture et une premièresegmentation basée région est effectuée sur cette image des vignettes. Cette première étape effectuée, le contour de l’image précédente de la séquence est utilisé comme initialisation afin de recalculer le contour de l’image courante sur l’image des vignettes segmentée. L’utilisation d’informations locales nous a permis de développer une méthode facilement parallélisable, ce qui permettra de travailler dans une optique temps réel.La validation de la méthode de filtrage a été réalisée sur des signaux radiofréquence simulés. Laméthode a été comparée à différents algorithmes de l’état de l’art en terme de ratio signal sur bruitet de calcul de USDSAI. Les résultats ont montré la qualité de la méthode proposée comparativement aux autres. La méthode de segmentation, quant-à elle, a été validée sans filtrage préalable, sur des séquences 2D réelles pour un temps d’exécution sans optimisation, inférieur à la minute pour des images 512*512. / The achievement of percutaneous nephrolithotomies is mainly conditioned by the quality of the initial puncture. Indeed, if it is not well performed , the intervention cannot be fulfilled.In order to make it more accurate this puncture is often realized under ultrasound control. Thus the quality of the ultrasound feedback is very critical and when clear enough it greatly helps limiting bleeding.Thanks to its low cost, its non invasive nature and its excellent temporal resolution, ultrasound imaging is considered very appropriate for this purpose. However, this solution is not perfect it is characterized by a low spatial resolution and the results present artifacts due to a poor image resolution (compared to images provided by some other medical devices) and speckle noise.Finally this technic is greatly operator dependent.Aims of the work presented here are, first to design a filtering method for ultrasound data and then to develop a segmentation and tracking algorithm on kidney ultrasound sequences in order to improve the executing conditions of surgical interventions such as percutaneous nephrolithotomies.The results about data filtering was submitted and published in SPIE 2010. The method uses the way ultrasound images are formed to filter them: the radiofrequency signal is directly filtered, before the bi-dimensional reconstruction. In order to do so, a wavelet based method, thresholding directly wavelet coefficients at different scales has been developed. The method is based on a “split and merge” like algorithm.The proposed algorithm was validated on simulated signals and its results compared to the ones obtained with different state of the art algorithms. Experiments show that this new proposed approach is better.The segmentation and tracking method (of which a prospective study was published in SPIE 2009) uses a first contour given by a human expert and then determines, using only local informations, the position of the next contour on the following image of the sequence. The tracking technique was validated on real data with no previous filtering and successfully compared with state of the art methods.
|
289 |
Segmentation de l'os cortical pour la prédiction des fractures ostéoporotiques. Application à l'imagerie in vivo (HRpQCT). / Cortical bone segmentation for the prediction of osteoporotic fractures. Application in vivo (HRpQCT)Hafri, Mohamed 23 November 2017 (has links)
Cette thèse concerne la segmentation d’images HRpQCT et l’évaluation d’indices morphologiques de l’os cortical pour le diagnostic de l’ostéoporose et la prédiction des fractures osseuses. Dans un premier temps,deux méthodes sont proposées pour la segmentation de l’os cortical. La première utilise une nouvelle approche des contours actifs basée sur la logique floue suivie d’une nouvelle technique de remplissage développée pour imiter le comportement des opérateurs pour séparer l’os cortical de l’os trabéculaire. La deuxième approche est une technique 3D à double contours actifs combinant à la fois les informations locales le long et entre les deux contours. Les deux approches de segmentation sont comparées à celles de l’état de l’art afin de valider leurs performances. Dans un second temps, différents indices extraits de l’os cortical sont utilisés pour déterminer leur potentiel de prédiction des fractures ostéoporotiques. Les résultats obtenus montent que l’analyse globale de l’os cortical masque des variations potentiellement importantes.Par conséquent, une décomposition régionale de l’enveloppe corticale est proposée afin d’améliorer la prédiction du risque fracturaire. / This thesis concerns the segmentation of HRpQCT images and the evaluation of the cortical bone parameters for the osteoporosis characterization and the fracture prediction. Firstly, two approaches were proposed to segment the cortical bone. The first uses a new fuzzy energy active contours approach followed by a new filling technique designed to mimic the behaviour of clinicians while extracting the cortical bone from the trabecularone. The second approach is a local based 3D dual active contours approach proposed to separate between three regions constituting the image. To move, this approach combines the local information along each point in the two contours conjointly with the information between them. The segmentation results of these approaches were confronted to the state of the art methods to validate their performance. Secondly,different parameters were extracted from the segmented cortical bone to monitor the association of these parameters with the osteoporotic fracture prediction. Global analysis of the cortical bone obscures potentially important regional variations. Therefore, regional cortical decomposition was proposed to illustrate that cortical sub-regions could improve the evaluation of fracture risk than the global analysis of the cortical bone.
|
290 |
Un modèle de l'évolution des gliomes diffus de bas grade sous chimiothérapie / A model of the evolution of diffuse low-grade gliomas under chemotherapyBen Abdallah, Mériem 12 December 2016 (has links)
Les gliomes diffus de bas grade sont des tumeurs cérébrales des jeunes adultes. Dans cette thèse, nous nous intéressons à la segmentation et à la modélisation de ces tumeurs. Dans la première partie du manuscrit, nous étudions la segmentation des gliomes diffus de bas grade à base de différentes méthodes manuelles et semi-automatiques. La délimitation de ces tumeurs peut être problématique en raison de leur caractère très infiltrant et inhomogène. En pratique clinique, le suivi des gliomes diffus de bas grade repose sur l'estimation du volume tumoral, soit par une segmentation suivie d'une reconstruction logicielle, soit par la méthode des trois diamètres. Pour la segmentation, elle est manuelle et est exécutée par des praticiens sur des IRM en pondération FLAIR ou T2. La méthode des trois diamètres est rapide mais s'avère difficile à implémenter dans le cas de gliomes diffus de bas grade très infiltrants ou en post-traitement. La solution par segmentation manuelle et reconstruction logicielle du volume est chronophage mais demeure plus précise en comparaison de la méthode des trois diamètres. Nous étudions ici la reproductibilité de la segmentation manuelle avec le logiciel OsiriX en réalisant un test subjectif dans le Living Lab PROMETEE de TELECOM Nancy. Les résultats de cette étude montrent que ni la spécialité du praticien ni le nombre d’années d’expérience ne semblent impacter significativement la qualité de la segmentation. Nous comparons par ailleurs les résultats obtenus à ceux d'un deuxième test où nous appliquons la méthode des trois diamètres. Enfin, nous explorons deux algorithmes de segmentation semi-automatique basés, respectivement, sur les contours actifs et sur la méthode des level set. Même si la segmentation automatique semble être une voie prometteuse, nous recommandons aujourd’hui l’utilisation de la segmentation manuelle du fait notamment du caractère diffus des gliomes de bas grade qui rend le contour complexe à délimiter. La seconde partie du manuscrit est consacrée à la modélisation des gliomes diffus de bas grade eux-mêmes ou, plus exactement, à la modélisation de l'évolution du diamètre tumoral en phase de chimiothérapie. La prise en charge thérapeutique des patients atteints de ces tumeurs inclut en effet souvent une chimiothérapie. Pour ce travail, nous nous intéressons à la chimiothérapie par Témozolomide en première ligne de traitement. Une fois le traitement entamé, les praticiens aimeraient déterminer l'instant optimal d'arrêt de traitement. Nous proposons une modélisation statistique du diamètre tumoral sous chimiothérapie. Cette modélisation s'appuie sur des modèles de régression linéaire et exponentielle. Elle permet de prédire le diamètre tumoral à partir d'un jeu de données d'apprentissage et d'alerter le clinicien sur l'état d'évolution du diamètre sous traitement. Nous espérons que ces modèles pourront un jour être utilisés comme un outil dans la planification de la chimiothérapie en milieu clinique. / Diffuse low-grade gliomas are brain tumors of young adults. In this thesis, we focus on the segmentation and on the modeling of these tumors. In the first part of the manuscript, we study the segmentation of diffuse low-grade gliomas based on different manual and semi-automatic methods. The delineation of these tumors can be problematic because of their very infiltrating and inhomogeneous nature. In clinical practice, the monitoring of diffuse low-grade gliomas is based on the estimation of tumor volume, obtained either through a segmentation followed by a software reconstruction or through the three diameters method. As for the segmentation, it is manual and it is performed by practitioners on FLAIR-weighted or T2-weighted MRI.The three diameters approach is fast but it is difficult to implement in the case of highly infiltrating diffuse low grade gliomas or after a treatment. The manual segmentation and software-based volume reconstruction solution is time-consuming but it remains more accurate in comparison with the three diameters method. We investigate in this work the reproducibility of the manual segmentation with the OsiriX software by performing a subjective test in the Living Lab PROMETEE in TELECOM Nancy. The results of this study show that neither the practitioners' specialty nor their number of years of experience seem to have a significant impact on the quality of the segmentation. We also compare the results to those of a second test where we apply the three diameters method. Finally, we explore two semi-automatic segmentation algorithms which are, respectively, based on active contours and on the level set method. Even if automatic segmentation seems to be a promising avenue, we recommend for now the use of manual segmentation because of the diffuse nature of low-grade gliomas, which makes the tumor's contours complex to delineate. The second part of the manuscript is dedicated to the modeling of diffuse low-grade gliomas themselves or, to be more precise, to the modeling of the evolution of the tumor's diameter during chemotherapy. The therapeutic management of patients with these tumors often includes indeed chemotherapy. For this work, we focus on Temozolomide chemotherapy in first-line treatment. After the beginning of the treatment, the practitioners would like to determine the optimum time of discontinuation. We propose a statistical modeling of tumor diameter under chemotherapy. This modeling is based on linear and exponential regression models. It can predict the tumor diameter from a set of training dataset and can alert the clinician on the state of change in diameter under treatment. We hope that these models will, eventually, be used as a tool in the planning of chemotherapy in a clinical environment.
|
Page generated in 0.1183 seconds