• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 2
  • 2
  • 1
  • Tagged with
  • 11
  • 11
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Unsupervised Segmentation of Time Series Data

Svensson, Martin January 2021 (has links)
In a modern vehicle system the amount of data generated are time series large enough for big data. Many of the time series contains interesting patterns, either densely populated or scarcely distributed over the data. For engineers to review the data a segmentation is crucial for data reduction, which is why this thesis investigates unsupervised segmentation of time series. This report uses two different methods, Fast Low-cost Unipotent Semantic Segmentation (FLUSS) and  Information Gain-based Temporal Segmentation (IGTS). These have different approaches, shape and statistical respectively. The goal is to evaluate the strength and weaknesses on tailored time series data, that has properties suiting one or more of the models. The data is constructed from an open dataset, the cricket dataset, that contains labelled segments. These are then concatenated to create datasets with specific properties. Evaluation metrics suitable for segmentation are discussed and evaluated. From the experiments it is clear that all models has strength and weaknesses, so outcome will depend on the data and model combination.  The shape based model, FLUSS, cannot handle reoccurring events or regimes. However, linear transitions between regimes, e.g. A to B to C, gives very good results if the regimes are not too similar. Statistical model, IGTS, yields a non-intuitive segmentation for humans, but could be a good way to reduce data in a preprocess step. It does have the ability to automatically reduce the number of segments to the optimal value based on entropy, which depending on the goal can be desirable or not.  Overall the methods delivered at worst the same as the random segmentation model, but in every test one or more models has better results than this baseline model. Unsupervised segmentation of time series is a difficult problem and will be highly dependent on the target data.
2

Domain Adaptation for Multi-Contrast Image Segmentation in Cardiac Magnetic Resonance Imaging / Domänanpassning för segmentering av bilder med flera kontraster vid Magnetresonanstomografi av hjärta

Proudhon, Thomas January 2023 (has links)
Accurate segmentation of the ventricles and myocardium on Cardiac Magnetic Resonance (CMR) images is crucial to assess the functioning of the heart or to diagnose patients suffering from myocardial infarction. However, the domain shift existing between the multiple sequences of CMR data prevents a deep learning model trained on a specific contrast to be used on a different sequence. Domain adaptation can address this issue by alleviating the domain shift between different CMR contrasts, such as Balanced Steady-State Free Precession (bSSFP) and Late Gadolinium Enhancement (LGE) sequences. The aim of the degree project “Domain Adaptation for Multi-Contrast Image Segmentation in Cardiac Magnetic Resonance Imaging” is to apply domain adaptation to perform unsupervised segmentation of cardiac structures on LGE sequences. A style-transfer model based on generative adversarial networks is trained to achieve modality-to-modality translation between LGE and bSSFP contrasts. Then, a supervised segmentation model is developed to segment the myocardium, left and right ventricles on bSSFP data. Final segmentation is performed on synthetic bSSFP obtained by translating LGE images. Our method shows a significant increase in Dice score compared to direct segmentation of LGE data. In conclusion, the results demonstrate that using domain adaptation based on information from complementary CMR sequences is a successful approach to unsupervised segmentation of Late Gadolinium Enhancement images.
3

Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive / Gesture Segmentation and Recognition for Cognitive Human-Robot Interaction

Simao, Miguel 17 December 2018 (has links)
Cette thèse présente un cadre formel pour l'interaction Homme-robot (HRI), qui reconnaître un important lexique de gestes statiques et dynamiques mesurés par des capteurs portatifs. Gestes statiques et dynamiques sont classés séparément grâce à un processus de segmentation. Les tests expérimentaux sur la base de données de gestes UC2017 ont montré une haute précision de classification. La classification pas à pas en ligne utilisant des données brutes est fait avec des réseaux de neurones profonds « Long-Short Term Memory » (LSTM) et à convolution (CNN), et sont plus performants que les modèles statiques entraînés avec des caractéristiques spécialement conçues, au détriment du temps d'entraînement et d'inférence. La classification en ligne des gestes permet une classification prédictive avec réussit. Le rejet des gestes hors vocabulaire est proposé par apprentissage semi-supervisé par un réseau de neurones du type « Auxiliary Conditional Generative Adversarial Networks ». Le réseau propose a atteint une haute précision de rejet de les gestes non entraînés de la base de données UC2018 DualMyo. / This thesis presents a human-robot interaction (HRI) framework to classify large vocabularies of static and dynamic hand gestures, captured with wearable sensors. Static and dynamic gestures are classified separately thanks to the segmentation process. Experimental tests on the UC2017 hand gesture dataset showed high accuracy. In online frame-by-frame classification using raw incomplete data, Long Short-Term Memory (LSTM) deep networks and Convolutional Neural Networks (CNN) performed better than static models with specially crafted features at the cost of training and inference time. Online classification of dynamic gestures allows successful predictive classification. The rejection of out-of-vocabulary gestures is proposed to be done through semi-supervised learning of a network in the Auxiliary Conditional Generative Adversarial Networks framework. The proposed network achieved a high accuracy on the rejection of untrained patterns of the UC2018 DualMyo dataset.
4

Segmentação não supervisionada de imagens de sensoriamento remoto por minimização da entropia cruzada / Unsupervised segmentation of remote sensing images by cross entropy minimization

Santana, Eduardo Freire 30 August 2014 (has links)
Made available in DSpace on 2015-05-14T12:36:53Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2394889 bytes, checksum: 5c6ccaa494934050681761ba80143978 (MD5) Previous issue date: 2014-08-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Remote sensing is one of the fastest growing technologies of late twentieth and early twenty-first century. The most common use of this term is related to the optical sensing of Earth's surface through satellites. In remote sensing, image segmentation is a process often used to aid in landscape change detection and land use classification. This study aims the research and development of a new method for unsupervised segmentation of remote sensing images by minimizing the cross entropy between the probability distribution of the image and some statistical model. Images used for tests were captured by the Thematic Mapper sensor on Landsat 5 satellite. The proposed algorithm takes an initial segmentation and progresses iteratively, trying to improve the statistical model and reduce the cross entropy with respect to previous iterations. Results indicate that the cross entropy minimization is related to a consistent image segmentation. Two approaches were developed, one by performing a per-pixel classification and the other by classifying regions obtained by the Watershed transform. In per-pixel approach, the average agreement between the classifier and the thematic image used as ground truth was 88.75% for fifteen selected images and 91.81% for four small regions that represent details of land use transitions, such as vegetation, rivers, pastures and exposed soil. In region approach, the average agreement was 87.33% for images and 91.81% for details. The ground truth for image details was manually created by an expert. / Sensoriamento remoto é uma das tecnologias que mais rapidamente cresceu durante o final do século XX e início do século XXI. O uso mais comum deste termo refere-se à observação da superfície terrestre por meio de satélites. Em sensoriamento remoto, segmentação de imagens é um processo frequentemente utilizado no auxílio à detecção de mudança de paisagens e classificação do uso do solo. Este trabalho se propõe à pesquisa e ao desenvolvimento de um método para segmentação não supervisionada de imagens de sensoriamento remoto baseado na minimização da entropia cruzada entre a distribuição de probabilidade da imagem e um modelo estatístico. Para os testes realizados, foram utilizadas quinze imagens capturadas pelo sensor TM (Thematic Mapper) do satélite Landsat 5. A partir do banco de dados do projeto de mapeamento do uso do solo da região amazônica TerraClass, foram derivadas imagens temáticas utilizadas como referência para medir o desempenho do classificador desenvolvido. O algoritmo proposto parte de uma segmentação inicial e busca iterativamente melhorar o modelo estatístico que descreve a imagem, de forma a reduzir a entropia cruzada em relação à iteração anterior. Os resultados indicam que a minimização da entropia cruzada está relacionada com uma segmentação coerente das imagens. Duas abordagens de segmentação foram desenvolvidas, uma realizando classificação pixel a pixel e outra classificando regiões obtidas pela transformada Watershed. Na abordagem por pixel, a concordância média entre o classificador e a imagem temática de referência foi de 88,75% para as quinze imagens selecionadas e de 91,81% para quatro pequenas regiões que representam detalhes de transição entre hidrografia, vegetação e outras paisagens, como área urbana, pastos e solo exposto. Na abordagem por região, a concordância média foi de 87,33% para as imagens e 91,81% para os detalhes. As imagens de referência dos detalhes foram preparadas manualmente por um especialista.
5

Segmentação não supervisionada de texturas baseada no algoritmo ppm

Nascimento, Tiago Dias Carvalho do 26 March 2010 (has links)
Made available in DSpace on 2015-05-14T12:36:57Z (GMT). No. of bitstreams: 1 parte1.pdf: 1278902 bytes, checksum: c1a877f74ec783e6525701070c717a4d (MD5) Previous issue date: 2010-03-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The image segmentation problem is present in various tasks such as remote sensing, object detection in robotics, industrial automation, content based image retrieval, security, and others related to medicine. When there is a set of pre-classified data, segmentation is called supervised. In the case of unsupervised segmentation, the classes are extracted directly from the data. Among the image properties, the texture is among those that provide the best results in the segmentation process. This work proposes a new unsupervised texture segmentation method that uses as the similarity measure between regions the bit rate obtained from compression using models, produced by the Prediction by Partial Matching (PPM) algorithm, extracted from them. To segment an image, it is split in rectangular adjacent regions and each of them is assigned to a different cluster. Then a greedy agglomerative clustering algorithm, in which the two closest clusters are grouped at every step, is applied until the number of remaining clusters is equal to the number of classes (supplied by the user). In order to improve the localization of the region boundaries, the image is then split in shorter regions, that are assigned to the cluster whose PPM model results in lower bit rate. To evaluate the proposed method, three image set were used: Trygve Randen, Timo Ojala and one created by the author of this work. By adjusting the method parameters for each image, the hit rate obtained was around 97% in most cases and 100% in several of them. The proposed method, whose main drawback is the complexity order, is robust to regions with different geometric shapes, grouping correctly even those that are disconnected. / O problema da segmentação de imagens está presente em diversas tarefas como sensoriamento remoto, detecção de objetos em robótica, automação industrial, recuperação de imagens por conteúdo, segurança, e outras relacionadas à medicina. Quando há um conjunto de padrões pré-classificados, a segmentação é denominada supervisionada. No caso da segmentação não supervisionada, as classes são extraídas diretamente dos padrões. Dentre as propriedades de uma imagem, a textura está entre as que proporcionam os melhores resultados no processo de segmentação. Este trabalho propõe um novo método de segmentação não supervisionada de texturas que utiliza como medida de similaridade entre regiões as taxas de bits resultantes da compressão utilizando modelos produzidos pelo algoritmo Prediction by Partial Matching (PPM) extraídos das mesmas. Para segmentar uma imagem, a mesma é dividida em regiões retangulares adjacentes e cada uma delas é atribuída a um grupo distinto. Um algoritmo aglomerativo guloso, que une os dois grupos mais próximos em cada iteração, é aplicado até que o número de grupos seja igual ao número de classes (fornecido pelo usuário). Na etapa seguinte, cujo objetivo é refinar a localização das fronteiras, a imagem é dividida em regiões ainda menores, as quais são atribuídas ao agrupamento cujo modelo PPM resulta na taxa de bits mais baixa. Para avaliar o método proposto, foram utilizados três bancos de imagens: o de Trygve Randen, o de Timo Ojala e um criado pelo autor deste trabalho. Ajustando-se os parâmetros do método para cada imagem, a taxa de acerto obtida foi em torno de 97% na maioria dos casos e 100% em vários deles. O método proposto, cuja principal desvantagem é a ordem de complexidade, se mostrou robusto a regiões de diferentes formas geométricas, agrupando corretamente até mesmo as desconexas.
6

Fusion d'informations par la théorie de l'évidence pour la segmentation d'images / Information fusion using theory of evidence for image segmentation

Chahine, Chaza 31 October 2016 (has links)
La fusion d’informations a été largement étudiée dans le domaine de l’intelligence artificielle. Une information est en général considérée comme imparfaite. Par conséquent, la combinaison de plusieurs sources d’informations (éventuellement hétérogènes) peut conduire à une information plus globale et complète. Dans le domaine de la fusion on distingue généralement les approches probabilistes et non probabilistes dont fait partie la théorie de l’évidence, développée dans les années 70. Cette méthode permet de représenter à la fois, l’incertitude et l’imprécision de l’information, par l’attribution de fonctions de masses qui s’appliquent non pas à une seule hypothèse (ce qui est le cas le plus courant pour les méthodes probabilistes) mais à un ensemble d’hypothèses. Les travaux présentés dans cette thèse concernent la fusion d’informations pour la segmentation d’images.Pour développer cette méthode nous sommes partis de l’algorithme de la « Ligne de Partage des Eaux » (LPE) qui est un des plus utilisés en détection de contours. Intuitivement le principe de la LPE est de considérer l’image comme un relief topographique où la hauteur d’un point correspond à son niveau de gris. On suppose alors que ce relief se remplit d’eau par des sources placées au niveau des minima locaux de l’image, formant ainsi des bassins versants. Les LPE sont alors les barrages construits pour empêcher les eaux provenant de différents bassins de se mélanger. Un problème de cette méthode de détection de contours est que la LPE directement appliquée sur l’image engendre une sur-segmentation, car chaque minimum local engendre une région. Meyer et Beucher ont proposé de résoudre cette question en spécifiant un ensemble de marqueurs qui seront les seules sources d’inondation du relief. L'extraction automatique des marqueurs à partir des images ne conduit pas toujours à un résultat satisfaisant, en particulier dans le cas d'images complexes. Plusieurs méthodes ont été proposées pour déterminer automatiquement ces marqueurs.Nous nous sommes en particulier intéressés à l’approche stochastique d’Angulo et Jeulin qui estiment une fonction de densité de probabilité (fdp) d'un contour (LPE) après M simulations de la segmentation LPE classique. N marqueurs sont choisis aléatoirement pour chaque réalisation. Par conséquent, une valeur de fdp élevée est attribuée aux points de contours correspondant aux fortes réalisations. Mais la décision d’appartenance d’un point à la « classe contour » reste dépendante d’une valeur de seuil. Un résultat unique ne peut donc être obtenu.Pour augmenter la robustesse de cette méthode et l’unicité de sa réponse, nous proposons de combiner des informations grâce à la théorie de l’évidence.La LPE se calcule généralement à partir de l’image gradient, dérivée du premier ordre, qui donne une information globale sur les contours dans l’image. Alors que la matrice Hessienne, matrice des dérivées d’ordre secondaire, donne une information plus locale sur les contours. Notre objectif est donc de combiner ces deux informations de nature complémentaire en utilisant la théorie de l’évidence. Les différentes versions de la fusion sont testées sur des images réelles de la base de données Berkeley. Les résultats sont comparés avec cinq segmentations manuelles fournies, en tant que vérités terrain, avec cette base de données. La qualité des segmentations obtenues par nos méthodes sont fondées sur différentes mesures: l’uniformité, la précision, l’exactitude, la spécificité, la sensibilité ainsi que la distance métrique de Hausdorff / Information fusion has been widely studied in the field of artificial intelligence. Information is generally considered imperfect. Therefore, the combination of several sources of information (possibly heterogeneous) can lead to a more comprehensive and complete information. In the field of fusion are generally distinguished probabilistic approaches and non-probabilistic ones which include the theory of evidence, developed in the 70s. This method represents both the uncertainty and imprecision of the information, by assigning masses not only to a hypothesis (which is the most common case for probabilistic methods) but to a set of hypothesis. The work presented in this thesis concerns the fusion of information for image segmentation.To develop this method we start with the algorithm of Watershed which is one of the most used methods for edge detection. Intuitively the principle of the Watershed is to consider the image as a landscape relief where heights of the different points are associated with grey levels. Assuming that the local minima are pierced with holes and the landscape is immersed in a lake, the water filled up from these minima generate the catchment basins, whereas watershed lines are the dams built to prevent mixing waters coming from different basins.The watershed is practically applied to the gradient magnitude, and a region is associated with each minimum. Therefore the fluctuations in the gradient image and the great number of local minima generate a large set of small regions yielding an over segmented result which can hardly be useful. Meyer and Beucher proposed seeded watershed or marked-controlled watershed to surmount this oversegmentation problem. The essential idea of the method is to specify a set of markers (or seeds) to be considered as the only minima to be flooded by water. The number of detected objects is therefore equal to the number of seeds and the result is then markers dependent. The automatic extraction of markers from the images does not lead to a satisfying result especially in the case of complex images. Several methods have been proposed for automatically determining these markers.We are particularly interested in the stochastic approach of Angulo and Jeulin who calculate a probability density function (pdf) of contours after M simulations of segmentation using conventional watershed with N markers randomly selected for each simulation. Therefore, a high pdf value is assigned to strong contour points that are more detected through the process. But the decision that a point belong to the "contour class" remains dependent on a threshold value. A single result cannot be obtained.To increase the robustness of this method and the uniqueness of its response, we propose to combine information with the theory of evidence.The watershed is generally calculated on the gradient image, first order derivative, which gives comprehensive information on the contours in the image.While the Hessian matrix, matrix of second order derivatives, gives more local information on the contours. Our goal is to combine these two complementary information using the theory of evidence. The method is tested on real images from the Berkeley database. The results are compared with five manual segmentation provided as ground truth, with this database. The quality of the segmentation obtained by our methods is tested with different measures: uniformity, precision, recall, specificity, sensitivity and the Hausdorff metric distance
7

Segmentation de documents administratifs en couches couleur / Segmentation of administrative document images into color layers

Carel, Elodie 08 October 2015 (has links)
Les entreprises doivent traiter quotidiennement de gros volumes de documents papiers de toutes sortes. Automatisation, traçabilité, alimentation de systèmes d’informations, réduction des coûts et des délais de traitement, la dématérialisation a un impact économique évident. Pour respecter les contraintes industrielles, les processus historiques d’analyse simplifient les images grâce à une séparation fond/premier-plan. Cependant, cette binarisation peut être source d’erreurs lors des étapes de segmentation et de reconnaissance. Avec l’amélioration des techniques, la communauté d’analyse de documents a montré un intérêt croissant pour l’intégration d’informations colorimétriques dans les traitements, ceci afin d’améliorer leurs performances. Pour respecter le cadre imposé par notre partenaire privé, l’objectif était de mettre en place des processus non supervisés. Notre but est d’être capable d’analyser des documents même rencontrés pour la première fois quels que soient leurs contenus, leurs structures, et leurs caractéristiques en termes de couleurs. Les problématiques de ces travaux ont été d’une part l’identification d’un nombre raisonnable de couleurs principales sur une image ; et d’autre part, le regroupement en couches couleur cohérentes des pixels ayant à la fois une apparence colorimétrique très proche, et présentant une unité logique ou sémantique. Fournies sous forme d’un ensemble d’images binaires, ces couches peuvent être réinjectées dans la chaîne de dématérialisation en fournissant une alternative à l’étape de binarisation classique. Elles apportent en plus des informations complémentaires qui peuvent être exploitées dans un but de segmentation, de localisation, ou de description. Pour cela, nous avons proposé une segmentation spatio-colorimétrique qui permet d’obtenir un ensemble de régions locales perceptuellement cohérentes appelées superpixels, et dont la taille s’adapte au contenu spécifique des images de documents. Ces régions sont ensuite regroupées en couches couleur globales grâce à une analyse multi-résolution. / Industrial companies receive huge volumes of documents everyday. Automation, traceability, feeding information systems, reducing costs and processing times, dematerialization has a clear economic impact. In order to respect the industrial constraints, the traditional digitization process simplifies the images by performing a background/foreground separation. However, this binarization can lead to some segmentation and recognition errors. With the improvements of technology, the community of document analysis has shown a growing interest in the integration of color information in the process to enhance its performance. In order to work within the scope provided by our industrial partner in the digitization flow, an unsupervised segmentation approach was chosen. Our goal is to be able to cope with document images, even when they are encountered for the first time, regardless their content, their structure, and their color properties. To this end, the first issue of this project was to identify a reasonable number of main colors which are observable on an image. Then, we aim to group pixels having both close color properties and a logical or semantic unit into consistent color layers. Thus, provided as a set of binary images, these layers may be reinjected into the digitization chain as an alternative to the conventional binarization. Moreover, they also provide extra-information about colors which could be exploited for segmentation purpose, elements spotting, or as a descriptor. Therefore, we have proposed a spatio-colorimetric approach which gives a set of local regions, known as superpixels, which are perceptually meaningful. Their size is adapted to the content of the document images. These regions are then merged into global color layers by means of a multiresolution analysis.
8

Représentation et enregistrement de formes visuelles 3D à l'aide de Laplacien graphe et noyau de la chaleur / Representation & Registration of 3D Visual Shapes using Graph Laplacian and Heat Kernel

Sharma, Avinash 29 October 2012 (has links)
Analyse de la forme 3D est un sujet de recherche extrêmement actif dans les deux l'infographie et vision par ordinateur. Dans la vision par ordinateur, l'acquisition de formes et de modélisation 3D sont généralement le résultat du traitement des données complexes et des méthodes d'analyse de données. Il existe de nombreuses situations concrètes où une forme visuelle est modélisé par un nuage de points observés avec une variété de capteurs 2D et 3D. Contrairement aux données graphiques, les données sensorielles ne sont pas, dans le cas général, uniformément répartie sur toute la surface des objets observés et ils sont souvent corrompus par le bruit du capteur, les valeurs aberrantes, les propriétés de surface (diffusion, spécularités, couleur, etc), l'auto occlusions, les conditions d'éclairage variables. Par ailleurs, le même objet que l'on observe par différents capteurs, à partir de points de vue légèrement différents, ou à des moments différents cas peuvent donner la répartition des points tout à fait différentes, des niveaux de bruit et, plus particulièrement, les différences topologiques, par exemple, la fusion des mains. Dans cette thèse, nous présentons une représentation de multi-échelle des formes articulés et concevoir de nouvelles méthodes d'analyse de forme, en gardant à l'esprit les défis posés par les données de forme visuelle. En particulier, nous analysons en détail le cadre de diffusion de chaleur pour représentation multi-échelle de formes 3D et proposer des solutions pour la segmentation et d'enregistrement en utilisant les méthodes spectrales graphique et divers algorithmes d'apprentissage automatique, à savoir, le modèle de mélange gaussien (GMM) et le Espérance-Maximisation (EM). Nous présentons d'abord l'arrière-plan mathématique sur la géométrie différentielle et l'isomorphisme graphique suivie par l'introduction de la représentation spectrale de formes 3D articulés. Ensuite, nous présentons une nouvelle méthode non supervisée pour la segmentation de la forme 3D par l'analyse des vecteurs propres Laplacien de graphe. Nous décrivons ensuite une solution semi-supervisé pour la segmentation de forme basée sur un nouveau paradigme d'apprendre, d'aligner et de transférer. Ensuite, nous étendre la représentation de forme 3D à une configuration multi-échelle en décrivant le noyau de la chaleur cadre. Enfin, nous présentons une méthode d'appariement dense grâce à la représentation multi-échelle de la chaleur du noyau qui peut gérer les changements topologiques dans des formes visuelles et de conclure par une discussion détaillée et l'orientation future des travaux. / 3D shape analysis is an extremely active research topic in both computer graphics and computer vision. In computer vision, 3D shape acquisition and modeling are generally the result of complex data processing and data analysis methods. There are many practical situations where a visual shape is modeled by a point cloud observed with a variety of 2D and 3D sensors. Unlike the graphical data, the sensory data are not, in the general case, uniformly distributed across the surfaces of the observed objects and they are often corrupted by sensor noise, outliers, surface properties (scattering, specularities, color, etc.), self occlusions, varying lighting conditions. Moreover, the same object that is observed by different sensors, from slightly different viewpoints, or at different time instances may yield completely different point distributions, noise levels and, most notably, topological differences, e.g., merging of hands. In this thesis we outline single and multi-scale representation of articulated 3D shapes and devise new shape analysis methods, keeping in mind the challenges posed by visual shape data. In particular, we discuss in detail the heat diffusion framework for multi-scale shape representation and propose solutions for shape segmentation and dense shape registration using the spectral graph methods and various other machine learning algorithms, namely, the Gaussian Mixture Model (GMM) and the Expectation Maximization (EM). We first introduce the mathematical background on differential geometry and graph isomorphism followed by the introduction of pose-invariant spectral embedding representation of 3D articulated shapes. Next we present a novel unsupervised method for visual shape segmentation by analyzing the Laplacian eigenvectors. We then outline a semi-supervised solution for shape segmentation based upon a new learn, align and transfer paradigm. Next we extend the shape representation to a multi-scale setup by outlining the heat-kernel framework. Finally, we present a topologically-robust dense shape matching method using the multi-scale heat kernel representation and conclude with a detailed discussion and future direction of work.
9

Modèles statistiques avancés pour la segmentation non supervisée des images dégradées de l'iris / Advanced statistical models for unsupervised segmentation of degraded iris images

Yahiaoui, Meriem 11 July 2017 (has links)
L'iris est considérée comme une des modalités les plus robustes et les plus performantes en biométrie à cause de ses faibles taux d'erreurs. Ces performances ont été observées dans des situations contrôlées, qui imposent des contraintes lors de l'acquisition pour l'obtention d'images de bonne qualité. Relâcher ces contraintes, au moins partiellement, implique des dégradations de la qualité des images acquises et par conséquent une réduction des performances de ces systèmes. Une des principales solutions proposées dans la littérature pour remédier à ces limites est d'améliorer l'étape de segmentation de l'iris. L'objectif principal de ce travail de thèse a été de proposer des méthodes originales pour la segmentation des images dégradées de l'iris. Les chaînes de Markov ont été déjà proposées dans la littérature pour résoudre des problèmes de segmentation d'images. Dans ce cadre, une étude de faisabilité d'une segmentation non supervisée des images dégradées d'iris en régions par les chaînes de Markov a été réalisée, en vue d'une future application en temps réel. Différentes transformations de l'image et différentes méthodes de segmentation grossière pour l'initialisation des paramètres ont été étudiées et comparées. Les modélisations optimales ont été introduites dans un système de reconnaissance de l'iris (avec des images en niveaux de gris) afin de produire une comparaison avec les méthodes existantes. Finalement une extension de la modélisation basée sur les chaînes de Markov cachées, pour une segmentation non supervisée des images d'iris acquises en visible, a été mise en place / Iris is considered as one of the most robust and efficient modalities in biometrics because of its low error rates. These performances were observed in controlled situations, which impose constraints during the acquisition in order to have good quality images. The renouncement of these constraints, at least partially, implies degradations in the quality of the acquired images and it is therefore a degradation of these systems’ performances. One of the main proposed solutions in the literature to take into account these limits is to propose a robust approach for iris segmentation. The main objective of this thesis is to propose original methods for the segmentation of degraded images of the iris. Markov chains have been well solicited to solve image segmentation problems. In this context, a feasibility study of unsupervised segmentation into regions of degraded iris images by Markov chains was performed. Different image transformations and different segmentation methods for parameters initialization have been studied and compared. Optimal modeling has been inserted in iris recognition system (with grayscale images) to produce a comparison with the existing methods. Finally, an extension of the modeling based on the hidden Markov chains has been developed in order to realize an unsupervised segmentation of the iris images acquired in visible light
10

Modèles graphiques évidentiels / Evidential graphical models

Boudaren, Mohamed El Yazid 12 January 2014 (has links)
Les modélisations par chaînes de Markov cachées permettent de résoudre un grand nombre de problèmes inverses se posant en traitement d’images ou de signaux. En particulier, le problème de segmentation figure parmi les problèmes où ces modèles ont été le plus sollicités. Selon ces modèles, la donnée observable est considérée comme une version bruitée de la segmentation recherchée qui peut être modélisée à travers une chaîne de Markov à états finis. Des techniques bayésiennes permettent ensuite d’estimer cette segmentation même dans le contexte non-supervisé grâce à des algorithmes qui permettent d’estimer les paramètres du modèle à partir de l’observation seule. Les chaînes de Markov cachées ont été ultérieurement généralisées aux chaînes de Markov couples et triplets, lesquelles offrent plus de possibilités de modélisation tout en présentant des complexités de calcul comparables, permettant ainsi de relever certains défis que les modélisations classiques ne supportent pas. Un lien intéressant a également été établi entre les modèles de Markov triplets et la théorie de l’évidence de Dempster-Shafer, ce qui confère à ces modèles la possibilité de mieux modéliser les données multi-senseurs. Ainsi, dans cette thèse, nous abordons trois difficultés qui posent problèmes aux modèles classiques : la non-stationnarité du processus caché et/ou du bruit, la corrélation du bruit et la multitude de sources de données. Dans ce cadre, nous proposons des modélisations originales fondées sur la très riche théorie des chaînes de Markov triplets. Dans un premier temps, nous introduisons les chaînes de Markov à bruit M-stationnaires qui tiennent compte de l’aspect hétérogène des distributions de bruit s’inspirant des chaînes de Markov cachées M-stationnaires. Les chaînes de Markov cachée ML-stationnaires, quant à elles, considèrent à la fois la loi a priori et les densités de bruit non-stationnaires. Dans un second temps, nous définissons deux types de chaînes de Markov couples non-stationnaires. Dans le cadre bayésien, nous introduisons les chaînes de Markov couples M-stationnaires puis les chaînes de Markov couples MM-stationnaires qui considèrent la donnée stationnaire par morceau. Dans le cadre évidentiel, nous définissons les chaînes de Markov couples évidentielles modélisant l’hétérogénéité du processus caché par une fonction de masse. Enfin, nous présentons les chaînes de Markov multi-senseurs non-stationnaires où la fusion de Dempster-Shafer est employée à la fois pour modéliser la non-stationnarité des données (à l’instar des chaînes de Markov évidentielles cachées) et pour fusionner les informations provenant des différents senseurs (comme dans les champs de Markov multi-senseurs). Pour chacune des modélisations proposées, nous décrivons les techniques de segmentation et d’estimation des paramètres associées. L’intérêt de chacune des modélisations par rapport aux modélisations classiques est ensuite démontré à travers des expériences menées sur des données synthétiques et réelles / Hidden Markov chains (HMCs) based approaches have been shown to be efficient to resolve a wide range of inverse problems occurring in image and signal processing. In particular, unsupervised segmentation of data is one of these problems where HMCs have been extensively applied. According to such models, the observed data are considered as a noised version of the requested segmentation that can be modeled through a finite Markov chain. Then, Bayesian techniques such as MPM can be applied to estimate this segmentation even in unsupervised way thanks to some algorithms that make it possible to estimate the model parameters from the only observed data. HMCs have then been generalized to pairwise Markov chains (PMCs) and triplet Markov chains (TMCs), which offer more modeling possibilities while showing comparable computational complexities, and thus, allow to consider some challenging situations that the conventional HMCs cannot support. An interesting link has also been established between the Dempster-Shafer theory of evidence and TMCs, which give to these latter the ability to handle multisensor data. Hence, in this thesis, we deal with three challenging difficulties that conventional HMCs cannot handle: nonstationarity of the a priori and/or noise distributions, noise correlation, multisensor information fusion. For this purpose, we propose some original models in accordance with the rich theory of TMCs. First, we introduce the M-stationary noise- HMC (also called jumping noise- HMC) that takes into account the nonstationary aspect of the noise distributions in an analogous manner with the switching-HMCs. Afterward, ML-stationary HMC consider nonstationarity of both the a priori and/or noise distributions. Second, we tackle the problem of non-stationary PMCs in two ways. In the Bayesian context, we define the M-stationary PMC and the MM-stationary PMC (also called switching PMCs) that partition the data into M stationary segments. In the evidential context, we propose the evidential PMC in which the realization of the hidden process is modeled through a mass function. Finally, we introduce the multisensor nonstationary HMCs in which the Dempster-Shafer fusion has been used on one hand, to model the data nonstationarity (as done in the hidden evidential Markov chains) and on the other hand, to fuse the information provided by the different sensors (as in the multisensor hidden Markov fields context). For each of the proposed models, we describe the associated segmentation and parameters estimation procedures. The interest of each model is also assessed, with respect to the former ones, through experiments conducted on synthetic and real data

Page generated in 0.1055 seconds