• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 276
  • 82
  • 58
  • 25
  • 17
  • 7
  • 6
  • 6
  • 5
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 588
  • 588
  • 153
  • 116
  • 107
  • 96
  • 85
  • 84
  • 81
  • 80
  • 74
  • 72
  • 70
  • 69
  • 64
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
481

Large-scale 3D environmental modelling and visualisation for flood hazard warning

Wang, Chen January 2009 (has links)
3D environment reconstruction has received great interest in recent years in areas such as city planning, virtual tourism and flood hazard warning. With the rapid development of computer technologies, it has become possible and necessary to develop new methodologies and techniques for real time simulation for virtual environments applications. This thesis proposes a novel dynamic simulation scheme for flood hazard warning. The work consists of three main parts: digital terrain modelling; 3D environmental reconstruction and system development; flood simulation models. The digital terrain model is constructed using real world measurement data of GIS, in terms of digital elevation data and satellite image data. An NTSP algorithm is proposed for very large data assessing, terrain modelling and visualisation. A pyramidal data arrangement structure is used for dealing with the requirements of terrain details with different resolutions. The 3D environmental reconstruction system is made up of environmental image segmentation for object identification, a new shape match method and an intelligent reconstruction system. The active contours-based multi-resolution vector-valued framework and the multi-seed region growing method are both used for extracting necessary objects from images. The shape match method is used with a template in the spatial domain for a 3D detailed small scale urban environment reconstruction. The intelligent reconstruction system is designed to recreate the whole model based on specific features of objects for large scale environment reconstruction. This study then proposes a new flood simulation scheme which is an important application of the 3D environmental reconstruction system. Two new flooding models have been developed. The first one is flood spreading model which is useful for large scale flood simulation. It consists of flooding image spatial segmentation, a water level calculation process, a standard gradient descent method for energy minimization, a flood region search and a merge process. The finite volume hydrodynamic model is built from shallow water equations which is useful for urban area flood simulation. The proposed 3D urban environment reconstruction system was tested on our simulation platform. The experiment results indicate that this method is capable of dealing with complicated and high resolution region reconstruction which is useful for many applications. When testing the 3D flood simulation system, the simulation results are very close to the real flood situation, and this method has faster speed and greater accuracy of simulating the inundation area in comparison to the conventional flood simulation models
482

Fourier and Variational Based Approaches for Fingerprint Segmentation

Hoang Thai, Duy 28 January 2015 (has links)
No description available.
483

Perfectionnement de métaheuristiques pour l'optimisation continue / Improvement of metaheuristics for continuous optimization

Boussaid, Ilhem 29 June 2013 (has links)
Les métaheuristiques sont des algorithmes génériques, souvent inspirés de la nature, conçues pour résoudre des problèmes d'optimisation complexes. Parmi les métaheuristiques les plus récentes, nous retenons celle basée sur la théorie de la biogéographie insulaire: Biogeography-based optimization (BBO).Dans cette thèse, nous considérons à la fois les problèmes d'optimisation globale à variables continues avec et sans contraintes. De nouvelles versions hybrides de BBO sont proposées comme des solutions très prometteuses pour résoudre les problèmes considérés. Les méthodes proposées visent à pallier les inconvénients de la convergence lente et du manque de diversité de l'algorithme BBO. Dans la première partie de cette thèse, nous présentons la méthode que nous avons développée, issue d'une hybridation de BBO avec l'évolution différentielle (DE) pour résoudre des problèmes d'optimisation sans contraintes. Nous montrons que les résultats de l'algorithme proposé sont plus précis, notamment pour des problèmes multimodaux, qui sont parmi les problèmes les plus difficiles pour de nombreux algorithmes d'optimisation. Pour résoudre des problèmes d'optimisation sous contraintes, nous proposons trois nouvelles variantes de BBO. Des expérimentations ont été menées pour rendre compte de l'utilité des méthodes proposées. Dans une deuxième partie, nous nous intéressons à l'étude des capacités des méthodes proposées à résoudre des problèmes d'optimisation, issus du monde réel. Nous nous proposons d'abord de résoudre le problème d'allocation optimale de puissance pour la détection décentralisée d'un signal déterministe dans un réseau de capteurs sans fil, compte tenu des fortes contraintes en ressources énergétiques et en bande passante des noeuds répartis. L'objectif est de minimiser la puissance totale allouée aux capteurs, tout en gardant la probabilité d'erreur de détection au dessous d'un seuil requis. Dans un deuxième temps, nous nous focalisons sur la segmentation d'images en niveaux de gris par seuillage multi-niveaux. Les seuils sont déterminés de manière à maximiser l'entropie floue. Ce problème d'optimisation est résolu en appliquant une variante de BBO (DBBO-Fuzzy) que nous avons développée. Nous montrons l'efficacité de la méthode proposée aux travers de résultats expérimentaux / Metaheuristics are general algorithmic frameworks, often nature-inspired, designed to solve complex optimization problems. Among representative metaheuristics, Biogeography-based optimization (BBO) has been recently proposed as a viable stochastic optimization algorithm. In this PhD thesis, both unconstrained and constrained global optimization problems in a continuous space are considered. New hybrid versions of BBO are proposed as promising solvers for the considered problems. The proposed methods aim to overcome the drawbacks of slow convergence and the lack of diversity of the BBO algorithm. In the first part of this thesis, we present the method we developed, based on an hybridization of BBO with the differential evolution (DE) algorithm, to solve unconstrained optimization problems. We show that the results of the proposed algorithm are more accurate, especially for multimodal problems, which are amongst the most difficult-to-handle class of problems for many optimization algorithms. To solve constrained optimization problems, we propose three new variations of BBO. Our extensive experimentations successfully demonstrate the usefulness of all these modifications proposed for the BBO algorithm. In the second part, we focus on the applications of the proposed algorithms to solve real-world optimization problems. We first address the problem of optimal power scheduling for the decentralized detection of a deterministic signal in a wireless sensor network, with power and bandwidth constrained distributed nodes. The objective is to minimize the total power spent by the whole sensor network while keeping the detection error probability below a required threshold. In a second time, image segmentation of gray-level images is performed by multilevel thresholding. The optimal thresholds for this purpose are found by maximizing the fuzzy entropy. The optimization is conducted by a newly-developed BBO variants (DBBO-Fuzzy). We show the efficiency of the proposed method through experimental results
484

Méthodes variationnelles pour la segmentation d'images à partir de modèles : applications en imagerie médicale / Variational methods for model-based image segmentation - applications in medical imaging

Prevost, Raphaël 21 October 2013 (has links)
La segmentation d’images médicales est depuis longtemps un sujet de recherche actif. Cette thèse traite des méthodes de segmentation basées modèles, qui sont un bon compromis entre généricité et capacité d’utilisation d’informations a priori sur l’organe cible. Notre but est de construire un algorithme de segmentation pouvant tirer profit d’une grande variété d’informations extérieures telles que des bases de données annotées (via l’apprentissage statistique), d’autres images du même patient (via la co-segmentation) et des interactions de l’utilisateur. Ce travail est basé sur la déformation de modèle implicite, une méthode variationnelle reposant sur une représentation implicite des formes. Après avoir amélioré sa formulation mathématique, nous montrons son potentiel sur des problèmes cliniques difficiles. Nous introduisons ensuite différentes généralisations, indépendantes mais complémentaires, visant à enrichir le modèle de forme et d’apparence utilisé. La diversité des applications cliniques traitées prouve la généricité et l’efficacité de nos contributions. / Within the wide field of medical imaging research, image segmentation is one of the earliest but still open topics. This thesis focuses on model-based segmentation methods, which achieve a good trade-off between genericity and ability to carry prior information on the target organ. Our goal is to build an efficient segmentation framework that is able to leverage all kinds of external information, i.e. annotated databases via statistical learning, other images from the patient via co-segmentation and user input via live interactions. This work is based on the implicit template deformation framework, a variational method relying on an implicit representation of shapes. After improving the mathematical formulation of this approach, we show its potential on challenging clinical problems. Then, we introduce different generalizations, all independent but complementary, aimed at enriching both the shape and appearance model exploited. The diversity of the clinical applications addressed shows the genericity and the effectiveness of our contributions.
485

On continuous maximum flow image segmentation algorithm / Segmentation d'images par l'algorithme des flot maximum continu

Marak, Laszlo 28 March 2012 (has links)
Ces dernières années avec les progrès matériels, les dimensions et le contenu des images acquises se sont complexifiés de manière notable. Egalement, le différentiel de performance entre les architectures classiques mono-processeur et parallèles est passé résolument en faveur de ces dernières. Pourtant, les manières de programmer sont restées largement les mêmes, instituant un manque criant de performance même sur ces architectures. Dans cette thèse, nous explorons en détails un algorithme particulier, les flots maximaux continus. Nous explicitons pourquoi cet algorithme est important et utile, et nous proposons plusieurs implémentations sur diverses architectures, du mono-processeur à l'architecture SMP et NUMA, ainsi que sur les architectures massivement parallèles des GPGPU. Nous explorons aussi des applications et nous évaluons ses performances sur des images de grande taille en science des matériaux et en biologie à l'échelle nano / In recent years, with the advance of computing equipment and image acquisition techniques, the sizes, dimensions and content of acquired images have increased considerably. Unfortunately as time passes there is a steadily increasing gap between the classical and parallel programming paradigms and their actual performance on modern computer hardware. In this thesis we consider in depth one particular algorithm, the continuous maximum flow computation. We review in detail why this algorithm is useful and interesting, and we propose efficient and portable implementations on various architectures. We also examine how it performs in the terms of segmentation quality on some recent problems of materials science and nano-scale biology
486

Table tennis event detection and classification

Oldham, Kevin M. January 2015 (has links)
It is well understood that multiple video cameras and computer vision (CV) technology can be used in sport for match officiating, statistics and player performance analysis. A review of the literature reveals a number of existing solutions, both commercial and theoretical, within this domain. However, these solutions are expensive and often complex in their installation. The hypothesis for this research states that by considering only changes in ball motion, automatic event classification is achievable with low-cost monocular video recording devices, without the need for 3-dimensional (3D) positional ball data and representation. The focus of this research is a rigorous empirical study of low cost single consumer-grade video camera solutions applied to table tennis, confirming that monocular CV based detected ball location data contains sufficient information to enable key match-play events to be recognised and measured. In total a library of 276 event-based video sequences, using a range of recording hardware, were produced for this research. The research has four key considerations: i) an investigation into an effective recording environment with minimum configuration and calibration, ii) the selection and optimisation of a CV algorithm to detect the ball from the resulting single source video data, iii) validation of the accuracy of the 2-dimensional (2D) CV data for motion change detection, and iv) the data requirements and processing techniques necessary to automatically detect changes in ball motion and match those to match-play events. Throughout the thesis, table tennis has been chosen as the example sport for observational and experimental analysis since it offers a number of specific CV challenges due to the relatively high ball speed (in excess of 100kph) and small ball size (40mm in diameter). Furthermore, the inherent rules of table tennis show potential for a monocular based event classification vision system. As the initial stage, a proposed optimum location and configuration of the single camera is defined. Next, the selection of a CV algorithm is critical in obtaining usable ball motion data. It is shown in this research that segmentation processes vary in their ball detection capabilities and location out-puts, which ultimately affects the ability of automated event detection and decision making solutions. Therefore, a comparison of CV algorithms is necessary to establish confidence in the accuracy of the derived location of the ball. As part of the research, a CV software environment has been developed to allow robust, repeatable and direct comparisons between different CV algorithms. An event based method of evaluating the success of a CV algorithm is proposed. Comparison of CV algorithms is made against the novel Efficacy Metric Set (EMS), producing a measurable Relative Efficacy Index (REI). Within the context of this low cost, single camera ball trajectory and event investigation, experimental results provided show that the Horn-Schunck Optical Flow algorithm, with a REI of 163.5 is the most successful method when compared to a discrete selection of CV detection and extraction techniques gathered from the literature review. Furthermore, evidence based data from the REI also suggests switching to the Canny edge detector (a REI of 186.4) for segmentation of the ball when in close proximity to the net. In addition to and in support of the data generated from the CV software environment, a novel method is presented for producing simultaneous data from 3D marker based recordings, reduced to 2D and compared directly to the CV output to establish comparative time-resolved data for the ball location. It is proposed here that a continuous scale factor, based on the known dimensions of the ball, is incorporated at every frame. Using this method, comparison results show a mean accuracy of 3.01mm when applied to a selection of nineteen video sequences and events. This tolerance is within 10% of the diameter of the ball and accountable by the limits of image resolution. Further experimental results demonstrate the ability to identify a number of match-play events from a monocular image sequence using a combination of the suggested optimum algorithm and ball motion analysis methods. The results show a promising application of 2D based CV processing to match-play event classification with an overall success rate of 95.9%. The majority of failures occur when the ball, during returns and services, is partially occluded by either the player or racket, due to the inherent problem of using a monocular recording device. Finally, the thesis proposes further research and extensions for developing and implementing monocular based CV processing of motion based event analysis and classification in a wider range of applications.
487

Segmentation and Deconvolution of Fluorescence Microscopy Volumes

Soonam Lee (6738881) 14 August 2019 (has links)
<div>Recent advances in optical microscopy have enabled biologists collect fluorescence microscopy volumes cellular and subcellular structures of living tissue. This results in collecting large datasets of microscopy volume and needs image processing aided automated quantification method. To quantify biological structures a first and fundamental step is segmentation. Yet, the quantitative analysis of the microscopy volume is hampered by light diffraction, distortion created by lens aberrations in different directions, complex variation of biological structures. This thesis describes several proposed segmentation methods to identify various biological structures such as nuclei or tubules observed in fluorescence microscopy volumes. To achieve nuclei segmentation, multiscale edge detection method and 3D active contours with inhomogeneity correction method are used for segmenting nuclei. Our proposed 3D active contours with inhomogeneity correction method utilizes 3D microscopy volume information while addressing intensity inhomogeneity across vertical and horizontal directions. To achieve tubules segmentation, ellipse model fitting to tubule boundary method and convolutional neural networks with inhomogeneity correction method are performed. More specifically, ellipse fitting method utilizes a combination of adaptive and global thresholding, potentials, z direction refinement, branch pruning, end point matching, and boundary fitting steps to delineate tubular objects. Also, the deep learning based method combines intensity inhomogeneity correction, data augmentation, followed by convolutional neural networks architecture. Moreover, this thesis demonstrates a new deconvolution method to improve microscopy image quality without knowing the 3D point spread function using a spatially constrained cycle-consistent adversarial networks. The results of proposed methods are visually and numerically compared with other methods. Experimental results demonstrate that our proposed methods achieve better performance than other methods for nuclei/tubules segmentation as well as deconvolution.</div>
488

Perfectionnement d'un algorithme adaptatif d'optimisation par essaim particulaire : application en génie médical et en électronique / Improvement of an adaptive algorithm of Optimization by Swarm Particulaire : application in medical engineering and in electronics

Cooren, Yann 27 November 2008 (has links)
Les métaheuristiques sont une famille d'algorithmes stochastiques destinés à résoudre des problèmes d 'optimisation difficile . Utilisées dans de nombreux domaines, ces méthodes présentent l'avantage d'être généralement efficaces, sans pour autant que l'utilisateur ait à modifier la structure de base de l'algorithme qu'il utilise. Parmi celles-ci, l'Optimisation par Essaim Particulaire (OEP) est une nouvelle classe d'algorithmes proposée pour résoudre les problèmes à variables continues. Les algorithmes d'OEP s'inspirent du comportement social des animaux évoluant en essaim, tels que les oiseaux migrateurs ou les poissons. Les particules d'un même essaim communiquent de manière directe entre elles tout au long de la recherche pour construire une solution au problème posé, en s'appuyant sur leur expérience collective. Reconnues depuis de nombreuses années pour leur efficacité, les métaheuristiques présentent des défauts qui rebutent encore certains utilisateurs. Le réglage des paramètres des algorithmes est un de ceux-ci. Il est important, pour chaque probléme posé, de trouver le jeu de paramètres qui conduise à des performances optimales de l'algorithme. Cependant, cette tâche est fastidieuse et coûteuse en temps, surtout pour les utilisateurs novices. Pour s'affranchir de ce type de réglage, des recherches ont été menées pour proposer des algorithmes dits adaptatifs . Avec ces algorithmes, les valeurs des paramètres ne sont plus figées, mais sont modifiées, en fonction des résultats collectés durant le processus de recherche. Dans cette optique-là, Maurice Clerc a proposé TRIBES, qui est un algorithme d'OEP mono-objectif sans aucun paramètre de contrôle. Cet algorithme fonctionne comme une boite noire , pour laquelle l'utilisateur n'a qu'à définir le problème à traiter et le critàre d'arrêt de l'algorithme. Nous proposons dans cette thèse une étude comportementale de TRIBES, qui permet d'en dégager les principales qualités et les principaux défauts. Afin de corriger certains de ces défauts, deux modules ont été ajoutés à TRIBES. Une phase d'initialisation régulière est insérée, afin d'assurer, dès le départ de l'algorithme, une bonne couverture de l'espace de recherche par les particules. Une nouvelle stratégie de déplacement, basée sur une hybridation avec un algorithme à estimation de distribution, est aussi définie, afin de maintenir la diversité au sein de l'essaim, tout au long du traitement. Le besoin croissant de méthodes de résolution de problèmes multiobjectifs a conduit les concepteurs à adapter leurs méthodes pour résoudre ce type de problème. La complexité de cette opération provient du fait que les objectifs à optimiser sont souvent contradictoires. Nous avons élaboré une version multiobjectif de TRIBES, dénommée MO-TRIBES. Nos algorithmes ont été enfin appliqués à la résolution de problèmes de seuillage d'images médicales et au problème de dimensionnement de composants de circuits analogiques / Metaheuristics are a new family of stochastic algorithms which aim at solving difficult optimization problems. Used to solve various applicative problems, these methods have the advantage to be generally efficient on a large amount of problems. Among the metaheuristics, Particle Swarm Optimization (PSO) is a new class of algorithms proposed to solve continuous optimization problems. PSO algorithms are inspired from the social behavior of animals living in swarm, such as bird flocks or fish schools. The particles of the swarm use a direct way of communication in order to build a solution to the considered problem, based on their collective experience. Known for their e ciency, metaheuristics show the drawback of comprising too many parameters to be tuned. Such a drawback may rebu some users. Indeed, according to the values given to the parameters of the algorithm, its performance uctuates. So, it is important, for each problem, to nd the parameter set which gives the best performance of the algorithm. However, such a problem is complex and time consuming, especially for novice users. To avoid the user to tune the parameters, numerous researches have been done to propose adaptive algorithms. For such algorithms, the values of the parameters are changed according to the results previously found during the optimization process. TRIBES is an adaptive mono-objective parameter-free PSO algorithm, which was proposed by Maurice Clerc. TRIBES acts as a black box , for which the user has only the problem and the stopping criterion to de ne. The rst objective of this PhD is to make a global study of the behavior of TRIBES under several conditions, in order to determine the strengths and drawbacks of this adaptive algorithm. In order to improve TRIBES, two new strategies are added. First, a regular initialization process is defined in order to insure an exploration as wide as possible of the search space, since the beginning of the optimization process. A new strategy of displacement, based on an hybridation with an estimation of distribution algorithm, is also introduced to maintain the diversity in the swarm all along the process. The increasing need for multiobjective methods leads the researchers to adapt their methods to the multiobjective case. The di culty of such an operation is that, in most cases, the objectives are con icting. We designed MO-TRIBES, which is a multiobjective version of TRIBES. Finally, our algorithms are applied to thresholding segmentation of medical images and to the design of electronic components
489

Investigating the potential of hyperspectral remote sensing data for the analysis of urban imperviousness

Linden, Sebastian van der 19 May 2008 (has links)
Durch den Prozess der Urbanisierung verändert die Menschheit die Erdoberfläche in großem Ausmaß und auf unwiederbringliche Weise. Die optische Fernerkundung ist eine Art der Erdbeobachtung, die das Verständnis dieses dynamischen Prozesses und seiner Auswirkungen erweitern kann. Die vorliegende Arbeit untersucht, inwiefern hyperspektrale Daten Informationen über Versiegelung liefern können, die der integrierten Analyse urbaner Mensch-Umwelt-Beziehungen dienen. Hierzu wird die Verarbeitungskette von Vorverarbeitung der Rohdaten bis zur Erstellung referenzierter Karten zu Landbedeckung und Versiegelung am Beispiel von Hyperspectral Mapper Daten von Berlin ganzheitlich untersucht. Die traditionelle Verarbeitungskette wird mehrmals erweitert bzw. abgewandelt. So wird die radiometrische Vorverarbeitung um die Normalisierung von Helligkeitsgradienten erweitert, welche durch die direktionellen Reflexionseigenschaften urbaner Oberflächen entstehen. Die Klassifikation in fünf spektral komplexe Landnutzungsklassen wird mit Support Vector Maschinen ohne zusätzliche Merkmalsextraktion oder Differenzierung von Subklassen durchgeführt. Eine detaillierte Ergebnisvalidierung erfolgt mittels vielfältiger Referenzdaten. Es wird gezeigt, dass die Kartengenauigkeit von allen Verarbeitungsschritten abhängt: Support Vector Maschinen klassifizieren Hyperspektraldaten akkurat aber die Kartengenauigkeit wird durch die Georeferenzierung deutlich gemindert; die Versiegelungskartierung stellt die Situation am Boden gut dar, aber die Überdeckung versiegelter Flächen durch Bäume bedingt systematische Fehlschätzungen; eine Bildsegmentierung führt zu keiner Verbesserung der Klassifikationsergebnisse, bietet jedoch eine sinnvolle Möglichkeit zur effektiveren Prozessierung durch Datenkomprimierung. Auf diesem Weg ermöglicht die vorliegende Arbeit Rückschlüsse zur Verlässlichkeit von Datenprodukten, die eine Ausweitung fernerkundlicher Analysen in weniger gut dokumentierte urbane Räume voranbringt. / Urbanization is one of the most powerful and irreversible processes by which humans modify the Earth''s surface. Optical remote sensing is a main source of Earth observation products which help to better understand this dynamic process and its consequences. This work investigates the potential of airborne hyperspectral data to provide information on urban imperviousness that is needed for an integrated analysis of the coupled natural and human systems therein. For this purpose the complete processing workflow from preprocessing of the raw image to the generation of geocoded maps on land cover and impervious surface coverage is performed using Hyperspectral Mapper data acquired over Berlin, Germany. The traditional workflow for hyperspectral data is extended or modified at several points: a normalization of brightness gradients that are caused by directional reflectance properties of urban surfaces is included into radiometric preprocessing; support vector machines are used to classify five spectrally complex land cover classes without previous feature extraction or the definition of sub-classes. A detailed assessment of such maps is performed based on various reference products. Results show that the accuracy of derived maps depends on several steps within the processing workflow. For example, the support vector machine classification of hyperspectral data itself is accurate but geocoding without detailed terrain information introduces critical errors; impervious surface estimates correlate well with ground data but trees covering impervious surface below generally causes offsets; image segmentation does not enhance spectral classification accuracy of the spatially heterogeneous area but offers an interesting way of data compression and more time effective processing. Findings from this work help judging the reliability of data products and in doing so advance a possible extension of urban remote sensing approaches to areas where only little additional data exists.
490

A contribution to mouth structure segmentation in images towards automatic mouth gesture recognition / Une contribution à la segmentation structurale d’une image de la bouche par reconnaissance gestuelle automatique

Gómez-Mendoza, Juan Bernardo 15 May 2012 (has links)
Ce travail présente une nouvelle méthodologie pour la reconnaissance automatique des gestes de la bouche visant à l'élaboration d'IHM pour la commande d'endoscope. Cette méthodologie comprend des étapes communes à la plupart des systèmes de vision artificielle, comme le traitement d'image et la segmentation, ainsi qu'une méthode pour l'amélioration progressive de l'étiquetage obtenu grâce à la segmentation. Contrairement aux autres approches, la méthodologie est conçue pour fonctionner avec poses statiques, qui ne comprennent pas les mouvements de la tête. Beaucoup d'interêt est porté aux tâches de segmentation d'images, car cela s'est avéré être l'étape la plus importante dans la reconnaissance des gestes. En bref, les principales contributions de cette recherche sont les suivantes: La conception et la mise en oeuvre d'un algorithme de rafinement d'étiquettes qui dépend d'une première segmentation/pixel étiquetage et de deux paramétres corrélés. Le rafineur améliore la précision de la segmentation indiquée dans l'étiquetage de sortie pour les images de la bouche, il apporte également une amélioration acceptable lors de l'utilisation d'images naturelles. La définition de deux méthodes de segmentation pour les structures de la bouche dans les images; l'une fondée sur les propriétés de couleur des pixels, et l'autre sur des éléments de la texture locale, celles-ci se complétent pour obtenir une segmentation rapide et précise de la structure initiale. La palette de couleurs s'avére particuliérement importante dans la structure de séparation, tandis que la texture est excellente pour la séparation des couleurs de la bouche par rapport au fond. La dérivation d'une procédure basée sur la texture pour l'automatisation de la sélection des paramètres pour la technique de rafinement de segmentation discutée dans la première contribution. Une version améliorée de l'algorithme d'approximation bouche contour présentée dans l'ouvrage de Eveno et al. [1, 2], ce qui réduit le nombre d'itérations nécessaires pour la convergence et l'erreur d'approximation finale. La découverte de l'utilité de la composante de couleur CIE à statistiquement normalisée, dans la différenciation lévres et la langue de la peau, permettant l'utilisation des valeurs seuils constantes pour effectuer la comparaison. / This document presents a series of elements for approaching the task of segmenting mouth structures in facial images, particularly focused in frames from video sequences. Each stage is treated separately in different Chapters, starting from image pre-processing and going up to segmentation labeling post-processing, discussing the technique selection and development in every case. The methodological approach suggests the use of a color based pixel classification strategy as the basis of the mouth structure segmentation scheme, complemented by a smart pre-processing and a later label refinement. The main contribution of this work, along with the segmentation methodology itself, is based in the development of a color-independent label refinement technique. The technique, which is similar to a linear low pass filter in the segmentation labeling space followed by a nonlinear selection operation, improves the image labeling iteratively by filling small gaps and eliminating spurious regions resulting from a prior pixel classification stage. Results presented in this document suggest that the refiner is complementary to image pre-processing, hence achieving a cumulative effect in segmentation quality. At the end, the segmentation methodology comprised by input color transformation, preprocessing, pixel classification and label refinement, is put to test in the case of mouth gesture detection in images aimed to command three degrees of freedom of an endoscope holder.

Page generated in 0.1483 seconds