• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 32
  • 10
  • Tagged with
  • 99
  • 33
  • 30
  • 28
  • 27
  • 25
  • 17
  • 17
  • 16
  • 16
  • 14
  • 14
  • 13
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Optimisation de stratégies de fusion pour la reconnaissance de visages 3D.

Ben Soltana, Wael 11 December 2012 (has links)
La reconnaissance faciale (RF) est un domaine de recherche très actif en raison de ses nombreuses applications dans le domaine de la vision par ordinateur en général et en biométrie en particulier. Cet intérêt est motivé par plusieurs raisons. D’abord, le visage est universel. Ensuite, il est le moyen le plus naturel par les êtres humains de s’identifier les uns des autres. Enfin, le visage en tant que modalité biométrique est présente un caractère non intrusif, ce qui le distingue d’autres modalités biométriques comme l’iris ou l’emprunte digitale. La RF représente aussi des défis scientifiques importants. D’abord parce que tous les visages humains ont des configurations similaires. Ensuite, avec les images faciales 2D que l’on peut acquérir facilement, la variation intra-classe, due à des facteurs comme le changement de poses et de conditions d’éclairage, les variations d’expressions faciales, le vieillissement, est bien plus importante que la variation inter-classe.Avec l’arrivée des systèmes d’acquisition 3D capables de capturer la profondeur d’objets, la reconnaissance faciale 3D (RF 3D) a émergé comme une voie prometteuse pour traiter les deux problèmes non résolus en 2D, à savoir les variations de pose et d’éclairage. En effet, les caméras 3D délivrent généralement les scans 3D de visages avec leurs images de texture alignées. Une solution en RF 3D peut donc tirer parti d’une fusion avisée d’informations de forme en 3D et celles de texture en 2D. En effet, étant donné que les scans 3D de visage offrent à la fois les surfaces faciales pour la modalité 3D pure et les images de texture 2D alignées, le nombre de possibilités de fusion pour optimiser le taux de reconnaissance est donc considérable. L’optimisation de stratégies de fusion pour une meilleure RF 3D est l’objectif principal de nos travaux de recherche menés dans cette thèse.Dans l’état d’art, diverses stratégies de fusion ont été proposées pour la reconnaissance de visages 3D, allant de la fusion précoce "early fusion" opérant au niveau de caractéristiques à la fusion tardive "late fusion" sur les sorties de classifieurs, en passant par de nombreuses stratégies intermédiaires. Pour les stratégies de fusion tardive, nous distinguons encore des combinaisons en parallèle, en cascade ou multi-niveaux. Une exploration exhaustive d’un tel espace étant impossible, il faut donc recourir à des solutions heuristiques qui constituent nos démarches de base dans le cadre des travaux de cette thèse.En plus, en s’inscrivant dans un cadre de systèmes biométriques, les critères d’optimalité des stratégies de fusion restent des questions primordiales. En effet, une stratégie de fusion est dite optimisée si elle est capable d’intégrer et de tirer parti des différentes modalités et, plus largement, des différentes informations extraites lors du processus de reconnaissance quelque soit leur niveau d’abstraction et, par conséquent, de difficulté.Pour surmonter toutes ces difficultés et proposer une solution optimisée, notre démarche s’appuie d’une part sur l’apprentissage qui permet de qualifier sur des données d’entrainement les experts 2D ou 3D, selon des critères de performance comme ERR, et d’autre part l’utilisation de stratégie d’optimisation heuristique comme le recuit simulé qui permet d’optimiser les mélanges des experts à fusionner. [...] / Face recognition (FR) was one of the motivations of computer vision for a long time, but only in recent years reliable automatic face recognition has become a realistic target of biometrics research. This interest is motivated by several reasons. First, the face is one of the most preferable biometrics for person identification and verification related applications, because it is natural, non-intrusive, and socially well accepted. The second reason relates to the challenges encountered in the FR domain, in which all human faces are similar to each other and hence offer low distinctiveness as compared with other biometrics, e.g., fingerprints and irises. Furthermore, when employing facial texture images, intra-class variations due to various factors as illumination and pose changes are usually greater than inter-class ones, preventing 2D face recognition systems from being completely reliable in real conditions.Recent, 3D acquisition systems are capable to capture the shape information of objects. Thus, 3D face recognition (3D FR) has been extensively investigated by the research community to deal with the unsolved issues in 2D face recognition, i.e., illumination and pose changes. Indeed, 3D cameras generally deliver the 3D scans of faces with their aligned texture images. 3D FR can benefit from the fusion of 2D texture and 3D shape information.This Ph.D thesis is dedicated to the optimization of fusion strategies based on three dimensional data. However, there are some problems. Indeed, since the 3D face scans provide both the facial surfaces for the 3D model and 2D texture images, the number of fusion method is high.In the literature, many fusion strategies exist that have been proposed for 3D face recognition. We can roughly classify the fusion strategies into two categories: early fusion and late fusion. Some intermediate strategies such as serial fusion and multi-level fusion have been proposed as well. Meanwhile, the search for an optimal fusion scheme remains extraordinarily complex because the cardinality of the space of possible fusion strategies. It is exponentially proportional to the number of competing features and classifiers. Thus, we require fusion technique to efficiently manage all these features and classifiers that constitute our contribution in this work. In addition, the optimality criteria of fusion strategies remain critical issues. By definition, an optimal fusion strategy is able to integrate and take advantage from different data.To overcome all these difficulties and propose an optimized solution, we adopted the following reflection. [...]
82

Contributions to generic and affective visual concept recognition / Contribution à la reconnaissance de concepts visuels génériques et émotionnels

Liu, Ningning 22 November 2013 (has links)
Cette thèse de doctorat est consacrée à la reconnaissance de concepts visuels (VCR pour "Visual Concept Recognition"). En raison des nombreuses difficultés qui la caractérisent, cette tâche est toujours considérée comme l’une des plus difficiles en vision par ordinateur et reconnaissance de formes. Dans ce contexte, nous avons proposé plusieurs contributions, particulièrement dans le cadre d’une approche de reconnaissance multimodale combinant efficacement les informations visuelles et textuelles. Tout d’abord, nous avons étudié différents types de descripteurs visuels de bas-niveau sémantique pour la tâche de VCR incluant des descripteurs de couleur, de texture et de forme. Plus précisément, nous pensons que chaque concept nécessite différents descripteurs pour le caractériser efficacement pour permettre sa reconnaissance automatique. Ainsi, nous avons évalué l’efficacité de diverses représentations visuelles, non seulement globales comme la couleur, la texture et la forme, mais également locales telles que SIFT, Color SIFT, HOG, DAISY, LBP et Color LBP. Afin de faciliter le franchissement du fossé sémantique entre les descripteurs bas-niveau et les concepts de haut niveau sémantique, et particulièrement ceux relatifs aux émotions, nous avons proposé des descripteurs visuels de niveau intermédiaire basés sur l’harmonie visuelle et le dynamisme exprimés dans les images. De plus, nous avons utilisé une décomposition spatiale pyramidale des images pour capturer l’information locale et spatiale lors de la construction des descripteurs d’harmonie et de dynamisme. Par ailleurs, nous avons également proposé une nouvelle représentation reposant sur les histogrammes de couleur HSV en utilisant un modèle d’attention visuelle pour identifier les régions d’intérêt dans les images. Ensuite, nous avons proposé un nouveau descripteur textuel dédié au problème de VCR. En effet, la plupart des photos publiées sur des sites de partage en ligne (Flickr, Facebook, ...) sont accompagnées d’une description textuelle sous la forme de mots-clés ou de légende. Ces descriptions constituent une riche source d’information sur la sémantique contenue dans les images et il semble donc particulièrement intéressant de les considérer dans un système de VCR. Ainsi, nous avons élaboré des descripteurs HTC ("Histograms of Textual Concepts") pour capturer les liens sémantiques entre les concepts. L’idée générale derrière HTC est de représenter un document textuel comme un histogramme de concepts textuels selon un dictionnaire (ou vocabulaire), pour lequel chaque valeur associée à un concept est l’accumulation de la contribution de chaque mot du texte pour ce concept, en fonction d’une mesure de distance sémantique. Plusieurs variantes de HTC ont été proposées qui se sont révélées être très efficaces pour la tâche de VCR. Inspirés par la démarche de l’analyse cepstrale de la parole, nous avons également développé Cepstral HTC pour capturer à la fois l’information de fréquence d’occurrence des mots (comme TF-IDF) et les liens sémantiques entre concepts fournis par HTC à partir des mots-clés associés aux images. Enfin, nous avons élaboré une méthode de fusion (SWLF pour "Selective Weighted Later Fusion") afin de combiner efficacement différentes sources d’information pour le problème de VCR. Cette approche de fusion est conçue pour sélectionner les meilleurs descripteurs et pondérer leur contribution pour chaque concept à reconnaître. SWLF s’est révélé être particulièrement efficace pour fusion des modalités visuelles et textuelles, par rapport à des schémas de fusion standards. [...] / This Ph.D thesis is dedicated to visual concept recognition (VCR). Due to many realistic difficulties, it is still considered to be one of the most challenging problems in computer vision and pattern recognition. In this context, we have proposed some innovative contributions for the task of VCR, particularly in building multimodal approaches that efficiently combine visual and textual information. Firstly, we have proposed semantic features for VCR and have investigated the efficiency of different types of low-level visual features for VCR including color, texture and shape. Specifically, we believe that different concepts require different features to efficiently characterize them for the recognition. Therefore, we have investigated in the context of VCR various visual representations, not only global features including color, shape and texture, but also the state-of-the-art local visual descriptors such as SIFT, Color SIFT, HOG, DAISY, LBP, Color LBP. To help bridging the semantic gap between low-level visual features and high level semantic concepts, and particularly those related to emotions and feelings, we have proposed mid-level visual features based on the visual harmony and dynamism semantics using Itten’s color theory and psychological interpretations. Moreover, we have employed a spatial pyramid strategy to capture the spatial information when building our mid-level features harmony and dynamism. We have also proposed a new representation of color HSV histograms by employing a visual attention model to identify the regions of interest in images. Secondly, we have proposed a novel textual feature designed for VCR. Indeed, most of online-shared photos provide textual descriptions in the form of tags or legends. In fact, these textual descriptions are a rich source of semantic information on visual data that is interesting to consider for the purpose of VCR or multimedia information retrieval. We propose the Histograms of Textual Concepts (HTC) to capture the semantic relatedness of concepts. The general idea behind HTC is to represent a text document as a histogram of textual concepts towards a vocabulary or dictionary, whereas its value is the accumulation of the contribution of each word within the text document toward the underlying concept according to a predefined semantic similarity measure. Several variants of HTC have been proposed that revealed to be very efficient for VCR. Inspired by the Cepstral speech analysis process, we have also developed Cepstral HTC to capture both term frequency-based information (like TF-IDF) and the relatedness of semantic concepts in the sparse image tags, which overcomes the HTC’s shortcoming of ignoring term frequency-based information. Thirdly, we have proposed a fusion scheme to combine different sources of Later Fusion, (SWLF) is designed to select the best features and to weight their scores for each concept to be recognized. SWLF proves particularly efficient for fusing visual and textual modalities in comparison with some other standard fusion schemes. While a late fusion at score level is reputed as a simple and effective way to fuse features of different nature for machine-learning problems, the proposed SWLF builds on two simple insights. First, the score delivered by a feature type should be weighted by its intrinsic quality for the classification problem at hand. Second, in a multi-label scenario where several visual concepts may be assigned to an image, different visual concepts may require different features which best recognize them. In addition to SWLF, we also propose a novel combination approach based on Dempster-Shafer’s evidence theory, whose interesting properties allow fusing different ambiguous sources of information for visual affective recognition. [...]
83

Contrôle adaptatif robuste. Application au contrôle d'attitude de satellites / Robust adaptive control. Application to satellite attitude control

Leduc, Harmonie 22 September 2017 (has links)
Cette thèse porte sur la commande adaptative directe robuste et son application au contrôle d’attitude des satellites de la filière Myriade du CNES. Après avoir présenté les différents types de commande variant dans le temps, nous rappelons les caractéristiques d’un contrôleur adaptatif direct, en particulier le fait que la seule connaissance d’un retour de sortie stabilisant le système à contrôler suffit pour concevoir un contrôleur adaptatif direct. Parallèlement, nous présentons la théorie des systèmes descripteurs. Modéliser un système sous forme descripteur est non conventionnel mais présente de nombreux avantages dans le contexte de la commande adaptative directe robuste. A l’aide des résultats existants sur la commande adaptative directe d’une part, et de la théorie des systèmes descripteurs d’autre part, nous fournissons une méthode permettant de calculer, connaissant un retour de sortie constant, les paramètres d’un contrôleur adaptatif direct robuste stabilisant. Cette méthode repose sur la résolution d’inégalités matricielles linéaires. Le contrôleur adpatatif est plus robuste que le contrôleur constant, mais on ne peut prouver que la stabilité globale que vers un voisinage du point d’équilibre. Nous présentons ensuite une méthode, également basée sur la résolution d’inégalités matricielles linéaires, permettant de concevoir un contrôleur adaptatif direct robuste de meilleur niveau de rejet des perturbations extérieures que le contrôleur constant à partir duquel il est construit. L’ensemble de ces résultats théoriques est ensuite appliqué au contrôle d’attitude des satellites de la filière Myriade du CNES. En particulier, nous concevons un contrôleur d’attitude stabilisant le satellite quelle que soit la valeur de son inertie. Ce contrôleur d’attitude est également capable d’éviter aux roues à réaction du satellite de saturer. Nous concevons ensuite un contrôleur d’attitude adaptatif, robuste, et qui rejette mieux les perturbations extérieures que le contrôleur constant à partir duquel il est construit. Ce contrôleur constant est d’ailleurs actuellement implémenté à bord des satellites de la filière Myriade du CNES. Enfin, nous validons l’ensemble des résultats de cette thèse à l’aide d’un simulateur SCAO du CNES, où nous simulons le déploiement des mâts d’un satellite, ainsi que des scénarii de sauts de guidage. / This manuscript deals with robust direct adaptive control, and its application to CNES microsatellites attitude control. After listing the different types of time-varying controllers, we recall the characteristics of direct adaptive control. In particular, we recall that the knowledge of a stabilizing static output feedback is sufficient to design a direct adaptive controller. In parallel, we introduce the descriptor system theory. Modelizing a system into descriptor form is not usual but fits well with robust direct adaptive control. Starting from existing results about adaptive control and descriptor system theory, we provide an LMI based method which allows to compute, with the knowledge of a stabilizing static output feedback, the parameters of a stabilizing direct adaptive controller. A first result proves that the adaptive controller is at least as robust as the static output feedback. The second result allows to prove improved robustness at the expense of relaxing stability of the equilibrium point to practical stability, that is convergence to a neighborhood of the equilibrium. Then, we provide a method, LMI based as well, which allows to design a robust direct adaptive controller which has a better level of rejection of the perturbations than the static output feedback from which it is designed. All these theoretical results are applied to the attitude control of CNES microsatellites. We design a controller which stabilizes the attitude of the satellite whatever the value of its inertia. This attitude controller can also avoid the satellite reaction wheels to saturate. We design another robust adaptive attitude controller which has a better level of rejection of the perturbations than the static controller which is currently implemented aboard CNES satellites. Finally, we validate all the results of this manuscript by simulating on a AOCS CNES simulator the deployment of the satellite masts and some guiding jumps.
84

Methods for automation of vascular lesions detection in computed tomography images / Méthodes d'automatisation de la détection des lésions vasculaires dans des images de tomodensitométrie

Zuluaga Valencia, Maria Alejandra 12 January 2011 (has links)
Les travaux de cette thèse sont consacrés à la détection et le diagnostic des lésions vasculaires, particulièrement dans le cas la maladie coronaire. La maladie coronaire continue à être la première cause de mortalité dans les pays industrialisés. En général, l'identification des lésions vasculaires est abordée en essayant de modéliser les anormalités (lésions). Le principal inconvénient de cette approche est que les lésions sont très hétérogènes, ce qui rend difficile la détection de nouvelles lésions qui n'ont pas été prises en compte par le modèle. Dans cette thèse, nous proposons de ne pas modéliser directement les lésions, mais de supposer que les lésions sont des événements anormaux qui se manifestent comme points avec une faible densité de probabilité. Nous proposons l'utilisation de deux méthodes de classification basées sur les Machines à Vecteurs de Support (SVM) pour résoudre le problème de détection du niveau de densité. Le principal avantage de ces deux méthodes est que la phase d'apprentissage ne requiert pas de données étiquetées représentant les lésions. La première méthode est complètement non supervisée, alors que la seconde exige des étiquettes seulement pour les cas qu'on appelle sains ou normaux. L'utilisation des algorithmes de classification sélectionnés nécessite des descripteurs tels que les anomalies soient représentées comme des points avec une densité de probabilité faible. A cette fin, nous avons développé une métrique basée sur l'intensité de l'image, que nous avons appelée concentric rings. Cette métrique est sensible à la quasi-symétrie des profils d'intensité des vaisseaux sains, mais aussi aux écarts par rapport à cette symétrie, observés dans des cas pathologiques. De plus, nous avons sélectionné plusieurs autres descripteurs candidats à utiliser comme entrée pour les classifieurs. Des expériences sur des données synthétiques et des données de CT cardiaques démontrent que notre métrique a une bonne performance dans la détection d'anomalies, lorsqu'elle est utilisée avec les classifeurs retenus. Une combinaison de plusieurs descripteurs candidats avec la métrique concentric rings peut améliorer la performance de la détection. Nous avons défini un schéma non supervisé de sélection de descripteurs qui permet de déterminer un sous-ensemble optimal de descripteurs. Nous avons confronté les résultats de détection réalisée en utilisant le sous-ensemble de descripteurs sélectionné par notre méthode avec les performances obtenues avec des sous-ensembles sélectionnés par des méthodes supervisées existantes. Ces expériences montrent qu'une combinaison de descripteurs bien choisis améliore effectivement les performances des classifieurs et que les meilleurs résultats s'obtiennent avec le sous-ensemble sélectionné par notre méthode, en association avec les algorithmes de détection retenus. Finalement, nous proposons de réaliser un recalage local entre deux images représentant différentes phases du cycle cardiaque, afin de confronter les résultats de détection dans ces images (phases). L'objectif ici est non seulement d'attirer l'attention du praticien sur les anomalies détectées comme lésions potentielles, mais aussi de l'aider à conforter son diagnostic en visualisant automatiquement la même région reconstruite à différents instants du cycle cardiaque / This thesis presents a framework for the detection and diagnosis of vascular lesions with a special emphasis on coronary heart disease. Coronary heart disease remains to be the first cause of mortality worldwide. Typically, the problem of vascular lesion identification has been solved by trying to model the abnormalities (lesions). The main drawback of this approach is that lesions are highly heterogeneous, which makes the detection of previously unseen abnormalities difficult. We have selected not to model lesions directly, but to treat them as anomalies which are seen as low probability density points. We propose the use of two classification frameworks based on support vector machines (SVM) for the density level detection problem. The main advantage of these two methods is that the learning stage does not require labeled data representing lesions, which is always difficult to obtain. The first method is completely unsupervised, whereas the second one only requires a limited number of labels for normality. The use of these anomaly detection algorithms requires the use of features such that anomalies are represented as points with low probability density. For this purpose, we developed an intensity based metric, denoted concentric rings, designed to capture the nearly symmetric intensity profiles of healthy vessels, as well as discrepancies with respect to the normal behavior. Moreover, we have selected a large set of alternative candidate features to use as input for the classifiers. Experiments on synthetic data and cardiac CT data demonstrated that our metric has a good performance in the detection of anomalies, when used with the selected classifiers. Combination of other features with the concentric rings metric has potential to improve the classification performance. We defined an unsupervised feature selection scheme that allows the definition of an optimal subset of features. We compared it with existent supervised feature selection methods. These experiments showed that, in general, the combination of features improves the classifiers performance, and that the best results are achieved with the combination selected by our scheme, associated with the proposed anomaly detection algorithms. Finally, we propose to use image registration in order to compare the classification results at different cardiac phases. The objective here is to match the regions detected as anomalous in different time-frames. In this way, more than attract the physician's attention to the anomaly detected as potential lesion, we want to aid in validating the diagnosis by automatically displaying the same suspected region reconstructed in different time-frames
85

Détection automatique de chutes de personnes basée sur des descripteurs spatio-temporels : définition de la méthode, évaluation des performances et implantation temps-réel / Automatic human fall detection based on spatio-temporal descriptors : definition of the method, evaluation of the performance and real-time implementation

Charfi, Imen 21 October 2013 (has links)
Nous proposons une méthode supervisée de détection de chutes de personnes en temps réel, robusteaux changements de point de vue et d’environnement. La première partie consiste à rendredisponible en ligne une base de vidéos DSFD enregistrées dans quatre lieux différents et qui comporteun grand nombre d’annotations manuelles propices aux comparaisons de méthodes. Nousavons aussi défini une métrique d’évaluation qui permet d’évaluer la méthode en s’adaptant à la naturedu flux vidéo et la durée d’une chute, et en tenant compte des contraintes temps réel. Dans unsecond temps, nous avons procédé à la construction et l’évaluation des descripteurs spatio-temporelsSTHF, calculés à partir des attributs géométriques de la forme en mouvement dans la scène ainsique leurs transformations, pour définir le descripteur optimisé de chute après une méthode de sélectiond’attributs. La robustesse aux changements d’environnement a été évaluée en utilisant les SVMet le Boosting. On parvient à améliorer les performances par la mise à jour de l’apprentissage parl’intégration des vidéos sans chutes enregistrées dans l’environnement définitif. Enfin, nous avonsréalisé, une implantation de ce détecteur sur un système embarqué assimilable à une caméra intelligentebasée sur un composant SoC de type Zynq. Une démarche de type Adéquation AlgorithmeArchitecture a permis d’obtenir un bon compromis performance de classification/temps de traitement / We propose a supervised approach to detect falls in home environment adapted to location andpoint of view changes. First, we maid publicly available a realistic dataset, acquired in four differentlocations, containing a large number of manual annotation suitable for methods comparison. We alsodefined a new metric, adapted to real-time tasks, allowing to evaluate fall detection performance ina continuous video stream. Then, we build the initial spatio-temporal descriptor named STHF usingseveral combinations of transformations of geometrical features and an automatically optimised setof spatio-temporal descriptors thanks to an automatic feature selection step. We propose a realisticand pragmatic protocol which enables performance to be improved by updating the training in thecurrent location with normal activities records. Finally, we implemented the fall detection in Zynqbasedhardware platform similar to smart camera. An Algorithm-Architecture Adequacy step allowsa good trade-off between performance of classification and processing time
86

Méthodes fréquentielles pour la reconnaissance d'images couleur : une approche par les algèbres de Clifford / Frequency methods for color image recognition : An approach based on Clifford algebras

Mennesson, José 18 November 2011 (has links)
Dans cette thèse, nous nous intéressons à la reconnaissance d’images couleur à l’aide d’une nouvelle approche géométrique du domaine fréquentiel. La plupart des méthodes existantes ne traitent que les images en niveaux de gris au travers de descripteurs issus de la transformée de Fourier usuelle. L’extension de telles méthodes aux images multicanaux, comme par exemple les images couleur, consiste généralement à reproduire un traitement identique sur chacun des canaux. Afin d’éviter ce traitement marginal, nous étudions et mettons en perspective les différentes généralisations de la transformée de Fourier pour les images couleur. Ce travail nous oriente vers la transformée de Fourier Clifford pour les images couleur définie dans le cadre des algèbres géométriques. Une étude approfondie de celle-ci nous conduit à définir un algorithme de calcul rapide et à proposer une méthode de corrélation de phase pour les images couleur. Dans un deuxième temps, nous cherchons à généraliser à travers cette transformée de Fourier les définitions des descripteurs de Fourier de la littérature. Nous étudions ainsi les propriétés, notamment l’invariance à la translation, rotation et échelle, des descripteurs existants. Ce travail nous mène à proposer trois nouveaux descripteurs appelés “descripteurs de Fourier couleur généralisés”(GCFD) invariants en translation et en rotation.Les méthodes proposées sont évaluées sur des bases d’images usuelles afin d’estimer l’apport du contenu fréquentiel couleur par rapport aux méthodes niveaux de gris et marginales. Les résultats obtenus à l’aide d’un classifieur SVM montrent le potentiel des méthodes proposées ; les descripteurs GCFD se révèlent être plus compacts, de complexité algorithmique moindre pour des performances de classification au minimum équivalentes. Nous proposons également des heuristiques pour le choix du paramètre de la transformée de Fourier Clifford.Cette thèse constitue un premier pas vers une généralisation des méthodes fréquentielles aux images multicanaux. / In this thesis, we focus on color image recognition using a new geometric approach in the frequency domain. Most existing methods only process grayscale images through descriptors defined from the usual Fourier transform. The extension of these methods to multichannel images such as color images usually consists in reproducing the same processing for each channel. To avoid this marginal processing,we study and compare the different generalizations of color Fourier transforms. This work leads us to use the Clifford Fourier transform for color images defined in the framework of geometric algebra. A detailed study of it leads us to define a fast algorithm and to propose a phase correlation for colorimages. In a second step, with the aim of generalizing Fourier descriptors of the literature with thisFourier transform, we study their properties, including invariance to translation, rotation and scale.This work leads us to propose three new descriptors called “generalized color Fourier descriptors”(GCFD) invariant in translation and in rotation.The proposed methods are evaluated on usual image databases to estimate the contribution of color frequency content compared with grayscale and marginal methods. The results obtained usingan SVM classifier show the potential of the proposed methods ; the GCFD are more compact, have less computational complexity and give better recognition rates. We also propose heuristics for choosing the parameter of the color Clifford Fourier transform.This thesis is a first step towards a generalization of frequency methods to multichannel images.
87

Analyse de maillages surfaciques par construction et comparaison de modèles moyens et par décomposition par graphes s'appuyant sur les courbures discrètes : application à l'étude de la cornée humaine / Mesh surface analysis by construction and comparison of mean models and by decomposition into graphs based on discrete curvatures : application to the study of the human cornea

Polette, Arnaud 03 December 2015 (has links)
Cette thèse se découpe en trois parties. Les deux premières portent sur le développement de méthodes pour la construction de modèles géométriques moyens et pour la comparaison de modèles. Plusieurs problématiques sont abordées, telles que la construction d'une cornée moyenne et la comparaison de cornées. Il existe à ce jour peu d'études ayant ces objectifs car la mise en correspondance de surfaces cornéennes est une problématique non triviale. En plus d'aider à développer la connaissance de l'anatomie cornéenne, la modélisation de la cornée normale permet de détecter tout écart significatif par rapport à la normale permettant un diagnostic précoce de pathologies. La seconde partie a pour objectif de développer une méthode pour reconnaître une surface parmi un groupe de surfaces à l’aide de leurs acquisitions pour une application de biométrie. L’idée est de quantifier la différence entre chaque surface et une surface donnée, et de déterminer un seuil permettant la reconnaissance. Deux méthodes sont proposées et une méthodologie en cascade utilisant ces deux méthodes afin de combiner les avantages de chacune est aussi proposée. La troisième et dernière partie porte sur une nouvelle méthode de décomposition en graphes de maillages 3D triangulés. Nous utilisons des cartes de courbures discrètes comme descripteur de forme afin de découper le maillage en différentes catégorie de carreaux. Ensuite un graphe d'adjacence est construit avec un nœud pour chaque carreau. Ces graphes sont utilisés pour extraire des caractéristiques géométriques décrites par des motifs (ou patterns), ce qui permet de détecter des régions spécifiques dans un modèle 3D, ou des motifs récurrents. / This thesis comprises three parts. The first two parts concern the development of methods for the construction of mean geometric models and for model comparison. Several issues are addressed, such as the construction of an average cornea and the comparison of corneas. Currently, there are few studies with these objectives because the matching of corneal surfaces is a non-trivial problem. In addition to help to develop a better understanding of the corneal anatomy, 3D models of normal corneas can be used to detect any significant deviation from the norm, thereby allowing for an early diagnosis of diseases or abnormalities using the shape of the cornea. The second part of this thesis aims to develop a method for recognizing a surface from a group of surfaces using their 3D acquisitions in a biometric application pertinent to the cornea. The concept behind this method is to quantify the difference between each surface and a given surface and to determine the threshold for recognition. Two complementary methods are proposed. A cascading methodology using both methods to combine the advantages of each method is also proposed. The third and final part of this thesis focuses on a new method for decomposing 3D triangulated meshes into graphs. We use discrete curvature maps as the shape descriptor to split the mesh in eight different categories. Next, an adjacency graph is built with a node for each patch. These graphs are used to extract geometric characteristics described by patterns that allow for the detection of specific regions in a 3D model or recurrent characteristics.
88

Squelettisation d’images en niveaux de gris et applications / Skeletonization of grayscale images and applications

Douss, Rabaa 26 November 2015 (has links)
L’opération morphologique de squelettisation transforme chaque objet d’une image en une forme linéique qui préserve la topologie de ce dernier (propriété d’homotopie). Elle est largement utilisée en biométrie mais aussi dans la reconnaissance des caractères ainsi que pour l’extraction de la microarchitecture osseuse. L’objectif de cette thèse est de développer une méthode de squelettisation appliquée directement sur les niveaux de gris de l’image, ce qui a pour large avantage de s’affranchir de prétraitement comme la binarisation. Une revue des méthodes de squelettisation en niveaux de gris permet de constater que l’amincissement est l’une des approches les plus usitées de par sa propriété d’homotopie. Cependant, cette approche est sensible au bruit de l’image et produit des squelettes sur-connectés. Un premier paramétrage de l’amincissement a été proposé dans la littérature afin d’abaisser des configurations de pixels liées au bruit. La première contribution de ce travail est de proposer un ajustement de ce paramètre basé sur une décision statistique. Il s’agit d’identifier les tests d’hypothèses correspondants aux différentes configurations d’abaissement en vue de fixer ce paramètre de façon locale. Ceci conduit à la mise en place d’une squelettisation appelée Self Contrast Controlled Thinning (SCCT) puisque robuste au bruit tout en s’adaptant automatiquement au contraste de l’image. La squelettisation SCCT est rendue accessible aux domaines d’application grâce à son implantation optimisée basée sur les files d’attente hiérarchiques. Ayant noté le peu d’efforts consacrés à l’évaluation de la squelettisation en niveaux de gris, la deuxième contribution de ce travail est de proposer un protocole visant à évaluer l’opération de squelettisation sur la base des propriétés requises à savoir la préservation de la topologie et de la géométrie. Ce protocole est déroulé sur une base d’images synthétiques et nous permet de comparer notre approche à celles de la littérature. La troisième contribution est de proposer une structuration du squelette en graphe donnant accès aux descripteurs structurels et morphométriques des objets étudiés en vue d’une exploitation du squelette par les experts des domaines d’applications. Dans le cadre du projet Voxelo coordonné par le laboratoire B2OA de l’Université Paris Diderot, cette structuration est exploitée pour extraire les descripteurs de la qualité de la microarchitecture osseuse à partir d’images RX haute résolution. / Skeletonization is an image transformation that aims to represent objects by their medial axis while preserving their topological characteristics (homotopy). It is widely used in biometrics, character recognition and also in the extraction of bone microarchitecture. The objective of this thesis is to develop a skeletonization method applied directly on image gray levels. This has the large advantage of freeing the operation from preprocessing techniques such as binarization. A review of grayscale skeletonization methods shows that the morphological thinning is one of the most used approaches for its topology preservation property. However, this approach is sensitive to image noise and produces inexploitable skeletons. A first parameterization of the thinning process has been proposed in the literature to reduce noise-related information. The first contribution of this work is to propose an adjustment of this parameter based on a statistical decision. To this end, a hypothesis test is identified for each lowering criterion in order to set the thinning parameter locally. This leads us to propose the Self Contrast Controlled Thinning method SCCT that is robust to noise and is automatically adjusted to image contrast. The SCCT is made available to application domains through its optimized implementation based on hierarchical queues. Noticing the lack of efforts to assess grayscale skeletonization, the second contribution of this work is to propose a quantitative evaluation protocol assessing skeletonization with regard to its fundamental properties that are namely the preservation of topology and geometry. This protocol is conducted over a synthetic images database and allows us to compare SCCT to approaches from the literature. The third contribution consists in structuring the skeleton into a graph that gives access to objects structural and morphometric descriptors and enables the exploitation of the skeleton by experts from various fields of application. This structuring is applied in the context of Voxelo project which is coordinated by B2OA laboratory of the University Paris Diderot. In this context, descriptors of bone microarchitecture quality are extracted from X-ray high resolution images.
89

Robust analysis of uncertain descriptor systems using non quadratic Lyapunov functions / Analyse robuste des systèmes descripteurs incertains par des fonctions de Lyapunov non quadratiques

Dos Santos Paulino, Ana Carolina 12 December 2018 (has links)
Les systèmes descripteurs incertains sont convenables pour la représentation des incertitudes d’un modèle, du comportement impulsif et des contraintes algébriques entre les variables d’état. Ils peuvent décrire bien plus de phénomènes qu’un système dynamique standard, mais, en conséquence, l’analyse des systèmes descripteurs incertains est aussi plus complexe. Des recherches sont menées de façon à réduire le degré de conservatisme dans l’analyse des systèmes descripteurs incertains. L’utilisation des fonctions de Lyapunov qui sont en mesure de générer des conditions nécessaires et suffisantes pour une telle évaluation y figurent. Les fonctions de Lyapunov polynomiales homogènes font partie de ces classes, mais elles n’ont jamais été employées pour les systèmes descripteurs incertains. Dans cette thèse, nous comblons ce vide dans la littérature en étendant l’usage des fonctions de Lyapunov polynomiales homogènes du cas incertain standard vers les systèmes descripteurs incertains. / Uncertain descriptor systems are a convenient framework for simultaneously representing uncertainties in a model, as well as impulsive behavior and algebraic constraints. This is far beyond what can be depicted by standard dynamic systems, but it also means that the analysis of uncertain descriptor systems is more complex than the standard case. Research has been conducted to reduce the degree of conservatism in the analysis of uncertain descriptor systems. This can be achieved by using classes of Lyapunov functions that are known to be able to provide necessary and sufficient conditions for this evaluation. Homogeneous polynomial Lyapunov functions constitute one of such classes, but they have never been employed in the context of uncertain descriptor systems. In this thesis, we fill in this scientific gap, extending the use of homogeneous polynomial Lyapunov functions from the standard uncertain case for the uncertain descriptor one.
90

Analyse de maillages surfaciques par construction et comparaison de modèles moyens et par décomposition par graphes s’appuyant sur les courbures discrètes : application à l’étude de la cornée humaine

Polette, Arnaud 12 1900 (has links)
Réalisé en cotutelle avec Aix Marseille Université. / Cette thèse se découpe en trois parties. Les deux premières portent sur le développement de méthodes pour la construction de modèles géométriques moyens et pour la comparaison de modèles. Ces approches sont appliquées à la cornée humaine pour l’élaboration d’atlas et pour l’étude biométrique robuste. La troisième partie porte sur une méthode générique d'extraction d'informations dans un maillage en s'appuyant sur des propriétés différentielles discrètes afin de construire une structure par graphe permettant l'extraction de caractéristiques par une description sémantique. Les atlas anatomiques conventionnels (papier ou CD-ROM) sont limités par le fait qu'ils montrent généralement l'anatomie d'un seul individu qui ne représente pas nécessairement bien la population dont il est issu. Afin de remédier aux limitations des atlas conventionnels, nous proposons dans la première partie d’élaborer un atlas numérique 3D contenant les caractéristiques moyennes et les variabilités de la morphologie d'un organe, plus particulièrement de la cornée humaine. Plusieurs problématiques sont abordées, telles que la construction d'une cornée moyenne et la comparaison de cornées. Il existe à ce jour peu d'études ayant ces objectifs car la mise en correspondance de surfaces cornéennes est une problématique non triviale. En plus d'aider à développer une meilleure connaissance de l'anatomie cornéenne, la modélisation 3D de la cornée normale permet de détecter tout écart significatif par rapport à la "normale" permettant un diagnostic précoce de pathologies ou anomalies de la forme de la cornée. La seconde partie a pour objectif de développer une méthode pour reconnaître une surface parmi un groupe de surfaces à l’aide de leurs acquisitions 3D respectives, dans le cadre d’une application de biométrie sur la cornée. L’idée est de quantifier la différence entre chaque surface et une surface donnée, et de déterminer un seuil permettant la reconnaissance. Ce seuil est dépendant des variations normales au sein d’un même sujet, et du bruit inhérent à l’acquisition. Les surfaces sont rognées et trouées de façon imprévisible, de plus il n’y a pas de point de mise en correspondance commun aux surfaces. Deux méthodes complémentaires sont proposées. La première consiste à calculer le volume entre les surfaces après avoir effectué un recalage, et à utiliser ce volume comme un critère de similarité. La seconde approche s’appuie sur une décomposition en harmoniques sphériques en utilisant les coefficients comme des descripteurs de forme, qui permettront de comparer deux surfaces. Des résultats sont présentés pour chaque méthode en les comparant à la méthode la plus récemment décrite dans la littérature, les avantages et inconvénients de chacune sont détaillés. Une méthodologie en cascade utilisant ces deux méthodes afin de combiner les avantages de chacune est aussi proposée. La troisième et dernière partie porte sur une nouvelle méthode de décomposition en graphes de maillages 3D triangulés. Nous utilisons des cartes de courbures discrètes comme descripteur de forme afin de découper le maillage traité en huit différentes catégorie de carreaux (ou peak, ridge, saddle ridge, minimal, saddle valley, valley, pit et flat). Ensuite, un graphe d'adjacence est construit avec un nœud pour chaque carreau. Toutes les catégories de carreaux ne pouvant pas être adjacentes dans un contexte continu, des jonctions intermédiaires sont ajoutées afin d'assurer une cohérence continue entre les zones. Ces graphes sont utilisés pour extraire des caractéristiques géométriques décrites par des motifs (ou patterns), ce qui permet de détecter des régions spécifiques dans un modèle 3D, ou des motifs récurrents. Cette méthode de décomposition étant générique, elle peut être appliquée à de nombreux domaines où il est question d’analyser des modèles géométriques, en particulier dans le contexte de la cornée. / This thesis comprises three parts. The first two parts concern the development of methods for the construction of mean geometric models and for model comparison. These approaches are applied to the human cornea for the construction of atlases and a robust biometric study. The third part focuses on a generic method for the extraction of information in a mesh. This approach is based on discrete differential properties for building a graph structure to extract features using a semantic description. Conventional anatomical atlases (paper or CD-ROM) are limited by the fact they generally show the anatomy of a single individual who does not necessarily represent the population from which they originate. To address the limitations of conventional atlases, we propose in the first part of this thesis to construct a 3D digital atlas containing the average characteristics and variability of the morphology of an organ, especially that of the human cornea. Several issues are addressed, such as the construction of an average cornea and the comparison of corneas. Currently, there are few studies with these objectives because the matching of corneal surfaces is a non-trivial problem. In addition to help to develop a better understanding of the corneal anatomy, 3D models of normal corneas can be used to detect any significant deviation from the norm, thereby allowing for an early diagnosis of diseases or abnormalities using the shape of the cornea. The second part of this thesis aims to develop a method for recognizing a surface from a group of surfaces using their 3D acquisitions in a biometric application pertinent to the cornea. The concept behind this method is to quantify the difference between each surface and a given surface and to determine the threshold for recognition. This threshold depends on normal variations within the same subject and noise due to the acquisition system. The surfaces are randomly trimmed and pierced ; moreover, there is no common landmark on the surfaces. Two complementary methods are proposed. The first method consists of the computation of the volume between the surfaces after performing geometrical matching and the use of this volume as a criterion of similarity. The second approach is based on a decomposition of the surfaces into spherical harmonics using the coefficients as shape descriptors to compare the two surfaces. Each result of the proposed methods is compared to the most recent method described in the literature, with the benefits and disadvantages of each one described in detail. A cascading methodology using both methods to combine the advantages of each method is also proposed. The third and final part of this thesis focuses on a new method for decomposing 3D triangulated meshes into graphs. We use discrete curvature maps as the shape descriptor to split the mesh in eight different categories (peak, ridge, saddle ridge, minimal, saddle valley, valley, pit and flat). Next, an adjacency graph is built with a node for each patch. Because all categories of patches cannot be adjacent in a continuous context, intermediate junctions are added to ensure the continuous consistency between patches. These graphs are used to extract geometric characteristics described by patterns that allow for the detection of specific regions in a 3D model or recurrent characteristics. This decomposition method, being generic, can be used in many applications to analyze geometric models, especially in the context of the cornea.

Page generated in 0.0419 seconds