Spelling suggestions: "subject:"classification d’1mages"" "subject:"classification d’demages""
1 |
Reconnaissance et classification d’images de documents / Document image retrieval and classificationAugereau, Olivier 14 February 2013 (has links)
Ces travaux de recherche ont pour ambition de contribuer à la problématique de la classification d’images de documents. Plus précisément, ces travaux tendent à répondre aux problèmes rencontrés par des sociétés de numérisation dont l’objectif est de mettre à disposition de leurs clients une version numérique des documents papiers accompagnés d’informations qui leurs sont relatives. Face à la diversité des documents à numériser, l’extraction d’informations peut s’avérer parfois complexe. C’est pourquoi la classification et l’indexation des documents sont très souvent réalisées manuellement. Ces travaux de recherche ont permis de fournir différentes solutions en fonction des connaissances relatives aux images que possède l’utilisateur ayant en charge l’annotation des documents.Le premier apport de cette thèse est la mise en place d’une méthode permettant, de manière interactive, à un utilisateur de classer des images de documents dont la nature est inconnue. Le second apport de ces travaux est la proposition d’une technique de recherche d’images de documents par l’exemple basée sur l’extraction et la mise en correspondance de points d’intérêts. Le dernier apport de cette thèse est l’élaboration d’une méthode de classification d’images de documents utilisant les techniques de sacs de mots visuels. / The aim of this research is to contribute to the document image classification problem. More specifically, these studies address digitizing company issues which objective is to provide the digital version of paper document with information relating to them. Given the diversity of documents, information extraction can be complex. This is why the classification and the indexing of documents are often performed manually. This research provides several solutions based on knowledge of the images that the user has. The first contribution of this thesis is a method for classifying interactively document images, where the content of documents and classes are unknown. The second contribution of this work is a new technique for document image retrieval by giving one example of researched document. This technique is based on the extraction and matching of interest points. The last contribution of this thesis is a method for classifying document images by using bags of visual words techniques.
|
2 |
Recherche de motifs fréquents dans une base de cartes combinatoires / Frequent pattern discovery in combinatorial maps databasesGosselin, Stéphane 24 October 2011 (has links)
Une carte combinatoire est un modèle topologique qui permet de représenter les subdivisions de l’espace en cellules et les relations d’adjacences et d’incidences entre ces cellules en n dimensions. Cette structure de données est de plus en plus utilisée en traitement d’images, mais elle manque encore d’outils pour les analyser. Notre but est de définir de nouveaux outils pour les cartes combinatoires nD. Nous nous intéressons plus particulièrement à l’extraction de sous-cartes fréquentes dans une base de cartes. Nous proposons deux signatures qui sont également des formes canoniques de cartes combinatoires. Ces signatures ont chacune leurs avantages et leurs inconvénients. La première permet de décider de l’isomorphisme entre deux cartes en temps linéaire, en contrepartie le coût de stockage en mémoire est quadratique en la taille de la carte. La seconde signature a un coût de stockage en mémoire linéaire en la taille de la carte, cependant le temps de calcul de l’isomorphisme est quadratique. Elles sont utilisables à la fois pour des cartes connexes, non connexes, valuées ou non valuées. Ces signatures permettent de représenter une base de cartes combinatoires et de rechercher un élément de manière efficace. De plus, le temps de recherche ne dépend pas du nombre de cartes présent dans la base. Ensuite, nous formalisons le problème de recherche de sous-cartes fréquentes dans une base de cartes combinatoires nD. Nous implémentons deux algorithmes pour résoudre ce problème. Le premier algorithme extrait les sous-cartes fréquentes par une approche en largeur tandis que le second utilise une approche en profondeur. Nous comparons les performances de ces deux algorithmes sur des bases de cartes synthétiques. Enfin, nous proposons d’utiliser les motifs fréquents dans une application de classification d’images. Chaque image est décrite par une carte qui est transformée en un vecteur représentant le nombre d’occurrences des motifs fréquents. À partir de ces vecteurs, nous utilisons des techniques classiques de classification définies sur les espaces vectoriels. Nous proposons des expérimentations en classification supervisée et non supervisée sur deux bases d’images. / A combinatorial map is a topological model that can represent the subdivisions of space into cells and their adjacency relations in n dimensions. This data structure is increasingly used in image processing, but it still lacks tools for analysis. Our goal is to define new tools for combinatorial maps nD. We are particularly interested in the extraction of submaps in a database of maps. We define two combinatorial map signatures : the first one has a quadratic space complexity and may be used to decide of isomorphism with a new map in linear time whereas the second one has a linear space complexity and may be used to decide of isomorphism in quadratic time. They can be used for connected maps, non connected maps, labbeled maps or non labelled maps. These signatures can be used to efficiently search for a map in a database.Moreover, the search time does not depend on the number of maps in the database. Then, we formalize the problem of finding frequent submaps in a database of combinatorial nD maps. We implement two algorithms for solving this problem. The first algorithm extracts the submaps with a breadth-first search approach and the second uses a depth-first search approach. We compare the performance of these two algorithms on synthetic database of maps. Finally, we propose to use the frequent patterns in an image classification application. Each image is described by a map that is transformed into a vector representing the number of occurrences of frequent patterns. From these vectors, we use standard techniques of classification defined on vector spaces. We propose experiments in supervised and unsupervised classification on two images databases.
|
3 |
Classification d’objets au moyen de machines à vecteurs supports dans les images de sonar de haute résolution du fond marin / Object classification using support vector machines in high resolution sonar seabed imageryRousselle, Denis 28 November 2016 (has links)
Cette thèse a pour objectif d'améliorer la classification d'objets sous-marins dans des images sonar haute résolution. En particulier, il s'agit de distinguer les mines des objets inoffensifs parmi une collection d'objets ressemblant à des mines. Nos recherches ont été dirigées par deux contraintes classiques en guerre de la mine : d'une part, le manque de données et d'autre part, le besoin de lisibilité des décisions. Nous avons donc constitué une base de données la plus représentative possible et simulé des objets dans le but de la compléter. Le manque d'exemples nous a mené à utiliser une représentation compacte, issue de la reconnaissance de visages : les Structural Binary Gradient Patterns (SBGP). Dans la même optique, nous avons dérivé une méthode d'adaptation de domaine semi-supervisée, basée sur le transport optimal, qui peut être facilement interprétable. Enfin, nous avons développé un nouvel algorithme de classification : les Ensemble of Exemplar-Maximum Excluding Ball (EE-MEB) qui sont à la fois adaptés à des petits jeux de données mais dont la décision est également aisément analysable / This thesis aims to improve the classification of underwater objects in high resolution sonar images. Especially, we seek to make the distinction between mines and harmless objects from a collection of mine-like objects. Our research was led by two classical constraints of the mine warfare : firstly, the lack of data and secondly, the need for readability of the classification. In this context, we built a database as much representative as possible and simulated objects in order to complete it. The lack of examples led us to use a compact representation, originally used by the face recognition community : the Structural Binary Gradient Patterns (SBGP). To the same end, we derived a method of semi-supervised domain adaptation, based on optimal transport, that can be easily interpreted. Finally, we developed a new classification algorithm : the Ensemble of Exemplar-Maximum Excluding Ball (EE-MEB) which is suitable for small datasets and with an easily interpretable decision function
|
4 |
Knowledge transfer for image understanding / Transfert de connaissance pour la compréhension des imagesKulkarni, Praveen 23 January 2017 (has links)
Le Transfert de Connaissance (Knowledge Transfer or Transfer Learning) est une solution prometteuse au difficile problème de l’apprentissage des réseaux profonds au moyen de bases d’apprentissage de petite taille, en présence d’une grande variabilité visuelle intra-classe. Dans ce travail, nous reprenons ce paradigme, dans le but d’étendre les capacités des CNN les plus récents au problème de la classification. Dans un premier temps, nous proposons plusieurs techniques permettant, lors de l’apprentissage et de la prédiction, une réduction des ressources nécessaires – une limitation connue des CNN. (i) En utilisant une méthode hybride combinant des techniques classiques comme des Bag-Of-Words (BoW) avec des CNN. (iv) En introduisant une nouvelle méthode d’agrégation intégrée à une structure de type CNN ainsi qu’un modèle non-linéaire s’appuyant sur des parties de l’image. La contribution clé est, finalement, une technique capable d’isoler les régions des images utiles pour une représentation locale. De plus, nous proposons une méthode nouvelle pour apprendre une représentation structurée des coefficients des réseaux de neurones. Nous présentons des résultats sur des jeux de données difficiles, ainsi que des comparaisons avec des méthodes concurrentes récentes. Nous prouvons que les méthodes proposées s’étendent à d’autres tâches de reconnaissance visuelles comme la classification d’objets, de scènes ou d’actions. / Knowledge transfer is a promising solution for the difficult problem of training deep convolutional neural nets (CNNs) using only small size training datasets with a high intra-class visual variability. In this thesis work, we explore this paradigm to extend the ability of state-of-the-art CNNs for image classification.First, we propose several effective techniques to reduce the training and test-time computational burden associated to CNNs:(i) Using a hybrid method to combine conventional, unsupervised aggregators such as Bag-of-Words (BoW) with CNNs;(ii) Introducing a novel pooling methods within a CNN framework along with non-linear part-based models. The key contribution lies in a technique able to discover useful regions per image involved in the pooling of local representations;In addition, we also propose a novel method to learn the structure of weights in deep neural networks. Experiments are run on challenging datasets with comparisons against state-of-the-art methods. The methods proposed are shown to generalize to different visual recognition tasks, such as object, scene or action classification.
|
5 |
Détection et dénombrement de la moyenne et grande faune par imagerie visible et infrarouge thermique acquise à l'aide d'un aéronef sans pilote (ASP)Chrétien, Louis-Philippe January 2016 (has links)
L’inventaire aérien est une approche pratique pour effectuer l’inventaire de la grande faune sur de grands territoires; particulièrement pour les zones peu accessibles. Toutefois, les limitations liées aux capacités de détection des observateurs, la coloration cryptique de certaines espèces fauniques et la complexité structurelle de certains habitats font en sorte que les inventaires ont généralement des biais qui sous-estiment la densité réelle de la population. Par ailleurs, peu d’études ont démontré la capacité d’effectuer la détection aérienne simultanée de plusieurs espèces. La détection multiespèce peut s’avérer utile pour les espèces qui se côtoient spatialement afin de connaître leur utilisation de l’espace, pour étudier la relation proie/prédateur et pour limiter les coûts à un seul inventaire. Cette pratique s’avère néanmoins trop exigeante pour les observateurs qui doivent déjà faire preuve de beaucoup de concentration pour détecter une seule espèce lors d’un inventaire aérien traditionnel. L’utilisation d’imagerie aérienne multispectrale acquise avec un aéronef sans pilote (ASP) représente une méthode potentielle pour la détection d’une ou plusieurs espèces fauniques. Ce projet de recherche consistait donc dans un premier temps à détecter, identifier et dénombrer à l’aide d’imagerie acquise avec un ASP et par traitements d’images les cerfs de Virginie (Odocoileus virginianus). Différentes combinaisons de bandes spectrales, méthodes d’analyses d’images et résolutions spatiales ont été testées pour déterminer la méthode la plus efficace pour la détection du cerf. Dans un deuxième temps, la meilleure méthode identifiée pour les cerfs a été utilisée et adaptée pour effectuer la détection simultanée des bisons d’Amérique (Bison bison), des daims européens (Dama dama), des loups gris (Canis lupus) et des wapitis (Cervus canadensis). L’inventaire de la faune a été réalisé au Centre d’observation de la faune et d’interprétation de l’agriculture de Falardeau à Saint-David-de-Falardeau, Québec, Canada. Les résultats démontrent que l’imagerie visible et infrarouge thermique avec une résolution spatiale de 0.8 cm/pixel combinée à une analyse d’images par objet constitue la combinaison la plus efficace parmi celles testées pour la détection des cerfs de Virginie. Tous les individus visibles à l’œil nu sur les mosaïques ont été détectés. Néanmoins, considérant l’obstruction visuelle causée par la canopée coniférienne, cette approche offre un taux de détectabilité moyen de 0.5, comparable aux inventaires aériens classiques. La complexité structurelle de l’habitat demeure ainsi un problème non résolu. Quant à l’analyse multiespèce, les bisons et les wapitis ont tous été détectés même en présence d’autres espèces comme l’autruche (Struthio camelus), le coyote (Canis latrans) et l’ours noir (Ursus americanus). Pour les daims et les loups, entre 0 à 1 individu par parcelle a été confondu avec les autres éléments du paysage tels que le sol. De plus, entre 0 à 2 individus par parcelle n’ont pas été détectés alors qu’ils étaient présents dans la ligne de vol. Non seulement cette approche a démontré sa capacité à détecter une ou plusieurs espèces, mais également son adaptabilité à cibler spécifiquement les espèces d’intérêts pour le gestionnaire et à ignorer celles qui ne sont pas ciblées. Ce projet a donc permis de valider le potentiel des ASP pour l’acquisition d’imagerie d’une qualité permettant l’extraction de données d’inventaires. Cela ouvre la voie à l’utilisation de ce type de plateforme d’acquisition pour des applications reliées à la gestion de la faune grâce à leur faible impact sonore et leur haut taux de revisite. Toutefois, la réglementation canadienne actuelle limite l’utilisation de ces appareils sur de faibles superficies. Il n’en demeure pas moins que la technologie peut être développée en attendant les futurs progrès du domaine des ASP et de la réglementation.
|
6 |
Télédétection et épidémiologie en zone urbaine : de l'extraction de bâtiments à partir d'images satellite à très haute résolution à l'estimation de taux d'incidence / Remote sensing and epidemiology in urban zone : from extraction of buildings from very high resolution satellite images to the estimation of incidence ratesUpegui Cardona, Erika 08 October 2012 (has links)
En épidémiologie, une connaissance précise des populations à risque constitue un pré requis aucalcul d'indicateurs de l’état de santé d’une communauté (taux d'incidence). Néanmoins, les effectifsde population peuvent être indisponibles, ou peu fiables, ou insuffisamment détaillés pour un usageépidémiologique.L'objectif principal de ce travail est d'obtenir des taux d'incidence en l'absence de donnéesdémographiques, à une échelle spatiale infra-communale. Les objectifs secondaires sont d'estimerles populations humaines par l'intermédiaire de données satellitaires à très haute résolution spatiale(THRS), d'évaluer l'apport de ces données THRS par rapport aux données à haute résolution spatiale(Landsat) dans un même cadre urbain (Besançon), et de mettre au point une méthodologie simple etrobuste, pour garantir son exportabilité à d'autres zones.Nous proposons une approche en trois étapes, fondée sur la corrélation existant entre la densité depopulation et la morphologie urbaine. La première étape consiste à extraire des bâtiments à partirdes données télédétection THRS. Ces bâtiments sont utilisés dans la deuxième étape pour modéliserla population. A leur tour, ces populations servent de dénominateur, lors de la dernière étape, pourcalculer des taux d’incidence (cancers). Des données de référence sont utilisées à chaque étape pourévaluer les performances de notre méthodologie.Les résultats obtenus soulignent le potentiel de la télédétection pour mesurer l'état de santé d'unecommunauté (sous la forme de taux bruts d’incidence) à une échelle géographique fine. Ces tauxd'incidence estimés peuvent alors constituer des éléments de décision pour mieux adapter l'offre desoins aux besoin de santé, même en l'absence de données démographiques / In epidemiology, a precise knowledge of populations at risk is a prerequisite for calculating state ofhealth indicators of a community (incidence rates). The population data, however, may beunavailable, unreliable, or insufficiently detailed for epidemiological use.The main objective of this research is to estimate incidence rates, in cases of absence of demographicdata, at an infra-communal scale. The secondary objectives are to estimate the human populationthrough satellite data at very high spatial resolution (VHSR), to assess the contribution of this data(VHSR) compared with high spatial resolution data (Landsat) in a same urban framework (Besançon),and to develop a simple and robust methodology to ensure its exportability to other areas.We proposed a three-step approach based on the correlation between population density and urbanmorphology. The first step is to extract buildings from VHSR imagery data. These buildings are thenused in the second step to model the population data. Finally, this population data is used as thedenominator to calculate incidence rates (cancers). Reference data are used at each step to assessthe performance of our methodology.The results obtained highlight the potential of remote sensing to measure the state of health of acommunity (in the form of crude incidence rates) at a fine geographical scale. These estimatedincidence rates can be utilized as elements of decision to adapt better customized healthcare withrespect to the health needs of a given community, even in the absence of demographic data
|
7 |
Large scale support vector machines algorithms for visual classification / Algorithmes de SVM pour la classification d'images à grande échelleDoan, Thanh-Nghi 07 November 2013 (has links)
Nous présentons deux contributions majeures : 1) une combinaison de plusieurs descripteurs d’images pour la classification à grande échelle, 2) des algorithmes parallèles de SVM pour la classification d’images à grande échelle. Nous proposons aussi un algorithme incrémental et parallèle de classification lorsque les données ne peuvent plus tenir en mémoire vive. / We have proposed a novel method of combination multiple of different features for image classification. For large scale learning classifiers, we have developed the parallel versions of both state-of-the-art linear and nonlinear SVMs. We have also proposed a novel algorithm to extend stochastic gradient descent SVM for large scale learning. A class of large scale incremental SVM classifiers has been developed in order to perform classification tasks on large datasets with very large number of classes and training data can not fit into memory.
|
Page generated in 0.0864 seconds