• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar). / Contributions of texture "multiband" in object-oriented classification of multisource imagery (optics and radar).

Mondésir, Jacques Philémon January 2016 (has links)
Résumé : La texture dispose d’un bon potentiel discriminant qui complète celui des paramètres radiométriques dans le processus de classification d’image. L’indice Compact Texture Unit (CTU) multibande, récemment mis au point par Safia et He (2014), permet d’extraire la texture sur plusieurs bandes à la fois, donc de tirer parti d’un surcroît d’informations ignorées jusqu’ici dans les analyses texturales traditionnelles : l’interdépendance entre les bandes. Toutefois, ce nouvel outil n’a pas encore été testé sur des images multisources, usage qui peut se révéler d’un grand intérêt quand on considère par exemple toute la richesse texturale que le radar peut apporter en supplément à l’optique, par combinaison de données. Cette étude permet donc de compléter la validation initiée par Safia (2014) en appliquant le CTU sur un couple d’images optique-radar. L’analyse texturale de ce jeu de données a permis de générer une image en « texture couleur ». Ces bandes texturales créées sont à nouveau combinées avec les bandes initiales de l’optique, avant d’être intégrées dans un processus de classification de l’occupation du sol sous eCognition. Le même procédé de classification (mais sans CTU) est appliqué respectivement sur : la donnée Optique, puis le Radar, et enfin la combinaison Optique-Radar. Par ailleurs le CTU généré sur l’Optique uniquement (monosource) est comparé à celui dérivant du couple Optique-Radar (multisources). L’analyse du pouvoir séparateur de ces différentes bandes à partir d’histogrammes, ainsi que l’outil matrice de confusion, permet de confronter la performance de ces différents cas de figure et paramètres utilisés. Ces éléments de comparaison présentent le CTU, et notamment le CTU multisources, comme le critère le plus discriminant ; sa présence rajoute de la variabilité dans l’image permettant ainsi une segmentation plus nette, une classification à la fois plus détaillée et plus performante. En effet, la précision passe de 0.5 avec l’image Optique à 0.74 pour l’image CTU, alors que la confusion diminue en passant de 0.30 (dans l’Optique) à 0.02 (dans le CTU). / Abstract : Texture has a good discriminating power which complements the radiometric parameters in the image classification process. The index Compact Texture Unit multiband, recently developed by Safia and He (2014), allows to extract texture from several bands at a time, so taking advantage of extra information not previously considered in the traditional textural analysis: the interdependence between bands. However, this new tool has not yet been tested on multi-source images, use that could be an interesting added-value considering, for example, all the textural richness the radar can provide in addition to optics, by combining data. This study allows to complete validation initiated by Safia (2014), by applying the CTU on an optics-radar dataset. The textural analysis of this multisource data allowed to produce a "color texture" image. These newly created textural bands are again combined with the initial optical bands before their use in a classification process of land cover in eCognition. The same classification process (but without CTU) was applied respectively to: Optics data, then Radar, finally on the Optics-Radar combination. Otherwise, the CTU generated on the optics separately (monosource) was compared to CTU arising from Optical-Radar couple (multisource). The analysis of the separating power of these different bands (radiometric and textural) with histograms, and the confusion matrix tool allows to compare the performance of these different scenarios and classification parameters. These comparators show the CTU, including the CTU multisource, as the most discriminating criterion; his presence adds variability in the image thus allowing a clearer segmentation (homogeneous and non-redundant), a classification both more detailed and more efficient. Indeed, the accuracy changes from 0.5 with the Optics image to 0.74 for the CTU image while confusion decreases from 0.30 (in Optics) to 0.02 (in the CTU).
322

Compilation efficace d'applications de traitement d'images pour processeurs manycore / Efficient Compilation of Image Processing Applications for Manycore Processors

Guillou, Pierre 30 November 2016 (has links)
Nous assistons à une explosion du nombre d’appareils mobiles équipés de capteurs optiques : smartphones, tablettes, drones... préfigurent un Internet des objets imminent. De nouvelles applications de traitement d’images (filtres, compression, réalité augmentée) exploitent ces capteurs mais doivent répondre à des contraintes fortes de vitesse et d’efficacité énergétique. Les architectures modernes — processeurs manycore, GPUs,... — offrent un potentiel de performance, avec cependant une hausse sensible de la complexité de programmation.L’ambition de cette thèse est de vérifier l’adéquation entre le domaine du traitement d’images et ces architectures modernes : concilier programmabilité, portabilité et performance reste encore aujourd’hui un défi. Le domaine du traitement d’images présente un fort parallélisme intrinsèque, qui peut potentiellement être exploité par les différents niveaux de parallélisme offerts par les architectures actuelles. Nous nous focalisons ici sur le domaine du traitement d’images par morphologie mathématique, et validons notre approche avec l’architecture manycore du processeur MPPA de la société Kalray.Nous prouvons d’abord la faisabilité de chaînes de compilation intégrées, composées de compilateurs, bibliothèques et d’environnements d’exécution, qui à partir de langages de haut niveau tirent parti de différents accélérateurs matériels. Nous nous concentrons plus particulièrement sur les processeurs manycore, suivant les différents modèles de programmation : OpenMP ; langage flot de données ; OpenCL ; passage de messages. Trois chaînes de compilation sur quatre ont été réalisées, et sont accessibles à des applications écrites dans des langages spécifiques au domaine du traitement d’images intégrés à Python ou C. Elles améliorent grandement la portabilité de ces applications, désormais exécutables sur un plus large panel d’architectures cibles.Ces chaînes de compilation nous ont ensuite permis de réaliser des expériences comparatives sur un jeu de sept applications de traitement d’images. Nous montrons que le processeur MPPA est en moyenne plus efficace énergétiquement qu’un ensemble d’accélérateurs matériels concurrents, et ceci particulièrement avec le modèle de programmation flot de données. Nous montrons que la compilation d’un langage spécifique intégré à Python vers un langage spécifique intégré à C permet d’augmenter la portabilité et d’améliorer les performances des applications écrites en Python.Nos chaînes de compilation forment enfin un environnement logiciel complet dédié au développement d’applications de traitement d’images par morphologie mathématique, capable de cibler efficacement différentes architectures matérielles, dont le processeur MPPA, et proposant des interfaces dans des langages de haut niveau. / Many mobile devices now integrate optic sensors; smartphones, tablets, drones... are foreshadowing an impending Internet of Things (IoT). New image processing applications (filters, compression, augmented reality) are taking advantage of these sensors under strong constraints of speed and energy efficiency. Modern architectures, such as manycore processors or GPUs, offer good performance, but are hard to program.This thesis aims at checking the adequacy between the image processing domain and these modern architectures: conciliating programmability, portability and performance is still a challenge today. Typical image processing applications feature strong, inherent parallelism, which can potentially be exploited by the various levels of hardware parallelism inside current architectures. We focus here on image processing based on mathematical morphology, and validate our approach using the manycore architecture of the Kalray MPPA processor.We first prove that integrated compilation chains, composed of compilers, libraries and run-time systems, allow to take advantage of various hardware accelerators from high-level languages. We especially focus on manycore processors, through various programming models: OpenMP, data-flow language, OpenCL, and message passing. Three out of four compilation chains have been developed, and are available to applications written in domain-specific languages (DSL) embedded in C or Python. They greatly improve the portability of applications, which can now be executed on a large panel of target architectures.Then, these compilation chains have allowed us to perform comparative experiments on a set of seven image processing applications. We show that the MPPA processor is on average more energy-efficient than competing hardware accelerators, especially with the data-flow programming model. We show that compiling a DSL embedded in Python to a DSL embedded in C increases both the portability and the performance of Python-written applications.Thus, our compilation chains form a complete software environment dedicated to image processing application development. This environment is able to efficiently target several hardware architectures, among them the MPPA processor, and offers interfaces in high-level languages.
323

Exploiting scene context for on-line object tracking in unconstrained environments / Exploitation du contexte de scène pour le suivi d’objet en ligne dans des environnements non contraints

Moujtahid, Salma 03 November 2016 (has links)
Avec le besoin grandissant pour des modèles d’analyse automatiques de vidéos, le suivi visuel d’objets est devenu une tache primordiale dans le domaine de la vision par ordinateur. Un algorithme de suivi dans un environnement non contraint fait face à de nombreuses difficultés: changements potentiels de la forme de l’objet, du fond, de la luminosité, du mouvement de la camera, et autres. Dans cette configuration, les méthodes classiques de soustraction de fond ne sont pas adaptées, on a besoin de méthodes de détection d’objet plus discriminantes. De plus, la nature de l’objet est a priori inconnue dans les méthodes de tracking génériques. Ainsi, les modèles d’apparence d’objets appris off-ligne ne peuvent être utilisés. L’évolution récente d’algorithmes d’apprentissage robustes a permis le développement de nouvelles méthodes de tracking qui apprennent l’apparence de l’objet de manière en ligne et s’adaptent aux variables contraintes en temps réel. Dans cette thèse, nous démarrons par l’observation que différents algorithmes de suivi ont différentes forces et faiblesses selon l’environnement et le contexte. Afin de surmonter les variables contraintes, nous démontrons que combiner plusieurs modalités et algorithmes peut améliorer considérablement la performance du suivi global dans les environnements non contraints. Plus concrètement, nous introduisant dans un premier temps un nouveau framework de sélection de trackers utilisant un critère de cohérence spatio-temporel. Dans ce framework, plusieurs trackers indépendants sont combinés de manière parallèle, chacun d’entre eux utilisant des features bas niveau basée sur différents aspects visuels complémentaires tel que la couleur, la texture. En sélectionnant de manière récurrente le tracker le plus adaptée à chaque trame, le système global peut switcher rapidement entre les différents tracker selon les changements dans la vidéo. Dans la seconde contribution de la thèse, le contexte de scène est utilisé dans le mécanisme de sélection de tracker. Nous avons conçu des features visuelles, extrait de l’image afin de caractériser les différentes conditions et variations de scène. Un classifieur (réseau de neurones) est appris grâce à ces features de scène dans le but de prédire à chaque instant le tracker qui performera le mieux sous les conditions de scènes données. Ce framework a été étendu et amélioré d’avantage en changeant les trackers individuels et optimisant l’apprentissage. Finalement, nous avons commencé à explorer une perspective intéressante où, au lieu d’utiliser des features conçu manuellement, nous avons utilisé un réseau de neurones convolutif dans le but d’apprendre automatiquement à extraire ces features de scène directement à partir de l’image d’entrée et prédire le tracker le plus adapté. Les méthodes proposées ont été évaluées sur plusieurs benchmarks publiques, et ont démontré que l’utilisation du contexte de scène améliore la performance globale du suivi d’objet. / With the increasing need for automated video analysis, visual object tracking became an important task in computer vision. Object tracking is used in a wide range of applications such as surveillance, human-computer interaction, medical imaging or vehicle navigation. A tracking algorithm in unconstrained environments faces multiple challenges : potential changes in object shape and background, lighting, camera motion, and other adverse acquisition conditions. In this setting, classic methods of background subtraction are inadequate, and more discriminative methods of object detection are needed. Moreover, in generic tracking algorithms, the nature of the object is not known a priori. Thus, off-line learned appearance models for specific types of objects such as faces, or pedestrians can not be used. Further, the recent evolution of powerful machine learning techniques enabled the development of new tracking methods that learn the object appearance in an online manner and adapt to the varying constraints in real time, leading to very robust tracking algorithms that can operate in non-stationary environments to some extent. In this thesis, we start from the observation that different tracking algorithms have different strengths and weaknesses depending on the context. To overcome the varying challenges, we show that combining multiple modalities and tracking algorithms can considerably improve the overall tracking performance in unconstrained environments. More concretely, we first introduced a new tracker selection framework using a spatial and temporal coherence criterion. In this algorithm, multiple independent trackers are combined in a parallel manner, each of them using low-level features based on different complementary visual aspects like colour, texture and shape. By recurrently selecting the most suitable tracker, the overall system can switch rapidly between different tracking algorithms with specific appearance models depending on the changes in the video. In the second contribution, the scene context is introduced to the tracker selection. We designed effective visual features, extracted from the scene context to characterise the different image conditions and variations. At each point in time, a classifier is trained based on these features to predict the tracker that will perform best under the given scene conditions. We further improved this context-based framework and proposed an extended version, where the individual trackers are changed and the classifier training is optimised. Finally, we started exploring one interesting perspective that is the use of a Convolutional Neural Network to automatically learn to extract these scene features directly from the input image and predict the most suitable tracker.
324

Détection et caractérisation de défauts sous-jacents à la surface dans des bandes d’acier décapées par thermographie infrarouge stimulée / Detection and characterization of subsurface defects in steel strips using Active Infrared Thermography

Taram, Abdoulaye 21 March 2019 (has links)
Dans le contexte actuel d’ouverture des marchés, le contrôle qualité est primordial dans le domaine de la production sidérurgique où qualité se conjugue avec réduction de coûts de fabrication. Ce contrôle peut être décrit comme un ensemble de systèmes déployés pour vérifier et maintenir le niveau de qualité souhaité. Cela implique une inspection minutieuse, accompagnée le plus souvent d’actions correctives. Cette inspection se traduit par l’utilisation, à différentes étapes de la production, d’outils de Contrôle Non-Destructif (CND) pour détecter des défauts. Etant donné que la détection au stade le plus en amont possible de la production est essentielle pour réduire le coût de la qualité et améliorer la production, des systèmes d’inspection à ultrasons sont utilisés au stade du décapage pour détecter certains défauts internes sans ralentir la cadence de production. Toutefois, le besoin de disposer d’une technique de CND sensible aux défauts sub-surfaciques très proches de la surface pouvant se transformer en défauts surfaciques demeure.Parmi les techniques courantes de CND, la thermographie infrarouge stimulée a été identifiée comme ayant un fort potentiel pour la détection des défauts internes très proches de la surface. En outre, cette technique présente des avantages remarquables : elle est sans contact, relativement rapide et adaptable. Son principe est relativement simple : il consiste à créer un transitoire thermique dans un échantillon et à surveiller la réponse de sa surface avec une caméra infrarouge (IR). La présence d’éventuel défaut interne créerait un contraste sous forme de motifs thermiques irréguliers dans la séquence thermique enregistrée. Cette technique, bien qu’attractive n’est pas encore déployée en ligne de production pour détecter des défauts dans les bandes d’aciers décapées. C’est ce qui constitue d’ailleurs l’innovation majeure de cette thèse.La thèse explore les limites théoriques et expérimentales de la thermographie infrarouge stimulée pour la détection de défauts internes dans des métaux. Elle a abouti aux développements d'outils de laboratoire capables de détecter des défauts très proches de la surface, tant dans des configurations statiques qu’en défilement. Ces développements se sont appuyés sur des simulations numériques en 3D qui ont permis d’évaluer le potentiel de la technique ; gagner en expertise ; obtenir des indications pour optimiser et concevoir les dispositifs expérimentaux. Les connaissances acquises à la suite des développements des outils de laboratoire ont montré qu’il est possible d’implémenter la technique directement dans la chaîne de production, particulièrement au stade de décapage où la bande se déplace généralement à 5 m / s. Par conséquent, un système d’inspection a été construit et déployé avec succès pour l’inspection d’une fraction de bande d’acier en milieu industriel. Les résultats obtenus et présentés dans cette thèse sont très encourageants. Des points d’améliorations sont mis en évidence et leur prise en compte permettra d’aboutir sur un système industriel finalisé, robuste et efficient. / In today’s competitive market, the quality control is vital in steelmaking industry where high quality product must pair with cost reduction. This control can be described as a system used for verifying and maintaining a desired level of quality. It implies careful inspection and corrective action if needed. The inspection can be performed with several Non-Destructive Testing (NDT) techniques to detect defects. Since the detection at the earliest possible stage is vital for the reduction of the quality cost, the ultrasonic systems have been used at pickling stage to detect internal defects without slowing down the production paces. However, there is still a need of a sensitive NDT technique to detect near subsurface defects which may turn into surface defects at downstream stages or even worse, at the customers during forming.Amongst the common NDT techniques, Active Infrared Thermography (AIRT) was identified as having a great potential for the detection of near surface internal defects. As an attractive NDT technique, AIRT has remarkable: it is contactless, relatively fast and versatile. Its principle is relatively simple: it consists in heating the sample and monitoring the surface response with an Infrared (IR) camera. The presence of any subsurface defect appears as specific thermal patterns in the recorded thermal sequence. Despite being an attractive technique, AIRT is not deployed yet to detect subsurface defects in steel strip at pickling stage on an industrial production line which is the innovative part of this thesis.The work provided in the thesis investigates the theoretical and experimental limits of AIRT for the detection of subsurface defects in steel samples. First, the investigation led to the development of laboratory tools capable of detecting near subsurface defects in static as well as moving samples. These developments are supported by 3D simulations which allowed evaluating the potential of the technique; gaining comprehensive knowledge; getting guidance for and/or optimize experimental designs. Then, the knowledge developed in laboratory has allowed outlining that the technique can be implemented directly in production line; especially at pickling stage where the strip travels at typically 5 m/s. Therefore, an inspection system was built and successfully implemented for the inspection of a reduced width of the moving strip in industrial environment. The thesis presents encouraging results and some keys identified points that should be considered for the design of full-integrated industrial AIRT inspection system.
325

Modélisation thermomécanique d'un composite carbone/carbone à texture complexe / Thermomechanical modeling of a carbon/carbon composite with complex texture

Raude, Amandine 28 November 2018 (has links)
Les composites C/C sont utilisés dans les domaines du spatial et de l'aéronautique pour leurs excellentes propriétés thermomécaniques depuis la température ambiante jusqu'aux très hautes températures (> 3000°C). Ces matériaux ont une architecture complexe constituée de nappes de fibres stratifiées et aiguilletées. Leur utilisation en zones fortement sollicitées et à haute température nécessite une maîtrise des propriétés thermiques et mécaniques. Actuellement, la conception du matériau se fait de manière empirique et itérative. Pour l'accélérer, le développement d'un modèle numérique multi-échelle prédictif du comportement du composite C/C est proposé. Ce matériau a tout d'abord été caractérisé morphologiquement à ses différentes échelles caractéristiques, les propriétés thermomécaniques de ses constituants élémentaires ont également été identifiées. A l'échelle microscopique, les fils sont représentés de façon homogène et thermoélastique à partir des taux de constituants qui leurs sont associés. A l'échelle mésoscopique, deux aspects morphologiques semblent prédominants : son architecture ainsi que ses porosités et endommagements. Leur effet sur le comportement effectif du composite C/C est étudié dans le but d'évaluer leur influence relative et d'aboutir à une description suffisamment fine de leurs morphologies dans la modélisation effectuée. Un modèle de matériau idéalisé ainsi qu'un modèle basé images ont été développés. La simulation d'essais macroscopiques a révélé que ces deux aspects avaient un effet non-négligeable sur le comportement effectif du composite C/C et ont permis le développement et la validation d'un modèle prédictif multi-échelle de ce matériau, prenant en compte les caractéristiques précédentes, et permettant le lien entre l'échelle de ses constituants élémentaires et celle macroscopique. / C/C composites are used in space and aeronautics for their excellent thermomechanical properties from room temperature to very high temperatures (> 3000°C). These materials have a complex architecture consisting of layers of laminated and needled fibers. Its use in highly stressed areas and at high temperature requires control of thermal and mechanical properties. Currently, the design of the material is done empirically and iteratively. To accelerate it, the development of a multi-scale digital model of the C/C composite is proposed. This material was first morphologically characterized at its different characteristic scales, the thermomechanical properties of its elementary constituents were also identified. At the microscopic scale, the wires are represented homogeneously and thermoelastically from the constituent levels associated with them. At the mesoscopic scale, two morphological aspects seem to predominate: its architecture as well as its porosities and damages. Their effect on the effective behavior of the C/C composite is studied in order to evaluate their relative influence and to arrive at a sufficiently fine description of their morphologies in the modeling carried out. An idealized material model as well as an image based model have been developed. The simulation of macroscopic tests revealed that both aspects had a non-negligible effect on the effective behavior of the C/C composite and allowed the development and validation of a multi-scale predictive model of this material, taking into account the preceding characteristics, and allowing the link between the scale of its elementary constituents and the macroscopic one.
326

Analyse de la microstructure 3D du tissu cardiaque humain à l’aide de la micro-tomographie à rayons X par contraste de phase / Analysis of the 3D microstructure of the human cardiac tissue using X-ray phase contrast micro-tomography

Mirea, Iulia 19 September 2017 (has links)
Les pathologies cardiovasculaires restent un des problèmes majeurs de santé publique qui justifie les recherches menées pour améliorer notre compréhension de la fonction cardiaque. Celles-ci nécessitent une bonne connaissance de la microarcInstitut de Technologie de Harbin - Chineecture myocardique afin de mieux comprendre les relations entre les fonctions mécanique, hémodynamique et les changements structuraux induits par les maladies cardiaques. Pour ce faire il est nécessaire d’accéder à une connaissance précise de l’arrangement spatial des composants du tissu. Cependant, notre compréhension de l’arcInstitut de Technologie de Harbin - Chineecture du coeur est limitée par le manque de description 3D de l’organisation des structures à l’échelle microscopique. Nous proposons d’explorer la structure 3D du tissu cardiaque en utilisant l’imagerie X synchrotron par contraste de phase disponible à l’ESRF. Pour la première fois, 9 échantillons de tissu de la paroi du ventricule gauche (VG) humain sont imagés à la résolution isotrope de 3,5 μm et analysés. Cette thèse est centrée sur la description 3D d’un des constituants principal du tissu: la matrice extracellulaire (MEC). La MEC inclue: l’endomysium qui entoure et sépare les myocytes et les capillaires de façon individuelle, le perimysium qui entoure et sépare des groupes de myocytes et l’épimysium qui enveloppe le muscle cardiaque dans son ensemble. Chaque échantillon reconstruit fait environ 30 Gb, ce qui représente une quantité importante de données à traiter et à visualiser. Pour ce faire, nous avons développé un algorithme automatique de traitement d’image pour binariser chaque échantillon et isoler la MEC. Ensuite, nous avons extrait des parametres statistiques relatifs à la microarcInstitut de Technologie de Harbin - Chineecture de l’ECM, principalement l’épaisseur des plans de clivage (PC) et les distances inter-PC. Les résultats montrent que l’arrangement local des PC diffère selon l’emplacement au sein du VG (postérieur, antérieur, septal) et de leur distance à l’apex (plus complexe). L’épaisseur des PC extraite de tous les échantillons va approximativement de 24 μm à 59 μm et la distance inter-PC de 70 μm à 280 μm avec une variation locale significative de la déviation standard. Ce sont de nouveaux marqueurs quantitatifs de la MEC du tissu cardiaque humain qui sont d’un intérêt majeur pour une meilleure compréhension de la fonction cardiaque. / Cardiovascular diseases remain one of the most serious health problems, motivating research to deepen our understanding of the myocardial function. To succeed, there is a need to get detailed information about the spatial arrangement of the cardiac tissue components. Currently, our understanding of the cardiac microarcInstitut de Technologie de Harbin - Chineecture is limited by the lack of 3D descriptions of the cardiac tissue at the microscopic scale. This thesis investigates the 3D cardiac tissue microstructure using X-Ray µ-CT phase contrast imaging available at the ESRF. For the first time, 9 human cardiac left ventricle (LV) wall samples are imaged at an isotropic resolution (3.5 µm) and analysed. We focus on the description of the cardiac extracellular matrix (CEM) that is one of the main components of the tissue. The CEM includes: the endomysium that surrounds and separates individual myocytes and capillaries, the perimysium that surrounds groups of myocytes and the epimysium that surrounds the entire heart muscle. Each reconstructed sample is about 30 Gb which represents a large amount of data to process and display. To succeed, we developed an automatic image processing algorithm to binarise each sample by selecting the CEM. We extract statistical features of the ECM, mainly the thickness of the cleavage planes (CP) and the inter-CP distances. The results show that the local 3D arrangement of the CP differs according to their location in the LV (posterior, anterior, septal) and their distance from the apex (more complex). The thickness of the CP extracted from all the samples roughly ranges from 24 µm to 59 µm and the inter-CP distances from 70 µm to 280 µm with significant local variations of the standard deviation. Those new quantitative markers of the ECM of the human cardiac are of main interest for a better understanding of the heart function.
327

Image Characterization by Morphological Hierarchical Representations / Caractérisation d'images par des représentations morphologiques hiérarchiques

Fehri, Amin 25 May 2018 (has links)
Cette thèse porte sur l'extraction de descripteurs hiérarchiques et multi-échelles d'images, en vue de leur interprétation, caractérisation et segmentation. Elle se décompose en deux parties.La première partie expose des éléments théoriques et méthodologiques sur l'obtention de classifications hiérarchiques des nœuds d'un graphe valué aux arêtes. Ces méthodes sont ensuite appliquées à des graphes représentant des images pour obtenir différentes méthodes de segmentation hiérarchique d'images. De plus, nous introduisons différentes façons de combiner des segmentations hiérarchiques. Nous proposons enfin une méthodologie pour structurer et étudier l'espace des hiérarchies que nous avons construites en utilisant la distance de Gromov-Hausdorff entre elles.La seconde partie explore plusieurs applications de ces descriptions hiérarchiques d'images. Nous exposons une méthode pour apprendre à extraire de ces hiérarchies une bonne segmentation de façon automatique, étant donnés un type d'images et un score de bonne segmentation. Nous proposons également des descripteurs d'images obtenus par mesure des distances inter-hiérarchies, et exposons leur efficacité sur des données réelles et simulées. Enfin, nous étendons les potentielles applications de ces hiérarchies en introduisant une technique permettant de prendre en compte toute information spatiale a priori durant leur construction. / This thesis deals with the extraction of hierarchical and multiscale descriptors on images, in order to interpret, characterize and segment them. It breaks down into two parts.The first part outlines a theoretical and methodological approach for obtaining hierarchical clusterings of the nodes of an edge-weighted graph. In addition, we introduce different approaches to combine hierarchical segmentations. These methods are then applied to graphs representing images and derive different hierarchical segmentation techniques. Finally, we propose a methodology for structuring and studying the space of hierarchies by using the Gromov-Hausdorff distance as a metric.The second part explores several applications of these hierarchical descriptions for images. We expose a method to learn how to automatically extract a segmentation of an image, given a type of images and a score of evaluation for a segmentation. We also propose image descriptors obtained by measuring inter-hierarchical distances, and expose their efficiency on real and simulated data. Finally, we extend the potential applications of these hierarchies by introducing a technique to take into account any spatial prior information during their construction.
328

Etude de la confusion des descripteurs locaux de points d'intérêt : application à la mise en correspondance d'images de documents / Study of keypoints and local features confusion : document images matching scenario

Royer, Emilien 24 October 2017 (has links)
Ce travail s’inscrit dans une tentative de liaison entre la communauté classique de la Vision par ordinateur et la communauté du traitement d’images de documents, analyse être connaissance (DAR). Plus particulièrement, nous abordons la question des détecteurs de points d’intérêts et des descripteurs locaux dans une image. Ceux-ci ayant été conçus pour des images issues du monde réel, ils ne sont pas adaptés aux problématiques issues du document dont les images présentent des caractéristiques visuelles différentes.Notre approche se base sur la résolution du problème de la confusion entre les descripteurs,ceux-ci perdant leur pouvoir discriminant. Notre principale contribution est un algorithme de réduction de la confusion potentiellement présente dans un ensemble de vecteurs caractéristiques d’une même image, ceci par une approche probabiliste en filtrant les vecteurs fortement confusifs. Une telle conception nous permet d’appliquer des algorithmes d’extractions de descripteurs sans avoir à les modifier ce qui constitue une passerelle entre ces deux mondes. / This work tries to establish a bridge between the field of classical computer vision and document analysis and recognition. Specificaly, we tackle the issue of keypoints detection and associated local features computation in the image. These are not suitable for document images since they were designed for real-world images which have different visual characteristic. Our approach is based on resolving the issue of reducing the confusion between feature vectors since they usually lose their discriminant power with document images. Our main contribution is an algorithm reducing the confusion between local features by filtering the ones which present a high confusing risk. We are tackling this by using tools from probability theory. Such a method allows us to apply features extraction algorithms without having to modify them, thus establishing a bridge between these two worlds.
329

Segmentation of irises acquired in degraded conditions / Segmentation d’iris acquis en conditions dégradées

Lefevre, Thierry 30 January 2013 (has links)
Les performances des systèmes de reconnaissances basés sur l'iris sont très négativement affectées par les relâchements des contraintes lors de l'acquisition des images (sujet mobile ou faiblement coopératif, image acquise loin du capteur…). L’objectif de cette thèse est de proposer une amélioration des algorithmes de segmentation traditionnels afin de pouvoir travailler dans de telles conditions. Nous avons identifié et traité quarte modules qui permettent de limiter l'impact des dégradations des images sur les performances du système de reconnaissance global : • Une localisation précise et robuste de la pupille dans l'image l'œil. Pour cela, nous avons développé une méthode qui supprime les cils et les sourcils de l'image pour faciliter la détection de la pupille. • Une segmentation précise de la texture de l'iris dans l'image. Nous avons étudié plusieurs méthodes de la littérature des Contours Actifs et comparé l'impact de ces méthodes sur les performances de reconnaissances du système complet. • Une estimation précise et robuste des contours anatomique de l'iris indépendamment des occlusions dans l'image. Pour cela, nous avons dérivé les équations des Contours Actifs explicitement pour des cercles et des ellipses. Nous avons par ailleurs proposé une méthodologie efficace pour rendre la détection moins sensible aux minimas locaux. • Une méthode de détection des erreurs de segmentation. Il est en effet important de pouvoir avertir le système de reconnaissance global qu'une erreur s’est produite. Pour cela nous avons développé plusieurs critères d'évaluation de la qualité de segmentation. Nous avons ensuite fusionnés ces mesures en utilisant un algorithme de type <<Support Vector Regression>> (SVR) pour former une mesure de qualité globale évaluant la qualité de la segmentation / This thesis is focused on the development of robust segmentation algorithms for iris recognition systems working in degraded acquisition conditions. In controlled acquisition scenarios, iris segmentation is well handled by simple segmentation schemes, which modeled the iris borders by circles and assumed that the iris can only be occluded by eyelids. However, such simple models tend to fail when the iris is strongly occluded or off-angle, or when the iris borders are not sharp enough. In this thesis, we propose a complete segmentation system working efficiently despite the above-mentioned degradations of the input data. After a study of the recent state of the art in iris recognition, we identified four key issues that an iris segmentation system should handle when being confronted to images of poor quality, leading this way to four key modules for the complete system: • The system should be able locate the pupil in the image in order to initialize more complex algorithms. To address this problem, we propose an original and effective way to first segment dark elements in the image that can lead to mistakes of the pupil localization process. This rough segmentation detects high frequency areas of the image and then the system uses the pupil homogeneity as a criterion to identify the pupil area among other dark regions of the image. • Accurate segmentation of the iris texture in the eye image is a core task of iris segmentation systems. We propose to segment the iris texture by Active Contours because they meet both the requirement in robustness and accuracy required to perform segmentation on large databases of degraded images. We studied several Active Contours that varies in speed, robustness, accuracy and in the features they use to model the iris region. We make a comparative evaluation of the algorithms’ influence on the system performance. • A complete segmentation system must also accurately estimate the iris shape in occluded regions, in order to format the iris texture for recognition. We propose a robust and accurate scheme based on a variational formulation to fit an elliptic model on the iris borders. We explicitly derive evolution equations for ellipses using the Active Contours formalism. We also propose an effective way to limit the sensitivity of this process to initial conditions. This part of our work is currently under review for final acceptance in the international journal Computer Vision and Image Understanding (CVIU). • Finally, we address the main issue of automatic detection of segmentation failures of the system. Few works in the literature address measuring the quality of a segmentation algorithm, critical task for an operational system. We propose in this thesis a set of novel quality measures for segmentation and show a correlation between each of them with the intrinsic recognition performance of the segmented images. We perform fusion of the individual quality measures via a Support Vector Regression (SVR) algorithm, in order to propose a more robust global segmentation quality score
330

Online fabric inspection by image processing technology / Détection de défauts de tissage en ligne par le traitement d'images

Malek, Abdel Salam 16 May 2012 (has links)
Le présent travail de thèse a pour but d'automatiser la détection des défauts de tissage, à l'aide d'un système informatisé fondé sur le traitement d'image. La structure du tissu, de par sa fabrication, est périodique par répétition de l'armure (dessin d'entrecroisement). L'apparition d'un défaut dans le tissu entraîne la destruction de cette périodicité. de ce fait, le défaut de tissage peut être détecté par la surveillance en continu de la structure du tissu pendant le tissage. Dans notre travail, les techniques de transformée rapide de Fourier et la corrélation croisée sont d'abord mises en œuvre, afin d'examiner les caractéristiques de régularité de la structure de l'image du tissu dans le domaine fréquentiel. Dans un deuxième temps, afin d'améliorer l'efficacité de la technique et d'éviter le problème d'erreur de détection, une opération de seuillage a été implémentée en utilisant un filtre de sélection de niveau. Au moyen de ce filtre, la technique mise en place est capable de détecter uniquement les défauts réels et de mettre en évidence leurs dimensions exactes. L'ensemble de cette procédure a été implémentée au moyen du progiciel Matlab ou Scilab. Puis l'ensemble des procédures a été mis en œuvre sur un tissu simulé, afin de comprendre le comportement du spectre de fréquences, de déterminer et d'optimiser les paramètres de détection les plus importants. Dans toutes ces procédures, le niveau de bruit a bien sûr été pris en compte. L'efficacité des procédures ayant été testée sur des tissus simulés dans un premier temps, elles ont été appliquées aux tissus sortant de machines à tisser. Ainsi, des échantillons contenant divers défauts ainsi que des échantillons écrus, unis ou de diverses couleurs ont pu être testés. Les techniques proposées ont aussi dans ces divers cas montré leur efficacité. En conclusion, un prototype fondé sur un dispositif de vision pour l'inspection des tissus sur métier à tisser en temps réel est proposé. / The purpose of this thesis is to automate the online detection of weaving defects by a computerized system based on image processing software. Obviously, fabric inspection has an importance to prevent risk of delivering inferior quality product. Until recently, the visual defect detection is still under taken offline and manually by humans with many drawbacks such as tiredness, boredom, and, inattentiveness. Fortunately, the continuous development in computer technology introduces the online automated fabric inspection as an effective alternative. Because the defect-free fabric has a periodic regular structure, the occurrence of a defect in the fabric breaks the regular structure. Therefore, the fabric defects can be detected by monitoring fabric structure. In our work, Fast Fourier Transform and Cross-correlation techniques, i.e. linear operations, are first implemented to examine the structure regularity features of the fabric image in the frequency domain. To improve the efficiency of the technique and overcome the problem of detection errors, further thresholding operation is implemented using a level selection filter. Through this filter, the technique is able to detect only the actual or real defects and highlight their exact dimensions. A software package such as Matlab or Scilab is used for this procedure. It is implemented firstly on a simulated plain fabric to determine the most important parameters during the process of defect detection and then to optimize each of them even considering noise. To verify the success of the technique, it is implemented on real plain fabric samples with different colours containing various defects. Finally, a vision-based fabric inspection prototype that could be accomplished on-loom to inspect the fabric under construction with 100% coverage is proposed.

Page generated in 0.0336 seconds