Spelling suggestions: "subject:"transformée dde HOUGH"" "subject:"transformée dee HOUGH""
1 |
Extraction et analyse des caractéristiques faciales : application à l'hypovigilance chez le conducteur / Extraction and analysis of facial features : application to drover hypovigilance detectionAlioua, Nawal 28 March 2015 (has links)
L'étude des caractéristiques faciales a suscité l'intérêt croissant de la communauté scientifique et des industriels. En effet, ces caractéristiques véhiculent des informations non verbales qui jouent un rôle clé dans la communication entre les hommes. De plus, elles sont très utiles pour permettre une interaction entre l'homme et la machine. De ce fait, l'étude automatique des caractéristiques faciales constitue une tâche primordiale pour diverses applications telles que les interfaces homme-machine, la science du comportement, la pratique clinique et la surveillance de l'état du conducteur. Dans cette thèse, nous nous intéressons à la surveillance de l'état du conducteur à travers l'analyse de ses caractéristiques faciales. Cette problématique sollicite un intérêt universel causé par le nombre croissant des accidents routiers, dont une grande partie est provoquée par une dégradation de la vigilance du conducteur, connue sous le nom de l'hypovigilance. En effet, nous pouvons distinguer trois états d'hypovigilance. Le premier, et le plus critique, est la somnolence qui se manifeste par une incapacité à se maintenir éveillé et se caractérise par les périodes de micro-sommeil correspondant à des endormissements de 2 à 6 secondes. Le second est la fatigue qui se définit par la difficulté croissante à maintenir une tâche à terme et se caractérise par une augmentation du nombre de bâillements. Le troisième est l'inattention qui se produit lorsque l'attention est détournée de l'activité de conduite et se caractérise par le maintien de la pose de la tête en une direction autre que frontale. L'objectif de cette thèse est de concevoir des approches permettant de détecter l'hypovigilance chez le conducteur en analysant ses caractéristiques faciales. En premier lieu, nous avons proposé une approche dédiée à la détection de la somnolence à partir de l'identification des périodes de micro-sommeil à travers l'analyse des yeux. En second lieu, nous avons introduit une approche permettant de relever la fatigue à partir de l'analyse de la bouche afin de détecter les bâillements. Du fait qu'il n'existe aucune base de données publique dédiée à la détection de l'hypovigilance, nous avons acquis et annoté notre propre base de données représentant différents sujets simulant des états d'hypovigilance sous des conditions d'éclairage réelles afin d'évaluer les performances de ces deux approches. En troisième lieu, nous avons développé deux nouveaux estimateurs de la pose de la tête pour permettre à la fois de détecter l'inattention du conducteur et de déterminer son état, même quand ses caractéristiques faciales (yeux et bouche) ne peuvent être analysées suite à des positions non-frontales de la tête. Nous avons évalué ces deux estimateurs sur la base de données publique Pointing'04. Ensuite, nous avons acquis et annoté une base de données représentant la variation de la pose de la tête du conducteur pour valider nos estimateurs sous un environnement de conduite. / Studying facial features has attracted increasing attention in both academic and industrial communities. Indeed, these features convey nonverbal information that plays a key role in humancommunication. Moreover, they are very useful to allow human-machine interactions. Therefore, the automatic study of facial features is an important task for various applications includingrobotics, human-machine interfaces, behavioral science, clinical practice and monitoring driver state. In this thesis, we focus our attention on monitoring driver state through its facial features analysis. This problematic solicits a universal interest caused by the increasing number of road accidents, principally induced by deterioration in the driver vigilance level, known as hypovigilance. Indeed, we can distinguish three hypovigilance states. The first and most critical one is drowsiness, which is manifested by an inability to keep awake and it is characterized by microsleep intervals of 2-6 seconds. The second one is fatigue, which is defined by the increasing difficulty of maintaining a task and it is characterized by an important number of yawns. The third and last one is the inattention that occurs when the attention is diverted from the driving activity and it is characterized by maintaining the head pose in a non-frontal direction.The aim of this thesis is to propose facial features based approaches allowing to identify driver hypovigilance. The first approach was proposed to detect drowsiness by identifying microsleepintervals through eye state analysis. The second one was developed to identify fatigue by detecting yawning through mouth analysis. Since no public hypovigilance database is available,we have acquired and annotated our own database representing different subjects simulating hypovigilance under real lighting conditions to evaluate the performance of these two approaches. Next, we have developed two driver head pose estimation approaches to detect its inattention and also to determine its vigilance level even if the facial features (eyes and mouth) cannot be analyzed because of non-frontal head positions. We evaluated these two estimators on the public database Pointing'04. Then, we have acquired and annotated a driver head pose database to evaluate our estimators in real driving conditions.
|
2 |
Development of new algorithm for improving accuracy of pole detection to the supporting system of mobility aid for visually impaired person / Développement d'un nouvel algorithme pour améliorer l'exactitude de la détection de poteau pour assister la mobilité des personnes malvoyantesYusro, Muhammad 18 October 2017 (has links)
Ces travaux de recherche visaient à développer un système d'aide à la mobilité pour les personnes ayant une déficience visuelle (VIP ‘Visually Impaired Person’) appelé ‘Smart Environment Explorer Stick (SEES)’. Le but particulier de cette recherche était de développer de nouveaux algorithmes pour améliorer la précision de la détection de la présence de poteaux de la canne SEE-stick en utilisant la méthode de calcul de distance et la recherche de paires de lignes verticales basées sur l'optimisation de la technique de détection de contour de Canny. Désormais, l'algorithme de détection des poteaux est appelé l’algorithme YuRHoS. Le SEES développé comme système de support d'aide à la mobilité VIP a été intégré avec succès à plusieurs dispositifs tels que le serveur distant dénommé iSEE, le serveur local embarqué dénommé SEE-phone et la canne intelligente dénommée SEE-stick. Les performances de SEE-stick ont été améliorées grâce à l'algorithme YuRHoS qui permet de discriminer avec précision les objets (obstacles) en forme de poteau parmi les objets détectés. La comparaison des résultats de détection des poteaux avec ceux des autres algorithmes a conclu que l'algorithme YuRHoS était plus efficace et précis. Le lieu et la couleur des poteaux de test d’évaluation étaient deux des facteurs les plus importants qui influaient sur la capacité du SEE-stick à détecter leur présence. Le niveau de précision de SEE-stick est optimal lorsque le test d’évaluation est effectué à l'extérieur et que les poteaux sont de couleur argentée. Les statistiques montrent que la performance de l'algorithme YuRHoS à l'intérieur était 0,085 fois moins bonne qu'à l'extérieur. De plus, la détection de la présence de poteaux de couleur argentée est 11 fois meilleure que celle de poteaux de couleur noir. / This research aimed to develop a technology system of mobility aid for Visually Impaired Person (VIP) called Smart Environment Explorer Stick (SEES).Particular purpose of this research was developing new algorithm in improving accuracy of SEE-stick for pole detection using distance calculation method and vertical line pair search based on Canny edge detection optimization and Hough transform. Henceforth, the pole detection algorithm was named as YuRHoS algorithm.The developed SEES as supporting system of VIP mobility aid had been successfully integrated several devices such as global remote server (iSEE), embedded local server (SEE-phone) and smart stick (SEE-stick). Performance of SEE-stick could be improved through YuRHoS algorithm, which was able to fix the accuracy of SEE-stick in detecting pole. Test comparison of pole detection results among others algorithm concluded that YuRHoS algorithm had better accuracy in pole detection.Two most significant factors affecting SEE-stick ability in detecting pole was test location and pole color. Level of accuracy of SEE-stick would be optimum once the test location was performed outdoor and pole color was silver. Statistics result shown that YuRHoS algorithm performance indoor was 0.085 times worse than outdoor. Meanwhile, silver-pole-color as object detection could increase YuRHoS algorithm performance as much as 11 times better compare to black-pole-color.
|
3 |
Reconnaissance robuste d'activités humaines par vision / Robust vision based activity detection and recognitionVaquette, Geoffrey 14 February 2018 (has links)
Cette thèse porte sur la segmentation supervisée d'un flux vidéo en fragments correspondant à des activités de la vie quotidienne. En différenciant geste, action et activité, cette thèse s'intéresse aux activités à haut niveau sémantique telles que "Cuisiner" ou "Prendre son repas" par opposition à des actions comme "Découper un aliment". Pour cela, elle s'appuie sur l'algorithme DOHT (Deeply Optimized Hough Transform), une méthode de l'état de l'art utilisant un paradigme de vote (par transformée de Hough). Dans un premier temps, nous adaptons l'algorithme DOHT pour fusionner les informations en provenance de différents capteurs à trois niveaux différents de l'algorithme. Nous analysons l'effet de ces trois niveaux de fusion et montrons son efficacité par une évaluation sur une base de données composée d'actions de la vie quotidienne. Ensuite, une étude des jeux de données existant est menée. Constatant le manque de vidéos adaptées à la segmentation et classification (détection) d'activités à haut niveau sémantique, une nouvelle base de données est proposée. Enregistrée dans un environnement réaliste et dans des conditions au plus proche de l'application finale, elle contient des vidéos longues et non découpées adaptées à un contexte de détection. Dans un dernier temps, nous proposons une approche hiérarchique à partir d'algorithmes DOHT pour reconnaître les activités à haut niveau sémantique. Cette approche à deux niveaux décompose le problème en une détection non-supervisée d'actions pour ensuite détecter les activités désirées. / This thesis focuses on supervised activity segmentation from video streams within application context of smart homes. Three semantic levels are defined, namely gesture, action and activity, this thesis focuses mainly on the latter. Based on the Deeply Optimized Hough Transform paridigm, three fusion levels are introduced in order to benefit from various modalities. A review of existing action based datasets is presented and the lack of activity detection oriented database is noticed. Then, a new dataset is introduced. It is composed of unsegmented long time range daily activities and has been recorded in a realistic environment. Finaly, a hierarchical activity detection method is proposed aiming to detect high level activities from unsupervised action detection.
|
4 |
Etude de méthodes d'analyse en vue de détecter les ondes gravitationnelles émises par des pulsars avec l'interféromètre VirgoRamonet, Julien 29 August 2003 (has links) (PDF)
Les pulsars sont une des sources d'ondes gravitationnelles attendues pour les interféromètres terrestres. Dans la gamme de fréquences où la sensibilité sera suffisamment bonne pour espérer une détection typiquement au-dessus de 10 Hz , la majorité des pulsars appartient à un système binaire. La fréquence des ondes gravitationnelles émises par un pulsar en système binaire subit plusieurs effets Doppler : celui dû à la rotation de la Terre sur elle-même, celui dû à la révolution de la Terre autour du Soleil, et celui dû à l'orbite du pulsar autour de son compagnon. <br> Cette thèse présente le contrôle du système de synchronisation de Virgo, la simulation du signal émis par les pulsars en système binaire et deux méthodes adaptées à la recherche de tels objets. Les principes de ces méthodes, les puissances de calcul nécessaires et les performances sont détaillés.
|
5 |
Estimation de vitesse par analyse d'images acquises en filé : Application à la caractérisation de la distribution centrifuge de granules d'engrais.Villette, Sylvain 12 December 2006 (has links) (PDF)
Cette thèse montre que l'acquisition d'images en filé au voisinage du disque d'épandage d'un distributeur centrifuge d'engrais constitue une solution pour déterminer les composantes de la vitesse d'éjection des granules. Un filtre linéaire récursif est appliqué sur l'image pour détecter les axes des traces laissées par les granules. Ce filtre est développé en appliquant la méthodologie de Canny à un modèle de contour dont le profil dérive d'une approche expérimentale. Ensuite, les trajectoires sont identifiées et caractérisées au moyen de la transformée de Hough en intégrant les connaissances issues de l'analyse du processus d'épandage. La vitesse d'éjection est alors déduite de l'angle d'éjection par le biais de relations cinématiques. La répartition angulaire du flux d'engrais est également estimée à partir de la fréquence d'identification des trajectoires dans l'image. La répartition au sol de l'engrais est déduite d'un modèle de vol balistique utilisant ces paramètres.
|
6 |
Modélisation d'images agronomiques - application a la reconnaissance d'adventices par imagerie pour une pulvérisation localiséeJones, Gawain 26 November 2009 (has links) (PDF)
Les nouvelles réglementations concernant les usages de produits phytosanitaires et la prise en compte de l'environnement (pollution, biodiversité) en agriculture ont conduit à la mise au point de méthodes d'identification de plantes (culture et adventices) par une gestion spécifique des adventices par imagerie. Afin de disposer d'un outil performant permettant l'évaluation de ces méthodes d'identification reposant sur une analyse spatiale de la scène photographiée, un modèle de simulation de scènes agronomiques a été mis au point. Prenant en considération certaines caractéristiques agronomiques d'une parcelle cultivée, ce modèle permet de simuler une vérité terrain dont les paramètres - la spatialisation de la culture, le taux d'infestation, la distribution des adventices - sont contrôlés. La scène agronomique ainsi créée subit ensuite une transformation projective afin de simuler la prise de photographie et, ainsi, de prendre en compte tous les paramètres nécessaire à la création d'une image. Ce modèle a ensuite été validé à l'aide de comparaison statistique avec des données réelles. De nouveaux algorithmes spatiaux basés sur la Transformée de Hough et utilisant l'alignement en rang de la culture ont également été développés. Trois méthodes basées sur une analyse en composante connexe, une estimation de contours et une méthode probabiliste ont été mises en œuvre et exhaustivement évaluées à l'aide du modèle développé. Les résultats obtenus sont de très bonne qualité avec une classification correcte de la culture et des adventices supérieure à 90% et pouvant atteindre 98% dans certains cas. Enfin, pour ce modèle, une approche spectrale a également été explorée afin de dépasser les limitations imposées par les méthodes spatiales. Une extension 3D a été apportée à ce modèle afin de permettre la simulation de la réflectance bidirectionnelle (BRDF) des plantes et du sol à l'aide des modèles PROSPECT et SOILSPECT. La transformation d'une information spectrale en une information couleur RGB, la prise en compte de filtres optiques ou la création de données multispectrales sont également discutées.
|
7 |
commande multi capteur d'un processus de fabricationEl Sahmarani, Khaled 21 October 2008 (has links) (PDF)
Dans un atelier de production, la multitude de capteurs, leur calibrage, les difficultés d'implémentation sans compter le niveau de fiabilité à assurer ont conduits les industriels à chercher de nouvelles solutions contribuant à l'amélioration des performances de leurs installations. Cette thèse propose une solution innovante: l'utilisation de capteur unique de vision pour la commande et la détection de défaut. L'idée principale et originale est de piloter le système par un seul et unique capteur " le système de vision ". L'avantage d'une telle structure basée sur un système de vision se situe dans l'exploitation du capteur de vision non seulement pour la commande du processus de fabrication, mais aussi pour la détection et localisation de défaut. Il est clair que les orientations vers de capteur unique de vision nécessitent une architecture particulière de l'ensemble du système de contrôle/commande. Une nouvelle organisation du processus de fabrication est proposée. Les informations en provenance des capteurs et du système de vision sont tout d'abord traitées, analysées et ensuite transmis vers les actionneurs. Il existe différents algorithmes de traitement d'image. Le principe général de la méthodologie proposée et les différents algorithmes de filtrage, de détection de mouvement, détection de contour sont présentés. Parmi les exigences des algorithmes proposés la qualité de réactivité des algorithmes en termes de temps de réponse est primordiale. De plus, les algorithmes proposés doivent être capables d'atténuer l'effet du bruit sur l'image à traiter et particulièrement le facteur " luminosité " dû au changement de la lumière ambiante. Pour atteindre ces objectives différentes étapes de traitement et d'amélioration sont proposées. Les méthodes proposées sont appliquées sur différents exemples.
|
8 |
Reconstruction de formes tubulaires à partir de nuages de points : application à l’estimation de la géométrie forestière / Tubular shapes reconstruction from point clouds : applications to the forests geometryRavaglia, Joris 14 December 2017 (has links)
Le coeur de cette thèse porte sur la modélisation géométrique et introduit une méthode robuste d'extraction de formes tubulaires à partir de nuages de points. Nous avons choisi de tester nos méthodes dans le contexte applicatif de la foresterie pour mettre en valeur la robustesse de nos algorithmes.Nos méthodes intègrent les normales aux points, il est donc nécessaire de les pré-calculer. Notre premier développement a alors consisté à présenter une méthode rapide d'estimation de normales. Pour ce faire nous avons approximé localement la géométrie du nuage de points en utilisant des "patchs" lisses dont la taille s'adapte à la complexité locale des nuages de points.Nos travaux se sont ensuite concentrés sur l’extraction robuste de formes tubulaires dans des nuages de points occlus, bruités et de densité inhomogène. Nous avons développé une variante de la transformée de Hough que nous avons couplé à une proposition de contours actifs indépendants de leur paramétrisation. Notre méthode a été validée en environnement forestier pour reconstruire des troncs d'arbre afin d'en relever les qualités par comparaison à des méthodes existantes.La reconstruction de troncs d'arbre ouvre d'autres questions dont la segmentation des arbres d'une placette forestière. Nous proposons également une méthode de segmentation pour isoler les différents objets d'un jeu de données.Durant nos travaux nous avons utilisé des approches de modélisation pour répondre à des questions géométriques, et nous les avons appliqué à des problématiques forestières. Il en résulte un pipeline de traitements cohérent qui, bien qu'illustré sur des données forestières, est applicable dans des contextes variés. / The core of this thesis concerns geometric modelling and introduces a fast and robust method for the extraction of tubular shapes from point clouds. We chose to test our method in the difficult applicative context of forestry in order to highlight the robustness of our algorithms.Our methods integrate normal vectors, thus they have to be pre-computed. Our first development consisted in the development of a fast normal estimation method on point cloud. To do so, we locally approximated the point cloud geometry using smooth "patches" of points which size adapts to the local complexity of the point cloud geometry.We then focused our work on the robust extraction of tubular shapes from dense, occluded, noisy point clouds suffering from non-homogeneous sampling density. We developed a variant of the Hough transform and combined this research with a new definition of parametrisation-invariant active contours. We validated our method in complex forest environments with the reconstruction of tree stems to emphasize its advantages and compare it to existing methods.Tree stem reconstruction also opens new perspectives halfway in between forestry and geometry such as the segmentation of trees from a forest plot. Therefore we propose a segmentation approach capable of isolating objects inside a point cloud.During our work we used modelling approaches to answer geometric questions and we applied our methods to forestry problems. Therefore, our studies result in a processing pipeline adapted to forest point cloud analyses, but the general geometric algorithms we propose can also be applied in various contexts.
|
9 |
Reconstruction de formes tubulaires à partir de nuages de points : application à l’estimation de la géométrie forestièreRavaglia, Joris January 2017 (has links)
Les capacités des technologies de télédétection ont augmenté exponentiellement au cours des dernières années : de nouveaux scanners fournissent maintenant une représentation géométrique de leur environnement sous la forme de nuage de points avec une précision jusqu'ici inégalée. Le traitement de nuages de points est donc devenu une discipline à part entière avec ses problématiques propres et de nombreux défis à relever. Le coeur de cette thèse porte sur la modélisation géométrique et introduit une méthode robuste d'extraction de formes tubulaires à partir de nuages de points. Nous avons choisi de tester nos méthodes dans le contexte applicatif difficile de la foresterie pour mettre en valeur la robustesse de nos algorithmes et leur application à des données volumineuses.
Nos méthodes intègrent les normales aux points comme information supplémentaire pour atteindre les objectifs de performance nécessaire au traitement de nuages de points volumineux.Cependant, ces normales ne sont généralement pas fournies par les capteurs, il est donc nécessaire de les pré-calculer.Pour préserver la rapidité d'exécution, notre premier développement a donc consisté à présenter une méthode rapide d'estimation de normales. Pour ce faire nous avons approximé localement la géométrie du nuage de points en utilisant des "patchs" lisses dont la taille s'adapte à la complexité locale des nuages de points.
Nos travaux se sont ensuite concentrés sur l’extraction robuste de formes tubulaires dans des nuages de points denses, occlus, bruités et de densité inhomogène. Dans cette optique, nous avons développé une variante de la transformée de Hough dont la complexité est réduite grâce aux normales calculées. Nous avons ensuite couplé ces travaux à une proposition de contours actifs indépendants de leur paramétrisation. Cette combinaison assure la cohérence interne des formes reconstruites et s’affranchit ainsi des problèmes liés à l'occlusion, au bruit et aux variations de densité. Notre méthode a été validée en environnement complexe forestier pour reconstruire des troncs d'arbre afin d'en relever les qualités par comparaison à des méthodes existantes.
La reconstruction de troncs d'arbre ouvre d'autres questions à mi-chemin entre foresterie et géométrie. La segmentation des arbres d'une placette forestière est l'une d’entre elles. C'est pourquoi nous proposons également une méthode de segmentation conçue pour contourner les défauts des nuages de points forestiers et isoler les différents objets d'un jeu de données.
Durant nos travaux nous avons utilisé des approches de modélisation pour répondre à des questions géométriques, et nous les avons appliqué à des problématiques forestières.Il en résulte un pipeline de traitements cohérent qui, bien qu'illustré sur des données forestières, est applicable dans des contextes variés. / Abstract : The potential of remote sensing technologies has recently increased exponentially: new sensors now provide a geometric representation of their environment in the form of point clouds with unrivalled accuracy. Point cloud processing hence became a full discipline, including specific problems and many challenges to face. The core of this thesis concerns geometric modelling and introduces a fast and robust method for the extraction of tubular shapes from point clouds. We hence chose to test our method in the difficult applicative context of forestry in order to highlight the robustness of our algorithms and their application to large data sets.
Our methods integrate normal vectors as a supplementary geometric information in order to achieve the performance goal necessary for large point cloud processing. However, remote sensing techniques do not commonly provide normal vectors, thus they have to be computed. Our first development hence consisted in the development of a fast normal estimation method on point cloud in order to reduce the computing time on large point clouds. To do so, we locally approximated the point cloud geometry using smooth ''patches`` of points which size adapts to the local complexity of the point cloud geometry.
We then focused our work on the robust extraction of tubular shapes from dense, occluded, noisy point clouds suffering from non-homogeneous sampling density. For this objective, we developed a variant of the Hough transform which complexity is reduced thanks to the computed normal vectors. We then combined this research with a new definition of parametrisation-invariant active contours. This combination ensures the internal coherence of the reconstructed shapes and alleviates issues related to occlusion, noise and variation of sampling density. We validated our method in complex forest environments with the reconstruction of tree stems to emphasize its advantages and compare it to existing methods.
Tree stem reconstruction also opens new perspectives halfway in between forestry and geometry. One of them is the segmentation of trees from a forest plot. Therefore we also propose a segmentation approach designed to overcome the defects of forest point clouds and capable of isolating objects inside a point cloud.
During our work we used modelling approaches to answer geometric questions and we applied our methods to forestry problems. Therefore, our studies result in a processing pipeline adapted to forest point cloud analyses, but the general geometric algorithms we propose can also be applied in various contexts.
|
10 |
Object representation in local feature spaces : application to real-time tracking and detection / Représentation d'objets dans des espaces de caractéristiques locales : application à la poursuite de cibles temps-réel et à la détectionTran, Antoine 25 October 2017 (has links)
La représentation visuelle est un problème fondamental en vision par ordinateur. Le but est de réduire l'information au strict nécessaire pour une tâche désirée. Plusieurs types de représentation existent, comme les caractéristiques de couleur (histogrammes, attributs de couleurs...), de forme (dérivées, points d'intérêt...) ou d'autres, comme les bancs de filtres.Les caractéristiques bas-niveau (locales) sont rapides à calculer. Elles ont un pouvoir de représentation limité, mais leur généricité présente un intérêt pour des systèmes autonomes et multi-tâches, puisque les caractéristiques haut-niveau découlent d'elles.Le but de cette thèse est de construire puis d'étudier l'impact de représentations fondées seulement sur des caractéristiques locales de bas-niveau (couleurs, dérivées spatiales) pour deux tâches : la poursuite d'objets génériques, nécessitant des caractéristiques robustes aux variations d'aspect de l'objet et du contexte au cours du temps; la détection d'objets, où la représentation doit décrire une classe d'objets en tenant compte des variations intra-classe. Plutôt que de construire des descripteurs d'objets globaux dédiés, nous nous appuyons entièrement sur les caractéristiques locales et sur des mécanismes statistiques flexibles visant à estimer leur distribution (histogrammes) et leurs co-occurrences (Transformée de Hough Généralisée). La Transformée de Hough Généralisée (THG), créée pour la détection de formes quelconques, consiste à créer une structure de données représentant un objet, une classe... Cette structure, d'abord indexée par l'orientation du gradient, a été étendue à d'autres caractéristiques. Travaillant sur des caractéristiques locales, nous voulons rester proche de la THG originale.En poursuite d'objets, après avoir présenté nos premiers travaux, combinant la THG avec un filtre particulaire (utilisant un histogramme de couleurs), nous présentons un algorithme plus léger et rapide (100fps), plus précis et robuste. Nous présentons une évaluation qualitative et étudierons l'impact des caractéristiques utilisées (espace de couleur, formulation des dérivées partielles...). En détection, nous avons utilisé l'algorithme de Gall appelé forêts de Hough. Notre but est de réduire l'espace de caractéristiques utilisé par Gall, en supprimant celles de type HOG, pour ne garder que les dérivées partielles et les caractéristiques de couleur. Pour compenser cette réduction, nous avons amélioré deux étapes de l'entraînement : le support des descripteurs locaux (patchs) est partiellement produit selon une mesure géométrique, et l'entraînement des nœuds se fait en générant une carte de probabilité spécifique prenant en compte les patchs utilisés pour cette étape. Avec l'espace de caractéristiques réduit, le détecteur n'est pas plus précis. Avec les mêmes caractéristiques que Gall, sur une même durée d'entraînement, nos travaux ont permis d'avoir des résultats identiques, mais avec une variance plus faible et donc une meilleure répétabilité. / Visual representation is a fundamental problem in computer vision. The aim is to reduce the information to the strict necessary for a query task. Many types of representation exist, like color features (histograms, color attributes...), shape ones (derivatives, keypoints...) or filterbanks.Low-level (and local) features are fast to compute. Their power of representation are limited, but their genericity have an interest for autonomous or multi-task systems, as higher level ones derivate from them. We aim to build, then study impact of low-level and local feature spaces (color and derivatives only) for two tasks: generic object tracking, requiring features robust to object and environment's aspect changes over the time; object detection, for which the representation should describe object class and cope with intra-class variations.Then, rather than using global object descriptors, we use entirely local features and statisticals mecanisms to estimate their distribution (histograms) and their co-occurrences (Generalized Hough Transform).The Generalized Hough Transform (GHT), created for detection of any shape, consists in building a codebook, originally indexed by gradient orientation, then to diverse features, modeling an object, a class. As we work on local features, we aim to remain close to the original GHT.In tracking, after presenting preliminary works combining the GHT with a particle filter (using color histograms), we present a lighter and fast (100 fps) tracker, more accurate and robust.We present a qualitative evaluation and study the impact of used features (color space, spatial derivative formulation).In detection, we used Gall's Hough Forest. We aim to reduce Gall's feature space and discard HOG features, to keep only derivatives and color ones.To compensate the reduction, we enhanced two steps: the support of local descriptors (patches) are partially chosen using a geometrical measure, and node training is done by using a specific probability map based on patches used at this step.With reduced feature space, the detector is less accurate than with Gall's feature space, but for the same training time, our works lead to identical results, but with higher stability and then better repeatability.
|
Page generated in 0.0616 seconds