• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 1
  • 1
  • Tagged with
  • 7
  • 7
  • 7
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Contribution à l'étude du recalage<br />de données 3D /couleur

Douadi, Lounis 04 October 2006 (has links) (PDF)
Dans les applications de modélisation de l'environnement, on dispose généralement de plusieurs images<br />3D de la même scène prises de points de vue différents. Le recalage de ces vues consiste à estimer les<br />transformations rigides qui permettent de les ramener dans un référentiel commun. Cette thèse propose<br />des solutions pour réaliser le recalage automatique de nuages de points denses et non structurés acquis<br />par un scanner 3D/couleur à haute résolution, en vue de la construction de modèles 3D texturés d'objets<br />complexes. La première contribution de ce travail concerne l'utilisation de l'information couleur pour<br />améliorer les performances du recalage en utilisant l'algorithme ICP (Iterative Closest Point)<br />initialement conçu pour le traitement de données géométriques pures. Lorsque le niveau du bruit sur la<br />couleur n'est pas trop élevé, l'utilisation de cette information photométrique permet d'améliorer la<br />convergence de l'algorithme et de réduire l'erreur résiduelle de recalage dans l'espace 3D. Une étude<br />concernant la robustesse de la méthode au bruit sur la couleur montre qu'on peut diminuer l'effet négatif<br />des changements d'illumination en choisissant un espace couleur perceptuel qui permet de séparer les<br />composantes chromatiques de la composante intensité. La deuxième contribution de ce travail concerne<br />l'automatisation du processus de recalage. En effet, pour éviter que l'algorithme itératif de recalage ne<br />converge vers un minimum local, il est nécessaire de lui fournir une transformation initiale proche de la<br />solution exacte. Pour estimer cette transformation de manière automatique on recherche un ensemble de<br />paires de points couleur dans les deux nuages à apparier. Ces paires sont construites à partir de points<br />d'intérêt extraits des images couleur à l'aide du détecteur de Harris Précis Couleur. La transformation<br />3D initiale est ensuite estimée en appliquant l'algorithme RANSAC aux paires 3D résultant de<br />l'appariement précédent. Cette méthode permet d'éliminer l'influence des mauvais appariements couleur<br />et fournit généralement une initialisation correcte du processus de recalage. Les tests effectués sur des<br />images réelles illustrent les performances et la faisabilité des solutions proposées.
2

Une technique de relaxation pour la mise en correspondance d'images: Application à la reconnaissance d'objets et au suivi du visage.

Sidibe, Dro Désiré 07 December 2007 (has links) (PDF)
Le principal intérêt de l'utilisation des invariants locaux pour la mise en correspondance de différentes vues d'une même scène est le caractère local qui les rend robustes aux occultations et aux changements de point de vue et d'échelle. Néanmoins, cette localité limite le pouvoir discriminant des descripteurs locaux qui échouent dans les cas dificiles où l'ambiguité est élevée. Dans une première partie, nous proposons une méthode de mise en correspondance basée sur la relaxation qui prend en compte une information plus globale, dite contextuelle, afin de garantir des résultats corrects même dans les cas les plus dificiles. Nous présentons une application dans le cadre de la reconnaissance d'objets dans des scènes complexes. Dans une seconde partie, nous abordons le problème de la détection et du suivi du visage dans une séquence d'image. Nous proposons une méthode simple et eficace pour la détection du visage dans une image couleur, et nous montrons comment l'algorithme de mise en correspondance peut être utilisé pour suivre eficacement le visage dans une séquence d'images.
3

De l'appariement a l'indexation des images

Gros, Patrick 18 December 1998 (has links) (PDF)
Nous présentons dans ce document l'ensemble de nos travaux concernant l'appariement, la modélisation et l'indexation des images. Cet ensemble de techniques concourt au développement d'un système de reconnaissance automatique d'images. Dans un premier temps, nous présentons diverses méthodes d'appariement d'images adaptées spécifiquement aux images structurées, texturées en niveaux de gris ou en couleur. Nous montrons comment faire coopérer ces méthodes dans le cas d'images difficiles. La deuxième partie est consacrée à la modélisation d'images et de concepts visuels, modélisation qui repose sur une technique de regroupement hiérarchique. La taille des groupes formés est calculée par une méthode basée sur l'entropie. L'indexation des images occupe la fin du mémoire. Deux cas sont étudiés : celui du stockage des données en mémoire vive, cas pour lequel nous fournissons des résultats de complexité, et celui du stockage en mémoire auxiliaire, qui reste encore largement à explorer. Le tout est largement illustré de cas concrets et ouvre de nombreuses pistes de travail.
4

Techniques de mise en correspondance et détection de changements

Garcin, Laurent 23 June 2005 (has links) (PDF)
On présentera des techniques de mise en correspondance de divers types d'objets. On s'intéressera dans un premier temps à la mise en correspondance géodésique d'objets qui consiste, par le biais de l'action d'un groupe de déformation sur un ensemble d'objets, à définir une distance géodésique sur la variété riemannienne formée par l'ensemble en question, qui soit invariante par l'action de groupe considérée. Dans un premier temps, on s'intéressera à la mise en correspondance d'images sur lesquelles agissent des difféomorphismes. On en déduira un algorithme que l'on perfectionnera par une stratégie multi échelle. On adaptera cette technique de mise en correspondance géodésique à des objets tels que des points ou des vecteurs grâce à une modélisation de la déformation à base de splines. Enfin, on présentera des techniques de mise en correspondance d'ensembles de primitives avec appariement des primitives une à une.
5

Mise en correspondance d'images multimodales appliquée à la visée pédiculaire assistée par ordinateur

Mazier, Bruno 22 December 1992 (has links) (PDF)
.
6

Anatomy of the SIFT method / L'Anatomie de la méthode SIFT

Rey Otero, Ives 26 September 2015 (has links)
Cette thèse est une analyse approfondie de la méthode SIFT, la méthode de comparaison d'images la plus populaire. En proposant un échantillonnage du scale-space Gaussien, elle est aussi la première méthode à mettre en pratique la théorie scale-space et faire usage de ses propriétés d'invariance aux changements d'échelles.SIFT associe à une image un ensemble de descripteurs invariants aux changements d'échelle, invariants à la rotation et à la translation. Les descripteurs de différentes images peuvent être comparés afin de mettre en correspondance les images. Compte tenu de ses nombreuses applications et ses innombrables variantes, étudier un algorithme publié il y a une décennie pourrait surprendre. Il apparaît néanmoins que peu a été fait pour réellement comprendre cet algorithme majeur et établir de façon rigoureuse dans quelle mesure il peut être amélioré pour des applications de haute précision. Cette étude se découpe en quatre parties. Le calcul exact du scale-space Gaussien, qui est au cœur de la méthode SIFT et de la plupart de ses compétiteurs, est l'objet de la première partie.La deuxième partie est une dissection méticuleuse de la longue chaîne de transformations qui constitue la méthode SIFT. Chaque paramètre y est documenté et son influence analysée. Cette dissection est aussi associé à une publication en ligne de l'algorithme. La description détaillée s'accompagne d'un code en C ainsi que d'une plateforme de démonstration permettant l'analyse par le lecteur de l'influence de chaque paramètre. Dans la troisième partie, nous définissons un cadre d'analyse expérimental exact dans le but de vérifier que la méthode SIFT détecte de façon fiable et stable les extrema du scale-space continue à partir de la grille discrète. En découlent des conclusions pratiques sur le bon échantillonnage du scale-space Gaussien ainsi que sur les stratégies de filtrage de points instables. Ce même cadre expérimental est utilisé dans l'analyse de l'influence de perturbations dans l'image (aliasing, bruit, flou). Cette analyse démontre que la marge d'amélioration est réduite pour la méthode SIFT ainsi que pour toutes ses variantes s'appuyant sur le scale-space pour extraire des points d'intérêt. L'analyse démontre qu'un suréchantillonnage du scale-space permet d'améliorer l'extraction d'extrema et que se restreindre aux échelles élevées améliore la robustesse aux perturbations de l'image.La dernière partie porte sur l'évaluation des performances de détecteurs de points. La métrique de performance la plus généralement utilisée est la répétabilité. Nous démontrons que cette métrique souffre pourtant d'un biais et qu'elle favorise les méthodes générant des détections redondantes. Afin d'éliminer ce biais, nous proposons une variante qui prend en considération la répartition spatiale des détections. A l'aide de cette correction nous réévaluons l'état de l'art et montrons que, une fois la redondance des détections prise en compte, la méthode SIFT est meilleure que nombre de ses variantes les plus modernes. / This dissertation contributes to an in-depth analysis of the SIFT method. SIFT is the most popular and the first efficient image comparison model. SIFT is also the first method to propose a practical scale-space sampling and to put in practice the theoretical scale invariance in scale space. It associates with each image a list of scale invariant (also rotation and translation invariant) features which can be used for comparison with other images. Because after SIFT feature detectors have been used in countless image processing applications, and because of an intimidating number of variants, studying an algorithm that was published more than a decade ago may be surprising. It seems however that not much has been done to really understand this central algorithm and to find out exactly what improvements we can hope for on the matter of reliable image matching methods. Our analysis of the SIFT algorithm is organized as follows. We focus first on the exact computation of the Gaussian scale-space which is at the heart of SIFT as well as most of its competitors. We provide a meticulous dissection of the complex chain of transformations that form the SIFT method and a presentation of every design parameter from the extraction of invariant keypoints to the computation of feature vectors. Using this documented implementation permitting to vary all of its own parameters, we define a rigorous simulation framework to find out if the scale-space features are indeed correctly detected by SIFT, and which sampling parameters influence the stability of extracted keypoints. This analysis is extended to see the influence of other crucial perturbations, such as errors on the amount of blur, aliasing and noise. This analysis demonstrates that, despite the fact that numerous methods claim to outperform the SIFT method, there is in fact limited room for improvement in methods that extract keypoints from a scale-space. The comparison of many detectors proposed in SIFT competitors is the subject of the last part of this thesis. The performance analysis of local feature detectors has been mainly based on the repeatability criterion. We show that this popular criterion is biased toward methods producing redundant (overlapping) descriptors. We therefore propose an amended evaluation metric and use it to revisit a classic benchmark. For the amended repeatability criterion, SIFT is shown to outperform most of its more recent competitors. This last fact corroborates the unabating interest in SIFT and the necessity of a thorough scrutiny of this method.
7

Localisation et cartographie simultanées en environnement extérieur à partir de données issues d'un radar panoramique hyperfréquence

Gérossier, Franck 05 June 2012 (has links) (PDF)
Le SLAM, " Simultaneous Localisation And Mapping ", représente à l'heure actuelle l'une des principales thématiques investiguées dans le domaine des robots mobiles autonomes. Il permet, à l'aide de capteurs extéroceptifs (laser, caméra, radar, etc.) et proprioceptifs (odomètre, gyromètre, etc.), de trouver l'orientation et la localisation d'un robot dans un environnement extérieur vaste, inconnu ou modifié, avec la possibilité de créer une carte au fur et à mesure des déplacements du véhicule. Les travaux de thèse décrits dans ce manuscrit s'intègrent dans ce courant de recherche. Ils visent à développer un SLAM innovant qui utilise un radar à modulation de fréquence continue " FMCW " comme capteur extéroceptif. Ce capteur est insensible aux conditions climatiques et possède une portée de détection importante. Néanmoins, c'est un capteur tournant qui, dans une utilisation mobile, va fournir des données corrompues par le déplacement du véhicule. Pour mener à bien ces travaux, nous avons proposés différentes contributions : une correction de la distorsion par l'utilisation de capteurs proprioceptifs ; le développement d'une technique de localisation et cartographie simultanées nommée RS-SLAM-FMT qui effectue un scan matching sur les observations et utilise un algorithme estimatif de type EKF-SLAM ; l'utilisation, pour la première fois en SLAM, de la mise en correspondance par Transformée de Fourier-Mellin pour réaliser l'opération de scan matching ; la création d'un outil expérimental pour déterminer la matrice de covariance associée aux observations ; des tests de robustesse de l'algorithme dans des conditions d'utilisation réelles : dans des zones avec un faible nombre de points d'intérêts, sur des parcours effectués à vitesse élevée, dans des environnements péri-urbains avec une forte densité d'objets mobiles ; la réalisation d'une application temps réel pour le test du procédé sur un véhicule d'exploration qui se déplace dans un environnement extérieur vaste.

Page generated in 0.124 seconds