• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • Tagged with
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Corrections géométriques et colorimétriques automatisées de modèles 3D de grande taille

Schenkel, Arnaud 12 January 2017 (has links)
L’utilisation de scanners 3D permet d’obtenir, en fin de chaîne de traitement, des modèles tridimensionnels de haute résolution d’objets ou de sites. Ces modèles combinent une représentation formée d’un très grand nombre de points, couplée avec des textures photographiques pour simuler au mieux la réalité. Ils peuvent servir de base à de futures recherches, au calcul de diverses informations, à des propositions de restitutions, comme illustration, ou encore à l’archivage.Pour pouvoir être manipulées et exploitées, il est nécessaire de corriger ces données. Différents traitements doivent ainsi être appliqués :la suppression des défauts dus au processus de digitalisation ou à l’environnement de numérisation, la mise en correspondance de balayages partiels, l’élimination des objets parasites ou encore l’homogénéisation de l’aspect des surfaces. Les méthodes actuelles ne permettent pas d’effectuer aisément ces traitements de manière rapide et performante. Elles requièrent de nombreuses interventions manuelles, souvent lourdes et fastidieuses.Cette thèse vise à définir une méthodologie et à fournir les algorithmes et les outils nécessaires au post-traitement de ces acquisitions tridimensionnelles de grande taille, de manière automatisée tout en tenant compte des volumes de données à manipuler. Une structure de données adaptée au problème est proposée ainsi qu’une base d’outils destinée au traitement de volumes importants de points, en considérant la mémoire nécessaire et le temps de calcul requis. Nous proposons sur cette base une chaîne de traitement pour gérer les erreurs géométriques, liées au processus de numérisation, ainsi que les problèmes de colorisation, liés à l’acquisition de photographies dans des conditions variables (éclairage non contrôlé). Nous pouvons identifier quatre types d’erreurs géométriques qui vont ainsi être traitées :le bruit de mesure, la présence de valeurs aberrantes, les trainées de points et les inconsistances dans le modèle. La colorisation se base sur l’utilisation de l’ensemble des photographies effectuées sur le terrain en tenant compte de la variabilité des conditions d’acquisition (éclairage naturel, présence d’ombres, risque de surexposition, ). La solution proposée est compatible avec un calcul en temps réel comparativement à la durée d’acquisition sur le terrain, permettant d’obtenir des informations pertinentes pour guider le travail de terrain. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
2

Analyse et traitement des images codées en polarisation

Ainouz, Samia 13 October 2006 (has links) (PDF)
Ce travail concerne les développements nécessaires à la mise en oeuvre efficace de systèmes imageurs polarimétriques et comporte plusieurs volets allant de la théorie amont à l'utilisation d'algorithmes de traitement d'images spécifiques. Les principaux objectifs et les développements réalisés se rapportent à: - la représentation algébrique des formalismes de polarisation en utilisant les quaternions : toute matrice de Mueller non dépolarisante peut être mise sous forme d'un quaternion complexe et l'action d'un système optique sur une onde monochromatique s'écrit comme le produit géométrique du quaternion correspondant à la matrice de Mueller par le multivecteur représentant le vecteur de Stokes. Cette utilisation de l'algèbre géométrique permet de définir formellement la notion de distance, de similitude et d'appartenance à une classe. - l'optimisation des polarimètres imageurs et le calcul de l'erreur sur les mesures : la démarche, basée sur l'utilisation du produit de Kronecker, prend en compte de façon conjointe les erreurs sytématiques et le bruit d'image et leur minimisation est obtenue dès l'étape de conception. Plusieurs fonctions de mérites sont introduites pour permettre la définition des caractéristiques du polarimètre optimal. - l'estimation et le filtrage du bruit des images polarimétriques : deux méthodes sont envisagées i) une nouvelle variante de la méthode du « scatter plot » combinée avec une vectorisation de l'image par un parcours de type Piano-Hilbert, ii) la méthode du masquage de données qui repose sur l'utilisation de la différence entre deux approximations de l'opérateur Laplacien. Les performances et les biais des deux estimateurs choisis sont étudiés statistiquement par la méthode du « Bootstrap ». - la classification et la prévisualisation couleur des images codées en polarisation : on propose une représentation colorée des images codées en polarisation, comme une aide à leur interprétation en fonction de leur contenu physique, qui utilise la décomposition polaire pour le cas de l'imagerie de Mueller et repose sur deux mappages entre la sphère de Poincaré et un espace de couleur paramétrique dans le cas de l'imagerie de Stokes. Le processus de segmentation est basé sur la famille des algorithmes des K-moyennes. Cette démarche est illustrée sur des images de Stokes et de Mueller de tissus biologiques.
3

Traitement joint de nuage de points et d'images pour l'analyse et la visualisation des formes 3D / Joint point clouds and images processing for the analysis and visualization of 3D models

Guislain, Maximilien 19 October 2017 (has links)
Au cours de la dernière décennie, les technologies permettant la numérisation d'espaces urbains ont connu un développement rapide. Des campagnes d'acquisition de données couvrant des villes entières ont été menées en utilisant des scanners LiDAR (Light Detection And Ranging) installés sur des véhicules mobiles. Les résultats de ces campagnes d'acquisition laser, représentants les bâtiments numérisés, sont des nuages de millions de points pouvant également contenir un ensemble de photographies. On s'intéresse ici à l'amélioration du nuage de points à l'aide des données présentes dans ces photographies. Cette thèse apporte plusieurs contributions notables à cette amélioration. La position et l'orientation des images acquises sont généralement connues à l'aide de dispositifs embarqués avec le scanner LiDAR, même si ces informations de positionnement sont parfois imprécises. Pour obtenir un recalage précis d'une image sur un nuage de points, nous proposons un algorithme en deux étapes, faisant appel à l'information mutuelle normalisée et aux histogrammes de gradients orientés. Cette méthode permet d'obtenir une pose précise même lorsque les estimations initiales sont très éloignées de la position et de l'orientation réelles. Une fois ces images recalées, il est possible de les utiliser pour inférer la couleur de chaque point du nuage en prenant en compte la variabilité des points de vue. Pour cela, nous nous appuyons sur la minimisation d'une énergie prenant en compte les différentes couleurs associables à un point et les couleurs présentes dans le voisinage spatial du point. Bien entendu, les différences d'illumination lors de l'acquisition des données peuvent altérer la couleur à attribuer à un point. Notamment, cette couleur peut dépendre de la présence d'ombres portées amenées à changer avec la position du soleil. Il est donc nécessaire de détecter et de corriger ces dernières. Nous proposons une nouvelle méthode qui s'appuie sur l'analyse conjointe des variations de la réflectance mesurée par le LiDAR et de la colorimétrie des points du nuage. En détectant suffisamment d'interfaces ombre/lumière nous pouvons caractériser la luminosité de la scène et la corriger pour obtenir des scènes sans ombre portée. Le dernier problème abordé par cette thèse est celui de la densification du nuage de points. En effet la densité locale du nuage de points est variable et parfois insuffisante dans certaines zones. Nous proposons une approche applicable directement par la mise en oeuvre d'un filtre bilatéral joint permettant de densifier le nuage de points en utilisant les données des images / Recent years saw a rapid development of city digitization technologies. Acquisition campaigns covering entire cities are now performed using LiDAR (Light Detection And Ranging) scanners embedded aboard mobile vehicles. These acquisition campaigns yield point clouds, composed of millions of points, representing the buildings and the streets, and may also contain a set of images of the scene. The subject developed here is the improvement of the point cloud using the information contained in the camera images. This thesis introduces several contributions to this joint improvement. The position and orientation of acquired images are usually estimated using devices embedded with the LiDAR scanner, even if this information is inaccurate. To obtain the precise registration of an image on a point cloud, we propose a two-step algorithm which uses both Mutual Information and Histograms of Oriented Gradients. The proposed method yields an accurate camera pose, even when the initial estimations are far from the real position and orientation. Once the images have been correctly registered, it is possible to use them to color each point of the cloud while using the variability of the point of view. This is done by minimizing an energy considering the different colors associated with a point and the potential colors of its neighbors. Illumination changes can also change the color assigned to a point. Notably, this color can be affected by cast shadows. These cast shadows are changing with the sun position, it is therefore necessary to detect and correct them. We propose a new method that analyzes the joint variation of the reflectance value obtained by the LiDAR and the color of the points. By detecting enough interfaces between shadow and light, we can characterize the luminance of the scene and to remove the cast shadows. The last point developed in this thesis is the densification of a point cloud. Indeed, the local density of a point cloud varies and is sometimes insufficient in certain areas. We propose a directly applicable approach to increase the density of a point cloud using multiple images
4

Méthodes variationnelles pour la colorisation d’images, de vidéos, et la correction des couleurs / Variational methods for image and video colorization and color correction

Pierre, Fabien 23 November 2016 (has links)
Cette thèse traite de problèmes liés à la couleur. En particulier, on s’intéresse à des problématiques communes à la colorisation d’images, de vidéos et au rehaussement de contraste. Si on considère qu’une image est composée de deux informations complémentaires, une achromatique (sans couleur) et l’autre chromatique (en couleur), les applications étudiées consistent à traiter une de ces deux informations en préservant sa complémentaire. En colorisation, la difficulté est de calculer une image couleur en imposant son niveau de gris. Le rehaussement de contraste vise à modifier l’intensité d’une image en préservant sa teinte. Ces problématiques communes nous ont conduits à étudier formellement la géométrie de l’espace RGB. On a démontré que les espaces couleur classiques de la littérature pour résoudre ces types de problème conduisent à des erreurs. Un algorithme, appelé spécification luminance-teinte, qui calcule une couleur ayant une teinte et une luminance données est décrit dans cette thèse. L’extension de cette méthode à un cadre variationnel a été proposée. Ce modèle a été utilisé avec succès pour rehausser les images couleur, en utilisant des hypothèses connues sur le système visuel humain. Les méthodes de l’état-de-l’art pour la colorisation d’images se divisent en deux catégories. La première catégorie regroupe celles qui diffusent des points de couleurs posés par l’utilisateur pour obtenir une image colorisée (colorisation manuelle). La seconde est constituée de celles qui utilisent une image couleur de référence ou une base d’images couleur et transfèrent les couleurs de la référence sur l’image en niveaux de gris (colorisation basée exemple). Les deux types de méthodes ont leurs avantages et inconvénients. Dans cette thèse, on propose un modèle variationnel pour la colorisation basée exemple. Celui-ci est étendu en une méthode unifiant la colorisation manuelle et basée exemple. Enfin, nous décrivons des modèles variationnels qui colorisent des vidéos tout en permettent une interaction avec l’utilisateur. / This thesis deals with problems related to color. In particular, we are interested inproblems which arise in image and video colorization and contrast enhancement. When considering color images composed of two complementary information, oneachromatic (without color) and the other chromatic (in color), the applications studied in this thesis are based on the processing one of these information while preserving its complement. In colorization, the challenge is to compute a color image while constraining its gray-scale channel. Contrast enhancement aims to modify the intensity channel of an image while preserving its hue.These joined problems require to formally study the RGB space geometry. In this work, it has been shown that the classical color spaces of the literature designed to solve these classes of problems lead to errors. An novel algorithm, called luminance-hue specification, which computes a color with a given hue and luminance is described in this thesis. The extension of this method to a variational framework has been proposed. This model has been used successfully to enhance color images, using well-known assumptions about the human visual system. The state-of-the-art methods for image colorization fall into two categories. The first category includes those that diffuse color scribbles drawn by the user (manual colorization). The second consists of those that benefits from a reference color image or a base of reference images to transfer the colors from the reference to the grayscale image (exemplar-based colorization). Both approach have their advantages and drawbacks. In this thesis, we design a variational model for exemplar-based colorization which is extended to a method unifying the manual colorization and the exemplar-based one. Finally, we describe two variational models to colorize videos in interaction with the user.

Page generated in 0.0887 seconds