• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • 1
  • Tagged with
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Stéréophotométrie non-calibrée de surfaces non-Lambertiennes. Application à la reconstruction de surface de colonies microbiennes / Uncalibrated non-Lambertian photometric stereo. Application to microbial colonies surface reconstruction.

Kyrgyzova, Khrystyna 22 July 2014 (has links)
La thèse est dédiée au problème de la stéréophotométrie non-Lambertienne sans connaissance a priori sur les conditions d’illumination et son application aux images de boîte de Pétri. Pour obtenir une bonne reconstruction de surfaces non-Lambertiennes, il est proposé de traiter une séquence d’entrée en deux étapes: premièrement il faut supprimer les effets spéculaires et obtenir ainsi des images de surface ’pseudo-Lambertienne’. Ensuite dans une deuxième étape à partir de ces images une reconstruction stéréophotométrique Lambertienne sans aucune information préalable sur les directions d’illumination est effectuée. Dans ce travail nous proposons deux méthodes originales respectivement pour la suppression de spécularités et la reconstruction de surface sans information a priori. Les méthodes proposées sont appliquées pour la caractérisation des colonies microbiennes.La spécularités est un effet optique lié à la nature physique complexe des objets. Il est utile pour la perception humaine des objets 3D mais il gêne le processus de traitement automatique d’images. Pour pouvoir appliquer le modèle Lambertien à la stéréophotométrie, les spécularités doivent être supprimées des images d’entrée. Nous proposons donc une méthode originale pour la correction des zones spéculaires adaptée pour une reconstruction ultérieure. L’algorithme proposé est capable de détecter les spécularités comme des valeurs anormalement élevées d’intensité dans une image de la séquence d’entrée, et de les corriger en utilisant les informations des autres images de la séquence et une fonction de correction continue. Cette méthode permet de faire la suppression des spécularités en préservant toutes les autres particularités de distribution de lumière qui sont importantes pour la reconstruction de surface.Après nous proposons une technique de reconstruction stéréophotométrique de surface Lambertienne sans connaissance a priori sur l’illumination. Le modèle mis en œuvre consiste en quatre composantes, deux composantes (albédo et normales) permettent de d´écrire des propriétés de surface et deux autres (intensités des sources de lumière et leurs directions) décrivent illumination. L’algorithme proposé de reconstruction utilise le principe de l’optimisation alternée. Chaque composante du modèle est trouvée itérativement en fixant toutes les variables sauf une et en appliquant des contraintes de structures, valeurs et qualité pour la fonction d’optimisation. Un schéma original de résolution permet de séparer les différents types d’information inclus dans les images d’entrée. Grâce à cette factorisation de matrices, la reconstruction de surface est faite sans connaissance préalable sur les directions de lumière et les propriétés de l’objet reconstruit. L’applicabilité de l’algorithme est prouvée pour des donnés artificielles et des images de bases publiques pour lesquelles la vérité terrain sur les surfaces des objets est disponible.La dernière partie de la thèse est dédiée à l’application de la chaine complète proposée pour le traitement d’images de boîte de Pétri. Ces images sont obtenues en utilisant les sources de lumières complexes qui sont supposées être inconnues pour le processus de reconstruction. L’évaluation de surfaces de colonies microbiennes s’est révélée être une étape importante pour l'analyse visuelle et automatique des colonies. La chaine proposée est efficace pour ce type de données et permet de compléter les informations d'images par de la surface 3D. / The PhD thesis work is dedicated to the problem of uncalibrated non-Lambertian photometric stereo surface reconstruction. The proposed approach consists in two phases: first we correct images of the input sequence from specularities in order to obtain images of pseudo-Lambertian surfaces, and then realize Lambertian photometric stereo reconstruction. In this work we proposed two original methods, respectively, for specularity correction and surface reconstruction with no prior information neither on light sources nor on surface properties. We apply the novel processing to Petri dish images for microbial colonies surface reconstruction.Specularity is an optical effect of a complex physical nature. This effect is useful for human 3D objects perception but it affects automated image processing. In order to be able to apply the Lambertian photometric stereo model, specularities should be removed from the input images. We propose an original method for specular zones correction adapted to estimation of pseudo-Lambertian surface images and further reconstruction. This algorithm is able to detect specularities as abnormally elevated pixel intensity values in an image of the input sequence and to correct the found zones using information from all other images of the sequence and a specific continuous correcting function. This method allows removing specularities while still preserving all other particularities of shading important for the further surface reconstruction.We then propose an original stereo photometric method for Lambertian surface reconstruction with no prior on illuminations. The implemented photometric stereo model consists of four components, two of them (albedo and normals) describe surface properties and the others (light sources intensities and directions) describe illumination. The proposed algorithm of the photometric stereo reconstruction uses the alternating optimization principle. Each model component is found iteratively fixing all variables but one and applying value and quality constraints for the optimization function. The original scheme of resolution allows separating of different information types included in input images. Thanks to such matrix factorization, the surface reconstruction is made with no prior information on lighting directions and the reconstructed objects properties. The applicability of the algorithm is proved using artificially created and open data-sets for which the ground truth information is available.The last part of the thesis is dedicated to the application of the proposed uncalibrated non- Lambertian photometric stereo approach to the Petri dish images. Images are obtained using illuminating sources which are supposed to be unknown for the reconstruction process. Moreover, the reconstructed microbial colonies are very diverse, generally have small size, can be Lambertian or not, and their surface properties are not defined in advance. The results of reconstruction for such complex real-world data add value and importance to the developed approach.
2

Représentations géométriques de détails fins pour la simulation d’éclairage

Tamisier, Elsa 10 1900 (has links)
Cotutelle avec l'Université de Poitiers, France / Lors du processus de création d’une image de synthèse photoréaliste, l’objectif principal recherché est de reproduire le transport de la lumière dans un environnement virtuel, en prenant en compte aussi précisément que possible les caractéristiques des objets de la scène 3D. Dans la perception de notre environnement, les détails très fins ont une grande importance sur l’apparence des objets, tels que des rayures sur un morceau de métal, des particules dans du vernis, ou encore les fibres d'un tissu. Il est primordial de pouvoir les reproduire à tout niveau d'échelle. Créer ces détails grâce à des informations géométriques, par exemple un maillage, mène à une trop forte complexité en termes de construction, de stockage, de manipulation et de temps de rendu. Il est donc nécessaire d’utiliser des modèles mathématiques qui permettent d’approcher au mieux les comportements lumineux induits par ces détails. Le travail de cette thèse s'inscrit dans cette problématique de gestion des détails fins par la théorie des microfacettes. En particulier, nous nous sommes intéressés à la notion de masquage-ombrage permettant de calculer la proportion de surface qui est à la fois visible de l’observateur et éclairée. Pour cela, nous étudions le modèle théorique proposé par Smith et par Ashikhmin et al. dans lequel la représentation mathématique est basée sur des contraintes liées à la position des facettes, leur orientation, leur aire et les corrélations entre ces caractéristiques. Nous avons éprouvé le modèle sur plus de 400 maillages 3D reconstruits à partir de surfaces réelles qui ne respectent pas nécessairement les contraintes imposées du modèle. Quelques maillages sont également générés à partir de distributions des orientations de microfacettes de Beckmann et GGX largement utilisées dans les moteurs de simulation académiques et industriels. Pour chacun des maillages, une fonction de masquage de référence est mesurée grâce à un algorithme de tracer de rayons. Nous pouvons ainsi comparer le masquage réel d'une microsurface prenant en compte la donnée dans son entièreté, à son masquage théorique calculé seulement par la distribution de ses micronormales. Cette étude met en évidence un lien entre l'erreur du masquage théorique et certaines caractéristiques de la microsurface, telles que sa rugosité, son anisotropie, ou le non respect des contraintes du modèle. Nous proposons une méthode pour développer un modèle prédictif de l'erreur calculable à partir de ces caractéristiques et sans avoir recours au lourd processus de tracer de rayons. L’analyse montre également le lien entre l'erreur au niveau du terme de masquage et sa répercussion dans le rendu final d'une image de synthèse. La possibilité de prédire l'erreur grâce à un processus rapide permet d'estimer la complexité de l'usage d'une microgéométrie dans un rendu photoréaliste. Nous complétons nos travaux en proposant un facteur correctif au masquage théorique pour les surfaces isotropes, là encore calculable directement à partir des caractéristiques du maillage. Nous montrons le gain de précision que cette correction apporte, tant au niveau du masquage lui-même qu'au niveau des rendus d'images de synthèse. La thèse est conclue avec une discussion présentant les limites actuelles de notre étude et ses perspectives futures. / During the creation process of a photorealistic image, the main goal is to reproduce light transport in a virtual environment by considering as accurately as possible the characteristics of the surfaces from the 3D scene. In the real world, very fine details may have a tremendous impact on the visual aspect. For instance, scratches over metal, particles within varnish, or fibers of a fabric, will visually alter surface appearance. It is therefore crucial to be able to simulate such effects at every level of detail. However, creating such microgeometry for a given 3D mesh is a complex task that results in very high memory requirements and computation time. Mathematical models must be used to approximate as precisely as possible light effects produced by these details. This thesis considers fine details from the microfacet theory, and in particular, the masking-shadowing factor that corresponds to the proportion of microsurfaces that are both visible and illuminated. We study the commonly used theoretical model of Smith and Ashikhmin et al. where the mathematical representation is derived from constraints about microfacets positions, orientations, areas, and correlations between those characteristics. The proposed model has been confronted to more than 400 3D meshes, built from real-world measured surfaces that do not necessarily fulfill the theory constraints. Some of them have also been generated from the widely used Beckmann and GGX distributions. For each mesh, the ground-truth masking effect is measured using ray tracing, and compared with the theoretical masking computed only from the distribution of micronormals. Our study highlights a connection between the theoretical masking's error and some microsurface's characteristics, such as roughness, anisotropy, or non-compliance with required constraints. We provide a method for deriving a predictive model for this error. The mesh characteristics are sufficient to compute this model without requiring heavy ray tracing computation. Our analysis shows how the masking error impacts the rendering process. We also derive a model capable of predicting rendering errors from surface characteristics. With the opportunity to predict the error with a fast computation from a 3D mesh, one can estimate the complexity to use a given microgeometry for a photorealistic rendering. Our study concludes with the formulation of a correction function added to the theoretical masking term for isotropic surfaces. This correction is computed directly from the 3D mesh characteristics without any ray tracing involved. We show gains in the accuracy of the model when corrected with our formula, both for the masking effect itself and its impact on the exactness of the renderings. This thesis is concluded with a discussion about the current limitations of our study and some future perspectives.

Page generated in 0.0874 seconds