Return to search

Reconstruction du relief et mixage réel/virtuel par caméras relief multi-points de vues / 3D reconstruction and augmented reality by means of multiscopic camera

L'affichage en relief, avec ou sans lunettes, est de plus en plus populaire. Les écrans auto-stéréoscopiques comportent un nombre d'images compris, à ce jour, entre 2 et 9. La création, la transmission ou encore la diffusion d'un tel nombre d'images correspondent à autant de verrous scientifiques. En effet la transmission des images impose le développement de méthodes de compression qui exploitent la redondance d'information entre les vues. La diffusion nécessite qu'un même contenu puisse être visible sur un maximum d'écrans, ce qui n'est possible en pratique que grâce à des méthodes de synthèse de vues intermédiaires. Enfin le contexte multi-vues ouvre à de nouvelles perspectives en réalité augmentée, comme la projection d'ombres et l'occultation entre contenu réel et virtuel. Tous ces exemples ont pour point commun de pouvoir être obtenus par le calcul des profondeurs de la scène. Les méthodes de stéréovision sont donc incontournables, mais, génériques, elles ne sont adaptées ni au contexte multi-vues, ni aux besoins des applications citées précédemment. Nous proposons dans ce mémoire un pipeline de reconstruction des profondeurs dédié au contexte multi-vues. Au travers d'une nouvelle expression de la mise en correspondance multi-vues, qui consiste à regrouper les pixels représentant un même point de la scène en " match " et ainsi former un partitionnement de l'ensemble des pixels, notre pipeline tire profit de la redondance des informations afin d'obtenir une estimation robuste des profondeurs. Cette expression définit exactement les redondances et occlusions de la scène, ce qui lève une grande partie des ambiguïtés lors de la compression des images et de la synthèse de vues intermédiaires. Nous présentons également une nouvelle contrainte, intégrée à notre pipeline, qui assure la cohérence géométrique des profondeurs reconstruites. Cette contrainte, essentielle pour un mélange entre réel et virtuel cohérent, s'avère également très utile pour les méthodes de synthèse de vues intermédiaires. Notre pipeline est composé de quatre modules : " génération du nuage de points ", " reconstruction de la surface ", " affinement des profondeurs " et " suivi temporel ". Mis à part le premier module cité, les autres sont facultatifs, et leur utilisation dépend des besoins et des applications visées. Ainsi, les résultats de notre pipeline sont les cartes de profondeurs, un nuage de points, ou un maillage représentant la scène.Afin de prouver la faisabilité du pipeline, nous présentons deux implémentations de celui-ci.La première, dite locale, se base sur des méthodes rapides afin de reconstruire la scène en temps réel. La seconde implémentation vise une application en post-production et génère des profondeurs de meilleure qualité, au détriment de temps de calcul plus longs. Nous démontrons également la pertinence de notre pipeline en proposant de nouvelles méthodes de compression d'images multi-vues, de synthèse de vues intermédiaires et de réalité augmentée multi-vues. / The display in 3D, with or without glasses, becomes more and more popular. The auto-stereoscopic displays contain between 2 and 9 images. The creation, transmission or display of such images correspond to scientific obstacles. Indeed the transmission of the images needs compression methods that exploit information redundancy between frames. The display requires that the same content can be viewed on all screens, which is possible only by using methods of intermediate views rendering. Finally the context of multi-view brings new perspectives in augmented reality, like the projection of shadows and occlusion between real and virtual content. All these applications can be obtained by computing the depths of the scene. Stereovision methods allow depth estimation, but are generic and not well suited to the context of multi-view images or the application mentioned above. We propose in this thesis a pipeline dedicated to the depth reconstruction of a scene in a multi-view context.Through a new expression of the multi-view matching, which involves grouping the pixels representing the same point of the scene in "match" and thus form a partitioning of all pixels, our pipeline finds information redundancies in order to obtain a robust estimation of depths. This expression defines exactly occlusions in the scene, which raises much of the ambiguity in image compression and intermediate views rendering. We also present a new constraint, integrated in our pipeline, which ensures the geometric consistency of the reconstructed depths. This constraint is essential for a consistent mix between virtual and real objects, and is also very useful for intermediate views rendering. Our pipeline consists of four modules : " point cloud generation ", "surface reconstruction ", depth refinement " and " time tracking ".Apart from the first module city, others are optional and their use depends on needs and target applications. Thus, the results of our pipeline are depth maps, a point cloud or a mesh representing the scene. As a proof of the pipeline, we present two implementations of it. The first, called local, is based on fast algorithms to reconstruct the scene in real time. The second implementation is dedicated to post-production applications and generates better quality depth at the expense of longer computation time. We also demonstrate the relevance of our pipeline by providing new methods of multi-view image compression, intermediate views rendering and augmented reality.

Identiferoai:union.ndltd.org:theses.fr/2011REIMS006
Date18 March 2011
CreatorsNiquin, Cédric
ContributorsReims, Remion, Yannick
Source SetsDépôt national des thèses électroniques françaises
LanguageFrench
Detected LanguageFrench
TypeElectronic Thesis or Dissertation, Text

Page generated in 0.0024 seconds