Spelling suggestions: "subject:"imagerie à grande gamma dynamique"" "subject:"imagerie à grande games dynamique""
1 |
Data-driven HDR Illumination from Outdoor ImagesZhang, Jinsong 27 January 2024 (has links)
L'éclairage extérieur joue un rôle important dans la recherche et l'industrie. La compréhension de l'éclairage extérieur est essentielle dans de nombreuses applications en vision par ordinateur, infographie, films d'animation par ordinateur, gestion de l'énergie solaire, etc. L'éclairage extérieur, d'où la contribution provient majoritairement du soleil et du ciel, possède une plage dynamique extrêmement élevée (HDR pour high dynamic range). La capture de l'éclairage extérieur, y compris l'étendue de la plage dynamique et l'intensité absolue du soleil, nécessite des appareils ou des techniques spécialisés : une caméra ordinaire est incapable de la capturer. Le contenu de l'image capturé avec un appareil photo grand public est actuellement disponible sous forme de données à basse plage dynamique (LDR pour low dynamic range). Ces problèmes deviennent un obstacle majeur à la compréhension de l'éclairage extérieur. Comprendre l'éclairage extérieur à partir d'images est également une tâche difficile en raison de sa diversité : l'éclairage change considérablement en raison du mouvement des nuages et des conditions météorologiques. Dans le cadre de ce travail, nous proposons de raisonner sur l'éclairage HDR à partir d'images LDR à partir de données. Nous explorons ce problème avec le trois objectifs suivants 1) reconstruire automatiquement l'éclairage HDR à partir de panoramas extérieurs LDR capturés avec une caméra 360⁰ point-and-shoot, 2) prévoir l'énergie solaire à partir d'images du ciel capturées avec une caméra standard ; 3) estimer les paramètres d'éclairage significatifs à partir d'une seule image conventionnelle à champ de vision limité. Ces objectifs sont appuyés par des expériences et des analyses détaillées. Nous espérons que cette recherche aidera à mieux comprendre l'éclairage extérieur HDR. / Outdoor lighting plays an important role in both research and industry. Understanding outdoor illumination is essential in many applications in computer vision, computer graphics, computer-animated movies, solar energy management, etc. Outdoor illumination, which is mainly contributed by the sun and sky, has an extremely high dynamic range (HDR). Capturing outdoor illumination including the breadth of the dynamic range and the absolute intensity of the sun requires specialized devices or techniques : a regular camera is incapable of capturing it. The image contents captured with a consumer camera are currently available as low dynamic range (LDR) data. These issues become a big obstacle to understanding outdoor lighting. Understanding outdoor illumination from images is also a challenging task because of its diversity : the lighting changes dramatically due to clouds movement and weather conditions. In this work, we propose to reason about the HDR illumination from LDR images in a data-driven way. We explore this problem in the following three objectives 1) automatically reconstruct the HDR lighting from LDR outdoor panoramas captured with a point-and-shoot 360⁰ camera, 2) forecast solar energy from sky images captured with an off-the-shelf camera; 3) estimate meaningful lighting parameters from a single conventional limited field of view image. Each of these objectives provides detailed experiments and analyses. We hope this research could help to better understand the HDR outdoor illumination.
|
2 |
Génération d'images 3D HDR / Generation of 3D HDR imagesBonnard, Jennifer 11 December 2015 (has links)
L’imagerie HDR et l’imagerie 3D sont deux domaines dont l’évolution simultanée mais indépendante n’a cessé de croître ces dernières années. D’une part, l’imagerie HDR (High Dynamic Range) permet d’étendre la gamme dynamique de couleur des images conventionnelles dites LDR (Low Dynamic Range). D’autre part, l’imagerie 3D propose une immersion dans le film projeté avec cette impression de faire partie de la scène tournée. Depuis peu, ces deux domaines sont conjugués pour proposer des images ou vidéos 3D HDR mais peu de solutions viables existent et aucune n’est accessible au grand public. Dans ce travail de thèse, nous proposons une méthode de génération d’images 3D HDR pour une visualisation sur écrans autostéréoscopiques en adaptant une caméra multi-points de vue à l’acquisition d’expositions multiples. Pour cela, des filtres à densité neutre sont fixés sur les objectifs de la caméra. Ensuite, un appareillement des pixels homologues permet l’agrégation des pixels représentant le même point dans la scène acquise. Finalement, l’attribution d’une valeur de radiance est calculée pour chaque pixel du jeud’images considéré par moyenne pondérée des valeurs LDR des pixels homologues. Une étape supplémentaire est nécessaire car certains pixels ont une radiance erronée. Nous proposons une méthode basée surla couleur des pixels voisins puis deux méthodes basées sur la correction de la disparité des pixels dontla radiance est erronée. La première est basée sur la disparité des pixels du voisinage et la seconde sur la disparité calculée indépendamment sur chaque composante couleur. Ce pipeline permet la générationd’une image HDR par point de vue. Un algorithme de tone-mapping est ensuite appliqué à chacune d’elles afin qu’elles puissent être composées avec les filtres correspondants à l’écran autostéréoscopique considéré pour permettre la visualisation de l’image 3D HDR. / HDR imaging and 3D imaging are two areas in which the simultaneous but separate development has been growing in recent years. On the one hand, HDR (High Dynamic Range) imaging allows to extend the dynamic range of traditionnal images called LDR (Low Dynamic Range). On the other hand, 3Dimaging offers immersion in the shown film with the feeling to be part of the acquired scene. Recently, these two areas have been combined to provide 3D HDR images or videos but few viable solutions existand none of them is available to the public. In this thesis, we propose a method to generate 3D HDR images for autostereoscopic displays by adapting a multi-viewpoints camera to several exposures acquisition.To do that, neutral density filters are fixed on the objectives of the camera. Then, pixel matchingis applied to aggregate pixels that represent the same point in the acquired scene. Finally, radiance is calculated for each pixel of the set of images by using a weighted average of LDR values. An additiona lstep is necessary because some pixels have wrong radiance. We proposed a method based on the color of adjacent pixels and two methods based on the correction of the disparity of those pixels. The first method is based on the disparity of pixels of the neighborhood and the second method on the disparity independently calculated on each color channel. This pipeline allows the generation of 3D HDR image son each viewpoint. A tone-mapping algorithm is then applied on each of these images. Their composition with filters corresponding to the autostereoscopic screen used allows the visualization of the generated 3DHDR image.
|
Page generated in 0.1137 seconds