Ces dernières décennies ont vu émerger de nombreuses applications utilisant la technologie 3D, telles que les écrans auto-stéréoscopiques, les écrans de télévisions 3D ou encore la visio-conférence stéréoscopique. Ces applications requièrent des techniques adaptées afin que leur flux de données soit compressé efficacement. En particulier, dans le cas des images stéréoscopiques, ces dernières étant composées de deux vues de la même scène, elles nécessitent à ce titre deux fois plus d’informations à transmettre ou à stocker que dans le cas des images 2D traditionnelles. Nos travaux se situent dans le cadre de la compression des images stéréoscopiques. Plus précisément, ils concernent l’amélioration de l’estimation de la carte de disparité dans le but d’obtenir un meilleur compromis entre le débit binaire nécessaire au codage de la carte de disparité et la qualité de l’image prédite.Généralement, la carte de disparité est estimée en minimisant la distorsion de l’image prédite. Cette minimisation peut être sujette à une contrainte de lissage. L’idée étant qu’une carte de disparité plus lisse nécessitera un débit binaire moindre en supposant que les mêmes vecteurs de disparités seront sélectionnés plus souvent. Néanmoins cette contrainte de lissage ne permet pas toujours de diminuer le coût binaire de la carte. Le lissage peut entraîner par ailleurs une augmentation notable de la distorsion de l’image prédite. Dans le premier chapitre de la thèse, nous présentons un algorithme d’estimation de carte de disparité minimisant une métrique conjointe entropie-distorsion. Le coût binaire finale de la carte de disparité est estimée à chaque étape de l’algorithme et est intégré dans le calcul de la métrique. La distorsion globale de la carte de disparité est aussi mise à jour au fur et à mesure du traitement de l’image. Par ailleurs, cette algorithme repose sur la construction séquentiel d’un arbre dont on ne garde qu’un nombre défini de branches à chaque profondeur de l’arbre. Ainsi, l’algorithme développé apporte une solution sous-optimale en minimisant le coût binaire de la carte de disparité tout en assurant une bonne qualité de l’image prédite. Le chapitre deux étend l’algorithme précédent au cas des images non rectifiées. Dans le troisième chapitre, nous nous intéressons au fait de trouver une solution au problème d’optimisation du compromis débit-distorsion en réduisant la complexité numérique par rapport à l’algorithme précédent. De ce fait, nous avons développé le R-algorithme qui se base sur une solution initiale de Référence (celle minimisant la distorsion de l’image prédite) et la modifie successivement tant qu’une amélioration est constatée en termes de compromis débit-distorsion. Le quatrième chapitre s’intéresse toujours au fait d’accroître les performances de l’algorithme développé tout en réduisant le coût en complexité numérique et donc en temps de traitement. Nous proposons deux approches afin de tirer profit d’un grand espace de recherche sans avoir à tester pour chaque bloc à apparier l’ensemble des disparités qui composent cet espace de recherche. En effet, un espace de recherche plus grand permet plus de choix de disparités et donc potentiellement une meilleur reconstruction de l’image prédite. En contrepartie, il se peut que le coût binaire de la carte de disparité augmente si l’ensemble des disparités sélectionnées constituent un ensemble plus divers qu’auparavant. Les deux approches proposées permettent de restreindre l’espace de recherche à un ensemble composées de certaines disparités permettant de minimiser la distorsion de l’image prédite pour un débit donné. Le dernier chapitre de la thèse s’intéresse à l’utilisation des blocs de taille variable pour la compression des images stéréoscopiques. / During the last decades, a wide range of applications using stereoscopic technology has emerged still offering an increased immersion to the users such as video games with autostereoscopic displays, 3D-TV or stereovisio-conferencing. The raise of these applications requires fast processing and efficient compression techniques. In particular, stereoscopic images require twice the amount of information needed to transmit or store them in comparison with 2D images as they are composed of two views of the same scene. The contributions of our work are in the field of stereoscopic image compression and more precisely, we get interested in the improvement of the disparity map estimation. Generally, disparities are selected by minimizing a distortion metric which is sometimes subjected to a smoothness constraint, assuming that a smooth disparity map needs a smaller bitrate to be encoded. But a smoother disparity map does not always reduce significantly the bitrate needed to encode it but can increase the distortion of the predicted view. Therefore, the first algorithm we have proposed minimizes a joint entropy-distortion metric to select the disparities. At each step of the algorithm, the bitrate of the final disparity map is estimated and included in the metric to minimize. Moreover, this algorithm relies on a tree where a fixed number of paths are extended at each depth of the tree, ensuring good rate-distortion performance. In the second part of the work, we have proposed a sub-optimal solution with a smaller computational complexity by considering an initial solution -the one minimizing the distortion of the predicted view- which is successively modified as long as an improvement is observed in terms of rate-distortion. Then, we have studied how to take advantages of large search areas in which the disparities are selected as one can easily supposed that enlarging the search area will increase the distortion performance as there will be more choices of disparities. In the other hand, the larger is the range of the selected disparities, the higher is supposed to be the cost of the disparity map in terms of bitrate. We have proposed two approaches allowing to take advantage of a large search area by selecting only sets of disparities belonging to it enabling to achieve a given bitrate while minimizing the distortion of the predicted image. The last part of the work concerns variable block sizes which undeniably allows to improve the bitrate-distortion performance as the block size suits to the image features. We have thus proposed a novel algorithm which jointly estimates and optimizes the disparity and the block length maps.
Identifer | oai:union.ndltd.org:theses.fr/2017USPCD083 |
Date | 20 November 2017 |
Creators | Kadaikar, Aysha-Khatoon |
Contributors | Sorbonne Paris Cité, Mokraoui, Anissa, Dauphin, Gabriel |
Source Sets | Dépôt national des thèses électroniques françaises |
Language | English |
Detected Language | French |
Type | Electronic Thesis or Dissertation, Text |
Page generated in 0.0026 seconds