• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 44
  • 10
  • 6
  • 3
  • 1
  • 1
  • Tagged with
  • 67
  • 44
  • 31
  • 17
  • 14
  • 13
  • 13
  • 13
  • 11
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Deep learning for image compression / Apprentissage profond pour la compression d'image

Dumas, Thierry 07 June 2019 (has links)
Ces vingt dernières années, la quantité d’images et de vidéos transmises a augmenté significativement, ce qui est principalement lié à l’essor de Facebook et Netflix. Même si les capacités de transmission s’améliorent, ce nombre croissant d’images et de vidéos transmises exige des méthodes de compression plus efficaces. Cette thèse a pour but d’améliorer par l’apprentissage deux composants clés des standards modernes de compression d’image, à savoir la transformée et la prédiction intra. Plus précisément, des réseaux de neurones profonds sont employés car ils ont un grand pouvoir d’approximation, ce qui est nécessaire pour apprendre une approximation fidèle d’une transformée optimale (ou d’un filtre de prédiction intra optimal) appliqué à des pixels d’image. En ce qui concerne l’apprentissage d’une transformée pour la compression d’image via des réseaux de neurones, un défi est d’apprendre une transformée unique qui est efficace en termes de compromis débit-distorsion, à différents débits. C’est pourquoi deux approches sont proposées pour relever ce défi. Dans la première approche, l’architecture du réseau de neurones impose une contrainte de parcimonie sur les coefficients transformés. Le niveau de parcimonie offre un contrôle sur le taux de compression. Afin d’adapter la transformée à différents taux de compression, le niveau de parcimonie est stochastique pendant la phase d’apprentissage. Dans la deuxième approche, l’efficacité en termes de compromis débit-distorsion est obtenue en minimisant une fonction de débit-distorsion pendant la phase d’apprentissage. Pendant la phase de test, les pas de quantification sont progressivement agrandis selon un schéma afin de compresser à différents débits avec une unique transformée apprise. Concernant l’apprentissage d’un filtre de prédiction intra pour la compression d’image via des réseaux de neurones, le problème est d’obtenir un filtre appris qui s’adapte à la taille du bloc d’image à prédire, à l’information manquante dans le contexte de prédiction et au bruit de quantification variable dans ce contexte. Un ensemble de réseaux de neurones est conçu et entraîné de façon à ce que le filtre appris soit adaptatif à ces égards. / Over the last twenty years, the amount of transmitted images and videos has increased noticeably, mainly urged on by Facebook and Netflix. Even though broadcast capacities improve, this growing amount of transmitted images and videos requires increasingly efficient compression methods. This thesis aims at improving via learning two critical components of the modern image compression standards, which are the transform and the intra prediction. More precisely, deep neural networks are used for this task as they exhibit high power of approximation, which is needed for learning a reliable approximation of an optimal transform (or an optimal intra prediction filter) applied to image pixels. Regarding the learning of a transform for image compression via neural networks, a challenge is to learn an unique transform that is efficient in terms of rate-distortion while keeping this efficiency when compressing at different rates. That is why two approaches are proposed to take on this challenge. In the first approach, the neural network architecture sets a sparsity on the transform coefficients. The level of sparsity gives a direct control over the compression rate. To force the transform to adapt to different compression rates, the level of sparsity is stochastically driven during the training phase. In the second approach, the rate-distortion efficiency is obtained by minimizing a rate-distortion objective function during the training phase. During the test phase, the quantization step sizes are gradually increased according a scheduling to compress at different rates using the single learned transform. Regarding the learning of an intra prediction filter for image compression via neural networks, the issue is to obtain a learned filter that is adaptive with respect to the size of the image block to be predicted, with respect to missing information in the context of prediction, and with respect to the variable quantization noise in this context. A set of neural networks is designed and trained so that the learned prediction filter has this adaptibility.
2

Content-aware video transmission in HEVC context : optimization of compression, of error resilience and concealment, and of visual quality / Transmission vidéo «contenu»-adaptée dans le contexte HEVC : optimisation de la compression, de la tolérance aux erreurs de la transmission, et de la qualité visuelle

Aldahdooh, Ahmed 25 August 2017 (has links)
Dans cette étude, nous utilisons des caractéristiques locales/globales en vue d’améliorer la chaîne de transmission des séquences de vidéos. Ce travail est divisé en quatre parties principales qui mettent à profit les caractéristiques de contenu vidéo. La première partie introduit un modèle de prédiction de paramètres d’un encodeur basé sur la complexité du contenu. Ce modèle utilise le débit, la distorsion, ainsi que la complexité de différentes configurations de paramètres afin d’obtenir des valeurs souhaitables (recommandées) de paramètres d’encodage. Nous identifions ensuite le lien en les caractéristiques du contenu et ces valeurs recommandées afin de construire le modèle de prédiction. La deuxième partie illustre le schéma de l’encodage à description multiple (Multiple Description Coding ou MDC, en anglais) que nous proposons dans ces travaux. Celui-ci est optimisé pour des MDC d’ordre-hauts. Le décodage correspondant et la procédure de récupération de l’erreur contenu-dépendant sont également étudiés et identifiés. La qualité de la vidéo reçue a été évaluée subjectivement. En analysant les résultats des expériences subjectives, nous introduisons alors un schéma adaptatif, c’est-à-dire adapté à la connaissance du contenu vidéo. Enfin, nous avons simulé un scénario d’application afin d’évaluer un taux de débit réaliste. Dans la troisième partie, nous utilisons une carte de déplacement, calculées au travers des propriétés de mouvement du contenu vidéo, comme entrée pour l’algorithme de masquage d’erreur par recouvrement (inpainting based error concealment algorithm). Une expérience subjective a été conduite afin d’évaluer l’algorithme et d’étudier la perturbation de l’observateur au visionnage de la vidéo traitée. La quatrième partie possèdent deux sous-parties. La première se penche sur les algorithmes de sélections par HRC pour les grandes bases de données de vidéos. La deuxième partie introduit l’évaluation de la qualité vidéo utilisant la connaissance du contenu global non-référencé. / In this work, the global/local content characteristics are utilized in order to improve the delivery chain of the video sequences. The work is divided into four main parts that take advantages of video content features. The first part introduces a joint content-complexity encoder parameters prediction model. This model uses bitrate, distortion, and complexity of different parameters configurations in order to get the recommended encoder parameters value. Then, the links between content features and the recommended values are identified. Finally, the prediction model is built using these features and the recommended encoder parameter values. The second part illustrates the proposed multiple description coding (MDC) scheme that is optimized for high-order MDC. The corresponding decoding and content-dependent error recovery procedures are also identified. The quality of the received videos is evaluated subjectively. By analyzing the subjective experiment results, an adaptive, i.e. content-aware, scheme is introduced. Finally, an application scenario is simulated to study the realistic bitrate consumption. The third part uses the motion properties of a content to introduce a motion map that will be used as an input for the modified state-of-the-art inpainting based error concealment algorithm. A subjective experiment was conducted to evaluate the algorithm and also to study the content-aware observer’s disturbance when perceiving the processed videos. The fourth part has two sub-parts, the first one is about HRC selection algorithms for the large-scale video database with an improved performance evaluation measures for video quality assessment algorithms using training and validation sets. The second part introduces global content aware no-reference video quality assessment.
3

Screen Content Coding in HEVC : Mixed Raster Content with Matching Pursuit

Yang, Ching-Hsiang January 2017 (has links)
Screen content coding is used to improve coding efficiency of synthetic contents in videos, such as text and UI elements, as opposed to contents captured using photo-graphic equipment, which most video codecs are optimized for. One way of improving screen content coding efficiency is to utilize mixed block coding with matching pursuit. By separating the prediction and transformation steps for overlay and background elements, better contrast and signal-to-noise ratio can be achieved. The paper describes the implementation of such algorithm within the HEVC reference encoder, and discusses the experimental results on several test images.
4

Learning, selection and coding of new block transforms in and for the optimization loop of video coders / Apprentissage, sélection et codage de nouvelles transformées de blocs dans et pour la boucle d’optimisation de codeurs vidéo

Puri, Saurabh 09 November 2017 (has links)
Les transformées sont un élément clé dans les systèmes de codage vidéo par blocs. Cette thèse approfondit les schémas d’apprentissage à multiples transformées. Une première contribution de ce travail est consacrée à l’évaluation de schémas d’apprentissage de transformées de deux types en ligne et hors ligne. Les deux approches sont comparées en détail et leur pertinence respective révélées. Nous proposons ensuite plusieurs techniques afin d’améliorer la stabilité du système d’apprentissage et réduire le coût de la signalisation. Une seconde contribution concerne les schémas d’apprentissage multi-transformées hors ligne déjà connus qui sont étendus avec pour objectifs de 1) fournir des transformées plus génériques et moins biaisées, 2) obtenir des gains de compression plus élevés, 3) réduire la complexité d’encodage et de décodage. On propose un schéma dit IMDTC (Improved Mode Dependent Transform Competition) qui offre un gain de codage très significatif, plus de 5% par rapport à HEVC standard sous la configuration All Intra (AI), avec une augmentation de complexité raisonnable. Enfin, l’adaptabilité au contenu de l’apprentissage hors ligne est étendue en explorant une nouvelle approche d’apprentissage des transformées basée sur des jeux de transformées adaptées à des contenus. Plusieurs ensembles contenant de multiples transformées sont appris sur différents contenus et regroupés en jeu. Lors du codage d’une région donnée d’une image, un ensemble de transformées est sélectionné localement à partir du jeu. Les résultats numériques montrent le potentiel élevé de cette approche par rapport aux approches classiques en ligne et hors ligne. / Transforms are a key element in block-based video coding systems which, in conjugation with quantization, is important for the overall compression efficiency of the system. This thesis explores multipletransform- based learning schemes. A first contribution of this work is dedicated to the evaluation of transform learning schemes with two flavors 1) online learning, and 2) offline learning. The two approaches are compared against each other and their respective appropriability is studied in detail. Some novel techniques are proposed in this work to 1) improve the stability of the learning scheme and 2) to reduce the signaling cost. In a second contribution of this thesis, the offline multiple-transform learning schemes already known in the literature are further extended with the aims to altogether 1) provide more generic transforms that are less biased towards specific classes of contents, 2) achieve higher compression gains, 3) reduce encoding and decoding computational complexity. An improved Mode Dependent Transform Competition (IMDTC) scheme is proposed which provides a considerable gain of over 5% compared to standard HEVC under All Intra (AI) configuration at a complexity just 2.9 times the standard HEVC. Finally, the content adaptability aspect of the offline learning is explored through a novel content-adapted pool-based transform learning approach where several multiple-transform sets are learned on different contents and pooled together. During the coding of a given region of an image, one transform set is selected locally from the pool. Numerical results show the high potential of this approach against the conservative online and offline approaches.
5

Complexity Control for Low-Power HEVC Encoding / Contrôle de la complexité pour l'encodage HEVC basse consommation d'énergie

Mercat, Alexandre 07 December 2018 (has links)
L'Internet des objets (loT) est devenu une réalité et ses applications pressenties vont fortement augmenter la demande de vidéo mobile. En conséquence, les systèmes montent en complexité algorithmique et le portage du codage vidéo sur plates-formes embarquées devient problématique. Les nouveaux contenus vidéo 4K et 360°, venant avec des résolutions spatiales (8K, 16K) et temporelles (120 images/seconde élevées compliquent encore le problème. Il est donc nécessaire de réduire l'empreinte des nouveaux codec tels que HEVC tout en préservant les performances en compression et en qualité d'image de ces codecs, La performance énergétique limitée des batteries des systèmes embarqués pousse à proposer de nouvelle méthodes pour ajuster et contrôler la complexité et l'énergie des codecs HEVC. Ce document propose un ensemble d'études dont l'objectif est d'ajuster et de contrôler la complexité et donc la consommation énergétique de l'encodeur HEVC. Deux méthodes de prédiction de découpe de CTU sont proposées : la première basée sur une approche statistique utilisant la variance de l'image et la seconde utilisant l'intelligence artificielle. À partir de cette prédiction, une méthode est proposée pour ajuster la complexité de l'encodage HEVC. Cette solution étend l'espace de recherche autour de la prédiction et alloue la complexité dans l'image afin de minimiser les dégradations en termes de compression et de qualité. Enfin un système de contrôle temps réel de la complexité d'encodage est proposé. Il démontre l'applicabilité de contributions de ce document en maintenant la complexité d'encodage proche d'une consigne. / The Internet of Things (loT) is now a reality. Forthcoming applications will boost mobile video demand to an unprecedented level. The induced increase in computational complexity is a challenge when executing in real-time new video coding standards on embedded platforms, limited in computing, memory, and energy. New 4K UHD and 360-degree video contents coming with high spatial (SK, 16K) and temporal (120fp resolutions further complicate the problem. In this context, codecs such as HEVC (High Efficiency Vide Coding) must be worked on to reduce their complexity while preserving the bitrate and image quality. Th bounded energy density of embedded system's batteries requires designers to propose new methods scaling and controlling the complexity and energy consumption of HEVC codecs. This document presents a set of studies aiming at scaling and controlling the complexity, and therefore the energy consumption, of HEVC Intra encoding. Two methods of quad-tree partitioning prediction in "one-shot are proposed: one based on variance-aware statistic approach and one based on Machine Learning using data-mining classifiers. From the obtained prediction, a generic tunable complexity scheme of HEVC encoding is introduced. It expands the search space around the original partitioning prediction and allocates complexit in a frame while minimizing performance loss in terms of bitrate and visual quality. Finally, a real-time contr system is created that dynamically manages the encoding process to keep the encoding complexity under specific tarjet. It demonstrates the a licability of the mayor contributions of this document.
6

Quality Assessment for HEVC Encoded Videos: Study of Transmission and Encoding Errors

Ansari, Yousuf Hameed, Siddiqui, Sohaib Ahmed January 2016 (has links)
There is a demand for video quality measurements in modern video applications specifically in wireless and mobile communication. In real time video streaming it is experienced that the quality of video becomes low due to different factors such as encoder and transmission errors. HEVC/H.265 is considered as one of the promising codecs for compression of ultra-high definition videos. In this research, full reference based video quality assessment is performed. The raw format reference videos have been taken from Texas database to make test videos data set. The videos are encoded using HM9 reference software in HEVC format. Encoding errors has been set during the encoding process by adjusting the QP values. To introduce packet loss in the video, the real-time environment has been created. Videos are sent from one system to another system over UDP protocol in NETCAT software. Packet loss is induced with different packet loss ratios into the video using NETEM software. After the compilation of video data set, to assess the video quality two kind of analysis has been performed on them. Subjective analysis has been carried on different human subjects. Objective analysis has been achieved by applying five quality matrices PSNR, SSIM, UIQI, VFI and VSNR. The comparison is conducted on the objective measurement scores with the subjective and in the end results deduce from classical correlation methods.
7

Energy optimization of Signal Processing on MPSoCs and its Application to Video Decoding / Optimisation énergétique de processus de traitement du signal et ses applications au décodage vidéo

Nogues, Erwan 02 June 2016 (has links)
Aujourd'hui, les appareils électroniques offrent de plus en plus de fonctionnalités (vidéo, audio, GPS, internet) et des connectivités variées (multi-systèmes de radio avec WiFi, Bluetooth, UMTS, HSPA, LTE-advanced ... ). La demande en puissance de ces appareils est donc grandissante pour la partie numérique et notamment le processeur de calcul. Pour répondre à ce besoin sans cesse croissant de nouvelles fonctionnalités et donc de puissance de calcul, les architectures des processeurs ont beaucoup évolué : processeurs multi-coeurs, processeurs graphiques (GPU) et autres accélérateurs matériels dédiés. Cependant, alors que de nouvelles architectures matérielles peinent à répondre aux exigences de performance, l'évolution de la technologie des batteries est quant à elle encore plus lente. En conséquence, l'autonomie des systèmes embarqués est aujourd'hui sous pression. Parmi les nouveaux services supportés par les terminaux mobiles, la vidéo prend une place prépondérante. En effet, des analyses récentes de tendance montrent qu'elle représentera 70 % du trafic internet mobile dès 2016. Accompagnant cette croissance, de nouvelles technologies émergent permettant de nouveaux services et applications. Parmi elles, HEVC (High Efficiency Video Coding) permet de doubler la compression de données tout en garantissant une qualité subjective équivalente à son prédécesseur, la norme H.264. Dans un circuit numérique, la consommation provient de deux éléments: la puissance statique et la puissance dynamique. La plupart des architectures matérielles récentes mettent en oeuvre des procédés permettant de contrôler la puissance du système. Le changement dynamique du couple tension/fréquence appelé Dynamic Voltage and Frequency Scaling (DVFS) agit principalement sur la puissance dynamique du circuit. Cette technique permet d'adapter la puissance du processeur (et donc sa consommation) à la charge réelle nécessaire pour une application. Pour contrôler la puissance statique, le Dynamic Power Management (DPM, ou modes de veille) consistant à arrêter les alimentations associées à des zones spécifiques de la puce. Dans cette thèse, nous présentons d'abord une modélisation de l'énergie consommée par le circuit intégrant les modes DVFS et DPM. Cette modélisation est généralisée au circuit multi-coeurs et intégrée à un outil de prototypage rapide. Ainsi le point de fonctionnement optimal d'un circuit, la fréquence de fonctionnement et le nombre de coeurs actifs, est identifié. Dans un second temps, l'application HEVC est intégrée à une architecture multi-coeurs avec une adaptation dynamique de la fréquence de développement. Nous montrons que cette application peut être implémentée efficacement sur des processeurs généralistes (GPP) tout en minimisant la puissance consommée. Enfin, et pour aller plus loin dans les gains en énergie, nous proposons une modification du décodeur HEVC qui permet à un décodeur de baisser encore plus sa consommation en fonction du budget énergétique disponible localement. / Consumer electronics offer today more and more features (video, audio, GPS, Internet) and connectivity means (multi-radio systems with WiFi, Bluetooth, UMTS, HSPA, LTE-advanced ... ). The power demand of these devices is growing for the digital part especially for the processing chip. To support this ever increasing computing demand, processor architectures have evolved with multicore processors, graphics processors (GPU) and ether dedicated hardware accelerators. However, the evolution of battery technology is itself slower. Therefore, the autonomy of embedded systems is now under a great pressure. Among the new functionalities supported by mobile devices, video services take a prominent place. lndeed, recent analyzes show that they will represent 70% of mobile Internet traffic by 2016. Accompanying this growth, new technologies are emerging for new services and applications. Among them HEVC (High Efficiency Video Coding) can double the data compression while maintaining a subjective quality equivalent to its predecessor, the H.264 standard. ln a digital circuit, the total power consumption is made of static power and dynamic power. Most of modern hardware architectures implement means to control the power consumption of the system. Dynamic Voltage and Frequency Scaling (DVFS) mainly reduces the dynamic power of the circuit. This technique aims to adapt the power of the processor (and therefore its consumption) to the actual load needed by the application. To control the static power, Dynamic Power Management (DPM or sleep modes) aims to stop the voltage supplies associated with specific areas of the chip. ln this thesis, we first present a model of the energy consumed by the circuit integrating DPM and DVFS modes. This model is generalized to multi-core integrated circuits and to a rapid prototyping tool. Thus, the optimal operating point of a circuit, i.e. the operating frequency and the number of active cores, is identified. Secondly, the HEVC application is integrated to a multicore architecture coupled with a sophisticated DVFS mechanism. We show that this application can be implemented efficiently on general purpose processors (GPP) while minimizing the power consumption. Finally, and to get further energy gain, we propose a modified HEVC decoder that is capable to tune its energy gains together with a decoding quality trade-off.
8

Efficient rate control strategies for scalable video coding / Stratégies d'encodage pour codeur vidéo scalable

Biatek, Thibaud 25 April 2016 (has links)
High Efficiency Video Coding (HEVC/H.265) est la dernière norme de compression vidéo, finalisée en Janvier 20 13. Son extension scalable, SHVC, a été publiée en Octobre 2014 et supporte la scalabilité spatiale, en gamut de couleur (CGS) et même en norme de compression (AVC vers HEVC). SHVC peut être utilisée pour l'introduction de nouveaux services, notamment grâce à la rétrocompatibilité qu'elle apporte par la couche de base (BL) et qui est complétée par une couche d'amélioration (BL+EL) qui apporte les nouveaux services. De plus, SHVC apporte des gains en débit significatifs par rapport à l'encodage dit simulcast (l'encodage HEVC séparés). SHVC est considérée par DVB pour accompagner l'introduction de services UHD et est déjà incluse dans la norme ATSC-3.0. Dans ce contexte, l'objectif de la thèse est la conception de stratégies de régulation de débit pour les codeurs HEVC/SHVC lors de l'introduction de nouveaux services UHD. Premièrement, nous avons étudié l'approche p-domaine qui modélise linéairement le nombre coefficient non-nuls dans les résidus transformés et quantifiés avec le débit, et qui permet de réaliser des régulations de débit peu complexes. Après validation du modèle, nous avons conçu un premier algorithme de contrôle de débit au niveau bloc en utilisant cette approche. Pour chaque bloc et son débit cible associé, notre méthode estime de façon précise le paramètre de quantification (QP) optimal à partir des blocs voisins, en limitant l'erreur de débit sous les 4%. Puis, nous avons proposé un modèle d'estimation déterministe du p-domaine qui évite l'utilisation de tables de correspondance et atteignant une précision d'estimation supérieure à90%. Deuxièmement, nous avons investigué l'impact du ratio de débit entre les couches d'un codeur SHVC sur ses performances de compression, pour la scalabilité spatiale, CGS et SOR vers HDR. En se basant sur les résultats de cette étude, nous avons élaborés un algorithme de régulation de débit adaptatif. La première approche proposée optimise les gains de codage en choisissant dynamiquement le ratio de débit optimal dans un intervalle prédéterminé et fixe lors de l'encodage. Cette première méthode a montré un gain de codage significatif de 4.25% par rapport à une approche à ratio fixe. Cette méthode a été ensuite améliorée en lui ajoutant des contraintes de qualité et de débit sur chaque couche, au lieu de considérer un in tervalle fixe. Ce second algorithme a été testé sur le cas de diffusion de programme HD/UHD ct de déploiement de se1vices UHDI-P1 vers UHD 1-P2 (cas d'usage DVB), où elle permet des gains de 7.51% ct 8.30% respectivement. Enfin, le multiplexage statistique de programmes scalable a été introduit et brièvement investigué. Nous avons proposé une première approche qui ajuste conjointement le débit global attribué à chaque programme ainsi que le ratio de débit, de façon à optimiser les performances de codage. De plus, la méthode proposée lisse les variations et l'homogénéité de la qualité parmi les programmes. Cette méthode a été appliquée à une base de données contenant des flux pré-encodés. La méthode permet dans ce cas une réduction du surcoût de la scalabilité de 11.01% à 7.65% comparé à l'encodage a débit et ratio fixe, tout en apportant une excellente précision et une variation de qualité limitée. / High Efficiency Video Coding (HEVC/H.265) is the latest video coding standard, finalized in Janua1y 2013 as the successor of Advanced Video Coding (AVC/H.264). Its scalable extension, called SHVC was released in October 2014 and enables spatial, bitdepth, color-gamut (CGS) and even standard scalability. SHVC is a good candidate for introducing new services thanks to backward compatibility features with legacy HEVC receivers through the base-layer (BL) stream and next generation ones through the BL+EL (enhancement layer). In addition, SHVC saves substantial bitrate with respect to simulcast coding (independent coding of layers) and is also considered by DVB for UHD introduction and included in ATSC-3 .0. In this context, the work of this thesis aims at designing efficient rate-control strategies for HEVC and its scalable extension SHVC in the context of new UHD formats introduction. First, we have investigated the p-domain approach which consists in linking the number of non-zero transfonned and quantized residual coefficients with the bitrate, in a linear way, to achieve straightforward rate-control. After validating it in the context of HEVC and SHVC codings, we have developed an innovative Coding Tree Unit (CTU)-level rate-control algorithm using the p-domain. For each CTU and its associated targeted bit rate, our method accurately estimates the most appropriate quantization parameter (QP) based on neighborhood indicators, with a bit rate error below 4%. Then, we have proposed a deterministic way of estimating the p-domain model which avoids the implementation of look-up tables. The proposed method enables accurate model estimation over 90%. Second, we have explored the impact of the bitrate ratio between layers on the SHVC performance for the spatial, CGS and SDR-to-HDR scalability. Based on statistical observations, we have built an adaptive rate control algorithms (ARC). We have first proposed an ARC scheme which optimizes coding performance by selecting the optimal ratio into a fixed ratio inte1val, under a global bitrate instruction (BL+EL). This method is adaptive and considers the content and the type of scalability. This first approach enables a coding gain of 4.25% compared to fixed-ratio encoding. Then, this method has been enhanced with quality and bandwidth constraints in each layer instead of considering a fixed interval. This second method has been tested on hybrid delivery of HD/UHD services and backward compatible SHVC encoding of UHDI -PI /UHDI -P2 services (DVB use-case) where it enables significant coding gains of 7.51% and 8.30%, respectively. Finally, the statistical multiplexing of SHVC programs has been investigated. We have proposed a first approach which adjusts both the global bit rate to allocate in each program and the ratio between BL and EL to optimize the coding performance. In addition, the proposed method smooths the quality variations and enforces the quality homogeneity between programs. This method has been applied to a database containing pre-encoded bitstreams and enables an overhead reduction from 11.01% to 7.65% compared to constant bitrate encoding, while maintaining a good accuracy and an acceptable quality variations among programs.
9

Novel use of video and image analysis in a video compression system

Stobaugh, John David 01 May 2015 (has links)
As consumer demand for higher quality video at lower bit-rate increases, so does the need for more sophisticated methods of compressing videos into manageable file sizes. This research attempts to address these concerns while still maintaining reasonable encoding times. Modern segmentation and grouping analysis are used with code vectorization techniques and other optimization paradigms to improve quality and performance within the next generation coding standard, High Efficiency Video Coding. This research saw on average a 50% decrease in run-time by the encoder with marginal decreases in perceived quality.
10

Methods for improving the backward compatible High Dynamic Range compression / Méthodes pour améliorer la compression HDR (High Dynamic Range) rétro compatible

Gommelet, David 25 September 2018 (has links)
Ces dernières années, les contenus vidéos ont évolué très rapidement. En effet, les télévisions (TV) ont rapidement évolué vers l’Ultra Haute résolution (UHD), la Haute Fréquence d’images (HFR) ou la stéréoscopie (3D). La tendance actuelle est à l’imagerie à Haute Dynamique de luminance (HDR). Ces technologies permettent de reproduire des images beaucoup plus lumineuses que celles des écrans actuels. Chacune de ces améliorations représente une augmentation du coût de stockage et nécessite la création de nouveaux standards de compression vidéo, toujours plus performant. La majorité des consommateurs est actuellement équipé de TV ayant une Dynamique Standard (SDR) qui ne supportent pas les contenus HDR et ils vont lentement renouveler leurs écrans pour un HDR. Il est donc important de délivrer un signal HDR qui puisse être décodé par ces deux types d’écrans. Cette rétro compatibilité est rendue possible par un outil appelé TMO (Tone Mapping Operator) qui transforme un contenu HDR en une version SDR. Au travers de cette thèse, nous explorons de nouvelles méthodes pour améliorer la compression HDR rétro compatible. Premièrement, nous concevons un TMO qui optimise les performances d’un schéma de compression scalable où une couche de base et d’amélioration sont envoyées pour reconstruire les contenus HDR et SDR. Il est démontré que le TMO optimal dépend seulement de la couche SDR de base et que le problème de minimisation peut être séparé en deux étapes consécutives. Pour ces raisons, nous proposons ensuite un autre TMO conçu pour optimiser les performances d’un schéma de compression utilisant uniquement une couche de base mais avec un modèle amélioré et plus précis. Ces deux travaux optimisent des TMO pour images fixes. Par la suite, la thèse se concentre sur l’optimisation de TMO spécifiques à la vidéo. Cependant, on y démontre que l’utilisation d’une prédiction pondérée pour la compression SDR est aussi bon voir meilleur que d’utiliser un TMO optimisé temporellement. Pour ces raisons, un nouvel algorithme et de nouveaux modes de prédictions pondérées sont proposés pour gérer plus efficacement la large diversité des changements lumineux dans les séquences vidéos. / In recent years, video content evolved very quickly. Indeed, televisions (TV) quickly evolved to Ultra High Definition (UHD), High Frame Rate (HFR) or stereoscopy (3D). The recent trend is towards High Dynamic range (HDR). These new technologies allow the reproduction of much brighter images than for actual displays. Each of these improvements represents an increase in storage cost and therefore requires the creation of new video compression standards, always more efficient. The majority of consumers are currently equipped with Standard Dynamic Range (SDR) displays, that cannot handle HDR content. Consumers will slowly renew their display to an HDR one and it is therefore of great importance to deliver an HDR signal that can be decoded by both SDR and HDR displays. Such backward compatibility is provided by a tool called Tone Mapping Operator (TMO) which transforms an HDR content into an SDR version. In this thesis, we explore new methods to improve the backward compatible HDR compression. First, we design a Tone Mapping to optimize scalable compression scheme performances where a base and an enhancement layer are sent to reconstruct the SDR and HDR content. It is demonstrated that the optimum TMO only depends on the SDR base layer and that the minimization problem can be separated in two consecutive minimization steps. Based on these observations, we then propose another TMO designed to optimize the performances of compression schemes using only a base layer but with an enhanced and more precise model. Both of these works optimize TMO for still images. Thereafter, this thesis focuses on the optimization of video-specific TMO. However, we demonstrate that using a weighted prediction for the SDR compression is as good or even better than using a temporally optimized TMO. Therefore, we proposed a new weighted prediction algorithm and new weighted prediction modes to handle more efficiently the large diversity of brightness variations in video sequences.

Page generated in 0.0411 seconds