161 |
Nástroje pro měření kvality videosekvencí bez reference / Tools for measuring video quality without referenceZach, Ondřej January 2013 (has links)
This diploma thesis deals with objective video quality assessments without reference. Some of the basics of video quality evaluation are described. Also some basic conditions for objective video quality metrics are introduced. The main focus of the thesis are no-reference approaches. Thesis tries to describe basic methods for seeking distortion in video. The difference between spatial-domain oriented and spectral-domain oriented metrics is analyzed. We also describe design of tool for measuring objective video quality in Matlab environment. We then designed and implemented a bit-stream oriented metric for estimation of the PSNR of H.264 coded sequences. Finally, we created a database of video sequences and we held objective tests. Results were compared with results from subjective measurements.
|
162 |
Enhancement of LTE Radio Access Protocols for Efficient Video StreamingTirouvengadam, Balaaji 13 September 2012 (has links)
A drastic increase in traffic of mobile broadband is seen in the past few years, which is further accelerated by the increase in usage of smart phones and its applications. The availability of good smart phones and better data connectivity are encouraging mobile users to use video services. This huge increase in usage will pose a lot of challenges to the wireless networks. The wireless network has to become content aware in order to offer enhanced quality of video service through efficient utilization of the wireless spectrum. This thesis focuses on improving the Quality of Experience (QoE) for video transmission over Long Term Evolution (LTE) networks by imparting the content awareness to the system and providing unequal error protection for critical video packets. Two different schemes for the improvement of video quality delivery over LTE networks are presented in this thesis. Using content awareness, the retransmission count of Hybrid Automatic Repeat reQuest (HARQ) are changed dynamically such that the most important video frame gets more number of retransmission attempts, which increases its success for delivery in-turn increasing the received video quality. Since Radio Link Control (RLC) is the link layer for radio interface, the second approach focuses on optimizing this layer for efficient video transmission. As part of this scheme, a new operation mode called Hybrid Mode (HM) for RLC is defined. This mode performs retransmission only for the critical video frames, leaving other frames to unacknowledged transmission. The simulation results of both proposed schemes provide significant improvement in achieving good video quality without affecting the system performance.
|
163 |
Estimation of LRD present in H.264 video traces using wavelet analysis and proving the paramount of H.264 using OPF technique in wi-fi environmentJayaseelan, John January 2012 (has links)
While there has always been a tremendous demand for streaming video over Wireless networks, the nature of the application still presents some challenging issues. These applications that transmit coded video sequence data over best-effort networks like the Internet, the application must cope with the changing network behaviour; especially, the source encoder rate should be controlled based on feedback from a channel estimator that explores the network intermittently. The arrival of powerful video compression techniques such as H.264, which advance in networking and telecommunications, opened up a whole new frontier for multimedia communications. The aim of this research is to transmit the H.264 coded video frames in the wireless network with maximum reliability and in a very efficient manner. When the H.264 encoded video sequences are to be transmitted through wireless network, it faces major difficulties in reaching the destination. The characteristics of H.264 video coded sequences are studied fully and their capability of transmitting in wireless networks are examined and a new approach called Optimal Packet Fragmentation (OPF) is framed and the H.264 coded sequences are tested in the wireless simulated environment. This research has three major studies involved in it. First part of the research has the study about Long Range Dependence (LRD) and the ways by which the self-similarity can be estimated. For estimating the LRD a few studies are carried out and Wavelet-based estimator is selected for the research because Wavelets incarcerate both time and frequency features in the data and regularly provides a more affluent picture than the classical Fourier analysis. The Wavelet used to estimate the self-similarity by using the variable called Hurst Parameter. Hurst Parameter tells the researcher about how a data can behave inside the transmitted network. This Hurst Parameter should be calculated for a more reliable transmission in the wireless network. The second part of the research deals with MPEG-4 and H.264 encoder. The study is carried out to prove which encoder is superior to the other. We need to know which encoder can provide excellent Quality of Service (QoS) and reliability. This study proves with the help of Hurst parameter that H.264 is superior to MPEG-4. The third part of the study is the vital part in this research; it deals with the H.264 video coded frames that are segmented into optimal packet size in the MAC Layer for an efficient and more reliable transfer in the wireless network. Finally the H.264 encoded video frames incorporated with the Optimal Packet Fragmentation are tested in the NS-2 wireless simulated network. The research proves the superiority of H.264 video encoder and OPF's master class.
|
164 |
Transport Adaptatif et Contrôle de la Qualité des Services Vidéo sur les Réseaux Pair-à-PairMushtaq, Mubashar 12 December 2008 (has links) (PDF)
Actuellement, nous constatons une augmentation de demande de services vidéo sur les réseaux P2P. Ces réseaux jouent un rôle primordial dans la transmission de contenus multimédia à grande échelle pour des clients hétérogènes. Cependant, le déploiement de services vidéo temps réel sur les réseaux P2P a suscité un grand nombre de défis dû à l'hétérogénéité des terminaux et des réseaux d'accès, aux caractéristiques dynamiques des pairs, et aux autres problèmes hérités des protocoles TCP/IP, à savoir les pertes de paquets, les délais de transfert et la variation de la bande passante de bout-en-bout. Dans ce contexte, l'objectif de cette thèse est d'analyser les différents problèmes et de proposer un mécanisme de transport vidéo temps réel avec le provisionnement de la qualité de Service (QoS). Ainsi, nous proposons trois contributions majeures. Premièrement, il s'agit d'un mécanisme de streaming vidéo adaptatif permettant de sélectionner les meilleurs pair émetteurs. Ce mécanisme permet de structurer les pairs dans des réseaux overlay hybrides avec une prise en charge des caractéristiques sémantiques du contenu et des caractéristiques physiques du lien de transport. Nous présentons ensuite un mécanisme d'ordonnancement de paquets vidéo combiné à une commutation de pairs et/ou de flux pour assurer un transport lisse. Finalement, une architecture de collaboration entre les applications P2P et les fournisseurs de services / réseaux est proposée pour supporter un contrôle d'admission de flux.
|
165 |
Qualité d'usage en télévision haute définition : évaluations subjectives et métriques objectivesPéchard, Stéphane 02 October 2008 (has links) (PDF)
La télévision haute définition (TVHD) est le nouveau système de diffusion sensé apporter une plus grande immersion de l'observateur dans l'action et une qualité d'usage supérieure à celle de la télévision standard (TVSD). Afin de remplir ces exigences, les diffuseurs ont besoin de techniques de mesure de qualité adaptées. Le premier objectif de cette thèse est de nous éclairer sur l'impact de la transition de la TVSD vers la TVHD sur la qualité visuelle. Le second est de proposer des métriques objectives de qualité adaptées à la TVHD. Nous avons tout d'abord étudié plusieurs aspects de la qualité visuelle dans ce contexte. Cela nous a notamment permis de sélectionner une méthodologie d'évaluation subjective de la qualité pour constituer une base de séquences dégradées par un codage H.264. Puis, nous avons proposé une méthodologie d'évaluation de l'impact d'un système dégradant sur la qualité visuelle. Elle est utilisée dans les trois critères objectifs de qualité présentés par la suite. Elle fournit au premier une analyse du contenu permettant de modéliser la qualité visuelle d'une séquence. Le second critère cumule des fonctions de gêne locales en une note de qualité globale grâce à des modèles validés par la méthodologie. Le dernier exploite la notion de tubes spatio-temporels introduits par la méthodologie. Des caractéristiques y sont mesurées pour les séquences de référence et dégradée. Le cumul des différences entre ces caractéristiques fournit une note de qualité finale. Alors que le second critère n'offre pas de résultats convaincants, les deux autres permettent une prédiction des notes subjectives plus performante que celle de deux critères connus de la littérature.
|
166 |
Modules de codage par compétition et suppression de l'information de compétition pour le codage de séquences vidéoLaroche, Guillaume 19 May 2009 (has links) (PDF)
Cette thèse est dédiée à l'amélioration de la compression de séquences vidéo. Le but est de concevoir des méthodes suffisamment efficaces et réalistes pour être proposées aux organismes de normalisation de standard vidéo. Les approches choisies sont l'ajout de nouveaux modules de codage par compétition et la suppression de l'information de compétition. Un module de codage par compétition de prédicteurs de vecteurs mouvement, intégré dans le KTA, exploite, au sens du critère débit-distorsion, les redondances spatiales et temporelles des champs de vecteurs. De plus, une sélection automatique d'ensembles de prédicteurs orientée contenu est aussi proposée. Enfin, un nouveau mode de codage Intra basé sur un partitionnement 1D du macrobloc, réduisant la distance spatiale entre le signal de référence et la partition courante, est ajouté aux modes Intra bloc. Le standard de compression H.264/AVC, offre un nombre de compétitions plus élevé que celui de ses prédécesseurs. Pour réduire le débit lié à cette information de compétition, une partie de l'intelligence du codeur a été transférée au décodeur. Les indices des prédicteurs de vecteurs mouvement implicites, sont ainsi éliminés. Des prédicteurs Intra sont aussi supprimés en tenant compte du processus de quantification et du signal de référence. Enfin, en considérant que l'information de mouvement est une information de compétition, une estimation de mouvement au décodeur est mise en place. L'ensemble des méthodes développées offre des réductions de débit significatives par rapport à la référence. La combinaison d'une partie de ces méthodes obtient un gain moyen de 20% par rapport au standard pour un ensemble de séquences HD.
|
167 |
Pré-analyse de la vidéo pour un codage adapté. Application au codage de la TVHD en flux H.264Brouard, Olivier 20 July 2010 (has links) (PDF)
Les méthodes d'optimisation d'un codeur vidéo classique ne traitent l'information à réduire que d'un point de vue signal et sont donc « bas niveau ». Bien que des travaux intégrant des propriétés du SVH soient proposés pour l'évaluation de la qualité, ou améliorer les techniques de codage, ces méthodes sont peu retenues au niveau des standards. Les travaux de recherche se portent davantage sur l'enrichissement des nouvelles normes, tel que le standard H.264. Cependant, les méthodes « haut niveau » obtiennent des performances encourageantes. Nous proposons donc une méthode de pré-analyse de la vidéo, qui intègre un modèle de l'attention visuelle. Le but est d'analyser la vidéo en tenant compte des informations haut niveau, pour transmettre au codeur le jeu de paramètres optimal afin d'exploiter au mieux les outils de codage. Les études réalisées pour modéliser l'attention visuelle ont mis en évidence le caractère primordial du contraste de mouvement. Notre méthode de pré-analyse détecte d'abord les objets en mouvement (par rapport à celui de la caméra), puis calcule les cartes de saillance permettant de déterminer les zones visuellement importantes. Nous proposons deux applications de codage (qui peuvent être utilisées conjointement) en fonction des informations obtenues après la pré-analyse, ainsi que l'évaluation de leurs performances. La première propose de modifier adaptativement la structure du GOP en fonction du contenu spatiotemporel de la vidéo. La deuxième concerne une application de compression de la vidéo avec une qualité visuelle différenciée guidée par les cartes de saillance. Les performances sont analysées à partir de tests d'évaluation subjective de la qualité.
|
168 |
Transform Coefficient Thresholding and Lagrangian Optimization for H.264 Video Coding / Transformkoefficient-tröskling och Lagrangeoptimering för H.264 VideokodningCarlsson, Pontus January 2004 (has links)
<p>H.264, also known as MPEG-4 Part 10: Advanced Video Coding, is the latest MPEG standard for video coding. It provides approximately 50% bit rate savings for equivalent perceptual quality compared to any previous standard. In the same fashion as previous MPEG standards, only the bitstream syntax and the decoder are specified. Hence, coding performance is not only determined by the standard itself but also by the implementation of the encoder. In this report we propose two methods for improving the coding performance while remaining fully compliant to the standard. </p><p>After transformation and quantization, the transform coefficients are usually entropy coded and embedded in the bitstream. However, some of them might be beneficial to discard if the number of saved bits are sufficiently large. This is usually referred to as coefficient thresholding and is investigated in the scope of H.264 in this report. </p><p>Lagrangian optimization for video compression has proven to yield substantial improvements in perceived quality and the H.264 Reference Software has been designed around this concept. When performing Lagrangian optimization, lambda is a crucial parameter that determines the tradeoff between rate and distortion. We propose a new method to select lambda and the quantization parameter for non-reference frames in H.264. </p><p>The two methods are shown to achieve significant improvements. When combined, they reduce the bitrate around 12%, while preserving the video quality in terms of average PSNR. </p><p>To aid development of H.264, a software tool has been created to visualize the coding process and present statistics. This tool is capable of displaying information such as bit distribution, motion vectors, predicted pictures and motion compensated block sizes.</p>
|
169 |
Fast Mode Selection Algoritm for H.264 Video CodingHållmarker, Ola, Linderoth, Martin January 2005 (has links)
<p>ITU - T and the Moving Picture Expert Group (MPEG) have jointly, under the name of Joint Video Team (JVT), developed a new video coding standard. The standard is called H.264 and is also known as Advanced Video Coding (AVC) or MPEG-4 part 10. Comparisons shows that H.264 greatly outperforms MPEG-2, currently used in DVD and digital TV. H.264 halves the bit rate with equal image quality. The great rate - distortion performance means nevertheless a high computational complexity. Especially on the encoder side.</p><p>Handling of audio and video, e.g. compressing and filtering, is quite complex and requires high performance hardware and software. A video encoder consists of a number of modules that find the best coding parameters. For each macroblock several $modes$ are evaluated in order to achieve optimal coding. The reference implementation of H.264 uses a brute force search for this mode selection which is extremely computational constraining. In order to perform video encoding with satisfactory speed there is an obvious need for reducing the amount of modes that are evaluated.</p><p>This thesis proposes an algorithm which reduces the number of modes and reference frames that are evaluated. The algorithm can be regulated in order to fulfill the demand on quality versus speed. Six times faster encoding can be obtained without loosing perceptual image quality. By allowing some quality degradation the encoding becomes up to 20 times faster.</p>
|
170 |
A study of CABAC hardware acceleration with configurability in multi-standard media processing / En studie i konfigurerbar hårdvaruaccelerering för CABAC i flerstandards mediabearbetningFlordal, Oskar January 2005 (has links)
<p>To achieve greater compression ratios new video and image CODECs like H.264 and JPEG 2000 take advantage of Context adaptive binary arithmetic coding. As it contains computationally heavy algorithms, fast implementations have to be made when they are performed on large amount of data such as compressing high resolution formats like HDTV. This document describes how entropy coding works in general with a focus on arithmetic coding and CABAC. Furthermore the document dicusses the demands of the different CABACs and propose different options to hardware and instruction level optimisation. Testing and benchmarking of these implementations are done to ease evaluation. The main contribution of the thesis is parallelising and unifying the CABACs which is discussed and partly implemented. The result of the ILA is improved program flow through a specialised branching operations. The result of the DHA is a two bit parallel accelerator with hardware sharing between JPEG 2000 and H.264 encoder with limited decoding support.</p>
|
Page generated in 0.0207 seconds