• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 93
  • 53
  • 17
  • 9
  • 6
  • 5
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 209
  • 209
  • 130
  • 88
  • 60
  • 49
  • 48
  • 43
  • 41
  • 33
  • 27
  • 27
  • 24
  • 22
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Efficient Software and Hardware Implementations of the H.264 Entropy Encoders

Hoffman, Marc January 2011 (has links)
No description available.
112

Single and Multi-view Video Super-resolution

Najafi, Seyedreza 10 1900 (has links)
<p>Video super-resolution for dual-mode cameras in single-view and mono-view scenarios is studied in this thesis. Dual-mode cameras are capable of generating high-resolution still images while shooting video sequences at low-resolution. High-resolution still images are used to form a regularization function for solving the inverse problem of super-resolution. Exploiting proposed regularization function in this thesis obviates the need for classic regularization function. Experimental results show that using proposed regularization function instead of classic regularization functions for super-resolution of single-view video leads to improved results. In this thesis, super-resolution problem is divided into low-resolution frame fusion and de-blurring. A frame fusion scheme for multi-view video is proposed and performance improvement when exploiting multi-view sequence instead of single-view for frame fusion is studied. Experimental results show that information taken by a set of cameras instead of a single camera can improve super-resolution process, especially when video contains fast motions. As a side work, we applied our low-resolution multi-view frame fusion algorithm to 3D frame-compatible format resolution enhancement. Multi-view video super-resolution using high-resolution still images is performed at the decoder to prevent increasing computation complexity of the encoder. Experimental results show that this method delivers comparable compression efficiency for lower bit-rates.</p> / Master of Applied Science (MASc)
113

TÉCNICAS DE MEJORA DE LA EFICIENCIA DE CODIFICACIÓN DE VÍDEO

Usach Molina, Pau 07 January 2016 (has links)
[EN] This Thesis presents a set of tools that allows the improvement of the digital video coding efficiency by exploiting the fundamentals of the state of the art video coding standards. This work has been focused both on research and on the application of the results to the encoding of digital video in real time mobile environments. The first contribution is an automatic shot change detection algorithm integrated in the encoding process. This algorithm is based on the monitoring of the coding mode of the macroblocks of the sequence, and the proper definition of a set of parameters provides excellent detection rates, precision and recall. The results also indicate an improvement on the encoded video quality when these detection techniques are used, which triggers the definition of a content-based keyframe selection algorithm. With this method, the optimal position of reference pictures can be determined. These keyframes are then used by the encoder to perform temporal prediction of the subsequent frames, which improves the compression rate and the encoded video quality (both objective and subjective). This quality improvement is the main objective of this Thesis. In the last part of this work, a rate control algorithm for variable bitrate and frame rate environments has been defined, being able to generate a bitstream that quickly follows the varying conditions of the mobile channel. In parallel to all this work, a set of training and test sequences has been obtained, providing an optimal environment for the design, development, configuration, optimization and test of the algorithms described here. / [ES] Esta tesis presenta un conjunto de herramientas que permiten mejorar la eficiencia de codificación de vídeo mediante la explotación de los fundamentos en los que se basan los principales estándares de codificación actuales. El trabajo se ha orientado tanto a la investigación como a la aplicación de los resultados a la codificación de vídeo en tiempo real en entornos móviles. En primer lugar se ha definido un algoritmo de detección automática de cambios de plano para entornos de tiempo real integrado en el proceso de codificación. Este algoritmo está basado en la monitorización del modo de codificación de los macrobloques de la secuencia y la correcta definición de un conjunto de parámetros consigue unas tasas de detección, una precisión y una eficacia superiores a otros métodos similares existentes en la literatura. Los resultados muestran también una mejora en la calidad del vídeo codificado al aplicar estas técnicas de detección, lo que lleva a la definición de un algoritmo de selección de imágenes de referencia (keyframes) basado en el contenido. Así se pueden obtener las posiciones óptimas para las imágenes de referencia utilizadas por el codificador para realizar predicciones temporales que aumentan la calidad tanto objetiva como subjetiva del vídeo codificado, lo que constituye a su vez el objetivo principal de esta tesis. Por último, se ha diseñado un algoritmo de control de tasa capaz de obtener un bitstream que se adapta rápidamente a los cambios tanto de bitrate como de tasa de imágenes por segundo producidos en el canal móvil. Paralelamente, se ha obtenido un conjunto de secuencias de entrenamiento y test que proporcionan un entorno óptimo para el diseño, desarrollo, configuración, optimización y prueba de los algoritmos aquí descritos. / [CA] Aquesta tesi presenta un conjunt de ferramentes que permeten millorar la eficiència de codificació de vídeo digital mitjançant l'explotació dels fonaments en els que es basen els principals estàndards de codificació actuals. El treball ha estat orientat tant a la investigació com a l'aplicació dels resultats a la codificació de vídeo en temps real en entorns mòbils. En primer lloc s'ha definit un algoritme de detecció automàtica de canvis de plànol integrat en el propi procés de codificació. Aquest algoritme s'ha basat en la monitorització del mode de codificació dels macroblocs de la seqüència, i la correcta definició d'un conjunt de paràmetres de configuració permet aconseguir unes taxes de detecció, una precisió i una eficàcia superiors a altres mètodes similars presents a la literatura. Aquests resultats també indiquen una millora en la qualitat del vídeo codificat al aplicar aquestes tècniques de detecció la qual ens porta a la definició d'un algoritme de selecció d'imatges de referència (keyframes) basada en el contingut. Amb aquest algoritme es poden obtenir les posicions òptimes per a les imatges de referència utilitzades pel codificador per a realitzar prediccions temporals òptimes que augmenten la qualitat tant objectiva com subjectiva del vídeo codificat. Amb esta millora s'assoleix l'objectiu principal d'aquesta tesi. Per últim, s'ha dissenyat un algoritme de control de taxa capaç d'obtenir un bitstream que s'adapta ràpidament als canvis tant de bitrate com de taxa d'imatges per segon requerits per les condicions canviants del canal mòbil. Paral·lelament s'ha obtingut un conjunt de seqüències d'entrenament i test que permet disposar d'un entorn òptim per al disseny, desenvolupament, configuració, optimització i prova dels algoritmes descrits en aquestes fulles. / Usach Molina, P. (2015). TÉCNICAS DE MEJORA DE LA EFICIENCIA DE CODIFICACIÓN DE VÍDEO [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/59446
114

QoS provisioning for adaptive video streaming over P2P networks / Transport adaptatif et contrôle de la qualité des services vidéo sur les réseaux pair-à-pair

Mushtaq, Mubashar 12 December 2008 (has links)
Actuellement, nous constatons une augmentation de demande de services vidéo sur les réseaux P2P. Ces réseaux jouent un rôle primordial dans la transmission de contenus multimédia à grande échelle pour des clients hétérogènes. Cependant, le déploiement de services vidéo temps réel sur les réseaux P2P a suscité un grand nombre de défis dû à l’hétérogénéité des terminaux et des réseaux d’accès, aux caractéristiques dynamiques des pairs, et aux autres problèmes hérités des protocoles TCP/IP, à savoir les pertes de paquets, les délais de transfert et la variation de la bande passante de bout-en-bout. Dans ce contexte, l’objectif de cette thèse est d’analyser les différents problèmes et de proposer un mécanisme de transport vidéo temps réel avec le provisionnement de la qualité de Service (QoS). Ainsi, nous proposons trois contributions majeures. Premièrement, il s’agit d’un mécanisme de streaming vidéo adaptatif permettant de sélectionner les meilleurs pair émetteurs. Ce mécanisme permet de structurer les pairs dans des réseaux overlay hybrides avec une prise en charge des caractéristiques sémantiques du contenu et des caractéristiques physiques du lien de transport. Nous présentons ensuite un mécanisme d’ordonnancement de paquets vidéo combiné à une commutation de pairs et/ou de flux pour assurer un transport lisse. Finalement, une architecture de collaboration entre les applications P2P et les fournisseurs de services / réseaux est proposée pour supporter un contrôle d’admission de flux. / There is an increasing demand for scalable deployment of real-time multimedia streaming applications over Internet. In this context, Peer-to-Peer (P2P) networks are playing an important role for supporting robust and large-scale transmission of multimedia content to heterogeneous clients. However, the deployment of real-time video streaming applications over P2P networks arises lot of challenges due to heterogeneity of terminals and access networks, dynamicity of peers, and other problems inherited from IP network. Real-time streaming applications are very sensitive to packet loss, jitter / transmission delay, and available end-to-end bandwidth. These elements have key importance in QoS provisioning and need extra consideration for smooth delivery of video streaming applications over P2P networks. Beside the abovementioned issues, P2P applications lack of awareness in constructing their overlay topologies and do not have any explicit interaction with service and network providers. This situation leads to inefficient utilization of network resources and may cause potential violation of peering agreements between providers. The aim of this thesis is to analyze these issues and to propose an adaptive real-time transport mechanism for QoS provisioning of Scalable Video Coding (SVC) applications over P2P networks. Our contributions in this dissertation are threefold. First, we propose a hybrid overlay organization mechanism allowing intelligent organization of sender peers based on network-awareness, media- awareness, and quality-awareness. This overlay organization is further used for an appropriate selection of best sender peers, and the efficient switching of peers to ensure a smooth video delivery when any of the sender peers is no more reliable. Second, we propose a packet video scheduling mechanism to assign different parts of the video content to specific peers. Third, we present a service provider driven P2P network framework that enables effective interaction between service / network providers and P2P applications to perform QoS provisioning mechanism for the video streaming.
115

Mesure sans référence de la qualité des vidéos haute définition diffusées avec des pertes de transmission / No-Reference Video Quality Assessment of High Definition Video Streams Delivered with Losses

Boujut, Hugo 24 September 2012 (has links)
Les objectifs de ce travail de thèse ont été: d’une part de détecter automatique-ment les images gelées dans des vidéos télédiffusées; et d’autre part de mesurer sans référencela qualité des vidéos télédiffusées (IP et DVB-T). Ces travaux ont été effectués dans le cadred’un projet de recherche mené conjointement par le LaBRI et la société Audemat WorldCastSystems.Pour la détection d’images gelées, trois méthodes ont été proposées: MV (basée vecteurde mouvement), DC (basée sur les coefficients DC de la DCT) et SURF (basée sur les pointscaractéristiques SURF). Les deux premières méthodes ne nécessitent qu’un décodage partieldu flux vidéo.Le second objectif était de mesurer sans référence la qualité des vidéos télédiffusées (IP etDVB-T). Une métrique a été développée pour mesurer la qualité perçue lorsque le flux vidéoa été altéré par des pertes de transmission. Cette métrique "Weighted Macro-Block ErrorRate" (WMBER) est fondée sur la mesure de la saillance visuelle et la détection des macro-blocs endommagés. Le rôle de la saillance visuelle est de pondérer l’importance des erreursdétectées. Certaines améliorations ont été apportées à la construction des cartes de saillancespatio-temporelle. En particulier, la fusion des cartes de saillance spatiale et temporelle aété améliorée par rapport à l’état de l’art. Par ailleurs, plusieurs études ont montré que lasémantique d’une scène visuelle avait une influence sur le comportement du système visuelhumain. Il apparaît que ce sont surtout les visages humains qui attirent le regard. C’est laraison pour laquelle nous avons ajouté une dimension sémantique aux cartes de saillancespatio-temporelle. Cette dimension sémantique est essentiellement basée sur le détecteurde visage de Viola Jones. Pour prédire la qualité perçue par les utilisateurs, nous avonsutilisé une méthode par apprentissage supervisé. Cette méthode offre ainsi la possibilité deprédire la métrique subjective "Mean Opinion Score" (MOS) à partir de mesures objectivestelles que le WMBER, PSNR ou SSIM. Une expérience psycho-visuelle a été menée avec 50sujets pour évaluer ces travaux. Cette base de données vidéo Haute-Définition est en coursde transfert à l’action COST Qualinet. Ces travaux ont également été évalués sur une autrebase de données vidéo (en définition standard) provenant de l’IRCCyN / The goal of this Ph.D thesis is to design a no-reference video quality assessment method for lossy net-works. This Ph.D thesis is conducted in collaboration with the Audemat Worldcast Systemscompany.Our first no-reference video quality assessment indicator is the frozen frame detection.Frozen frame detection was a research topic which was well studied in the past decades.However, the challenge is to embed a frozen frame detection method in the GoldenEagleAudemat equipment. This equipment has low computation resources that not allow real-time HD video decoding. Two methods are proposed: one based on the compressed videostream motion vectors (MV-method) and another one based on the DC coefficients from thedct transform (DC-method). Both methods only require the partial decoding of the com-pressed video stream which allows for real-time analysis on the GoldenEagle equipment.The evaluation shows that results are better than the frame difference base-line method.Nevertheless, the MV and the DC methods are only suitable with for MPEG2 and H.264video streams. So a third method based on SURF points is proposed.As a second step on the way to a no-reference video quality assessment metric, we areinterested in the visual perception of transmission impairments. We propose a full-referencemetric based on saliency maps. This metric, Weighted Mean Squared Error (WMSE), is theMSE metric weighted by the saliency map. The saliency map role is to distinguish betweennoticeable and unnoticeable transmission impairments. Therefore this spatio-temporal saliencymaps is computed on the impaired frame. Thus the pixel difference in the MSE computationis emphasized or diminished with regard to the pixel saliency. According to the state of theart, several improvements are brought to the saliency map computation process. Especially,new spatio-temporal saliency map fusion strategies are designed.After our successful attempt to assess the video quality with saliency maps, we develop ano-reference quality metric. This metric, Weighted Macro-Block Error Rate (WMBER), relies on the saliency map and the macro-block error detection. The macro-block error detectionprovides the impaired macro-blocks location in the frame. However, the impaired macro-blocks are concealed with more or less success during the decoding process. So the saliencymap provides the user perceived impairment strength for each macro-block.Several psycho-visual studies have shown that semantics play an important role in visualscene perception. These studies conclude that faces and text are the most attractive. Toimprove the spatio-temporal saliency model a semantic dimension is added. This semanticsaliency is based on the Viola & Jones face detector.To predict the Mean Opinion Score (MOS) from objective metric values like WMBER,WMSE, PSNR or SSIM, we propose to use a supervised learning approach. This approach iscalled Similarity Weighted Average (SWA). Several improvements are brought to the originalSWA.For the metrics evaluation a psycho-visual experiment with 50 subjects has been carriedout. To measure the saliency map models accuracy, a psycho-visual experiment with aneye-tracker has also been carried out. These two experiments habe been conducted in col-laboration with the Ben Gurion University, Israel. WMBER and WMSE performances arecompared with reference metrics like SSIM and PSNR. The proposed metrics are also testedon a database provided by IRCCyN research laboratory.
116

TÉCNICAS PARA O AUMENTO DE DESEMPENHO DE ARQUITETURAS DEDICADAS DAS TRANSFORMADAS DIRETAS E DE ESTIMAÇÃO DE MOVIMENTO DO PADRÃO H.264/AVC DE CODIFICAÇÃO DE VÍDEO PELOTAS 2009 / TECHNIQUES FOR THE INCREASE OF PERFORMANCE OF FORWARD TRANSFORMS AND MOTION ESTIMATION DEDICATED ARCHITECTURES OF THE H.264/AVC VIDEO CODING STANDARD

Silva, André Marcelo Coelho da 11 December 2009 (has links)
Made available in DSpace on 2016-03-22T17:26:22Z (GMT). No. of bitstreams: 1 DMII_AndreMarcel.pdf: 2907967 bytes, checksum: 5f3911468dd5affdd2020316f31ee238 (MD5) Previous issue date: 2009-12-11 / The increasing use of digital video on the Internet, devices and also in mobile digital TV has lead to an increasing interest for research in this area, from both industry and academia. This work follows this trend by proposing the investigation of the main aspects of digital video, video compression and also of the H.264/AVC video compression for the implementation of performance efficient dedicated architectures for some modules of the H.264/AVC encoder. In particular, this work presents some architectural alternatives for the increase of performance of two modules of the H.264/AVC, which are: T Module (composed by the Forward Hadamard and Discrete Cosine Transforms) and Motion Estimation (ME). For the implementation of these modules the use of techniques to the increase of performance has been considered, such as the use of efficient adders and pipeline. This efficient adders presents high use of hardware features. Thus, the implemented architectures in this work presented these characteristics too. The main aspect presented by the implemented modules is a large number of arithmetic operations of addition and subtraction for their processing. Thus, the motivation of this work is the increase of performance of these modules, from the use of efficient adder/subtractor circuits that are present in literature. In particular, 4:2, 8:2 and 16:2 adder compressors that perform the simultaneous addition of 4, 8 and 16 operands, respectively, with no penalties in area and the critical path are used. The architectures were described in VHDL and targeted to ASIC technology. The validation of the circuits and the obtained results were performed by using Leonardo Spectrum tool from Mentor Graphics. Comparisons against the solutions of the literature were done and the main results show that the architectures proposed in this work are more efficient. Significant gains in performance are achievable using our solutions for both Forward Transforms and Motion Estimation architectures / A crescente utilização de vídeos digitais na Internet, em dispositivos móveis e também na TV digital faz com que haja um interesse crescente em pesquisas nesta área, tanto na indústria quanto no meio acadêmico. Este trabalho segue esta tendência e tem como proposta estudar aspectos de vídeo digital, compressão de vídeo e também do padrão H.264/AVC de compressão de vídeo para a implementação de arquiteturas dedicadas eficientes em desempenho, isto é, com elevada frequência de operação, dos módulos do codificador do padrão H.264/AVC. Em particular, este trabalho apresenta algumas alternativas arquiteturais para aumento de desempenho de dois módulos do padrão H.264/AVC, que são: Módulo T (composto pelas Transformadas Diretas Transformadas Hadamard e Transformada Discreta do Coseno) e Estimação de Movimento (ME). A implementação destes módulos foi realizada utilizando técnicas para o aumento de desempenho, tais como o uso de somadores eficientes e pipeline. Uma característica dos somadores eficientes utilizados neste trabalho é o uso elevado de recursos de hardware. Assim, as arquiteturas implementadas neste trabalho também apresentaram esta característica. Os módulos implementados apresentam como principal característica um elevado número de operações aritméticas de soma e subtração para o seu processamento. Desta forma, a motivação deste trabalho consiste em aumentar o desempenho destes módulos, a partir da utilização de circuitos somadores/subtratores eficientes presentes na literatura. Em particular, são utilizados circuitos somadores compressores 4:2, 8:2 e 16:2, pois estes realizam a soma simultânea de 4, 8 e 16 operandos, respectivamente, sem penalidades em área e no caminho crítico. As arquiteturas foram descritas em VHDL e direcionadas para tecnologia ASIC, a validação e resultados foram obtidos através da ferramenta Leonardo Spectrum da Mentor Graphics. Para os estudos de caso utilizados neste trabalho (Transformadas Diretas e Estimação de Movimento), foram feitas comparações com soluções apresentadas na literatura e os resultados mostram que as arquiteturas implementadas neste trabalho obtiveram significativos ganhos em desempenho, quando comparadas com soluções apresentadas na literatura
117

Étude et implémentation d'une architecture temps réel pour l'optimisation de la compression H.264/AVC de vidéos SD/HD / Study and implementation of a real-time architecture for the optimization of H.264/AVC compression of SD/HD videos

Vidal, Eloïse 15 April 2014 (has links)
La vidéo sur IP a connu un essor rapide ces dernières années allant de la diffusion télévisuelle en haute qualité via des réseaux dédiés à la diffusion sur internet de contenus vidéo grand public. L’optimisation de l’encodage vidéo H.264/AVC permet aux différents acteurs du marché de se différencier en proposant des solutions pour réduire le débit nécessaire à la représentation d’un flux vidéo ainsi que pour améliorer la qualité perçue par les utilisateurs. C’est dans ce contexte de vidéo professionnelle en haute qualité que s’inscrivent ces travaux de thèse CIFRE réalisés au sein de l’entreprise Digigram, proposant des encodeurs vidéo temps réel pour des diffusions professionnelles en direct. Nous proposons deux solutions de prétraitement pour répondre aux problématiques du secteur de la distribution vidéo. Les deux solutions considèrent les caractéristiques du système visuel humain en exploitant un modèle de JND (Just Noticeable Distortion) définissant des seuils de perception en fonction d’une analyse du contenu des séquences vidéo à encoder. La première solution utilise un préfiltre adaptatif indépendant de l’encodeur, contrôlé par un modèle JND afin d'éliminer le contenu perceptuellement non pertinent et ainsi réduire le débit sans altérer la qualité ressentie. Une analyse approfondie de plusieurs filtres de la littérature, dont le filtre AWA (Adaptive Weighted Averaging) et le filtre bilatéral, nous a également amené à définir deux nouveaux filtres à support étendu qui permettent d’exploiter au mieux les corrélations dans les images haute définition. A l’aide de tests subjectifs, nous montrons que les préfiltres perceptuels proposés permettent en moyenne de diminuer le débit en sortie du codeur d'environ 20% pour une qualité constante en encodage VBR (débit variable) Intra et Inter-image. Finalement, une deuxième solution s’attache à améliorer la qualité perçue dans un contexte d’encodage CBR (débit constant) en intégrant un modèle JND dans l’une des implémentations de la norme H.264/AVC la plus reconnue, le codec x264. Une quantification adaptative perceptuelle est ainsi proposée permettant d’améliorer les performances du codec x264 en améliorant le codage de l’information de contour à moyen et bas débits en encodage intra et inter-image. / The use of digital video over IP has increased exponentially over the last years, due to the development of high-speed networks dedicated to high quality TV transmission as well as the wide development of the nonprofessional video webcast. Optimization of the H.264/AVC encoding process allows manufacturers to offer differentiating encoding solutions, by reducing the bandwidth necessary for transmitting a video sequence at a given quality level, or improving the quality perceived by final users at a fixed bit rate. This thesis was carried out at the company Digigram in a context of professional high quality video. We propose two solutions of preprocessing which consider the characteristics of the human visual system by exploiting a JND profile (Just Noticeable Distortion). A JND model defines perceptual thresholds, below which a distortion cannot be seen, according to the video content. The first solution proposes an adaptive pre-filter independent to the encoder, controlled by a JND profile to reduce the perceptually non-relevant content and so reduce the bitrate while maintaining the perceived quality. By analyzing the state-of-the-art literature, the AWA (Adaptive Weighted Averaging) and Bilateral filters have been selected. Then we define two new filters using a large convolution mask, which enable to better exploit correlations in high-definition video contents. Through subjective tests, we show that the proposed perceptual prefilters give an average bitrate reduction of 20% for the same visual quality in VBR (Variable Bitrate) H.264/AVC Intra and Inter encoding. Finally, the second solution enables to improve the perceived quality in CBR (Constant Bitrate) encoding, by integrating the JND profile into the x264 codec, one of the best implementation of the H.264/AVC standard. Thus, we propose a perceptual adaptive quantization which enhances the x264 performance by improving edge information coding in low and middle bitrate applications.
118

Optimisation multicritères de la qualité de service dans les réseaux de capteurs multimédia sans fil / Multicriteria optimization of the quality of service in the wireless multimedia sensor networks

Alaoui Fdili, Othmane 10 June 2015 (has links)
Les progrès réalisés en systèmes micro-électro-mécaniques couplés avec leur convergence vers les systèmes de communication sans fil, ont permis l'émergence des réseaux de capteurs sans fil (RCSF). Les contraintes de ces réseaux font que tous les efforts soient fournis pour proposer des solutions économes en énergie. Avec les récents développements des technologies CMOS, des capteurs d'images à faible coût ont été développés. En conséquence, un nouveau dérivé des RCSF, qui sont les Réseaux de Capteurs Vidéo Sans Fil (RCVSF), a été proposé. La particularité des données vidéo ainsi que les contraintes inhérentes aux nœuds ont introduit de nouveaux défis. Dans cette thèse, nous proposons deux solutions basées sur l'approche inter-couches pour la livraison de la vidéo sur les RCVSF. La première solution propose un nouveau schéma de compression vidéo adaptatif, efficace en énergie et basé sur la norme de compression vidéo H.264/AVC. Le flux vidéo est ensuite géré par une version améliorée du protocole MMSPEED que nous proposons et notons EQBSA-MMSPEED. Les résultats des simulations montrent que la durée de vie du réseau est étendue de 33%, tout en améliorant la qualité du flux vidéo reçu de 12%. Dans la deuxième solution, nous enrichissons le schéma de compression de modèles mathématiques pour prévoir la consommation d'énergie et la distorsion de l'image lors des phases d'encodage et de transmission. Le flux vidéo est géré par un nouveau protocole de routage efficace en énergie et à fiabilité améliorée noté ERMM. Comparée à une approche basique, cette solution réalise une extension de la durée de vie du réseau de 15%, tout en améliorant la qualité du flux vidéo reçu de 35%. / Thanks to the valuable advances in Micro Electro-Mechanical Systems coupled with their convergence to wireless communication systems, the Wireless Sensor Networks (WSN). In the WSN context, all the efforts are made in order to propose energy-efficient solutions. With the recent developments in CMOS technology, low-cost imaging sensors have been developed. As a result, a new derivative of the WSN, which is the Wireless Video Sensor Network (WVSN), has been proposed. The particularities of the video data as well as the inherent constraints of the nodes have introduced new challenges. In this thesis, we propose two cross-layer based solutions for video delivery over the WVSN. The first solution proposes a new energy efficient and adaptive video compression scheme dedicated to the WVSNs, based on the H.264/AVC video compression standard. The video stream is then handled by an enhanced version of MMSPEED protocol, that we propose and note EQBSA-MMSPEED. Performance evaluation shows that the lifetime of the network is extended by 33%, while improving the video quality of the received stream by 12%. In the second solution, we enrich our compression scheme with mathematical models to predict the energy consumption and the video distortion during the encoding and the transmission phases. The video stream is then handled by a novel energy efficient and improved reliability routing protocol, that we note ERMM. Compared to a basic approach, this solution is extending the network lifetime by 15%, while improving the quality of the received video stream by 35%.
119

Étude et implantation d'algorithmes de compression vidéo optimisés H.264/AVC dans un environnement conjoint matériel et logiciel / Study and Implementation of Algorithms for H.264/AVC Compression in a Hardware and Software Environment

Kthiri, Moez 04 April 2012 (has links)
La contribution de cette thèse concerne le développement et la conception d’un système multimédia embarqué basé sur l’approche de conception conjointe matérielle/logicielle (codesign). Il en résulte ainsi la constitution d’une bibliothèque de modules IP (Intellectual Property) pour les applications vidéo. Dans ce contexte, une plateforme matérielle de validation a été réalisée servant au préalable à l’évaluation de l’approche de conception en codesign pour l’étude d’algorithmes de traitement vidéo. Nous nous sommes ainsi intéressés en particulier à l’étude et à l’implantation de la norme de décompression vidéo H.264/AVC. Pour la validation fonctionnelle, l’ensemble du développement a été réalisé autour d’une carte Xilinx à base d’un circuit programmable FPGA Xilinx Virtex-5en mettant en œuvre le processeur hardcore PowerPC du circuit programmable dans l’environnement logiciel Linux pour l’embarqué. Le décodeur H.264/AVC ainsi développé comporte différents accélérateurs matériels pour la transformation inverse ainsi que le filtre anti-blocs. Nous avons pu tester les performances au regard du respect des contraintes temporelles en intégrant une extension temps réel à la plateforme de validation suivant différentes conditions de stress du système. L’extension temps réel Xenomai fournit ainsi une réponse adéquate aux problématiques de charge du système et de maîtrise des contraintes temporelles inhérentes à tout système de traitement vidéo tout en autorisant aussi l’utilisation d’applications classiques mises en œuvre dans l’environnement standard Linux embarqué. / The main contribution of this thesis concerns the development and the design of an embedded system for multimedia based on the codesign approach (HW/SW). Towards this end, a library off lexible IP cores (Intellectual Property) for video applications was created. In this context, a hardware platform was used for evaluation of the codesign-based approach in order to study video processingalgorithms. Thus, we particularly focused on the study and the implementation of H.264/AVC decoder. For functional validation, the entire development was carried out around a FPGA Virtex-5 Xilinx board embedding a hardcore PowerPC processor running embedded Linux operating system. The H.264/AVC developed decoder consists of hardware accelerators for the inverse transformation and the deblocking filter. We evaluated the performances in terms of respect of temporal constraints by integrating a real-time extension to the validation platform under different stress conditions. The Xenomai real-time extension has proven its high performance level of compliance with hard real-time constraints. This extension offers a real solution for real-time behavior without limiting the use of conventional applications implemented traditionally in a time sharing environment.
120

Time Stamp Synchronization in Video Systems

Yang, Hsueh-szu, Kupferschmidt, Benjamin 10 1900 (has links)
ITC/USA 2010 Conference Proceedings / The Forty-Sixth Annual International Telemetering Conference and Technical Exhibition / October 25-28, 2010 / Town and Country Resort & Convention Center, San Diego, California / Synchronized video is crucial for data acquisition and telecommunication applications. For real-time applications, out-of-sync video may cause jitter, choppiness and latency. For data analysis, it is important to synchronize multiple video channels and data that are acquired from PCM, MIL-STD-1553 and other sources. Nowadays, video codecs can be easily obtained to play most types of video. However, a great deal of effort is still required to develop the synchronization methods that are used in a data acquisition system. This paper will describe several methods that TTC has adopted in our system to improve the synchronization of multiple data sources.

Page generated in 0.0188 seconds