• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 16
  • 11
  • 5
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 100
  • 100
  • 34
  • 31
  • 24
  • 19
  • 19
  • 17
  • 16
  • 16
  • 14
  • 14
  • 14
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Arquitetura de um decodificador de áudio para o Sistema Brasileiro de Televisão Digital e sua implementação em FPGA

Renner, Adriano January 2011 (has links)
O Sistema Brasileiro de Televisão Digital estabeleceu como padrão de codificação de áudio o algoritmo MPEG-4 Advanced Audio Coding, mais precisamente nos perfis Low Complexity, High Efficiency versão 1 e High Efficiency versão 2. O trabalho apresenta um estudo detalhado sobre o padrão, contendo desde alguns conceitos da psicoacústica como o mascaramento até a metodologia de decodificação do stream codificado, sempre voltado para o mercado do SBTVD. É proposta uma arquitetura em hardware para um decodificador compatível com o padrão MPEG-4 AAC LC. O decodificador é separado em dois grandes blocos mantendo em um deles o banco de filtros, considerado a parte mais custosa em termos de processamento. No bloco restante é realizada a decodificação do espectro, onde ocorre a decodificação dos códigos de Huffman, o segundo ponto crítico do algoritmo em termos de demandas computacionais. Por fim é descrita a implementação da arquitetura proposta em VHDL para prototipação em um FPGA da família Cyclone II da Altera. / MPEG-4 Advanced Audio Coding is the chosen algorithm for the Brazilian Digital Television System (SBTVD), supporting the Low Complexity, High Efficiency version 1 and High Efficiency version 2 profiles. A detailed study of the algorithm is presented, ranging from psychoacoustics concepts like masking to a review of the AAC bitstream decoding process, always keeping in mind the SBTVD. A digital hardware architecture is proposed, in which the algorithm is split in two separate blocks, one of them containing the Filter Bank, considered the most demanding task. The other block is responsible for decoding the coded spectrum, which contains the second most demanding task of the system: the Huffman decoding. In the final part of this work the conversion of the proposed architecture into VHDL modules meant to be prototyped with an Altera Cyclone II FPGA is described.
52

Projeto de um modelador 3D colaborativo baseado no padrão emergente MPEG-4 MU.

Duarte, Fernando Vieira 19 August 2003 (has links)
Made available in DSpace on 2016-06-02T19:05:17Z (GMT). No. of bitstreams: 1 DissFVD.pdf: 2351672 bytes, checksum: caf5290232d2d3e84071c13c80625d48 (MD5) Previous issue date: 2003-08-19 / In the last years we have been experiencing advances in networking technologies as well as computer graphics and display technology. As a consequence, a lot of Collaborative Virtual Environments have emerged thanks to the increasing computation capabilities of desktop computers as well as the enormous growth in network bandwidth and the ubiquity of the Internet. Collaborative virtual environments for 3D modeling can be characterized by the interaction among multiple users for the creation and/or modification of shared 3D objects. These environments can be used, for instance, in the modeling and visualization of virtual prototypes in order to reduce costs in the process of products design. The challenges of building collaborative 3D modeling environments are mainly related to real-time rendering of the modified objects, as well as to users interaction with the virtual environment, and to consistency maintenance of the shared virtual environment. Only a few collaborative 3D modeling environments are found in the literature and usually their projects result in complex non standardized solutions for the collaboration among users. This work presents the implementation of a collaborative environment for 3D modeling based on the emerging MPEG-4MU (multi-user) standard. With this environment, 3D graphic scenes can be created in real-time, by multiple participants, in synchronous collaborative sessions. These scenes can be visualized in any MPEG-4 terminal, including cellulars and personal digital assistants (PDAs). Sessions control, consistency maintenance, concurrency control and 3D object locking are realized by the MSC (MUTech Session Controller) and MBK (MUTech Bookkeeper) components, through the Pilot/drone mechanism and the BIFS-Command protocol. All these components were defined by the MPEG-4 MU emerging standard and implemented by the Networked Virtual Reality Lab (LRVNet) at Federal University of São Carlos. / Nos últimos anos temos experimentado avanços nas tecnologias de rede como também na computação gráfica e tecnologia de exibição. Como uma conseqüência, muitos Ambientes Virtuais Colaborativos emergiram graças às capacidades crescentes da computação dos computadores de mesa (desktop), como também o crescimento enorme na largura de banda da rede e a onipresença da Internet. Ambientes virtuais colaborativos para modelagem 3D podem ser caracterizados pela interação entre múltiplos usuários para a modificação e/ou criação de objetos 3D compartilhados. Por exemplo, estes ambientes podem ser usados na modelagem e visualização de protótipos virtuais para reduzir custos no processo de projeto de produtos. Os desafios da construção de ambientes de modelagem 3D colaborativos estão relacionados principalmente com a renderização em tempo-real dos objetos modificados, como também para a interação de usuários com o ambiente virtual e a manutenção da consistência do ambiente virtual compartilhado. São encontrados na literatura somente alguns ambientes de modelagem 3D colaborativos e normalmente os projetos resultam em soluções não padronizadas e complexas para a colaboração entre os usuários. Este trabalho apresenta a implementação de um ambiente colaborativo para modelagem 3D baseado no padrão emergente MPEG-4 MU (MultiUser). Com este ambiente, cenas gráficas 3D podem ser criadas em tempo-real, por participantes múltiplos, em sessões colaborativas síncronas. Estas cenas podem ser visualizadas em qualquer terminal MPEG-4, inclusive celulares e PDAs (Personal Digital Assistants). Controle de Sessão, manutenção de consistência, controle da concorrência e trancamento (locking) dos objetos 3D são realizados pelos componentes MSC (MUTech Session Controller) e MBK (MUTech Bookkeeper), pelo mecanismo de Pilot/Drone e o protocolo de BIFS-Command. Todos estes componentes são definidos pelo padrão emergente MPEG-4 MU e implementados pelo Laboratório de Realidade Virtual em Rede (LRVNet) da Universidade Federal de São Carlos.
53

Uma estrutura de suporte para adaptação em jogos 3D multiusuário

Silva, Alessandro Rodrigues e 26 August 2003 (has links)
Made available in DSpace on 2016-06-02T19:05:33Z (GMT). No. of bitstreams: 1 2468.pdf: 1070073 bytes, checksum: 2534ccfe53038c0363829026d8a20941 (MD5) Previous issue date: 2003-08-26 / With the growing dissemination and reliability of wireless networks and the emergence of devices with more and more processing and communication power, applications up to now restricted to PCs are being envisaged to run on devices as heterogeneous as wrist clocks with GPS locators, refrigerators with internet access, up to mobile phones, PDAs, settop- boxes and game consoles. The integration of this myriad of devices and network technologies, with different capabilities, demand special attention from the software programmers and designers specially when these applications are shared among multiple users from different devices, each one producing and consuming information according to each device capacity. In this sense, application adaptation, which allows a software to react upon the resources variations used, is an important process towards fitting the application to a certain device configuration. This adaptation is being considered as an important part of the systems that act upon heterogeneous processing and communication environment. Therefore, a large amount of work has been done in the traditional multimedia adaptation, such as text, images, audio and video, less attention has been focused on 3D digital content first because of the complexity involved in the 3D applications adaptation issues, and also because true marketing opportunities for 3D graphics in heterogeneous devices have just began to emerge. Moreover, initiatives that promote adaptation standardization must be considered, so that interoperability among adaptation mechanisms can become a reality. This work investigated the MPEG-4 standard and its extension MPEG-J to handle adaptation issues, and proposes an adaptation framework for 3D multi-user game applications, entitle MMGAME. With this framework, elements composing a game application can be adapted according to devices resources variations where the application is running as well as in the network where is connected. / Com a maior disseminação e confiabilidade das redes de comunicação sem fio, e a emergência de dispositivos com o potencial de processamento e de comunicação cada vez maior, aplicações antes restritas aos computadores pessoais estão sendo vislumbradas em dispositivos tão heterogêneos quanto relógios com localizadores, geladeiras que acessam a Internet, celulares, PDAs (computador digital pessoal), set-top-boxes e consoles de jogos. A integração dessa miríade de dispositivos e de tecnologias de redes, com capabilidades variadas, exige, hoje, dos programadores e projetistas de software, atenção especial na construção de aplicações - especialmente quando essas aplicações são compartilhadas por usuários em diferentes dispositivos, cada um produzindo e consumindo informações de acordo com a capacidade do dispositivo. Neste sentido, a adaptação da aplicação, que permite a um software reagir a variações nos recursos utilizados por ele, permitindo melhor adequação de suas funções e dados para uma determinada configuração, é um processo importante e está sendo, cada vez mais, considerada como parte importante de sistemas que atuam em ambientes heterogêneos de computação e de rede. Uma grande quantidade de trabalhos tem sido devotada à adaptação da entrega de formatos tradicionais de multimídia, como texto, imagens, áudio e vídeo, entretanto, pouca atenção tem sido dada ao conteúdo digital 3D, primeiro por causa da complexidade das questões envolvidas na adaptação de aplicações 3D, maior do que as de outras mídias, e também pelo fato que oportunidades verdadeiras de marketing para conteúdo 3D estão apenas começando a surgir. Mais ainda, iniciativas que promovem a padronização da adaptação devem ser consideradas, para que seja promovida a interoperabilidade em futuros mecanismos de adaptação. Este trabalho investigou o padrão MPEG-4 e sua extensão MPEG-J que tratam, de forma superficial ainda, da questão da adaptação, e propôs um framework de adaptação de aplicações 3D, denominado MMGAME, mais especificamente de jogos multiusuário em que, elementos que compõem uma aplicação de jogos possam ser adaptados em função de flutuações nos recursos do dispositivo que executa a aplicação e da rede onde este dispositivo está conectado.
54

Arquitetura de um decodificador de áudio para o Sistema Brasileiro de Televisão Digital e sua implementação em FPGA

Renner, Adriano January 2011 (has links)
O Sistema Brasileiro de Televisão Digital estabeleceu como padrão de codificação de áudio o algoritmo MPEG-4 Advanced Audio Coding, mais precisamente nos perfis Low Complexity, High Efficiency versão 1 e High Efficiency versão 2. O trabalho apresenta um estudo detalhado sobre o padrão, contendo desde alguns conceitos da psicoacústica como o mascaramento até a metodologia de decodificação do stream codificado, sempre voltado para o mercado do SBTVD. É proposta uma arquitetura em hardware para um decodificador compatível com o padrão MPEG-4 AAC LC. O decodificador é separado em dois grandes blocos mantendo em um deles o banco de filtros, considerado a parte mais custosa em termos de processamento. No bloco restante é realizada a decodificação do espectro, onde ocorre a decodificação dos códigos de Huffman, o segundo ponto crítico do algoritmo em termos de demandas computacionais. Por fim é descrita a implementação da arquitetura proposta em VHDL para prototipação em um FPGA da família Cyclone II da Altera. / MPEG-4 Advanced Audio Coding is the chosen algorithm for the Brazilian Digital Television System (SBTVD), supporting the Low Complexity, High Efficiency version 1 and High Efficiency version 2 profiles. A detailed study of the algorithm is presented, ranging from psychoacoustics concepts like masking to a review of the AAC bitstream decoding process, always keeping in mind the SBTVD. A digital hardware architecture is proposed, in which the algorithm is split in two separate blocks, one of them containing the Filter Bank, considered the most demanding task. The other block is responsible for decoding the coded spectrum, which contains the second most demanding task of the system: the Huffman decoding. In the final part of this work the conversion of the proposed architecture into VHDL modules meant to be prototyped with an Altera Cyclone II FPGA is described.
55

Arquitetura de um decodificador de áudio para o Sistema Brasileiro de Televisão Digital e sua implementação em FPGA

Renner, Adriano January 2011 (has links)
O Sistema Brasileiro de Televisão Digital estabeleceu como padrão de codificação de áudio o algoritmo MPEG-4 Advanced Audio Coding, mais precisamente nos perfis Low Complexity, High Efficiency versão 1 e High Efficiency versão 2. O trabalho apresenta um estudo detalhado sobre o padrão, contendo desde alguns conceitos da psicoacústica como o mascaramento até a metodologia de decodificação do stream codificado, sempre voltado para o mercado do SBTVD. É proposta uma arquitetura em hardware para um decodificador compatível com o padrão MPEG-4 AAC LC. O decodificador é separado em dois grandes blocos mantendo em um deles o banco de filtros, considerado a parte mais custosa em termos de processamento. No bloco restante é realizada a decodificação do espectro, onde ocorre a decodificação dos códigos de Huffman, o segundo ponto crítico do algoritmo em termos de demandas computacionais. Por fim é descrita a implementação da arquitetura proposta em VHDL para prototipação em um FPGA da família Cyclone II da Altera. / MPEG-4 Advanced Audio Coding is the chosen algorithm for the Brazilian Digital Television System (SBTVD), supporting the Low Complexity, High Efficiency version 1 and High Efficiency version 2 profiles. A detailed study of the algorithm is presented, ranging from psychoacoustics concepts like masking to a review of the AAC bitstream decoding process, always keeping in mind the SBTVD. A digital hardware architecture is proposed, in which the algorithm is split in two separate blocks, one of them containing the Filter Bank, considered the most demanding task. The other block is responsible for decoding the coded spectrum, which contains the second most demanding task of the system: the Huffman decoding. In the final part of this work the conversion of the proposed architecture into VHDL modules meant to be prototyped with an Altera Cyclone II FPGA is described.
56

Towards Optimal Quality of Experience via Scalable Video Coding

Ni, Pengpeng January 2009 (has links)
To provide universal multimedia experience, multimedia streaming services need to transparently handle the variation and heterogeneity in operating environment. From the standpoint of streaming application, video adaptation techniques are intended to cope with the environmental variations by utilizing manipulations of the video content itself. Scalable video coding (SVC) schemes, like that suggested by the standards H.264 and its SVC extension, is highly attractive for designing a self-adaptive video streaming system. When SVC is employed in streaming system, the produced video stream can be then easily truncated or tailored to form several sub-streams which can be decoded separately to obtain a range of preferable picture size, quality and frame rate. However, questions about how to perform the adaptation using SVC and how much adaptation SVC enables are still remaining research issues. We still lack a thorough understanding of how to automate the scaling procedure in order to achieve an optimal video Quality-of-Experience for end users. Video QoE, depends highly on human perception. In this thesis, we introduce several video QoE studies around the usability of H.264 SVC. Several factors that contribute significantly to the overall QoEs have been identified and evaluated in these studies. As an example of application usage related factor, playback smoothness and application response time are critical performance measures which can benefit from temporal scalability. Targeting on applications that requires frequent interactivity, we propose a transcoding scheme that fully utilizes the benefits of Switching P and Switching I frames specified in H.264 to enhance video stream's temporal scalability.  Focusing on visual quality related factors, a series of carefully designed subjective quality assessment tests have been performed on mobile devices to investigate the effects of multi-dimensional scalability on human quality perception. Our study reveals that QoE degrades non-monotonically with bitrate and that scaling order preferences are content-dependent. Another study find out that the flickering effect caused by frequent switching between layers in SVC compliant bit-streams is highly related to the switching period. When the period is above a certain threshold, the flickering effect will disappear and layer switching should not be considered as harmful. We have also examined user perceived video quality in 3D virtual worlds. Our results show that the avatars' distance to the virtual screen in 3D worlds contribute significant to the video QoE, i.e., for a wide extent of distortion, there exists always a feasible virtual distance from where the distortion is not detectable for most of people, which makes sense to perform video adaptation. The work presented in this thesis is supposed to help improving the design of self adaptive video streaming services that can deliver video content independently of network technology and end-device capability while seeking the best possible experience for video. / Ardendo småföretagsdoktorand
57

Vysílání multimediálního obsahu s využití kompresních technik / Streaming of compressed multimedia content

Tesař, Pavel January 2009 (has links)
The topic of the master's thesis is about transmission of multimedia via network with help of compression’s algorithm used in codec MPEG-4 part 10 and Real Time Protocol (RTP). First part of this master thesis will be familiarization with basic terms about multimedia. It will be queried about techniques of compression axioms for audio and video, justification for necessary use of compression in transmitting multimedia via network. Also, here will be subscribed principles and properties of Real Time Protocol, which was designed for multimedia stream. From the start, competent codec for implementation of two applications (client, server) with read raw video and audio data, will choose the following : compression with help of codec Theora (Vorbis), transfer via network in RTP packets, decode and play at visual form for end user. Complete subscription of implementation for both applications written in programming languages C/C++ and Java, will be certain. The basic overview about this problematic experience with implementation, which were here concluded, are the reasons for reading this master thesis.
58

[en] A SYSTEM FOR GENERATING DYNAMIC FACIAL EXPRESSIONS IN 3D FACIAL ANIMATION WITH SPEECH PROCESSING / [pt] UM SISTEMA DE GERAÇÃO DE EXPRESSÕES FACIAIS DINÂMICAS EM ANIMAÇÕES FACIAIS 3D COM PROCESSAMENTO DE FALA

PAULA SALGADO LUCENA RODRIGUES 24 April 2008 (has links)
[pt] Esta tese apresenta um sistema para geração de expressões faciais dinâmicas sincronizadas com a fala em uma face realista tridimensional. Entende-se por expressões faciais dinâmicas aquelas que variam ao longo do tempo e que semanticamente estão relacionadas às emoções, à fala e a fenômenos afetivos que podem modificar o comportamento de uma face em uma animação. A tese define um modelo de emoção para personagens virtuais falantes, de- nominado VeeM (Virtual emotion-to-expression Model ), proposto a partir de uma releitura e uma reestruturação do modelo do círculo emocional de Plutchik. O VeeM introduz o conceito de um hipercubo emocional no espaço canônico do R4 para combinar emoções básicas, dando origem a emoções derivadas. Para validação do VeeM é desenvolvida uma ferramenta de autoria e apresentação de animações faciais denominada DynaFeX (Dynamic Facial eXpression), onde um processamento de fala é realizado para permitir o sincronismo entre fonemas e visemas. A ferramenta permite a definição e o refinamento de emoções para cada quadro ou grupo de quadros de uma animação facial. O subsistema de autoria permite também, alternativamente, uma manipulação em alto-nível, através de scripts de animação. O subsistema de apresentação controla de modo sincronizado a fala da personagem e os aspectos emocionais editados. A DynaFeX faz uso de uma malha poligonal tridimensional baseada no padrão MPEG-4 de animação facial, favorecendo a interoperabilidade da ferramenta com outros sistemas de animação facial. / [en] This thesis presents a system for generating dynamic facial expressions synchronized with speech, rendered using a tridimensional realistic face. Dynamic facial expressions are those temporal-based facial expressions semanti- cally related with emotions, speech and affective inputs that can modify a facial animation behavior. The thesis defines an emotion model for speech virtual actors, named VeeM (Virtual emotion-to-expression Model ), which is based on a revision of the emotional wheel of Plutchik model. The VeeM introduces the emotional hypercube concept in the R4 canonical space to combine pure emotions and create new derived emotions. In order to validate VeeM, it has been developed an authoring and player facial animation tool, named DynaFeX (Dynamic Facial eXpression), where a speech processing is realized to allow the phoneme and viseme synchronization. The tool allows either the definition and refinement of emotions for each frame, or group of frames, as the facial animation edition using a high-level approach based on animation scripts. The tool player controls the animation presentation synchronizing the speech and emotional features with the virtual character performance. DynaFeX is built over a tridimensional polygonal mesh, compliant with MPEG-4 facial animation standard, what favors tool interoperability with other facial animation systems.
59

[en] INTEGRATION AND INTEROPERABILITY OF MPEG-4 AND NCL DOCUMENTS / [pt] INTEGRAÇÃO E INTEROPERABILIDADE DE DOCUMENTOS MPEG-4 E NCL

ROMUALDO MONTEIRO DE RESENDE COSTA 27 June 2005 (has links)
[pt] A abordagem orientada a objetos do padrão MPEG-4, para a codificação de conteúdo audiovisual, é similar às utilizadas em vários modelos e linguagens de especificação de documentos multimídia/hipermídia. Entre essas linguagens, a NCL (Nested Context Language), utilizada no sistema HyperProp, introduz uma série de novos conceitos que podem ser integrados ao padrão, com vantagens. Esta dissertação propõe, inicialmente, a conversão de documentos especificados em NCL para MPEG-4 (XMT-O) e vice-versa, permitindo que ferramentas de autoria e formatação possam ser utilizadas na especificação e exibição de documentos de ambas as linguagens. Este trabalho também propõe a incorporação de cenas MPEG-4 tanto como objetos de mídia quanto composições da linguagem NCL, permitindo o estabelecimento de relacionamentos entre cenas. Para permitir a exibição desses novos objetos NCL, é incorporado ao Formatador HyperProp um exibidor MPEG-4 capaz de reportar ao controlador a ocorrência de eventos que, entre outras coisas, permite o sincronismo entre cenas MPEG-4 e outros objetos NCL, incluindo outras cenas MPEG-4. Por fim, explorando o conceito de templates introduzido pela linguagem NCL, a capacidade de autoria no MPEG-4 é estendida, através da definição de novas semânticas para as composições da linguagem XMT-O e da concepção de compiladores para essa linguagem. / [en] The MPEG-4 standard object-oriented approach, employed to the encoding of audiovisual content, is similar to those used on many models and languages for multimedia/hypermedia document specification. Among those languages, the NCL (Nested Context Language), used in the HyperProp system, introduces a series of new concepts that can be integrated to the standard, with advantages. Initially, the proposal of this work is to convert NCL to MPEG-4 (XMT-O) documents and vice versa, allowing authoring and formatting tools to be used in the specification and presentation of documents in both languages. This work also proposes both the placing of MPEG-4 scenes as media objects and NCL language compositions, allowing the establishment of relationships among scenes. In order to allow displaying these new NCL objects, an MPEG-4 player is incorporated to the HyperProp Formatter. The MPEG-4 player is able to report to the controller the occurrence of events that, among other things, allows the synchronization between MPEG-4 scenes and othe r NCL objects, including other MPEG-4 scenes. Finally, exploring the concept of templates, introduced by the NCL language, the authoring in the MPEG-4 is improved, by means of the definition of new semantics for XMT-O language compositions and the design of compilers for this language.
60

Visual saliency extraction from compressed streams / Extraction de la saillance visuelle à partir de flux compressés

Ammar, Marwa 15 June 2017 (has links)
Les fondements théoriques pour la saillance visuelle ont été dressés, il y a 35 ans, par Treisman qui a proposé "feature-integration theory" pour le système visuel humain: dans n’importe quel contenu visuel, certaines régions sont saillantes en raison de la différence entre leurs caractéristiques (intensité, couleur, texture, et mouvement) et leur voisinage. Notre thèse offre un cadre méthodologique et expérimental compréhensif pour extraire les régions saillantes directement des flux compressés (MPEG-4 AVC et HEVC), tout en minimisant les opérations de décodage. L’extraction de la saillance visuelle à partir du flux compressé est à priori une contradiction conceptuelle. D’une part, comme suggéré par Treisman, dans un contenu vidéo, la saillance est donnée par des singularités visuelles. D’autre part, afin d’éliminer la redondance visuelle, les flux compressés ne devraient plus préserver des singularités. La thèse souligne également l’avantage pratique de l’extraction de la saillance dans le domaine compressé. Dans ce cas, nous avons démontré que, intégrée dans une application de tatouage robuste de la vidéo compressée, la carte saillance agit comme un outil d’optimisation, ce qui permet d’augmenter la transparence (pour une quantité d’informations insérées et une robustesse contre les attaques prescrites) tout en diminuant la complexité globale du calcul. On peut conclure que la thèse démontre aussi bien méthodologiquement que expérimentalement que même si les normes MPEG-4 AVC et HEVC ne dépendent pas explicitement d’aucun principe de saillance visuelle, leurs flux préservent cette propriété remarquable reliant la représentation numérique de la vidéo au mécanisme psycho-cognitifs humains / The theoretical ground for visual saliency was established some 35 years ago by Treisman who advanced the integration theory for the human visual system: in any visual content, some regions are salient (appealing) because of the discrepancy between their features (intensity, color, texture, motion) and the features of their surrounding areas. This present thesis offers a comprehensive methodological and experimental framework for extracting the salient regions directly from video compressed streams (namely MPEG-4 AVC and HEVC), with minimal decoding operations. Note that saliency extraction from compressed domain is a priori a conceptual contradiction. On the one hand, as suggested by Treisman, saliency is given by visual singularities in the video content. On the other hand, in order to eliminate the visual redundancy, the compressed streams are no longer expected to feature singularities. The thesis also brings to light the practical benefit of the compressed domain saliency extraction. In this respect, the case of robust video watermarking is targeted and it is demonstrated that the saliency acts as an optimization tool, allowing the transparency to be increased (for prescribed quantity of inserted information and robustness against attacks) while decreasing the overall computational complexity. As an overall conclusion, the thesis methodologically and experimentally demonstrates that although the MPEG-4 AVC and the HEVC standards do not explicitly rely on any visual saliency principle, their stream syntax elements preserve this remarkable property linking the digital representation of the video to sophisticated psycho-cognitive mechanisms

Page generated in 0.0294 seconds