• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 17
  • 5
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 53
  • 53
  • 23
  • 18
  • 16
  • 12
  • 12
  • 12
  • 11
  • 11
  • 9
  • 9
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Desenvolvimento algorítmico e arquitetural para a estimação de movimento na compressão de vídeo de alta definição / Algorithmic and architectural development for motion estimation on high definition video compression

Porto, Marcelo Schiavon January 2012 (has links)
A compressão de vídeo é um tema extremamente relevante no cenário atual, principalmente devido ao crescimento significativo da utilização de vídeos digitais. Sem a compressão, é praticamente impossível enviar ou armazenar vídeos digitais devido à sua grande quantidade de informações, inviabilizando aplicações como televisão digital de alta definição, vídeo conferência, vídeo chamada para celulares etc. O problema vem se tornando maior com o crescimento de aplicações de vídeos de alta definição, onde a quantidade de informação é consideravelmente maior. Diversos padrões de compressão de vídeo foram desenvolvidos nos últimos anos, todos eles podem gerar grandes taxas de compressão. Os padrões de compressão de vídeo atuais obtêm a maior parte dos seus ganhos de compressão explorando a redundância temporal, através da estimação de movimento. No entanto, os algoritmos de estimação de movimento utilizados atualmente não consideram as variações nas características dos vídeos de alta definição. Neste trabalho uma avaliação da estimação de movimento em vídeos de alta definição é apresentada, demonstrando que algoritmos rápidos conhecidos, e largamente utilizados pela comunidade científica, não apresentam os mesmos resultados de qualidade com o aumento da resolução dos vídeos. Isto demonstra a importância do desenvolvimento de novos algoritmos focados em vídeos de altíssima definição, superiores à HD 1080p. Esta tese apresenta o desenvolvimento de novos algoritmos rápidos de estimação de movimento, focados na codificação de vídeos de alta definição. Os algoritmos desenvolvidos nesta tese apresentam características que os tornam menos suscetíveis à escolha de mínimos locais, resultando em ganhos significativos de qualidade em relação aos algoritmos rápidos convencionais, quando aplicados a vídeos de alta definição. Além disso, este trabalho também visa o desenvolvimento de arquiteturas de hardware dedicadas para estes novos algoritmos, igualmente dedicadas a vídeos de alta definição. O desenvolvimento arquitetural é extremamente relevante, principalmente para aplicações de tempo real a 30 quadros por segundo, e também para a utilização em dispositivos móveis, onde requisitos de desempenho e potência são críticos. Todos os algoritmos desenvolvidos foram avaliados para um conjunto de 10 sequências de teste HD 1080p, e seus resultados de qualidade e custo computacional foram avaliados e comparados com algoritmos conhecidos da literatura. As arquiteturas de hardware dedicadas, desenvolvidas para os novos algoritmos, foram descritas em VHDL e sintetizadas para FPGAs e ASIC, em standard cells nas tecnologias 0,18μm e 90nm. Os algoritmos desenvolvidos apresentam ganhos de qualidade para vídeos de alta definição em relação a algoritmos rápidos convencionais, e as arquiteturas desenvolvidas possuem altas taxas de processamento com baixo consumo de recursos de hardware e de potência. / Video compression is an extremely relevant theme in today’s scenario, mainly due to the significant growth in digital video applications. Without compression, it is almost impossible to send or store digital videos, due to the large amount of data that they require, making applications such as high definition digital television, video conferences, mobiles video calls, and others unviable. This demand is increasing since there is a strong growth in high definition video applications, where the amount of information is considerably larger. Many video coding standards were developed in the last few years, all of them can achieve excellent compression rates. A significant part of the compression gains in the current video coding standards are obtained through the exploration of the temporal redundancies by means of the motion estimation process. However, the current motion estimation algorithms do not consider the inherent variations that appear in high and ultra-high definition videos. In this work an evaluation of the motion estimation in high definition videos is presented. This evaluation shows that some well know fast algorithms, that are widely used by the scientific community, do not keep the same quality results when applied to high resolution videos. It demonstrates the relevance of new fast algorithms that are focused on high definition videos. This thesis presents the development of new fast motion estimation algorithms focused in high definition video encoding. The algorithms developed in this thesis show some characteristics that make them more resilient to avoid local minima, when applied to high definition videos. Moreover, this work also aims at the development of dedicated hardware architectures for these new algorithms, focused on high definition videos. The architectural development is extremely relevant, mainly for real time applications at 30 frames per second, and also for mobile applications, where performance and power are critical issues. All developed algorithms were assessed using 10 HD 1080p test video sequences, and the results for quality and computational cost were evaluated and compared against known algorithms from the literature. The dedicated hardware architectures, developed for the new algorithms, were described in VHDL and synthesized for FPGA and ASIC. The ASIC implementation used 0.18μm and 90nm CMOS standard cells technology. The developed algorithms present quality gains in comparison to regular fast algorithms for high definition videos, and the developed architectures presents high processing rate with low hardware resources cost and power consumption.
12

Analysis, coding, and processing for high-definition videos. / CUHK electronic theses & dissertations collection

January 2010 (has links)
Firstly, the characteristics of HD videos are studied quantitatively. The results show that HD videos distinguish from other lower resolution videos by higher spatial correlation and special power spectral density (PSD), mainly distributed along the vertical and horizontal directions. / Secondly, two techniques for HD video coding are developed based on the aforementioned analysis results. To exploit the spatial property, 2D order-16 transforms are proposed to code the higher correlated signals more efficiently. Specially, two series of 2D order-16 integer transforms, named modified integer cosine transform (MICT) and non-orthogonal integer cosine transform (NICT), are studied and developed to provide different trade-offs between the performance and the complexity. Based on the property of special PSD, parametric interpolation filter (PIF) is proposed for motion-compensated prediction (MCP). Not only can PIF track the non-stationary statistics of video signals as the related work shows, but also it represents interpolation filters by parameters instead of individual coefficients, thus solving the conflict of the accuracy of coefficients and the size of side information. The experimental results show the proposed two coding techniques significantly outperform their equivalents in the state-of-the-art international video coding standards. / Thirdly, interlaced HD videos are studied, and to satisfy different delay constraints, two real-time de-interlacing algorithms are proposed specially for H.264 coded videos. They adapt to local activities, according to the syntax element (SE) values. Accuracy analysis is also introduced to deal with the disparity between the SE values and the real motions and textures. The de-interlacers provide better visual quality than the commonly used ones and can de-interlace 1080i sequences in real time on PCs. / Today, High-Definition (HD) videos become more and more popular with many applications. This thesis analyzes the characteristics of HD videos and develops the appropriate coding and processing techniques accordingly for hybrid video coding. / Dong, Jie. / Adviser: King Ngi Ngan. / Source: Dissertation Abstracts International, Volume: 72-01, Section: B, page: . / Thesis (Ph.D.)--Chinese University of Hong Kong, 2010. / Includes bibliographical references (leaves 153-158). / Electronic reproduction. Hong Kong : Chinese University of Hong Kong, [2012] System requirements: Adobe Acrobat Reader. Available via World Wide Web. / Electronic reproduction. Ann Arbor, MI : ProQuest Information and Learning Company, [200-] System requirements: Adobe Acrobat Reader. Available via World Wide Web. / Abstract also in Chinese.
13

Video Bus Integrated Telemetry System

Diehl, Michael, Kuipers, Steven, Swain, Jason, Tiaden, Ryan, Nelson, Wil, Wilcos, Tab 10 1900 (has links)
ITC/USA 2014 Conference Proceedings / The Fiftieth Annual International Telemetering Conference and Technical Exhibition / October 20-23, 2014 / Town and Country Resort & Convention Center, San Diego, CA / Yuma Proving Ground (YPG) personnel developed the Video Bus Integrated Telemetry System (VBITS) for air delivery testing at YPG. The system consists of a common rack for mounting both video and telemetry equipment, which makes installation easier and more time efficient. Prior to the one-rack concept, the video, TSPI, and telemetry were all installed as separate entities competing for space, power, and time. Requirements to downlink High-Definition (HD) video from the aircraft prompted research into technological improvements in transmitters, onboard encoders, and recorders. These advances allowed the integration of video, analog sensors, and aircraft bus data into a single telemetry stream. Future advancements will include combining multiple HD video sources in a single downlink.
14

Bureaucracy, politics, and business in Japan the Ministry of Posts and Telecommunications and contemporary economic policymaking /

Kawabata, Eiji. January 1996 (has links)
Thesis (Ph. D.)--University of Pittsburgh, 1996. / Includes bibliographical references (leaves 177-185).
15

Comparação analítica dos esquemas de autenticação em sistemas P2P de live streaming / Comparative analisys of authentication schemes in P2P live streaming

Coelho, Rafael Vieira January 2011 (has links)
As aplicações de live streaming em redes P2P têm grande potencial de crescimento, em popularidade e qualidade, mas são potencialmente vulneráveis ao ataque de poluição de conteúdo. Tal ataque corresponde a qualquer adulteração de áudio e/ou vídeo na mídia transmitida buscando ludibriar espectadores. A autenticação de blocos do fluxo de dados contínuo (stream) permite a detecção de conteúdo poluído e a possível identificação de pares maliciosos na rede P2P. A literatura contém diversas propostas de autenticação baseadas em assinatura digital leve e em amortização de assinatura digital. O presente trabalho, como nenhum anterior, compara tanto os esquemas de assinatura leve quanto os de amortização sob diferentes perspectivas de qualidade de transmissão (vídeos convencionais e de alta definição) em redes P2P de live streaming através da formularização analítica dos mesmos. Para isto, é feita uma comparação quantitativa de sobrecargas e nível de segurança, observando fenômenos e identificando desafios de pesquisa que precisarão ser vencidos. Particularmente, para avaliar a viabilidade dos esquemas, foi definido um coeficiente que leva em consideração o tempo total de transmissão e o custo computacional proporcionado pelo esquema estudado. Como uma das conclusões inéditas dessa análise, o esquema PARM2 obteve o melhor desempenho dentre os esquemas leves de assinatura. Já em relação aos esquemas de amortização, o Linear Digests se sobressaiu entre os demais. Por fim, foi analisada uma solução baseada na amortização de um esquema de assinatura leve, algo também inédito. A partir dessa análise em particular, foi possível observar que a autenticação é viável apenas com baixos e médios níveis de segurança em transmissões convencionais. Além disso, a partir dos resultados foi possível observar que o esquema de amortização Linear Digests deve ser utilizado isoladamente apenas em transmissões convencionais. Por fim, o esquema PARM2, se utilizado individualmente, não apresenta valores de coeficiente aceitáveis para os cenários estudados. / P2P live streaming applications have great potential for improvements in terms of popularity as well as quality. However, they are subject to pollution attacks, in which a malicious user tampers with audio/video of streams in order to trick other users. The authentication of blocks in a stream allows the detection of pollution in received content and can lead to the identification of malicious users. The literature includes several proposals of light digital signature schemes and amortization schemes. Our work, unlike previous ones, compares both amortization schemes and light signature schemes under di erent perspectives of transmission quality (convencional and high definition videos) in P2P live streaming by formulating equations for them. For such, it quantitatively compares overheads and security levels during P2P streaming sessions, identifying research challenges to be faced. In particular, to assess the viability of such schemes, we defined a coe cient that takes into account the total transmission time and computational cost provided by such scheme. As one of the novel findings of our analysis, the scheme PARM2 showed the best performance among light signature schemes. With respect to amortization, Linear Digests was the most e cient. Finally, we analyzed a solution based on the amortization of a light signature. From this particular analysis, we observed that the authentication is only feasible in conventional transmissions with low and medium security leves. In addition, the amortization scheme Linear Digests must be used in isolation only in conventional transmissions. Finally, the scheme PARM2, if used alone, has no acceptable coe cient values for the studied scenarios.
16

Desenvolvimento algorítmico e arquitetural para a estimação de movimento na compressão de vídeo de alta definição / Algorithmic and architectural development for motion estimation on high definition video compression

Porto, Marcelo Schiavon January 2012 (has links)
A compressão de vídeo é um tema extremamente relevante no cenário atual, principalmente devido ao crescimento significativo da utilização de vídeos digitais. Sem a compressão, é praticamente impossível enviar ou armazenar vídeos digitais devido à sua grande quantidade de informações, inviabilizando aplicações como televisão digital de alta definição, vídeo conferência, vídeo chamada para celulares etc. O problema vem se tornando maior com o crescimento de aplicações de vídeos de alta definição, onde a quantidade de informação é consideravelmente maior. Diversos padrões de compressão de vídeo foram desenvolvidos nos últimos anos, todos eles podem gerar grandes taxas de compressão. Os padrões de compressão de vídeo atuais obtêm a maior parte dos seus ganhos de compressão explorando a redundância temporal, através da estimação de movimento. No entanto, os algoritmos de estimação de movimento utilizados atualmente não consideram as variações nas características dos vídeos de alta definição. Neste trabalho uma avaliação da estimação de movimento em vídeos de alta definição é apresentada, demonstrando que algoritmos rápidos conhecidos, e largamente utilizados pela comunidade científica, não apresentam os mesmos resultados de qualidade com o aumento da resolução dos vídeos. Isto demonstra a importância do desenvolvimento de novos algoritmos focados em vídeos de altíssima definição, superiores à HD 1080p. Esta tese apresenta o desenvolvimento de novos algoritmos rápidos de estimação de movimento, focados na codificação de vídeos de alta definição. Os algoritmos desenvolvidos nesta tese apresentam características que os tornam menos suscetíveis à escolha de mínimos locais, resultando em ganhos significativos de qualidade em relação aos algoritmos rápidos convencionais, quando aplicados a vídeos de alta definição. Além disso, este trabalho também visa o desenvolvimento de arquiteturas de hardware dedicadas para estes novos algoritmos, igualmente dedicadas a vídeos de alta definição. O desenvolvimento arquitetural é extremamente relevante, principalmente para aplicações de tempo real a 30 quadros por segundo, e também para a utilização em dispositivos móveis, onde requisitos de desempenho e potência são críticos. Todos os algoritmos desenvolvidos foram avaliados para um conjunto de 10 sequências de teste HD 1080p, e seus resultados de qualidade e custo computacional foram avaliados e comparados com algoritmos conhecidos da literatura. As arquiteturas de hardware dedicadas, desenvolvidas para os novos algoritmos, foram descritas em VHDL e sintetizadas para FPGAs e ASIC, em standard cells nas tecnologias 0,18μm e 90nm. Os algoritmos desenvolvidos apresentam ganhos de qualidade para vídeos de alta definição em relação a algoritmos rápidos convencionais, e as arquiteturas desenvolvidas possuem altas taxas de processamento com baixo consumo de recursos de hardware e de potência. / Video compression is an extremely relevant theme in today’s scenario, mainly due to the significant growth in digital video applications. Without compression, it is almost impossible to send or store digital videos, due to the large amount of data that they require, making applications such as high definition digital television, video conferences, mobiles video calls, and others unviable. This demand is increasing since there is a strong growth in high definition video applications, where the amount of information is considerably larger. Many video coding standards were developed in the last few years, all of them can achieve excellent compression rates. A significant part of the compression gains in the current video coding standards are obtained through the exploration of the temporal redundancies by means of the motion estimation process. However, the current motion estimation algorithms do not consider the inherent variations that appear in high and ultra-high definition videos. In this work an evaluation of the motion estimation in high definition videos is presented. This evaluation shows that some well know fast algorithms, that are widely used by the scientific community, do not keep the same quality results when applied to high resolution videos. It demonstrates the relevance of new fast algorithms that are focused on high definition videos. This thesis presents the development of new fast motion estimation algorithms focused in high definition video encoding. The algorithms developed in this thesis show some characteristics that make them more resilient to avoid local minima, when applied to high definition videos. Moreover, this work also aims at the development of dedicated hardware architectures for these new algorithms, focused on high definition videos. The architectural development is extremely relevant, mainly for real time applications at 30 frames per second, and also for mobile applications, where performance and power are critical issues. All developed algorithms were assessed using 10 HD 1080p test video sequences, and the results for quality and computational cost were evaluated and compared against known algorithms from the literature. The dedicated hardware architectures, developed for the new algorithms, were described in VHDL and synthesized for FPGA and ASIC. The ASIC implementation used 0.18μm and 90nm CMOS standard cells technology. The developed algorithms present quality gains in comparison to regular fast algorithms for high definition videos, and the developed architectures presents high processing rate with low hardware resources cost and power consumption.
17

Desenvolvimento da arquitetura dos codificadores de entropia adaptativos CAVLC e CABAC do padrão H.264/AVC / Integrated architecture development of CAVLC and CABAC context-adaptive entropy encoders for H.264/AVC

Thiele, Cristiano January 2012 (has links)
Um codificador de entropia é responsável pela representação simbólica de dados de forma a representá-los com um menor número de bits. O H.264/AVC possui três codificadores de entropia: o Exponencial Golomb, o CAVLC que é o codificador de menor complexidade porém com um throughput maior de dados e o CABAC, com maior complexidade e com uma maior capacidade de compressão. A complexidade do codificador de entropia e a dependência dos dados sequenciais no bitstream original são os principais desafios para atender os requisitos de desempenho para compressão em tempo real. Por isso o desenvolvimento destas arquiteturas em hardware dedicado se faz necessário. Neste contexto, esta dissertação descreve os algoritmos que fazem parte da entropia do padrão H.264/AVC e as arquiteturas para estes codificadores entrópicos (Exponential Golomb, CAVLC e CABAC), além de uma arquitetura de hardware dedicada que integra todos estes a um montador final que atende às especificações da norma H.264/AVC. As arquiteturas foram escritas em VHDL e sintetizadas para dispositivos integrados FPGA. Em um dispositivo Virtex-5, este codificador de entropia completo suporta codificação de vídeos no nível 4.2 do padrão H.264/AVC (Full HD a 60 quadros por segundo). Esta arquitetura é a que apresenta o melhor desempenho de processamento dentre os melhores trabalhos relacionados, além de ser um codificador com todas as alternativas de codificação de entropia requeridas pela norma implementadas em um mesmo módulo. / An entropy encoder is responsible for the symbolic representation of a data stream so that the final representation contains less bits than the original. The H.264/AVC has three entropy coding schemes: the Exponential Golomb, the CAVLC encoder, that is less complex but with a higher data throughput, and the CABAC that is more complex while allowing for higher compression capability. The complexity of the entropy encoding and data dependencies on the original bitstream are the main challenges to meet the performance requirements for real-time compression. The development of these architectures in dedicated hardware is therefore necessary for high performance encoders. In this context, this work describes the algorithms that are part of the entropy encoders of the H.264/AVC standard, and the corresponding entropy coding architectures (Exponential Golomb, CAVLC and CABAC), plus a dedicated hardware architecture that integrates all of these encoders to a final bitstream assembler that is compliant to the aforementioned standard. The architectures were written in VHDL and synthesized into FPGA devices. In a Virtex-5 device, this full entropy encoder supports video encoding at level 4.2 of the H.264/AVC standard (Full HD at 60 frames per second). The developed architecture performs best among the most recent related architectures published, and has the unique feature of an encoder that implements in the same module all the alternative entropy encoders present in this standard for video compression.
18

Comparação analítica dos esquemas de autenticação em sistemas P2P de live streaming / Comparative analisys of authentication schemes in P2P live streaming

Coelho, Rafael Vieira January 2011 (has links)
As aplicações de live streaming em redes P2P têm grande potencial de crescimento, em popularidade e qualidade, mas são potencialmente vulneráveis ao ataque de poluição de conteúdo. Tal ataque corresponde a qualquer adulteração de áudio e/ou vídeo na mídia transmitida buscando ludibriar espectadores. A autenticação de blocos do fluxo de dados contínuo (stream) permite a detecção de conteúdo poluído e a possível identificação de pares maliciosos na rede P2P. A literatura contém diversas propostas de autenticação baseadas em assinatura digital leve e em amortização de assinatura digital. O presente trabalho, como nenhum anterior, compara tanto os esquemas de assinatura leve quanto os de amortização sob diferentes perspectivas de qualidade de transmissão (vídeos convencionais e de alta definição) em redes P2P de live streaming através da formularização analítica dos mesmos. Para isto, é feita uma comparação quantitativa de sobrecargas e nível de segurança, observando fenômenos e identificando desafios de pesquisa que precisarão ser vencidos. Particularmente, para avaliar a viabilidade dos esquemas, foi definido um coeficiente que leva em consideração o tempo total de transmissão e o custo computacional proporcionado pelo esquema estudado. Como uma das conclusões inéditas dessa análise, o esquema PARM2 obteve o melhor desempenho dentre os esquemas leves de assinatura. Já em relação aos esquemas de amortização, o Linear Digests se sobressaiu entre os demais. Por fim, foi analisada uma solução baseada na amortização de um esquema de assinatura leve, algo também inédito. A partir dessa análise em particular, foi possível observar que a autenticação é viável apenas com baixos e médios níveis de segurança em transmissões convencionais. Além disso, a partir dos resultados foi possível observar que o esquema de amortização Linear Digests deve ser utilizado isoladamente apenas em transmissões convencionais. Por fim, o esquema PARM2, se utilizado individualmente, não apresenta valores de coeficiente aceitáveis para os cenários estudados. / P2P live streaming applications have great potential for improvements in terms of popularity as well as quality. However, they are subject to pollution attacks, in which a malicious user tampers with audio/video of streams in order to trick other users. The authentication of blocks in a stream allows the detection of pollution in received content and can lead to the identification of malicious users. The literature includes several proposals of light digital signature schemes and amortization schemes. Our work, unlike previous ones, compares both amortization schemes and light signature schemes under di erent perspectives of transmission quality (convencional and high definition videos) in P2P live streaming by formulating equations for them. For such, it quantitatively compares overheads and security levels during P2P streaming sessions, identifying research challenges to be faced. In particular, to assess the viability of such schemes, we defined a coe cient that takes into account the total transmission time and computational cost provided by such scheme. As one of the novel findings of our analysis, the scheme PARM2 showed the best performance among light signature schemes. With respect to amortization, Linear Digests was the most e cient. Finally, we analyzed a solution based on the amortization of a light signature. From this particular analysis, we observed that the authentication is only feasible in conventional transmissions with low and medium security leves. In addition, the amortization scheme Linear Digests must be used in isolation only in conventional transmissions. Finally, the scheme PARM2, if used alone, has no acceptable coe cient values for the studied scenarios.
19

A imagem digital da TV na copa do mundo de 2010 /

Garcia, Santiago Naliato. January 2011 (has links)
Orientador: Ana Silvia Lopes Davi Médola / Banca: Laura Fernanda Cimino / Banca: Francisco Machado Filho / Resumo: Após 60 anos de desenvolvimento a televisão brasileira - TV - enfrenta novo desafio: atualizar-se a partir de modelos televisivos definidos ao longo de seis décadas de transmissões terrestres adequando-se aos novos modelos e características que os meios digitais proporcionam. No caso da televisão brasileira de transmissão terrestre, o novo modelo a ser implantado traz consigo a necessidade de adaptações necessárias tanto para manter a audiência broadcasting quanto para sobreviver a este novo campo dos meios e veículos multimidiáticos digitais. Ao digitalizar o processo de se fazer televisão, têm-se mudanças substanciais na transmissão e sua melhoria de sinal, na aplicação de recursos interativos e também na produção e geração de conteúdos para a TV digital e seus diversos recursos potenciais. Altera-se, portanto, a relação espectador/emissor no processo comunicational até então estabelecido pela TV em seu formato clássico. Esse upgrade da telinha, já microprocessada e plugada na rede mundial de computadores, implica uma redefinição da comunicação e da forma de se relacionar com o receptor, agora ator mais ativo deste processo de comunicação. O elemento mais visível desta mudança, a imagem, também passa por modificações. Este trabalho faz uma análise da imagem digital tomando como aporte teórico e metodológico a semiótica da imagem, e investiga como se processa a formação da imagem nesse ambiente digitalizado da televisão digital brasileira, elencando os modelos adotados e estabelecendo discussões pertinentes ao meio e a sua adequação ao sistema digital. Utilizaremos como objeto deste estudo imagens em alta definição captadas durante a última Copa do Mundo de Futebol - a Copa de 2010 - em transmissões realizadas por emissoras brasileiras / Abstract: After 60 years of development the brazilian television - TV - faces a new challenge: to update models from television set over six decades of terrestrial adapting to new models and features that provide digital media. In the case of Brazilian television terrestrial broadcasting the new model to be implemented brings the need for adjustments necessary to keep both the audience and broadcasting to survive in this new field of digital media and vehicles multimidiáticos. Upon scanning the process of making television there have been substantial changes in the transmission signal and its improvement, also in the application of interactive features and in the production and content generation for digital TV and its various potential resources. Changes, therefore, the relation viewer/sender in the communication process so far established by the tv in his classic format. This upgrade of screm, and microprocessor plugged into the global computer network implies a redefintion of communication and how to relate to the receiver being more active actor in this process of communiation. The most visiable element of this change, the image also undergoes modifications. This paper analyzes te high definition image, so the feature can be generated and captured by new equipment and uses this new model of television. Using as a theoretical tool semiotics of the image, this analysis investigatesw how the formation of this takes place in this environment scanned image of Brazilian terrestrial television by listing the models adopted and setting discussions relevant to the environment and its suitability for the digital system. Used as objects of studying in high-definition images captured during the last World Cup Soccer - the 2010 World Cup - in a transmissions made by Brazilian issuers / Mestre
20

A imagem digital da TV na copa do mundo de 2010

Garcia, Santiago Naliato [UNESP] 28 November 2011 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:30:21Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-11-28Bitstream added on 2014-06-13T19:00:19Z : No. of bitstreams: 1 garcia_sn_me_bauru.pdf: 646811 bytes, checksum: 8cc651c05c7fcc5f3f7b273d90d3c907 (MD5) / Universidade Estadual Paulista (UNESP) / Após 60 anos de desenvolvimento a televisão brasileira - TV - enfrenta novo desafio: atualizar-se a partir de modelos televisivos definidos ao longo de seis décadas de transmissões terrestres adequando-se aos novos modelos e características que os meios digitais proporcionam. No caso da televisão brasileira de transmissão terrestre, o novo modelo a ser implantado traz consigo a necessidade de adaptações necessárias tanto para manter a audiência broadcasting quanto para sobreviver a este novo campo dos meios e veículos multimidiáticos digitais. Ao digitalizar o processo de se fazer televisão, têm-se mudanças substanciais na transmissão e sua melhoria de sinal, na aplicação de recursos interativos e também na produção e geração de conteúdos para a TV digital e seus diversos recursos potenciais. Altera-se, portanto, a relação espectador/emissor no processo comunicational até então estabelecido pela TV em seu formato clássico. Esse upgrade da telinha, já microprocessada e plugada na rede mundial de computadores, implica uma redefinição da comunicação e da forma de se relacionar com o receptor, agora ator mais ativo deste processo de comunicação. O elemento mais visível desta mudança, a imagem, também passa por modificações. Este trabalho faz uma análise da imagem digital tomando como aporte teórico e metodológico a semiótica da imagem, e investiga como se processa a formação da imagem nesse ambiente digitalizado da televisão digital brasileira, elencando os modelos adotados e estabelecendo discussões pertinentes ao meio e a sua adequação ao sistema digital. Utilizaremos como objeto deste estudo imagens em alta definição captadas durante a última Copa do Mundo de Futebol - a Copa de 2010 - em transmissões realizadas por emissoras brasileiras / After 60 years of development the brazilian television - TV - faces a new challenge: to update models from television set over six decades of terrestrial adapting to new models and features that provide digital media. In the case of Brazilian television terrestrial broadcasting the new model to be implemented brings the need for adjustments necessary to keep both the audience and broadcasting to survive in this new field of digital media and vehicles multimidiáticos. Upon scanning the process of making television there have been substantial changes in the transmission signal and its improvement, also in the application of interactive features and in the production and content generation for digital TV and its various potential resources. Changes, therefore, the relation viewer/sender in the communication process so far established by the tv in his classic format. This upgrade of screm, and microprocessor plugged into the global computer network implies a redefintion of communication and how to relate to the receiver being more active actor in this process of communiation. The most visiable element of this change, the image also undergoes modifications. This paper analyzes te high definition image, so the feature can be generated and captured by new equipment and uses this new model of television. Using as a theoretical tool semiotics of the image, this analysis investigatesw how the formation of this takes place in this environment scanned image of Brazilian terrestrial television by listing the models adopted and setting discussions relevant to the environment and its suitability for the digital system. Used as objects of studying in high-definition images captured during the last World Cup Soccer - the 2010 World Cup - in a transmissions made by Brazilian issuers

Page generated in 0.0662 seconds