• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 17
  • 5
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 53
  • 53
  • 23
  • 18
  • 16
  • 12
  • 12
  • 12
  • 11
  • 11
  • 9
  • 9
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Desenvolvimento da arquitetura dos codificadores de entropia adaptativos CAVLC e CABAC do padrão H.264/AVC / Integrated architecture development of CAVLC and CABAC context-adaptive entropy encoders for H.264/AVC

Thiele, Cristiano January 2012 (has links)
Um codificador de entropia é responsável pela representação simbólica de dados de forma a representá-los com um menor número de bits. O H.264/AVC possui três codificadores de entropia: o Exponencial Golomb, o CAVLC que é o codificador de menor complexidade porém com um throughput maior de dados e o CABAC, com maior complexidade e com uma maior capacidade de compressão. A complexidade do codificador de entropia e a dependência dos dados sequenciais no bitstream original são os principais desafios para atender os requisitos de desempenho para compressão em tempo real. Por isso o desenvolvimento destas arquiteturas em hardware dedicado se faz necessário. Neste contexto, esta dissertação descreve os algoritmos que fazem parte da entropia do padrão H.264/AVC e as arquiteturas para estes codificadores entrópicos (Exponential Golomb, CAVLC e CABAC), além de uma arquitetura de hardware dedicada que integra todos estes a um montador final que atende às especificações da norma H.264/AVC. As arquiteturas foram escritas em VHDL e sintetizadas para dispositivos integrados FPGA. Em um dispositivo Virtex-5, este codificador de entropia completo suporta codificação de vídeos no nível 4.2 do padrão H.264/AVC (Full HD a 60 quadros por segundo). Esta arquitetura é a que apresenta o melhor desempenho de processamento dentre os melhores trabalhos relacionados, além de ser um codificador com todas as alternativas de codificação de entropia requeridas pela norma implementadas em um mesmo módulo. / An entropy encoder is responsible for the symbolic representation of a data stream so that the final representation contains less bits than the original. The H.264/AVC has three entropy coding schemes: the Exponential Golomb, the CAVLC encoder, that is less complex but with a higher data throughput, and the CABAC that is more complex while allowing for higher compression capability. The complexity of the entropy encoding and data dependencies on the original bitstream are the main challenges to meet the performance requirements for real-time compression. The development of these architectures in dedicated hardware is therefore necessary for high performance encoders. In this context, this work describes the algorithms that are part of the entropy encoders of the H.264/AVC standard, and the corresponding entropy coding architectures (Exponential Golomb, CAVLC and CABAC), plus a dedicated hardware architecture that integrates all of these encoders to a final bitstream assembler that is compliant to the aforementioned standard. The architectures were written in VHDL and synthesized into FPGA devices. In a Virtex-5 device, this full entropy encoder supports video encoding at level 4.2 of the H.264/AVC standard (Full HD at 60 frames per second). The developed architecture performs best among the most recent related architectures published, and has the unique feature of an encoder that implements in the same module all the alternative entropy encoders present in this standard for video compression.
22

Desenvolvimento algorítmico e arquitetural para a estimação de movimento na compressão de vídeo de alta definição / Algorithmic and architectural development for motion estimation on high definition video compression

Porto, Marcelo Schiavon January 2012 (has links)
A compressão de vídeo é um tema extremamente relevante no cenário atual, principalmente devido ao crescimento significativo da utilização de vídeos digitais. Sem a compressão, é praticamente impossível enviar ou armazenar vídeos digitais devido à sua grande quantidade de informações, inviabilizando aplicações como televisão digital de alta definição, vídeo conferência, vídeo chamada para celulares etc. O problema vem se tornando maior com o crescimento de aplicações de vídeos de alta definição, onde a quantidade de informação é consideravelmente maior. Diversos padrões de compressão de vídeo foram desenvolvidos nos últimos anos, todos eles podem gerar grandes taxas de compressão. Os padrões de compressão de vídeo atuais obtêm a maior parte dos seus ganhos de compressão explorando a redundância temporal, através da estimação de movimento. No entanto, os algoritmos de estimação de movimento utilizados atualmente não consideram as variações nas características dos vídeos de alta definição. Neste trabalho uma avaliação da estimação de movimento em vídeos de alta definição é apresentada, demonstrando que algoritmos rápidos conhecidos, e largamente utilizados pela comunidade científica, não apresentam os mesmos resultados de qualidade com o aumento da resolução dos vídeos. Isto demonstra a importância do desenvolvimento de novos algoritmos focados em vídeos de altíssima definição, superiores à HD 1080p. Esta tese apresenta o desenvolvimento de novos algoritmos rápidos de estimação de movimento, focados na codificação de vídeos de alta definição. Os algoritmos desenvolvidos nesta tese apresentam características que os tornam menos suscetíveis à escolha de mínimos locais, resultando em ganhos significativos de qualidade em relação aos algoritmos rápidos convencionais, quando aplicados a vídeos de alta definição. Além disso, este trabalho também visa o desenvolvimento de arquiteturas de hardware dedicadas para estes novos algoritmos, igualmente dedicadas a vídeos de alta definição. O desenvolvimento arquitetural é extremamente relevante, principalmente para aplicações de tempo real a 30 quadros por segundo, e também para a utilização em dispositivos móveis, onde requisitos de desempenho e potência são críticos. Todos os algoritmos desenvolvidos foram avaliados para um conjunto de 10 sequências de teste HD 1080p, e seus resultados de qualidade e custo computacional foram avaliados e comparados com algoritmos conhecidos da literatura. As arquiteturas de hardware dedicadas, desenvolvidas para os novos algoritmos, foram descritas em VHDL e sintetizadas para FPGAs e ASIC, em standard cells nas tecnologias 0,18μm e 90nm. Os algoritmos desenvolvidos apresentam ganhos de qualidade para vídeos de alta definição em relação a algoritmos rápidos convencionais, e as arquiteturas desenvolvidas possuem altas taxas de processamento com baixo consumo de recursos de hardware e de potência. / Video compression is an extremely relevant theme in today’s scenario, mainly due to the significant growth in digital video applications. Without compression, it is almost impossible to send or store digital videos, due to the large amount of data that they require, making applications such as high definition digital television, video conferences, mobiles video calls, and others unviable. This demand is increasing since there is a strong growth in high definition video applications, where the amount of information is considerably larger. Many video coding standards were developed in the last few years, all of them can achieve excellent compression rates. A significant part of the compression gains in the current video coding standards are obtained through the exploration of the temporal redundancies by means of the motion estimation process. However, the current motion estimation algorithms do not consider the inherent variations that appear in high and ultra-high definition videos. In this work an evaluation of the motion estimation in high definition videos is presented. This evaluation shows that some well know fast algorithms, that are widely used by the scientific community, do not keep the same quality results when applied to high resolution videos. It demonstrates the relevance of new fast algorithms that are focused on high definition videos. This thesis presents the development of new fast motion estimation algorithms focused in high definition video encoding. The algorithms developed in this thesis show some characteristics that make them more resilient to avoid local minima, when applied to high definition videos. Moreover, this work also aims at the development of dedicated hardware architectures for these new algorithms, focused on high definition videos. The architectural development is extremely relevant, mainly for real time applications at 30 frames per second, and also for mobile applications, where performance and power are critical issues. All developed algorithms were assessed using 10 HD 1080p test video sequences, and the results for quality and computational cost were evaluated and compared against known algorithms from the literature. The dedicated hardware architectures, developed for the new algorithms, were described in VHDL and synthesized for FPGA and ASIC. The ASIC implementation used 0.18μm and 90nm CMOS standard cells technology. The developed algorithms present quality gains in comparison to regular fast algorithms for high definition videos, and the developed architectures presents high processing rate with low hardware resources cost and power consumption.
23

Comparação analítica dos esquemas de autenticação em sistemas P2P de live streaming / Comparative analisys of authentication schemes in P2P live streaming

Coelho, Rafael Vieira January 2011 (has links)
As aplicações de live streaming em redes P2P têm grande potencial de crescimento, em popularidade e qualidade, mas são potencialmente vulneráveis ao ataque de poluição de conteúdo. Tal ataque corresponde a qualquer adulteração de áudio e/ou vídeo na mídia transmitida buscando ludibriar espectadores. A autenticação de blocos do fluxo de dados contínuo (stream) permite a detecção de conteúdo poluído e a possível identificação de pares maliciosos na rede P2P. A literatura contém diversas propostas de autenticação baseadas em assinatura digital leve e em amortização de assinatura digital. O presente trabalho, como nenhum anterior, compara tanto os esquemas de assinatura leve quanto os de amortização sob diferentes perspectivas de qualidade de transmissão (vídeos convencionais e de alta definição) em redes P2P de live streaming através da formularização analítica dos mesmos. Para isto, é feita uma comparação quantitativa de sobrecargas e nível de segurança, observando fenômenos e identificando desafios de pesquisa que precisarão ser vencidos. Particularmente, para avaliar a viabilidade dos esquemas, foi definido um coeficiente que leva em consideração o tempo total de transmissão e o custo computacional proporcionado pelo esquema estudado. Como uma das conclusões inéditas dessa análise, o esquema PARM2 obteve o melhor desempenho dentre os esquemas leves de assinatura. Já em relação aos esquemas de amortização, o Linear Digests se sobressaiu entre os demais. Por fim, foi analisada uma solução baseada na amortização de um esquema de assinatura leve, algo também inédito. A partir dessa análise em particular, foi possível observar que a autenticação é viável apenas com baixos e médios níveis de segurança em transmissões convencionais. Além disso, a partir dos resultados foi possível observar que o esquema de amortização Linear Digests deve ser utilizado isoladamente apenas em transmissões convencionais. Por fim, o esquema PARM2, se utilizado individualmente, não apresenta valores de coeficiente aceitáveis para os cenários estudados. / P2P live streaming applications have great potential for improvements in terms of popularity as well as quality. However, they are subject to pollution attacks, in which a malicious user tampers with audio/video of streams in order to trick other users. The authentication of blocks in a stream allows the detection of pollution in received content and can lead to the identification of malicious users. The literature includes several proposals of light digital signature schemes and amortization schemes. Our work, unlike previous ones, compares both amortization schemes and light signature schemes under di erent perspectives of transmission quality (convencional and high definition videos) in P2P live streaming by formulating equations for them. For such, it quantitatively compares overheads and security levels during P2P streaming sessions, identifying research challenges to be faced. In particular, to assess the viability of such schemes, we defined a coe cient that takes into account the total transmission time and computational cost provided by such scheme. As one of the novel findings of our analysis, the scheme PARM2 showed the best performance among light signature schemes. With respect to amortization, Linear Digests was the most e cient. Finally, we analyzed a solution based on the amortization of a light signature. From this particular analysis, we observed that the authentication is only feasible in conventional transmissions with low and medium security leves. In addition, the amortization scheme Linear Digests must be used in isolation only in conventional transmissions. Finally, the scheme PARM2, if used alone, has no acceptable coe cient values for the studied scenarios.
24

Desenvolvimento da arquitetura dos codificadores de entropia adaptativos CAVLC e CABAC do padrão H.264/AVC / Integrated architecture development of CAVLC and CABAC context-adaptive entropy encoders for H.264/AVC

Thiele, Cristiano January 2012 (has links)
Um codificador de entropia é responsável pela representação simbólica de dados de forma a representá-los com um menor número de bits. O H.264/AVC possui três codificadores de entropia: o Exponencial Golomb, o CAVLC que é o codificador de menor complexidade porém com um throughput maior de dados e o CABAC, com maior complexidade e com uma maior capacidade de compressão. A complexidade do codificador de entropia e a dependência dos dados sequenciais no bitstream original são os principais desafios para atender os requisitos de desempenho para compressão em tempo real. Por isso o desenvolvimento destas arquiteturas em hardware dedicado se faz necessário. Neste contexto, esta dissertação descreve os algoritmos que fazem parte da entropia do padrão H.264/AVC e as arquiteturas para estes codificadores entrópicos (Exponential Golomb, CAVLC e CABAC), além de uma arquitetura de hardware dedicada que integra todos estes a um montador final que atende às especificações da norma H.264/AVC. As arquiteturas foram escritas em VHDL e sintetizadas para dispositivos integrados FPGA. Em um dispositivo Virtex-5, este codificador de entropia completo suporta codificação de vídeos no nível 4.2 do padrão H.264/AVC (Full HD a 60 quadros por segundo). Esta arquitetura é a que apresenta o melhor desempenho de processamento dentre os melhores trabalhos relacionados, além de ser um codificador com todas as alternativas de codificação de entropia requeridas pela norma implementadas em um mesmo módulo. / An entropy encoder is responsible for the symbolic representation of a data stream so that the final representation contains less bits than the original. The H.264/AVC has three entropy coding schemes: the Exponential Golomb, the CAVLC encoder, that is less complex but with a higher data throughput, and the CABAC that is more complex while allowing for higher compression capability. The complexity of the entropy encoding and data dependencies on the original bitstream are the main challenges to meet the performance requirements for real-time compression. The development of these architectures in dedicated hardware is therefore necessary for high performance encoders. In this context, this work describes the algorithms that are part of the entropy encoders of the H.264/AVC standard, and the corresponding entropy coding architectures (Exponential Golomb, CAVLC and CABAC), plus a dedicated hardware architecture that integrates all of these encoders to a final bitstream assembler that is compliant to the aforementioned standard. The architectures were written in VHDL and synthesized into FPGA devices. In a Virtex-5 device, this full entropy encoder supports video encoding at level 4.2 of the H.264/AVC standard (Full HD at 60 frames per second). The developed architecture performs best among the most recent related architectures published, and has the unique feature of an encoder that implements in the same module all the alternative entropy encoders present in this standard for video compression.
25

A new HD video compression scheme using colourisation and entropy

Lee, Vaughan Hubert 24 October 2012 (has links)
M.Ing. / There is a growing demand for HD video content. That demand requires significant bandwidth, even with sophisticated compression schemes. As the demand increases in popularity, the bandwidth requirement will become burdensome on networks. In an effort to satisfy the demand for HD, improved compression schemes need to be investigated together with increasing efficiency of transmission. The purpose of this literature study is to investigate existing video compression schemes and techniques used in software implementations. Then to build on existing work within the mature field of video compression, in order to propose a new scheme which would then be tested for viability. Two algorithms were proposed as a result of the literature study. The first algorithm is an improved way to add colour to luminance images of similar scene content. The second algorithm is an encoding scheme that is adaptive to the video content. The proposed encoding scheme adaptively selects to encode the next several frames using well established techniques or to use a technique proposed in this work. At the time of preparing this document, and from the available literature this second proposed algorithm is new. An interesting compression tool has been developed during this study. This tool can be used to obtain a visual expectation of the achievable compression before applying the compression. The tool is a quadrant plot of the difference in image entropy between successive frames and an estimation of the mean percentage motion content between these frames. Over the duration of a scene, the spread of results reveals the extent of the potential compression gain.
26

High-definition Modeling of Composite Beams

Adhikari, Samiran 04 October 2021 (has links)
No description available.
27

Effects of the Introduction of a High-Definition ‘HD’ Music Audio Quality Standard on the Recorded Music Industry

SAIBU, ISAIAH January 2015 (has links)
The  emergence of the internet and  digitisation  has  led to  the disruption/transformation of  therecorded music industry sector. This has resulted in a shift  from  physical  to  digital  sales, which has also led to a decline in the global recorded music sector revenue. Although largely attributed to piracy and illegal music downloads, some have argued that this was as a result of  the reduction in the perceived value of commercially distributed recorded music. The audio quality of music and user experience has specifically been highlighted to have suffered due to digitisation. Experience from the case of the introduction of HDTV gives an example of a similar industry sector that was able to revive itself by implementing high-definition (HD) quality standards. This thesis set out to  investigate if such an approach could be applicable to  the recording music sector in order to create a similar HD music quality standard. The methodology adopted, involved performing a comparative case study to analyse what  lessons can be taken from the HDTV standardisation approach and how applicable it would be within  the recorded music sector. This was coupled  with interviews of industry actors that represent  the value creation network/chain of the recorded music sector. The result suggests that such a standardisation approach could be applicable and benefit the recorded music sector; however, this is conditional on overcoming a number of challenges that were   identified.
28

Quantification non invasive de la fibrose cardiaque diffuse par imagerie de résonance magnétique et par cartographie endocavitaire / Quantification of cardiac fibrosis by magnetic resonance imaging and endocardial mapping

Bun, Sok-Sithikun 22 June 2018 (has links)
La fibrose cardiaque fait le lit des arythmies cardiaques, qu’elles soient atriales ou ventriculaires. L’IRM est devenue un outil non invasif indispensable pour diagnostiquer la présence de fibrose au niveau cardiaque, mais offre également des informations pronostiques, ainsi que pour le suivi des patients atteints de fibrillation auriculaire (FA), notamment persistante. La technique de référence reste le rehaussement tardif après injection de gadolinium, permettant de révéler des régions localisées de fibrose. Notre travail a consisté en la mise au point d’une technique non invasive (par la mesure du T2 avec IRM à haut champ à 11,75 T) afin de quantifier la fibrose myocardique interstitielle diffuse dans un modèle de souris diabétiques. La fibrose a été significativement corrélée à une survenue plus importante des arythmies ventriculaires en comparaison avec un groupe de souris contrôles. L’étape suivante a été de transposer cette technique de mesure de T2 en IRM clinique chez des patients devant bénéficier d’une procédure d’ablation de FA. La deuxième technique, cette fois-ci invasive pour évaluer la fibrose (notamment atriale) pour les patients atteints de FA est la cartographie de voltage au niveau de l’oreillette gauche. Nous avons utilisé un nouveau système de cartographie à ultra-haute définition afin de quantifier la fibrose (zones cicatricielles denses) correspondant aux régions dont les signaux enregistrés avaient une amplitude bipolaire inférieure à 0,015 mV, soit très en deçà des seuils précédemment rapportés concernant la fibrose. / Fibrosis represents the main substrate for cardiac arrhythmias, either atrial or ventricular. MRI has become a critical tool to not only diagnose the presence of cardiac fibrosis, but also provides important informations on the prognosis and the follow-up of patients with atrial fibrillation (AF), especially in its persistent type. The gold standard is the Late Gadolinium Enhancement, allowing to reveal localized regions of fibrosis. Our study reported a technique for non invasive quantification of interstitial diffuse ventricular fibrosis in diabetic mice (T2 measurement high field MRI at 11,75 T). This fibrosis was significantly correlated to the occurrence of ventricular arrhythmias in comparison with the control group. The next step was the transposition of this T2 measurement with MRI in the clinical setup of patients who undergo an AF ablation procedure. The second technique for atrial fibrosis assessment for patients suffering from AF is the invasive realization of left atrial voltage mapping. A new ultra-high definition system was used to quantify the fibrosis (dense scar) in regions with bipolar amplitude electrograms of less than 0,015 mV. This cutoff was far lower than the previously published definition of the dense scar in the literature (< 0,1 mV).
29

Parallel video decoding

Álvarez Mesa, Mauricio 08 September 2011 (has links)
Digital video is a popular technology used in many different applications. The quality of video, expressed in the spatial and temporal resolution, has been increasing continuously in the last years. In order to reduce the bitrate required for its storage and transmission, a new generation of video encoders and decoders (codecs) have been developed. The latest video codec standard, known as H.264/AVC, includes sophisticated compression tools that require more computing resources than any previous video codec. The combination of high quality video and the advanced compression tools found in H.264/AVC has resulted in a significant increase in the computational requirements of video decoding applications. The main objective of this thesis is to provide the performance required for real-time operation of high quality video decoding using programmable architectures. Our solution has been the simultaneous exploitation of multiple levels of parallelism. On the one hand, video decoders have been modified in order to extract as much parallelism as possible. And, on the other hand, general purpose architectures has been enhanced for exploiting the type of parallelism that is present in video codec applications. / El vídeo digital es una tecnología popular utilizada en una gran variedad de aplicaciones. La calidad de vídeo, expresada en la resolución espacial y temporal, ha ido aumentando constantemente en los últimos años. Con el fin de reducir la tasa de bits requerida para su almacenamiento y transmisión, se ha desarrollado una nueva generación de codificadores y decodificadores (códecs) de vídeo. El códec estándar de vídeo más reciente, conocido como H.264/AVC, incluye herramientas sofisticadas de compresión que requieren más recursos de computación que los códecs de vídeo anteriores. El efecto combinado del vídeo de alta calidad y las herramientas de compresión avanzada incluidas en el H.264/AVC han llevado a un aumento significativo de los requerimientos computacionales de la decodificación de vídeo. El objetivo principal de esta tesis es proporcionar el rendimiento necesario para la decodificación en tiempo real de vídeo de alta calidad. Nuestra solución ha sido la explotación simultánea de múltiples niveles de paralelismo. Por un lado, se realizaron modificaciones en el decodificador de vídeo con el fin de extraer múltiples niveles de paralelismo. Y, por otro lado, se modificaron las arquitecturas de propósito general para mejorar la explotación del tipo paralelismo que está presente en las aplicaciones de vídeo. Primero hicimos un análisis de la escalabilidad de dos extensiones de Instrucción Simple con Múltiples Datos (SIMD por sus siglas en inglés): una de una dimensión (1D) y otra matricial de dos dimensiones (2D). Se demostró que al escalar la extensión 2D se obtiene un mayor rendimiento con una menor complejidad que al escalar la extensión 1D. Luego se realizó una caracterización de la decodificación de H.264/AVC en aplicaciones de alta definición (HD) donde se identificaron los núcleos principales. Debido a la falta de un punto de referencia (benchmark) adecuado para la decodificación de vídeo HD, desarrollamos uno propio, llamado HD-VideoBench el cual incluye aplicaciones completas de codificación y decodificación de vídeo junto con una serie de secuencias de vídeo en HD. Después optimizamos los núcleos más importantes del decodificador H.264/AVC usando instrucciones SIMD. Sin embargo, los resultados no alcanzaron el máximo rendimiento posible debido al efecto negativo de la desalineación de los datos en memoria. Como solución, evaluamos el hardware y el software necesarios para realizar accesos no alineados. Este soporte produjo mejoras significativas de rendimiento en la aplicación. Aparte se realizó una investigación sobre cómo extraer paralelismo de nivel de tarea. Se encontró que ninguno de los mecanismos existentes podía escalar para sistemas masivamente paralelos. Como alternativa, desarrollamos un nuevo algoritmo que fue capaz de encontrar miles de tareas independientes al explotar paralelismo de nivel de macrobloque. Luego implementamos una versión paralela del decodificador de H.264 en una máquina de memoria compartida distribuida (DSM por sus siglas en inglés). Sin embargo esta implementación no alcanzó el máximo rendimiento posible debido al impacto negativo de las operaciones de sincronización y al efecto del núcleo de decodificación de entropía. Con el fin de eliminar estos cuellos de botella se evaluó la paralelización al nivel de imagen de la fase de decodificación de entropía combinada con la paralelización al nivel de macrobloque de los demás núcleos. La sobrecarga de las operaciones de sincronización se eliminó casi por completo mediante el uso de operaciones aceleradas por hardware. Con todas las mejoras presentadas se permitió la decodificación, en tiempo real, de vídeo de alta definición y alta tasa de imágenes por segundo. Como resultado global se creó una solución escalable capaz de usar el número creciente procesadores en las arquitecturas multinúcleo.
30

Product development model : case study of high definition television

Rana, Shakti S January 1994 (has links)
Thesis (Ph. D.)--University of Hawaii at Manoa, 1994. / Includes bibliographical references (leaves 375-391). / Microfiche. / 2 v. (xix, 391 leaves, bound) ill. 29 cm

Page generated in 0.1954 seconds