• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 179
  • 30
  • 14
  • 10
  • 8
  • 5
  • 5
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 305
  • 305
  • 77
  • 62
  • 58
  • 46
  • 44
  • 42
  • 40
  • 35
  • 34
  • 32
  • 30
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Automatic scene detection in MPEG digital video for random access indexing and MPEG compression optimization /

Liu, Hain-Ching. January 1995 (has links)
Thesis (Ph. D.)--University of Washington, 1995. / Vita. Includes bibliographical references (leaves [110]-115).
142

A study of Trellis coded quantization for image compression /

Panchapakesan, Kannan. January 1996 (has links)
Thesis (M.S.)--Rochester Institute of Technology, 1996. / Typescript. Bibliography: leaves 81-83.
143

Synthetic aperture radar (SAR) image compression using the wavelet transform /

Li, Ying, January 1997 (has links)
Thesis (M. Eng.), Memorial University of Newfoundland, 1998. / Bibliography: leaves 117-125.
144

Lifting schemes for wavelet filters of trigonometric vanishing moments

Cheng, Ho-Yin. January 2002 (has links)
Thesis (M.Phil.)--University of Hong Kong, 2003. / Includes bibliographical references (leaves 80) Also available in print.
145

Wavelet domain partition-based signal processing with applications to image denoising and compression

Kim, Il-Ryeol. January 2006 (has links)
Thesis (Ph.D.)--University of Delaware, 2006. / Principal faculty advisor: Kenneth E. Barner, Dept. of Electrical and Computer Engineering. Includes bibliographical references.
146

Some new models for image compression

Aslam, Muhammad, January 1900 (has links)
Thesis (Ph. D.)--West Virginia University, 2006. / Title from document title page. Document formatted into pages; contains xiv, 85 p. : ill. Includes abstract. Includes bibliographical references (p. 83-85).
147

Digital compression on GPU

Tokdemir, Serpil. January 2006 (has links)
Thesis (M.S.)--Georgia State University, 2006. / Title from dissertation title page. Saeid Belkasim, committee chair; Ying Zhu, A.P. Preethy, committee members. Electronic text (90 p. : ill. (some col.)). Description based on contents viewed May 2, 2007. Includes bibliographical references (p. 78-81).
148

[en] UNIVERSAL LOSSLESS DATA COMPRESSION WITH FINITE STATE ENCODERS / [pt] COMPRESSÃO DE DADOS VIA CODIFICADORES UNIVERSAIS, DE ESTADO FINITO E SEM PERDA DE INFORMAÇÃO

MARCELO DA SILVA PINHO 17 August 2006 (has links)
[pt] Neste trabalho é estudado o problema da compressão de dados por codificadores de estado finito e sem perda de informação. O problema é dividido em três partes: compressão de seqüências individuais, compressão de pares de seqüências e compressão de imagens. A principal motivação do trabalho é o estudo da compressão de pares de seqüências, como um passo intermediário para o entendimento do problema da compressão de dados bidimensionais. Para cada um dos casos é definido um limitante inferior para a taxa de compressão de qualquer codificador de estado finito e sem perda de informação. Para os três casos, codificadores universais são propostos e seus desempenhos são analisados. Os codificadores propostos foram implementados em software e aplicados à compressão de seqüências finitas, pares de seqüências finitas e imagens finitas. Os resultados de simulação obtidos são analisados. / [en] In this work the problem of data compression by finite- state and information lossless encorders is studied. The problem is divided in three parts: compression of individual sequences, compression of pairs of sequences and compression of images. For each of these, a lower bound is defined which sets a limit on the smaller compression rate that can be achieved by any finite-state and information lossless enconders. Universal encorders are proposed and their performance compared to the optimal attainable. The proposed encoders were implemented in software and used to compress finite sequences, pairs of finite sequences and finite images. The simulation results are analysed.
149

[en] LOSSY LEMPEL-ZIV ALGORITHM AND ITS APPLICATION TO IMAGE COMPRESSION / [pt] ALGORITMO DE LEMPEL-ZIV COM PERDAS E APLICAÇÃO À COMPRESSÃO DE IMAGENS

MURILO BRESCIANI DE CARVALHO 17 August 2006 (has links)
[pt] Neste trabalho, um método de compressão de dados com perdas, baseado no algoritmo de compressão sem perdas de Lempel-Ziv é proposto. Simulações são usadas para caracterizar o desempenho do método, chamado LLZ. É também aplicado à compressão de imagens e os resultados obtidos são analisados. / [en] In this work, a lossy data compression method, base don the Lempel-Ziv lossles compression scheme is proposed. Simulations are used to study the performance of the method, called LLZ. The lLZ is also used to compress digital image data and the results obtained is analized.
150

Projeto de uma arquitetura dedicada à compressão de imagens no padrão JPEG2000 / Design of a dedicated architecture to Image compression in the JPEG2000 Standard

Silva, Sandro Vilela da January 2005 (has links)
O incremento das taxas de transmissão e de armazenamento demanda o desenvolvimento de técnicas para aumentar a taxa de compressão de imagens e ao mesmo tempo mantenha a qualidade destas imagens. O padrão JPEG2000 propõe a utilização da transformada wavelet discreta e codificação aritmética para alcançar altos graus de compressão, proporcionando que a imagem resultante tenha qualidade razoável. Este padrão permite tanto compressão com perdas como compressão sem perdas, dependendo apenas do tipo de transformada wavelet utilizada. Este trabalho propõe a implementação de blocos internos em hardware para compor um compressor de imagens com perdas seguindo o padrão JPEG2000. O principal componente deste compressor de imagens é a transformada wavelet discreta irreversível em duas dimensões, que é implementada utilizando um esquema lifting a partir dos coeficientes Daubechies 9/7 descritos na literatura. Para proporcionar altas taxas de compressão para a transformada irreversível, são utilizados coeficientes reais – que são originalmente propostos em representação de ponto-flutuante. Neste trabalho, estes coeficientes foram implementados em formato de ponto-fixo arredondado, o que resulta erros que foram estimados e controlados. Neste trabalho, várias arquiteturas em hardware para a descrição da transformada wavelet discreta irreversível em duas dimensões foram implementadas para avaliar a relação entre tipo de descrição, consumo de área e atraso de propagação. A arquitetura de melhor relação custo benefício requer 2.090 células de um dispositivo FPGA, podendo operar a até 78,72 MHz, proporcionando uma taxa de processamento de 28,2 milhões de amostras por segundo. Esta arquitetura resultou em um nível de erro médio quadrático de 0,41% para cada nível de transformada. A arquitetura implementada para o bloco do codificador de entropia foi sintetizada a partir de uma descrição comportamental, gerando um hardware capaz de processar até 843 mil coeficientes de entrada por segundo. Os resultados indicam que o compressor de imagens com perdas seguindo o padrão JPEG2000, utilizando os blocos implementados nesta dissertação e operando na máxima freqüência de operação definida, pode codificar em média 1,8 milhões de coeficientes por segundo, ou seja, até 27 frames de 256x256 pixels por segundo. Esta limitação na taxa de codificação é definida pelo codificador de entropia, que possui um algoritmo mais complexo, necessitando de um trabalho complementar para melhorar sua taxa de codificação aumentando o paralelismo do hardware. / The increasing demands for higher data transmission rates and higher data storage capacity call for the development of techniques to increase the compression rate of images while at the same time keeping the image quality. The JPEG2000 Standard proposes the use of the discrete wavelet transform and of arithmetic coding to reach high compression rates, providing reasonable quality to the resulting compressed image. This standard allows lossy as well as loss-less compression, dependent on the type of wavelet transform used. This work considers the implementation of the internal hardware blocks that comprise a lossy image compressor in hardware following the JPEG2000 standard. The main component of this image compressor is the two dimensional irreversible discrete wavelet transform, that is implemented using a lifting scheme with the Daubechies 9/7 coefficients presented in the literature. To provide high compression rates for the irreversible transform, these coefficients – originally proposed in their floating-point representation – are used. In this work, they are implemented as fixed-point rounded coefficients, incurring in errors that we estimate and control. In this work, various hardware architectures for the two dimensional irreversible discrete wavelet transform were implemented to evaluate the tradeoff between the type of description, area consumption and delay. The architecture for the best trade-off requires 2,090 logic cells of a FPGA device, being able to operate up to 78.72 MHz, providing a processing rate of 28.2 million of samples per second. This architecture resulted in 0.41% of mean quadratic error for each transformed octave. The architecture implemented for the block of the entropy encoder was synthesized from a behavioral description, generating the hardware able to process up to 843 thousands of input coefficients per second. The results indicate that the lossy image compressor following JPEG2000 standard, using the blocks implemented in this dissertation and operating in the maximum clock frequency can codify, in average, 1.8 million coefficients per second, or conversely, up to 27 frames of 256x256 pixels per second. The rate-limiting step in this case is the entropy encoder, which has a more complex algorithm that needs further work to be sped up with more parallel hardware.

Page generated in 0.0885 seconds