• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 183
  • 30
  • 14
  • 10
  • 8
  • 5
  • 5
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 309
  • 309
  • 79
  • 64
  • 58
  • 47
  • 47
  • 42
  • 40
  • 37
  • 36
  • 32
  • 31
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

[en] DISCRETE WAVELET TRANFORM IN CONNECTION WITH THE LOSSY LEMPEL-ZIV CODE / [pt] COMPRESSÃO DE IMAGENS USANDO A TRANSFORMADA WAVELET DISCRETA ASSOCIADA AO CÓDIGO DE LEMPEL-ZIG COM PERDAS

SERGIO MARCONDES KNUST 19 July 2006 (has links)
[pt] Neste trabalho é investigada uma técnica de compressão de imagens empregando a Transformada Wavelet Discreta em conexão com o código de compressão mLLZ/d, que é baseado no algoritmo de Lempel-zig com perdas. Primeiramente é apresentada a teoria das wavelets e são discutidos diversos códigos para compactação e compressão baseados no algoritmo de Lempel-Ziv. Em seguida, são apresentados os resultados de diversas simulações realizadas com quatro imagens comumente empregadas neste tipo de análise, de forma a avaliar o desempenho do método em termos de qualidade objetiva e subjetiva. Finalmente, os resultados foram analisados e comparados aos obtidos com outras técnicas de compressão, publicadas em dissertações de mestrado anteriores. / [en] In this work an image compression method employing the Discrete Wavelet Tranform in connection with the Lossy Lempel-Ziv code mLLZ/d is investigated. At first, the wavelet theory as well as several lossy and lossless codes based on the Lempel-ziv algorithm are discussed. Afterwards, simulations are implemented using four images, which are commonly used as a standard for this type of analysis, in order to evaluate the performance of the method in terms of both objective and subjective quality. Finally, the results are analyzed and compared to the ones obtained with other compression techniques, already published in former thesis.
212

Procedimentos avançados em codificação wavelet adaptada à geometria para tratamento e compressão de imagens / Advanced procedures in geometry adapted wavelet coding for image processing and compression

Leite, Ricardo Barroso, 1984- 07 March 2014 (has links)
Orientador: Yuzo Iano / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-25T10:52:38Z (GMT). No. of bitstreams: 1 Leite_RicardoBarroso_D.pdf: 5004138 bytes, checksum: d3b1d6c9ea113cae9462605ed91a70ca (MD5) Previous issue date: 2014 / Resumo: Muitas áreas de pesquisa utilizam imagens digitais e outros arranjos multidimensionais de dados, que para serem transmitidos e armazenados de forma mais eficiente passam por um processo de filtragem e compressão. A transformada wavelet isotrópica é tradicionalmente usada e considerada um método rápido e eficiente para compressão. Por agregar as vantagens de representação multirresolução e a localização dos contornos, as bandelets têm sido consideradas estado-da-arte em várias aplicações de processamento de imagens. Neste trabalho é apresentado um novo método para processamento e compressão de imagens baseado na transformada bandelet. Em nosso método, uma estimativa é feita de forma a reduzir o espaço de busca e tornar o processamento da imagem assintoticamente mais rápido. Os resultados mostram que pode ser feito um compromisso entre qualidade da imagem e tempo computacional, tornando o esquema mais atrativo para uma ampla gama de aplicações. Dentre as áreas beneficiadas por esse método estão transmissão de imagens e vídeo (TV digital e dispositivos móveis), imagens médicas e modelagem 3D / Abstract: Many research areas use digital images and other multi-dimensional arrays of data which to be transmitted and stored more efficiently pass through a filtering process and compression. The isotropic wavelet transform is traditionally used and considered a fast and efficient method for compression. By adding the advantages of multi-resolution representation and location of edges, the bandelets have been considered state of the art in several image processing applications. This work presents a new method for processing and compression based on bandelet transform images. In our method, an estimation is made to reduce the search space and make the image processing asymptotically faster. The results show that a compromise can be made between image quality and computational time, which makes it a more attractive scheme for a wide range of applications. Among the areas benefited by this method are image and video transmission (digital TV and mobile devices), medical imaging and 3D modeling / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
213

Contribuições em codificação de imagens e vídeo = Contributions in image and video coding / Contributions in image and video coding

Testoni, Vanessa 19 August 2018 (has links)
Orientador: Max Henrique Machado Costa / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-19T09:28:05Z (GMT). No. of bitstreams: 1 Testoni_Vanessa_D.pdf: 8106484 bytes, checksum: 21b33811983b7a26e8c1bab2e56ac0aa (MD5) Previous issue date: 2011 / Resumo: A comunidade de codificação de imagens e vídeo vem também trabalhando em inovações que vão além das tradicionais técnicas de codificação de imagens e vídeo. Este trabalho é um conjunto de contribuições a vários tópicos que têm recebido crescente interesse de pesquisadores na comunidade, nominalmente, codificação escalável, codificação de baixa complexidade para dispositivos móveis, codificação de vídeo de múltiplas vistas e codificação adaptativa em tempo real. A primeira contribuição estuda o desempenho de três transformadas 3-D rápidas por blocos em um codificador de vídeo de baixa complexidade. O codificador recebeu o nome de Fast Embedded Video Codec (FEVC). Novos métodos de implementação e ordens de varredura são propostos para as transformadas. Os coeficiente 3-D são codificados por planos de bits pelos codificadores de entropia, produzindo um fluxo de bits (bitstream) de saída totalmente embutida. Todas as implementações são feitas usando arquitetura com aritmética inteira de 16 bits. Somente adições e deslocamentos de bits são necessários, o que reduz a complexidade computacional. Mesmo com essas restrições, um bom desempenho em termos de taxa de bits versus distorção pôde ser obtido e os tempos de codificação são significativamente menores (em torno de 160 vezes) quando comparados ao padrão H.264/AVC. A segunda contribuição é a otimização de uma recente abordagem proposta para codificação de vídeo de múltiplas vistas em aplicações de video-conferência e outras aplicações do tipo "unicast" similares. O cenário alvo nessa abordagem é fornecer vídeo com percepção real em 3-D e ponto de vista livre a boas taxas de compressão. Para atingir tal objetivo, pesos são atribuídos a cada vista e mapeados em parâmetros de quantização. Neste trabalho, o mapeamento ad-hoc anteriormente proposto entre pesos e parâmetros de quantização é mostrado ser quase-ótimo para uma fonte Gaussiana e um mapeamento ótimo é derivado para fonte típicas de vídeo. A terceira contribuição explora várias estratégias para varredura adaptativa dos coeficientes da transformada no padrão JPEG XR. A ordem de varredura original, global e adaptativa do JPEG XR é comparada com os métodos de varredura localizados e híbridos propostos neste trabalho. Essas novas ordens não requerem mudanças nem nos outros estágios de codificação e decodificação, nem na definição da bitstream A quarta e última contribuição propõe uma transformada por blocos dependente do sinal. As transformadas hierárquicas usualmente exploram a informação residual entre os níveis no estágio da codificação de entropia, mas não no estágio da transformada. A transformada proposta neste trabalho é uma técnica de compactação de energia que também explora as similaridades estruturais entre os níveis de resolução. A idéia central da técnica é incluir na transformada hierárquica um número de funções de base adaptativas derivadas da resolução menor do sinal. Um codificador de imagens completo foi desenvolvido para medir o desempenho da nova transformada e os resultados obtidos são discutidos neste trabalho / Abstract: The image and video coding community has often been working on new advances that go beyond traditional image and video architectures. This work is a set of contributions to various topics that have received increasing attention from researchers in the community, namely, scalable coding, low-complexity coding for portable devices, multiview video coding and run-time adaptive coding. The first contribution studies the performance of three fast block-based 3-D transforms in a low complexity video codec. The codec has received the name Fast Embedded Video Codec (FEVC). New implementation methods and scanning orders are proposed for the transforms. The 3-D coefficients are encoded bit-plane by bit-plane by entropy coders, producing a fully embedded output bitstream. All implementation is performed using 16-bit integer arithmetic. Only additions and bit shifts are necessary, thus lowering computational complexity. Even with these constraints, reasonable rate versus distortion performance can be achieved and the encoding time is significantly smaller (around 160 times) when compared to the H.264/AVC standard. The second contribution is the optimization of a recent approach proposed for multiview video coding in videoconferencing applications or other similar unicast-like applications. The target scenario in this approach is providing realistic 3-D video with free viewpoint video at good compression rates. To achieve such an objective, weights are computed for each view and mapped into quantization parameters. In this work, the previously proposed ad-hoc mapping between weights and quantization parameters is shown to be quasi-optimum for a Gaussian source and an optimum mapping is derived for a typical video source. The third contribution exploits several strategies for adaptive scanning of transform coefficients in the JPEG XR standard. The original global adaptive scanning order applied in JPEG XR is compared with the localized and hybrid scanning methods proposed in this work. These new orders do not require changes in either the other coding and decoding stages or in the bitstream definition. The fourth and last contribution proposes an hierarchical signal dependent block-based transform. Hierarchical transforms usually exploit the residual cross-level information at the entropy coding step, but not at the transform step. The transform proposed in this work is an energy compaction technique that can also exploit these cross-resolution-level structural similarities. The core idea of the technique is to include in the hierarchical transform a number of adaptive basis functions derived from the lower resolution of the signal. A full image codec is developed in order to measure the performance of the new transform and the obtained results are discussed in this work / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
214

Contribuições para pós processamento da transformada wavelet na codificação roi e spiht com aplicação na transmissão de imagens / Contributions for post processing of wavelet transform with SPIHT ROI coding and application in the transmission of images

Larico Chavez, Roger Fredy 19 August 2018 (has links)
Orientador: Yuzo Iano / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-19T20:29:50Z (GMT). No. of bitstreams: 1 LaricoChavez_RogerFredy_D.pdf: 2886619 bytes, checksum: 3c97581a74eb56d1cd20c390b38697c1 (MD5) Previous issue date: 2012 / Resumo: A área que trata de compressão de imagem com perdas é, atualmente, de grande importância. Isso se deve ao fato de que as técnicas de compressão permitem representar de uma forma eficiente uma imagem reduzindo assim, o espaço necessário para armazenamento ou um posterior envio da imagem através de um canal de comunicações. Em particular, o algoritmo SPIHT (Set Partitioning of Hierarchical Trees) muito usado em compressão de imagens é de implementação simples e pode ser aproveitado em aplicações onde se requer uma baixa complexidade. Este trabalho propõe um esquema de compressão de imagens utilizando uma forma personalizada de armazenamento da transformada DWT (Discrete Wavelet Transform), codificação flexível da ROI (Region Of Interest) e a compressão de imagens usando o algoritmo SPIHT. A aplicação consiste na transmissão dos dados correspondentes usando-se codificação turbo. A forma personalizada de armazenamento da DWT visa um melhor aproveitamento da memória por meio do uso de algoritmo SPIHT. A codificação ROI genérica é aplicada em um nível alto da decomposição DWT. Nesse ponto, o algoritmo SPIHT serve para ressaltar e transmitir com prioridade as regiões de interesse. Os dados a serem transmitidos, visando o menor custo de processamento, são codificados com um esquema turbo convolucional. Isso porque esse esquema é de implementação simples no que concerne à codificação. A simulação é implementada em módulos separados e reutilizáveis para esta pesquisa. Os resultados das simulações mostram que o esquema proposto é uma solução que diminui a quantidade de memória utilizada bem como o custo computacional para aplicações de envio de imagens em aplicações como transmissão de imagens via satélite, radiodifusão e outras mídias / Abstract: Nowadays, the area that comes to lossy image compression is really important. This is due to the fact that compression techniques allow an efficient way to represent an image thereby reducing the space required for storage or subsequent submission of an image through a communications channel. In particular, the algorithm SPIHT (Set Partitioning of Hierarchical Trees) widely used in image compression is simple to implement and can be used in applications where a low complexity is required. This study proposes an image compression scheme using a personalized storage transform DWT (Discrete Wavelet Transform), encoding flexible ROI (Region Of Interest) and image compression algorithm using SPIHT. The application consists in a transmission of the corresponding data using turbo coding. The shape of the custom storage DWT aims to make better use of memory by reducing the amount of memory through the use of SPIHT algorithm. ROI coding is applied in a generic high-level DWT decomposition. At this point, the algorithm serves to highlight SPITH and transmit the priority areas of interest. The data to be transmitted in order to lower the cost of processing are encoded with a turbo convolutional scheme. This is due this scheme is simple to implement with regard to coding. The simulation is implemented in separate modules and reusable for this research. The simulations and analysis show that the proposed scheme is a solution that decreases the amount of memory used and the computational cost for applications to send images in applications such as image transmission via satellite, broadcasting and others medias / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
215

Aplicação da codificação ROI e WT para compressão de imagens DICOM-CT / Aplication of the ROI coding and WT for compression DICOM-CT images

Cutipa Arapa, Efraina Gladys 20 August 2018 (has links)
Orientador: Yuzo Iano / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-20T02:17:41Z (GMT). No. of bitstreams: 1 CutipaArapa_EfrainaGladys_M.pdf: 5028658 bytes, checksum: 07c8aaabf3096b4e5cd565e0f12f6fe6 (MD5) Previous issue date: 2012 / Resumo: O armazenamento e a transmissão de grande quantidade de imagens médicas constituem um campo ativo de pesquisa. Dispositivos de imagem geram muitos dados por paciente. Além disso, deve-se prover armazenamento de longo prazo bem como uma transmissão eficiente. Esquemas de compressão atuais produzem taxas de compressão elevadas e com perda de qualidade. Uma abordagem de processamento que permita uma alta taxa de compressão e codificação de regiões de interesse ROI (Region Of Interest) com boa qualidade é assim desejável. Neste trabalho um método de codificação ROI e WT (Wavelet Transform) para compressão de imagem digital no formato padrão DICOM (Digital Imaging and Communications in Medicine) é apresentado. Essas aplicações permitem extrair informações relevantes para o armazenamento de uma imagem com um menor custo computacional e com um erro muito pequeno quando se compara a imagem original com aquela processada / Abstract: The storage and transmission of large amounts of medical images is an active field research. In general, imaging devices generates large amounts of data per patient. Besides, we need to provide long-term storage and an efficient transmission. Current compression schemes produce high compression rates if some loss of quality is affordable. However in medicine field we cannot afford any losses in diagnostically important regions. An approach that brings a high compression rate with a good quality is thus necessary. In this work a method of ROI coding e WT (Wavelet Transform) for compression of compression of digital imaging is presented. These applications allow extract relevant information from an image archiving with a lower computational cost and with a very small error when comparing the original and processed images / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
216

Clustering algorithms and their effect on edge preservation in image compression

Ndebele, Nothando Elizabeth January 2009 (has links)
Image compression aims to reduce the amount of data that is stored or transmitted for images. One technique that may be used to this end is vector quantization. Vectors may be used to represent images. Vector quantization reduces the number of vectors required for an image by representing a cluster of similar vectors by one typical vector that is part of a set of vectors referred to as the code book. For compression, for each image vector, only the closest codebook vector is stored or transmitted. For reconstruction, the image vectors are again replaced by the the closest codebook vectors. Hence vector quantization is a lossy compression technique and the quality of the reconstructed image depends strongly on the quality of the codebook. The design of the codebook is therefore an important part of the process. In this thesis we examine three clustering algorithms which can be used for codebook design in image compression: c-means (CM), fuzzy c-means (FCM) and learning vector quantization (LVQ). We give a description of these algorithms and their application to codebook design. Edges are an important part of the visual information contained in an image. It is essential therefore to use codebooks which allow an accurate representation of the edges. One of the shortcomings of using vector quantization is poor edge representation. We therefore carry out experiments using these algorithms to compare their edge preserving qualities. We also investigate the combination of these algorithms with classified vector quantization (CVQ) and the replication method (RM). Both these methods have been suggested as methods for improving edge representation. We use a cross validation approach to estimate the mean squared error to measure the performance of each of the algorithms and the edge preserving methods. The results reflect that the edges are less accurately represented than the non - edge areas when using CM, FCM and LVQ. The advantage of using CVQ is that the time taken for code book design is reduced particularly for CM and FCM. RM is found to be effective where the codebook is trained using a set that has larger proportions of edges than the test set.
217

On Image Compression using Curve Fitting

Butt, Amar Majeed, Sattar, Rana Asif January 2010 (has links)
Context: Uncompressed Images contain redundancy of image data which can be reduced by image compression in order to store or transmit image data in an economic way. There are many techniques being used for this purpose but the rapid growth in digital media requires more research to make more efficient use of resources. Objectives: In this study we implement Polynomial curve fitting using 1st and 2nd curve orders with non-overlapping 4x4 and 8x8 block sizes. We investigate a selective quantization where each parameter is assigned a priority. The 1st parameter is assigned high priority compared to the other parameters. At the end Huffman coding is applied. Three standard grayscale images of LENA, PEPPER and BOAT are used in our experiment. Methods: We did a literature review, where we selected articles from known libraries i.e. IEEE, ACM Digital Library, ScienceDirect and SpringerLink etc. We have also performed two experiments, one experiment with 1st curve order using 4x4 and 8x8 block sizes and second experiment with 2nd curve order using same block sizes. Results: A comparison using 4x4 and 8x8 block sizes at 1st and 2nd curve orders shows that there is a large difference in compression ratio for the same value of Mean Square Error. Using 4x4 block size gives better quality of an image as compare to 8x8 block size at same curve order but less compression. JPEG gives higher value of PSNR at low and high compression. Conclusions: A selective quantization is good idea to use to get better subjective quality of an image. A comparison shows that to get good compression ratio, 8x8 block size at 1st curve order should be used but for good objective and subjective quality of an image 4x4 block size at 2nd order should be used. JPEG involves a lot of research and it outperforms in PSNR and CR as compare to our proposed scheme at low and high compression ratio. Our proposed scheme gives comparable objective quality (PSNR) of an image at high compression ratio as compare to the previous curve fitting techniques implemented by Salah and Ameer but we are unable to achieve subjective quality of an image.
218

A Resource Efficient, HighSpeed FPGA Implementation of Lossless Image Compression for 3D Vision

Hinnerson, Martin January 2019 (has links)
High speed laser-scanning cameras such as Ranger3 from SICK send 3D images with high resolution and dynamic range. Typically the bandwidth of the transmission link set the limit for the operational frequency of the system. This thesis show how a lossless image compression system in most cases can be used to reduce bandwidth requirements and allow for higher operational frequencies. A hardware encoder is implemented in pl on the ZC-706 development board featuring a ZYNQ Z7045 SoC. In addition, a software decoder is implemented in C++. The encoder is based on the felics and jpeg-ls lossless compression algorithms and the implementation operate at 214.3 MHz with a max throughput of 3.43 Gbit/s. The compression ratio is compared to that of competing implementations from Teledyne DALSA Inc. and Pleora Technologies on a set of typical 3D range data images. The proposed algorithm achieve a higher compression ratio while maintaining a small hardware footprint.
219

Komprese obrazu pomocí neuronových sítí / Image Compression with Neural Networks

Teuer, Lukáš January 2018 (has links)
This document describes image compression using different types of neural networks. Features of neural networks like convolutional and recurrent networks are also discussed here. The document contains detailed description of various neural network architectures and their inner workings. In addition, experiments are carried out on various neural network structures and parameters in order to find the most appropriate properties for image compression. Also, there are proposed new concepts for image compression using neural networks that are also immediately tested. Finally, a network of the best concepts and parts discovered during experimentation is designed.
220

Přehrávač videa využívající FPGA / Video Player Based on FPGA

Sigmund, Stanislav January 2010 (has links)
This thesis deals with possible and realized decompression and playing of video on platforms, using FPGA unit. For implementation of this player is used platform FITKit, which has integrated VGA connector and large enough RAM memory. It uses a hard drive as memory medium with FAT32 file system.

Page generated in 0.1286 seconds