• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 8
  • 5
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 36
  • 36
  • 36
  • 17
  • 16
  • 15
  • 14
  • 12
  • 9
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Metodos universais de compreensão de dados

Souza, Fabiola Gonçalves Pereira de 16 December 1991 (has links)
Orientador : Claudio Leonardo Lucchesi / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencias da Computação / Made available in DSpace on 2018-07-14T01:46:22Z (GMT). No. of bitstreams: 1 Souza_FabiolaGoncalvesPereirade_M.pdf: 4968380 bytes, checksum: fc7f2d0645f34c886f3fdb770798105b (MD5) Previous issue date: 1991 / Resumo: A Compressão de Dados objetiva representar os dados de maneira reduzida. Este trabalho apresenta os principais métodos de compressão para dados textuais, cuja compressão exibida seja universal (a compressão se adapta a qualquer tipo de dado) e fiel (os dados podem ser recuperados integralmente). A dissertação consiste de quatro Capítulos. O Capítulo 1 apresenta o assunto. O Capítulo 2 introduz conceitos necessários ao entendimento dos métodos. Desta maneira, realiza uma caracterização dos códigos adotados na representação; esclarece porque é possível reduzir o comprimento dos textos; engloba os métodos numa classificação. O Capítulo 3 apresenta os métodos. Para tanto, realiza uma descrição do processo de compressão adotado, fornece uma avaliação teórica do seu desempenho, e detalha possíveis implementações. Os métodos estudados são: Shannon Fano, Huffman, Aritmético, Elias-Bentley e Lempel-Ziv. Além disso, sempre que possível, é feita uma associação entre os métodos mencionados e os utilitários: PKPAK, PKZIP, ICE, LHA, ARJ e também pack, compact e compress a Capítulo 4 apresenta uma avaliação empírica sobre o desempenho dos vários métodos estudados, bem como uma comparação que também envolve os utilitários mencionados / Abstract: The objective of Data Compression is to reduce the size of data representation. In this work we present the most important methods for universal and lossless compression, that is, methods which are applicable to all kinds of data and allow full recovery of information. This dissertation consists of four chapters. In Chapter 1 we present the subject. In Chapter 2 we introduce the fundamental concepts in data compression. Thus, we characterize codes, redundancy and classify data compression methods. In Chapter 3 we describe the most important methods and discuss their performance and possible implementations; the methods are: Shannon-Fano's, Huffman's, Arithmetic Coding, Elias-Bentley's and Lempel-Ziv's. In addition, whenever possible, an association is made with well-known data compression programs such as PKPAK, PKZIP, ICE, LHA, ARJ and pack, compact and compress. In Chapter 4 we give an empirical evaluation of the performance of those methods, as well as a comparison with the well-known programs mentioned above / Mestrado / Mestre em Ciência da Computação
2

Codigos de linha para sistemas opticos de alta capacidade

Batista, Marcos Antonio Cassiolato 27 January 1994 (has links)
Orientador : Helio Waldman / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-18T21:56:10Z (GMT). No. of bitstreams: 1 Batista_MarcosAntonioCassiolato_M.pdf: 2067265 bytes, checksum: b1c3bf232caaa8d21e774d3a0d79ddc1 (MD5) Previous issue date: 1994 / Resumo: Foi realizado um estudo sobre várias técnicas de codificação de linha para sistemas ópticos de alta velocidade, nas quais o uso de grandes tabelas memorizadas é problemático. Duas soluções para este problema são discutidas neste trabalho. A primeira é uma versão modificada dos códigos PFmB(m+ 1 )B, com vantagens de desempenho e sem nenhum acréscimo de complexidade. O segundo esquema de codificação proposto combina técnicas de memorização das palavras-código em tabelas com técnicas algorítmicas, porém com a finalidade de reduzir ao mínimo imprescindível o tamanho destas tabelas para um determinado desbalanço especificado. O compromisso entre o tamanho das tabelas e o balanceamento alcançável é estudado e dimensionado. Finalmente, são estudados outros parâmetros de desempenho, como as propriedades espectrais, a sincronizabilidade e a monitorabilidade da taxa de erros / Abstract: Alternative coding techniques for high speed optical transmission systems, in wich the use of extensive tables in memory is a problem, have been discussed in recent literature. Two solutions for this problem are discussed in this work. The first is a modified version of the PFmB(m+ 1)B codes, with higher performance and no added complexity. The second coding method combines traditional codeword assignment techniques with algorithmic techniques. This method minimizes the size of the tables for the specified running digital sum. The compromise between the table size and sequence imbalance is studied and dimensioned. Finally, other performance parameters such as spectral properties, synchronizability, and error rate monitorizability, are studied. / Mestrado / Mestre em Engenharia Elétrica
3

Motion compensation with minimal residue dispersion matching criteria

Oliveira, Gabriel Lemes Silva Luciano de 16 February 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnoloigia, 2016. / Com a crescente demanda por serviços de vídeo, técnicas de compressão de vídeo tornaram-se uma tecnologia de importância central para os sistemas de comunicação modernos. Padrões para codificação de vídeo foram criados pela indústria, permitindo a integração entre esses serviços e os mais diversos dispositivos para acessá-los. A quase totalidade desses padrões adota um modelo de codificação híbrida, que combina métodos de codificação diferencial e de codificação por transformadas, utilizando a compensação de movimento por blocos (CMB) como técnica central na etapa de predição. O método CMB tornou-se a mais importante técnica para explorar a forte redundância temporal típica da maioria das sequências de vídeo. De fato, muito do aprimoramento em termos de e ciência na codificação de vídeo observado nas últimas duas décadas pode ser atribuído a refinamentos incrementais na técnica de CMB. Neste trabalho, apresentamos um novo refinamento a essa técnica. Uma questão central à abordagem de CMB é a estimação de movimento (EM), ou seja, a seleção de vetores de movimento (VM) apropriados. Padrões de codificação tendem a regular estritamente a sintaxe de codificação e os processos de decodificação para VM's e informação de resíduo, mas o algoritmo de EM em si é deixado a critério dos projetistas do codec. No entanto, embora praticamente qualquer critério de seleção permita uma decodi cação correta, uma seleção de VM criteriosa é vital para a e ciência global do codec, garantindo ao codi cador uma vantagem competitiva no mercado. A maioria do algoritmos de EM baseia-se na minimização de uma função de custo para os blocos candidatos a predição para um dado bloco alvo, geralmente a soma das diferenças absolutas (SDA) ou a soma das diferenças quadradas (SDQ). A minimização de qualquer uma dessas funções de custo selecionará a predição que resulta no menor resíduo, cada uma em um sentido diferente porém bem de nido. Neste trabalho, mostramos que a predição de mínima dispersão de resíduo é frequentemente mais e ciente que a tradicional predição com resíduo de mínimo tamanho. Como prova de conceito, propomos o algoritmo de duplo critério de correspondência (ADCC), um algoritmo simples em dois estágios para explorar ambos esses critérios de seleção em turnos. Estágios de minimização de dispersão e de minimização de tamanho são executadas independentemente. O codificador então compara o desempenho dessas predições em termos da relação taxa-distorção e efetivamente codifica somente a mais eficiente. Para o estágio de minimização de dispersão do ADCC, propomos ainda o desvio absoluto total com relação à média (DATM) como a medida de dispersão a ser minimizada no processo de EM. A tradicional SDA é utilizada como a função de custo para EM no estágio de minimização de tamanho. O ADCC com SDA/DATM foi implementado em uma versão modificada do software de referência JM para o amplamente difundido padrão H.264/AVC de codificação. Absoluta compatibilidade a esse padrão foi mantida, de forma que nenhuma modificação foi necessária no lado do decodificador. Os resultados mostram aprimoramentos significativos com relação ao codificador H.264/AVC não modificado. / With the ever growing demand for video services, video compression techniques have become a technology of central importance for communication systems. Industry standards for video coding have emerged, allowing the integration between these services and the most diverse devices. The almost entirety of these standards adopt a hybrid coding model combining di erential and transform coding methods, with block-based motion compensation (BMC) at the core of its prediction step. The BMC method have become the single most important technique to exploit the strong temporal redundancy typical of most video sequences. In fact, much of the improvements in video coding e ciency over the past two decades can be attributed to incremental re nements to the BMC technique. In this work, we propose another such re nement. A key issue to the BMC framework is motion estimation (ME), i.e., the selection of appropriate motion vectors (MV). Coding standards tend to strictly regulate the coding syntax and decoding processes for MV's and residual information, but the ME algorithm itself is left at the discretion of the codec designers. However, though virtually any MV selection criterion will allow for correct decoding, judicious MV selection is critical to the overall codec performance, providing the encoder with a competitive edge in the market. Most ME algorithms rely on the minimization of a cost function for the candidate prediction blocks given a target block, usually the sum of absolute di erences (SAD) or the sum of squared di erences (SSD). The minimization of any of these cost functions will select the prediction that results in the smallest residual, each in a di erent but well de ned sense. In this work, we show that the prediction of minimal residue dispersion is frequently more e cient than the usual prediction of minimal residue size. As proof of concept, we propose the double matching criterion algorithm (DMCA), a simple two-pass algorithm to exploit both of these MV selection criteria in turns. Dispersion minimizing and size minimizing predictions are carried out independently. The encoder then compares these predictions in terms of rate-distortion performance and outputs only the most e cient one. For the dispersion minimizing pass of the DMCA, we also propose the total absolute deviation from the mean (TADM) as the measure of residue dispersion to be minimized in ME. The usual SAD is used as the ME cost function in the size minimizing pass. The DMCA with SAD/TADM was implemented in a modi ed version of the JM reference software encoder for the widely popular H.264/AVC coding standard. Absolute compliance to the standard was maintained, so that no modi cations on the decoder side were necessary. Results show signi cant improvements over the unmodi ed H.264/AVC encoder.
4

Novas medidas de distorção estatisticas para avaliar a qualidade de algoritmos de compressão de imagens

Allan, Lucila Helena A 25 February 1997 (has links)
Orientador: Arnoldo Jose de Hoyos Guevara / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-07-22T04:05:03Z (GMT). No. of bitstreams: 1 Allan_LucilaHelenaA_M.pdf: 5934181 bytes, checksum: 880214e63b2d9eebccff84ba8f8b0df2 (MD5) Previous issue date: 1997 / Resumo: O objetivo principal deste trabalho é procurar novas medidas de distorção estatísticas que permitam avaliar objetivamente algoritmos de compressão de imagens. Procuramos as novas medidas utilizando técnicas estatísticas, relacionadas principalmente as áreas de Análise Multivariada e Teoria da Informação. Para avaliar seu desempenho, aplicamos estas medidas em imagens de qualidade visual distintas produzidas por quatro tipos diferentes de algoritmos de compressão. utilizados atualmente. A fim de comparar a eficiência destas medidas foi feita uma pesquisa de opinião visando avaliar a qualidade subjetiva das várias imagens, que serviria de padrão comparativo de qualidade. Como resultado deste trabalho, selecionamos duas ova medidas que apresentaram bons resultados em relação aos critérios clássicos relacionados ao Erro Quadrático Médio. / Abstract: The main purpose of this work is to develop statistical models that could help to measure distortions, so that one could compare objectively the quality of image compression algorithms. The statistical models were developed using methods that come from Multivariate Statistical Analysis and Information Theory. For developing and testing our image quality models we used four different and very popular image compression algorithms. Moreover for efficiency comparison purposes we obtained, by. using a polI, a mean subjective measure of image quality As a result of our work we obtained two new statistical image quality models that in general behave better than the classical and commercial ones based on a global measure of the Mean Square Error. / Mestrado / Mestre em Estatística
5

Proteção desigual de erros em arquivos compactados / Marcos Alexandre Araújo Siqueira ; [orientador, Marcelo Eduardo Pellenz]

Siqueira, Marcos Alexandre Araújo January 2005 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2005 / Inclui bibliografia / Os algoritmos de compressão sem perdas baseados na codificação de Lempel-Ziv são amplamente usados para compressão de textos e também em determinados esquemas de compressão com perdas para imagem e vídeo. Em sistemas multimídia, sempre é necessário manipu
6

A hybrid no-reference video quality metric for digital transmission applincatios

Morais, Dário Daniel Ribeiro 09 March 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-05-26T21:27:49Z No. of bitstreams: 1 2017_DarioDanielRibeiroMorais.pdf: 11590245 bytes, checksum: 2daecd1489fc94cb4c8afb7736e1181f (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-05-29T23:07:11Z (GMT) No. of bitstreams: 1 2017_DarioDanielRibeiroMorais.pdf: 11590245 bytes, checksum: 2daecd1489fc94cb4c8afb7736e1181f (MD5) / Made available in DSpace on 2017-05-29T23:07:11Z (GMT). No. of bitstreams: 1 2017_DarioDanielRibeiroMorais.pdf: 11590245 bytes, checksum: 2daecd1489fc94cb4c8afb7736e1181f (MD5) Previous issue date: 2017-05-29 / Este trabalho visa desenvolver uma métrica híbrida de qualidade de vídeo sem referência para aplicações de transmissão digital, que leva em consideração três tipos de artefatos: perda de pacotes, blocado e borrado. As características desses artefatos são extraídas a partir das sequências de vídeo a fim de quantificar a força desses artefatos. A avaliação de perda de pacotes é dividida em 2 etapas: detecção e medição. As avaliações de blocado e borrado seguem referências da literatura. Depois de obter as características dos três tipos de artefatos, um processo de aprendizado de máquina (SVR) é utilizado para estimar a nota de qualidade prevista a partir das características extraídas. Os resultados obtidos com a métrica proposta foram comparados com os resultados obtidos com outras três métricas disponíveis na literatura (duas métricas NR de perda de pacotes e 1 métrica FR) e eles são promissores. A métrica proposta é cega, rápida e confiável para ser usada em cenários em tempo real. / This work aims to develop a hybrid no-reference video quality metric for digital transmission applications, which takes into account three types of artifacts: packet-loss, blockiness and bluriness. Features are extracted from the video sequences in order to quantity the strength of these three artifacts. The assessment of the packet-loss strength is performed in 2 stages: detection and measurement. The assessment of the strength of blockiness and blussiness follow references from literature. After obtaining the features from these three types of artifacts, a machine learning algorithm ( the support vector regression technique), is used to estimate the predicted quality score from the extracted features. The results obtained with the proposed metric were compared with the results obtained with three other metrics available in the literature (two NR packet-loss metrics and one FR metric). The proposed metric is blind, fast, and reliable to be used in real-time scenarios.
7

Compressão de eletrocardiogramas usando wavelets / Compression of electrocardiograms using wavelets

Agulhari, Cristiano Marcos, 1983- 02 November 2009 (has links)
Orientador: Ivanil Sebastião Bonatti / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-12T20:20:55Z (GMT). No. of bitstreams: 1 Agulhari_CristianoMarcos_M.pdf: 901688 bytes, checksum: 97ec8feb4ee297c319c80463616a7391 (MD5) Previous issue date: 2009 / Resumo: A principal contribuição desta dissertação é a proposta de dois métodos de compressão de eletrocardiogramas (ECGs). O primeiro método, chamado Run Length Encoding Adaptativo (RLEA), é baseado nas transformadas wavelet e consiste basicamente em utilizar uma função wavelet, obtida pela resolução de um problema de otimização, que se ajuste ao sinal a ser comprimido. O problema de otimização torna-se irrestrito com a parametrização dos coeficientes do filtro escala, que definem unicamente uma função wavelet. Após a resolução do problema de otimização é aplicado o procedimento de decomposição wavelet no sinal e os coeficientes de representação mais significativos são retidos, sendo que o número de coeficientes retidos é determinado de forma a satisfazer uma medida de distorção pré-especificada. Os coeficientes retidos são então quantizados e compactados, assim como o bitmap que indica as posições dos coeficientes retidos. A quantização é feita de forma adaptativa, utilizando diferentes números de bits de quantização para os diferentes subespaços de decomposição considerados. Tanto os valores dos coeficientes retidos quanto o bitmap são codificados utilizando uma variante do método Run Length Encoding. O segundo método proposto nesta dissertação, chamado Zero Padding Singular Values Decomposition (ZPSVD), consiste em primeiramente detectar os batimentos, equalizá-los pela inserção de zeros (zero padding) e então aplicar a decomposição SVD para obter tanto a base quanto os coeficientes de representação dos batimentos. Alguns componentes da base são retidos e então comprimidos utilizando os mesmos procedimentos aplicados aos coeficientes de decomposição do ECG no método RLEA, enquanto que os coeficientes de projeção dos batimentos nessa base são quantizados utilizando um procedimento de quantização adaptativa. Os dois métodos de compressão propostos são comparados com diversos outros métodos existentes na literatura por meio de experimentos numéricos / Abstract: The main contribution of the present thesis is the proposition of two electrocardiogram (ECG) compression methods. The first method, called Run Length Encoding Adaptativo (RLEA), is based on wavelet transforms and consists of using a wavelet function, obtained by the resolution of an optimization problem, which fits to the signal to be compressed. The optimization problem becomes unconstrained with the parametrization of the coefficients of the scaling filter, that define uniquely a wavelet function. After the resolution of the optimization problem, the wavelet decomposition procedure is applied to the signal and the most significant coefficients of representation are retained, being the number of retained coefficients determined in order to satisfty a pre-specified distortion measure. The retained coefficients are quantized and compressed, likewise the bitmap that informs the positions of the retained coefficients. The quantization is performed in an adaptive way, using different numbers of bits for the different decomposition subspaces considered. Both the values of the retained coefficients and the bitmap are encoded using a modi- fied version of the Run Length Encoding technique. The second method proposed in this dissertation, called Zero Padding Singular Values Decomposition (ZPSVD), consists of detecting the beat pulses of the ECG, equalizing the pulses by inserting zeros (zero padding), and finally applying the SVD to obtain both the basis and the coefficients of representation of the beat pulses. Some components of the basis are retained and then compressed using the same procedures applied to the coefficients of decomposition of the ECG in the RLEA method, while the coefficients of projection of the beat pulses in the basis are quantized using an adaptive quantization procedure. Both proposed compression methods are compared to other techniques by means of numerical experiments / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
8

Compressão de byte-code utilizando recuperação de sintaxe abstrata

Costa, Bruno Kraychete da 11 August 2018 (has links)
Orientador: Guido Costa Souza de Araujo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-11T23:31:29Z (GMT). No. of bitstreams: 1 Costa_BrunoKraycheteda_M.pdf: 9665605 bytes, checksum: 16223ea98c66ee77839bcdaae9286d78 (MD5) Previous issue date: 2000 / Resumo: Com os avanços da tecnologia nas áreas de comunicação sem fio e computação pessoal, os chamados computadores portáteis. ou handhelds estão se tornando alvo de muita atenção em Computação. Por outro lado, linguagens cujo alvo são máquinas virtuais (ex. Java), têm permitido a construção de sistemas portáteis distribuídos que são independentes do processador. Os handhelds são normalmente projetados em torno de um processador dedicado e uma pequena quantidade de memória, de modo a manter baixo o custo do projeto. As limitações de memória encontradas em tais dispositivos, e o aumento da demanda por banda disponível. nas redes têm renovado o interesse em pesquisas voltadas para a compressão de código móvel. Neste trabalho, nós mostramos um método de compressão para estes dispositivos baseado na recuperação das Árvores de Sintaxe Abstrata (ASA) do programa. Resultados experimentais, utilizando o Benchmark JVM98, revelaram uma melhoria nas razões de compressão em relação àquelas obtidas usando exclusivamente o algoritmo Lempel-Ziv- Welch. / Abstract: With the advances in technologies for wireless communications and personal computing, the so called portable appliances or handhelds are expected to become mainstream computer devices. Gn the software side, languages targeted to virtual machines (eg. lava) have enabled the design of flexible mobile distributed systems that are independent of the underlying processor. In order to keep costs low, handhelds are usually designed around a cheap dedicated processor and a small memory set. The memory size constraints found on such devices, and the increasing demand for bandwidth have been renewing the research interest towards new program compression techniques. In this work, we show a compression method for these devices, that is based on the recovery of the program Abstract Syntax Trees. Experimental results, using the JVM98 Benchmark, reveal an improvement on the compression ratio over the LZW algorithm when the ASTs are recovered before com pression. / Mestrado / Mestre em Ciência da Computação
9

Uma arquitetura para execução de codigo comprimido em sistemas dedicados

Azevedo, Rodolfo Jardim de, 1974- 18 June 2002 (has links)
Orientador : Guido Costa Souza de Araujo / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-01T12:52:13Z (GMT). No. of bitstreams: 1 Azevedo_RodolfoJardimde_D.pdf: 18616768 bytes, checksum: 99d078e8664f7791ae046a28a3108976 (MD5) Previous issue date: 2002 / Resumo: Projetos de sistemas dedicados modernos têm exigido cada vez mais memória de programa para incluir novas funcionalidades como interface com o usuário, suporte a novos componentes, etc. O aumento no tamanho dos programas tem feito com que a área ocupada pela memória em um circuito integrado moderno seja um dos fatores determinantes no seu custo final bem como um dos maiores responsáveis pelo consumo de potência nestes dispositivos. A compressão de código de programa vem sendo considerada como uma estratégia importante na minimização deste problema. Esta tese trata da compressão de programas para execução em sistemas dedicados baseados em arquiteturas RISC. Um amplo estudo demonstra que a utilização do método proposto neste trabalho, Instruction Based Compression (IBC), resulta em boas razões de compressão e implementações eficientes de descompressores. Para a arquitetura MIPS foi obtida a melhor razão de compressão (tamanho final do programa comprimido e do descompressor em relação ao programa original) conhecida (53,6%) utilizando como benchmark programas do SPEC CINT'95. Uma arquitetura pipelined para o descompressor é proposta e um protótipo foi implementado para o processador Leon (SPARC V8). Esta é a primeira implementação em hardware de um descompressor para a arquitetura SPARC, tendo produzido uma razão de compressão de 61,8% para o mesmo benchmark e uma queda de apenas 5,89% no desempenho médio do sistema / Abstract: The demand for program memory in embedded systems has grown considerably in recent years, as a result of the need to accommodate new system functionalities such as novel user interfaces, additional hardware devices, etc. The increase in program size has turned memory into the largest single factor in the total area and power dissipation of a modern System-on-a-Chíp (SoC). Program code compression has been considered recently a central technique in reducing the cost of memory in such systems. This thesis studies the code compression problem for RISC architectures. A thorough experimental study shows that the Instructíon Based Compressíon (IBC) technique proposed herein results in very good compression ratios and efficient decompressor engine implementations. For the MIPS architecture this approach results in the best compression ratio (size of the compressed program divided by the size of the original program) known in the literature (53.6%), when it is evaluated using the SPEC CINT'95 benchmark programs. A decompressor pipelined architecture was developed and prototyped for the Leon (SPARC V8) processor. This is the first implementation of a hardware decompressor on the SPARC architecture, having resulted in a 61.8% compression ratio for the same benchmark, at the expense of a fairly small performance overhead (5.89% on average) / Doutorado / Doutor em Ciência da Computação
10

Compressão progressiva de imagens usando DCT e codigo de Golomb

Oliveira, Fabricio Correa de Araujo 02 August 2018 (has links)
Orientador : Max Henrique Machado Costa / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-02T20:04:46Z (GMT). No. of bitstreams: 1 Oliveira_FabricioCorreadeAraujo_M.pdf: 1139429 bytes, checksum: 099ebea5712f5fca3138f7018e9ff682 (MD5) Previous issue date: 2002 / Mestrado

Page generated in 0.1063 seconds