Spelling suggestions: "subject:"compressão dde dados"" "subject:"compressão dee dados""
1 |
Compressão de sinais de S-EMG em abordagens 1D E 2D / S-EMG signal compression in 1D and 2D approachesTrabuco, Marcel Henrique 15 September 2017 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2018-02-21T18:19:33Z
No. of bitstreams: 1
2017_MarcelHenriqueTrabuco.pdf: 15513525 bytes, checksum: 891f831794f609c9b9f93b8c425cd95d (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-02-27T18:13:32Z (GMT) No. of bitstreams: 1
2017_MarcelHenriqueTrabuco.pdf: 15513525 bytes, checksum: 891f831794f609c9b9f93b8c425cd95d (MD5) / Made available in DSpace on 2018-02-27T18:13:32Z (GMT). No. of bitstreams: 1
2017_MarcelHenriqueTrabuco.pdf: 15513525 bytes, checksum: 891f831794f609c9b9f93b8c425cd95d (MD5)
Previous issue date: 2018-02-27 / O objetivo desta tese de doutorado é o desenvolvimento de algoritmos de compressão de sinais de eletromiografia de superfície (S-EMG, do inglês Surface Electromyography) arranjados de forma unidimensional (1D) e bidimensional (2D). Os algoritmos 1D são baseados em Transformada de Wavelet e na alocação de bits por sub-bandas do espaço transformado 1D. Cinco perfis distintos de alocação são propostos: exponencial, linear, raiz-quadrática, tangente hiperbólica e logarítmico, todos decrescentes. Os quatro primeiros possuem comportamento fixo, o último, possui comportamento adaptativo. Os algoritmos 2D geram uma representação bidimensional do sinal de S-EMG a partir da segmentação do sinal 1D e são divididos em três grupos: 1) Contêm os algoritmos de compressão baseados em Transformada Wavelet 2D e na alocação de bits por sub-bandas do espaço transformado 2D. 2) Contêm os algoritmos de compressão baseados em Transformada Wavelet 2D, no reordenamento adaptativo do espaço transformado e na alocação de bits pelo perfil tangente hiperbólico. E por fim, 3) Composto pelos algoritmos baseados no codificador de vídeo HEVC aplicados a uma imagem do sinal de S-EMG gerada por reordenação simples ou baseada no recorte adaptativo entre duas contrações musculares consecutivas. Os algoritmos são testados com bancos de sinais reais dinâmicos e isométricos e o desempenho é avaliado por métricas objetivas. Ademais, são realizadas comparações de desempenho entre os algoritmos propostos e por outros algoritmos relatados na literatura. Os algoritmos propostos se mostram promissores por serem superiores aos outros algoritmos comparados quando o fator de compressão é menor que 90% para protocolo isométrico e em toda faixa de fator de compressão para o protocolo dinâmico. / The aim of this PhD thesis is the design of compression algorithms for Surface Eletromyography (S-EMG) signals arranged one-dimensional (1D) and bi-dimensional mode. The 1D algorithms are based in Wavelet Transform and the bits allocation by subbands of the transformed space 1D. Five distinct allocation profiles are proposed: Exponential, linear, root-quadratic, hyperbolic and logarithmic tangent, all decreasing. The first four have static behavior, the latter has adaptive behavior. The 2D algorithms generate a bi-dimensional representation of the S-EMG signal from the 1D signal segmentation and are divided into three groups: 1) This group contains the compression algorithms based on Wavelet Transform 2D and the bits allocation by
|
2 |
Metodos universais de compreensão de dadosSouza, Fabiola Gonçalves Pereira de 16 December 1991 (has links)
Orientador : Claudio Leonardo Lucchesi / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencias da Computação / Made available in DSpace on 2018-07-14T01:46:22Z (GMT). No. of bitstreams: 1
Souza_FabiolaGoncalvesPereirade_M.pdf: 4968380 bytes, checksum: fc7f2d0645f34c886f3fdb770798105b (MD5)
Previous issue date: 1991 / Resumo: A Compressão de Dados objetiva representar os dados de maneira reduzida. Este trabalho apresenta os principais métodos de compressão para dados textuais, cuja compressão exibida seja universal (a compressão se adapta a qualquer tipo de dado) e fiel (os dados podem ser recuperados integralmente). A dissertação consiste de quatro Capítulos. O Capítulo 1 apresenta o assunto. O Capítulo 2 introduz conceitos necessários ao entendimento dos métodos. Desta maneira, realiza uma caracterização dos códigos adotados na representação; esclarece porque é possível reduzir o comprimento dos textos; engloba os métodos numa classificação. O Capítulo 3 apresenta os métodos. Para tanto, realiza uma descrição do processo de compressão adotado, fornece uma avaliação teórica do seu desempenho, e detalha possíveis implementações. Os métodos estudados são: Shannon Fano, Huffman, Aritmético, Elias-Bentley e Lempel-Ziv. Além disso, sempre que possível, é feita uma associação entre os métodos mencionados e os utilitários: PKPAK, PKZIP, ICE, LHA, ARJ e também pack, compact e compress a Capítulo 4 apresenta uma avaliação empírica sobre o desempenho dos vários métodos estudados, bem como uma comparação que também envolve os utilitários mencionados / Abstract: The objective of Data Compression is to reduce the size of data representation. In this work we present the most important methods for universal and lossless compression, that is, methods which are applicable to all kinds of data and allow full recovery of information. This dissertation consists of four chapters. In Chapter 1 we present the subject. In Chapter 2 we introduce the fundamental concepts in data compression. Thus, we characterize codes, redundancy and classify data compression methods. In Chapter 3 we describe the most important methods and discuss their performance and possible implementations; the methods are: Shannon-Fano's, Huffman's, Arithmetic Coding, Elias-Bentley's and Lempel-Ziv's. In addition, whenever possible, an association is made with well-known data compression programs such as PKPAK, PKZIP, ICE, LHA, ARJ and pack, compact and compress. In Chapter 4 we give an empirical evaluation of the performance of those methods, as well as a comparison with the well-known programs mentioned above / Mestrado / Mestre em Ciência da Computação
|
3 |
Codigos de linha para sistemas opticos de alta capacidadeBatista, Marcos Antonio Cassiolato 27 January 1994 (has links)
Orientador : Helio Waldman / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-18T21:56:10Z (GMT). No. of bitstreams: 1
Batista_MarcosAntonioCassiolato_M.pdf: 2067265 bytes, checksum: b1c3bf232caaa8d21e774d3a0d79ddc1 (MD5)
Previous issue date: 1994 / Resumo: Foi realizado um estudo sobre várias técnicas de codificação de linha para sistemas ópticos de alta velocidade, nas quais o uso de grandes tabelas memorizadas é problemático. Duas soluções para este problema são discutidas neste trabalho. A primeira é uma versão modificada dos códigos PFmB(m+ 1 )B, com vantagens de desempenho e sem nenhum acréscimo de complexidade. O segundo esquema de codificação proposto combina técnicas de memorização das palavras-código em tabelas com técnicas algorítmicas, porém com a finalidade de reduzir ao mínimo imprescindível o tamanho destas tabelas para um determinado desbalanço especificado. O compromisso entre o tamanho das tabelas e o balanceamento alcançável é estudado e dimensionado. Finalmente, são estudados outros parâmetros de desempenho, como as propriedades espectrais, a sincronizabilidade e a monitorabilidade da taxa de erros / Abstract: Alternative coding techniques for high speed optical transmission systems, in wich the use of extensive tables in memory is a problem, have been discussed in recent literature. Two solutions for this problem are discussed in this work. The first is a modified version of the PFmB(m+ 1)B codes, with higher performance and no added complexity. The second coding method combines traditional codeword assignment techniques with algorithmic techniques. This method minimizes the size of the tables for the specified running digital sum. The compromise between the table size and sequence imbalance is studied and dimensioned. Finally, other performance parameters such as spectral properties, synchronizability, and error rate monitorizability, are studied. / Mestrado / Mestre em Engenharia Elétrica
|
4 |
Um sistema multimétodos para compressão de dadosDalcio Diogenes de Lima Ribas 00 December 2001 (has links)
Os objetivos deste trabalho sao proporcionar a compreensao ea avaliacao de metodos de compressao de dados, com preservacao da informacao, quando empregados em varios tipos de aplicacoes e construir um sistema multimetodos para codificar e decodificar informacoes com economia de espaco. Uma visao qualitativa do melhor metodo para determinada aplicacao e apresentada, bem como, melhoriase novos metodos sao propostos. A dissertacao apresenta varios metodos encontrados na literatura. Muitos desses metodos foram adaptados e modificados, perfazendo um total de sessenta e nove metodos implementados em linguagem C. Os resultados obtidos sao comparados aos produzidos por alguns produtos comerciais. Classificando-se as fontes geradoras de dados, realiza-se uma avaliacao do desempenho dos metodos propostos. O sistema apresenta em tela o resultado obtido de cada uma dos sessenta e nove metodos e usa para a codificacao definitiva o de melhor rendimento.
|
5 |
Motion compensation with minimal residue dispersion matching criteriaOliveira, Gabriel Lemes Silva Luciano de 16 February 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnoloigia, 2016. / Com a crescente demanda por serviços de vídeo, técnicas de compressão de vídeo tornaram-se uma tecnologia de importância central para os sistemas de comunicação modernos. Padrões para codificação de vídeo foram criados pela indústria, permitindo a integração entre esses serviços e
os mais diversos dispositivos para acessá-los. A quase totalidade desses padrões adota um modelo de codificação híbrida, que combina métodos de codificação diferencial e de codificação por transformadas, utilizando a compensação de movimento por blocos (CMB) como técnica central na etapa de predição. O método CMB tornou-se a mais importante técnica para explorar a forte
redundância temporal típica da maioria das sequências de vídeo. De fato, muito do aprimoramento em termos de e ciência na codificação de vídeo observado nas últimas duas décadas pode ser atribuído a refinamentos incrementais na técnica de CMB. Neste trabalho, apresentamos um novo refinamento a essa técnica. Uma questão central à abordagem de CMB é a estimação de movimento (EM), ou seja, a seleção de vetores de movimento (VM) apropriados. Padrões de codificação tendem a regular
estritamente a sintaxe de codificação e os processos de decodificação para VM's e informação de resíduo, mas o algoritmo de EM em si é deixado a critério dos projetistas do codec. No entanto,
embora praticamente qualquer critério de seleção permita uma decodi cação correta, uma seleção de VM criteriosa é vital para a e ciência global do codec, garantindo ao codi cador uma vantagem competitiva no mercado. A maioria do algoritmos de EM baseia-se na minimização de uma função
de custo para os blocos candidatos a predição para um dado bloco alvo, geralmente a soma das diferenças absolutas (SDA) ou a soma das diferenças quadradas (SDQ). A minimização de qualquer uma dessas funções de custo selecionará a predição que resulta no menor resíduo, cada uma em um sentido diferente porém bem de nido. Neste trabalho, mostramos que a predição de mínima dispersão de resíduo é frequentemente mais e ciente que a tradicional predição com resíduo de mínimo tamanho. Como prova de conceito, propomos o algoritmo de duplo critério de correspondência (ADCC), um algoritmo simples em dois estágios para explorar ambos esses critérios de seleção em turnos. Estágios de minimização de dispersão e de minimização de tamanho são executadas independentemente. O codificador
então compara o desempenho dessas predições em termos da relação taxa-distorção e efetivamente codifica somente a mais eficiente. Para o estágio de minimização de dispersão do ADCC, propomos
ainda o desvio absoluto total com relação à média (DATM) como a medida de dispersão a ser minimizada no processo de EM. A tradicional SDA é utilizada como a função de custo para EM no estágio de minimização de tamanho. O ADCC com SDA/DATM foi implementado em uma versão modificada do software de referência JM para o amplamente difundido padrão H.264/AVC de codificação. Absoluta compatibilidade a esse padrão foi mantida, de forma que nenhuma modificação foi necessária no lado do decodificador. Os resultados mostram aprimoramentos significativos com
relação ao codificador H.264/AVC não modificado. / With the ever growing demand for video services, video compression techniques have become a technology of central importance for communication systems. Industry standards for video coding
have emerged, allowing the integration between these services and the most diverse devices. The almost entirety of these standards adopt a hybrid coding model combining di erential and transform
coding methods, with block-based motion compensation (BMC) at the core of its prediction step. The BMC method have become the single most important technique to exploit the strong temporal redundancy typical of most video sequences. In fact, much of the improvements in video
coding e ciency over the past two decades can be attributed to incremental re nements to the BMC technique. In this work, we propose another such re nement. A key issue to the BMC framework is motion estimation (ME), i.e., the selection of appropriate
motion vectors (MV). Coding standards tend to strictly regulate the coding syntax and decoding processes for MV's and residual information, but the ME algorithm itself is left at the discretion of the codec designers. However, though virtually any MV selection criterion will allow for correct decoding, judicious MV selection is critical to the overall codec performance, providing the encoder
with a competitive edge in the market. Most ME algorithms rely on the minimization of a cost function for the candidate prediction blocks given a target block, usually the sum of absolute
di erences (SAD) or the sum of squared di erences (SSD). The minimization of any of these cost functions will select the prediction that results in the smallest residual, each in a di erent but well
de ned sense. In this work, we show that the prediction of minimal residue dispersion is frequently more e cient than the usual prediction of minimal residue size. As proof of concept, we propose the
double matching criterion algorithm (DMCA), a simple two-pass algorithm to exploit both of these MV selection criteria in turns. Dispersion minimizing and size minimizing predictions are
carried out independently. The encoder then compares these predictions in terms of rate-distortion performance and outputs only the most e cient one. For the dispersion minimizing pass of the
DMCA, we also propose the total absolute deviation from the mean (TADM) as the measure of residue dispersion to be minimized in ME. The usual SAD is used as the ME cost function in the size minimizing pass. The DMCA with SAD/TADM was implemented in a modi ed version of
the JM reference software encoder for the widely popular H.264/AVC coding standard. Absolute compliance to the standard was maintained, so that no modi cations on the decoder side were necessary. Results show signi cant improvements over the unmodi ed H.264/AVC encoder.
|
6 |
Simulação para codificação de imagens paradas usando o padrão JPEG basicoChung Joo, Fernando 03 October 1995 (has links)
Orientador: Yuzo Iano / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-21T03:31:49Z (GMT). No. of bitstreams: 1
ChungJoo_Fernando_M.pdf: 7900937 bytes, checksum: feb9ffd81b61934dd52360209c5f8ef6 (MD5)
Previous issue date: 1995 / Resumo: Este trabalho apresenta um estudo da compressão de imagens usando o padrão JPEG (Joint Photagraphic Experts Group), cujo comportamento é analisado através de simulações em computador com programas desenvolvidos em linguagem C. A simulação foi implementada com o objetivo de se estabelecer uma base eficiente para futuras adaptações e otimizações na codificação de imagens paradas, e também visando sua utilização na codificação de imagens em movimento segundo o padrão MPEG (Motion Picture Experts Group). O sistema foi avaliado através de análises objetivas e subjetivas, principalmente em termos de entropia, relação sinal/ruído e comparação entre os sinais originais e recuperados Os resultados são de fato promissores para transmissão de imagens paradas e confirmam um bom compromisso entre a qualidade de imagem processada e a compressão de dados / Abstract:This work is a study on image compression using JPEG standard (Joint Photographics Experts Group), whose performance is evaluated through a computer simulation developed in C Language. The aim of the simulation was to establish an efficient baseline for future adaptations and optimizations to the encoding of images, and also to enable its utilization in the encoding of moving images according to MPEG standard (Motion Picture Experts Group). The system was evaluated through objective and subjective analysis, in terms of entropy, signal to noise ratio and by comparing the original to the recovered signals. Theresults are promising for the transmission of images taking into account the trade off between the quality of image and the data compression / Mestrado / Mestre em Engenharia Elétrica
|
7 |
Novas medidas de distorção estatisticas para avaliar a qualidade de algoritmos de compressão de imagensAllan, Lucila Helena A 25 February 1997 (has links)
Orientador: Arnoldo Jose de Hoyos Guevara / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-07-22T04:05:03Z (GMT). No. of bitstreams: 1
Allan_LucilaHelenaA_M.pdf: 5934181 bytes, checksum: 880214e63b2d9eebccff84ba8f8b0df2 (MD5)
Previous issue date: 1997 / Resumo: O objetivo principal deste trabalho é procurar novas medidas de distorção estatísticas que permitam avaliar objetivamente algoritmos de compressão de imagens. Procuramos as novas medidas utilizando técnicas estatísticas, relacionadas principalmente as áreas de Análise Multivariada e Teoria da Informação. Para avaliar seu desempenho, aplicamos estas medidas em imagens de qualidade visual distintas produzidas por quatro tipos diferentes de algoritmos de compressão. utilizados atualmente. A fim de comparar a eficiência destas medidas foi feita uma pesquisa de opinião visando avaliar a qualidade subjetiva das várias imagens, que serviria de padrão comparativo de qualidade. Como resultado deste trabalho, selecionamos duas ova medidas que apresentaram bons resultados em relação aos critérios clássicos relacionados ao Erro Quadrático Médio. / Abstract: The main purpose of this work is to develop statistical models that could help to measure distortions, so that one could compare objectively the quality of image compression algorithms. The statistical models were developed using methods that come from Multivariate Statistical Analysis and Information Theory. For developing and testing our image quality models we used four different and very popular image compression algorithms. Moreover for efficiency comparison purposes we obtained, by. using a polI, a mean subjective measure of image quality As a result of our work we obtained two new statistical image quality models that in general behave better than the classical and commercial ones based on a global measure of the Mean Square Error. / Mestrado / Mestre em Estatística
|
8 |
ISO/JBIG : codificação aritmetica de imagens em 2 tonsAbushaala, Ahmed Mohamed Muftah 28 October 1996 (has links)
Orientador: Yuzo Iano / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-22T10:09:05Z (GMT). No. of bitstreams: 1
Abushaala_AhmedMohamedMuftah_M.pdf: 5994336 bytes, checksum: 466dcdc0531a486ee717a5bc8b7f9e81 (MD5)
Previous issue date: 1996 / Resumo: Neste trabalho abordou-se aspectos gerais sobre compressão de dados, um tutorial sobre codificação aritmética não binária comparada com codificação de Huffman através de exemplos. A técnica de codificação aritmética binária adaptativa é estudada, tendo em vista sua aplicação em imagens de 2 tons "bi-level images" tendo se como base, técnicas de compressão padrão ISO/JBIG ("International Standard Organization/Joint Bi-level Image experts Group"). A imagem recuperada é igual à imagem original, ou seja, a técnica de compressão resulta em uma codificação sem perdas. Dedicamos nosso esforço para o estudo de dois sub-blocos que fazem partes do padrão JBIG: Sub-bloco "Templates Modelos" e sub-bloco Codificador Aritmético Adaptativo (CAA). O presente trabalho tem como objetivo, o estudo sobre codificação aritmética e desenvolvimento de protótipo software do codec de codificação aritmética binária adaptativa para imagens em 2 tons / Mestrado / Mestre em Engenharia Elétrica
|
9 |
Implementação do codificador de video H.264 com transformada FLICTTeraoka, Kleber 03 August 2018 (has links)
Orientador: Max Henrique Machado Costa / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-03T20:57:17Z (GMT). No. of bitstreams: 1
Teraoka_Kleber_M.pdf: 486505 bytes, checksum: b477978b16a5750c657fe387c60fbc75 (MD5)
Previous issue date: 2003 / Mestrado
|
10 |
Compressão estatistica de imagens estaticas usando transformada cosseno discreta em duas dimensões com algoritmo de bloco variavel adaptativoFernandez Segovia, Guillermo Ramon 29 October 1993 (has links)
Orientador: Luiz Cesar Martini / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-18T19:31:38Z (GMT). No. of bitstreams: 1
FernandezSegovia_GuillermoRamon_D.pdf: 11050847 bytes, checksum: a546faaa9248b2784bbf9aa20454303e (MD5)
Previous issue date: 1993 / Resumo: O objetivo desta dissertação é apresentar um método eficiente de compressão de imagem aplicado na codificação digital dos sinais na forma de componentes Y, 'C IND. R, 'C IND. B¿, usando um algoritmo adaptativo de bloco variável aplicado à Transformada DCT em duas dimensões. Visam-se os defeitos usando o algoritmo de codificação por DCT convencional que trata todas as áreas segmentadas em blocos fixos não sobrepostos em forma indiscriminada produzindo uma qualidade não uniforme para diferentes conteúdos de imagem. Emprega-se uma recente técnica de segmentação por árvore. Os resultados são promissores para transmissão de imagens paradas com o melhor compromisso entre a qualidade de imagem e a codificação eficiente / Abstract: This work intends to show an efficient coding method of images using transform coding DCT-2D as a key element for image data compression. Conventional DCT coding algorithms, treat ali the image areas indiscriminaly, causing nonuniform image quality for various image contents, consequently this motivates works on DCT schemes adaptive to the images contents so that a better tradeoff between bit rate and image quality can be achieved. ln this work, a DCT-2D algorithm with adaptive zone and quantization is combined with variable block size segmentation to further improve the coding perfomance. A recent segmentation technique is used. The results are given to illustrate the superiority of this adaptive DCT algorithm with segmented blocks and this algorithm poses itself as a promising compression method to deal with transmission of good quality still images / Doutorado / Mestre em Engenharia Elétrica
|
Page generated in 0.0976 seconds