11 |
Estudo comparativo da transformada Karhunen-Loève na compressão de imagensMello, Ricardo Noé Bretin de January 2003 (has links)
A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.
|
12 |
Compressão de sinais de S-EMG em abordagens 1D E 2D / S-EMG signal compression in 1D and 2D approachesTrabuco, Marcel Henrique 15 September 2017 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2018-02-21T18:19:33Z
No. of bitstreams: 1
2017_MarcelHenriqueTrabuco.pdf: 15513525 bytes, checksum: 891f831794f609c9b9f93b8c425cd95d (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-02-27T18:13:32Z (GMT) No. of bitstreams: 1
2017_MarcelHenriqueTrabuco.pdf: 15513525 bytes, checksum: 891f831794f609c9b9f93b8c425cd95d (MD5) / Made available in DSpace on 2018-02-27T18:13:32Z (GMT). No. of bitstreams: 1
2017_MarcelHenriqueTrabuco.pdf: 15513525 bytes, checksum: 891f831794f609c9b9f93b8c425cd95d (MD5)
Previous issue date: 2018-02-27 / O objetivo desta tese de doutorado é o desenvolvimento de algoritmos de compressão de sinais de eletromiografia de superfície (S-EMG, do inglês Surface Electromyography) arranjados de forma unidimensional (1D) e bidimensional (2D). Os algoritmos 1D são baseados em Transformada de Wavelet e na alocação de bits por sub-bandas do espaço transformado 1D. Cinco perfis distintos de alocação são propostos: exponencial, linear, raiz-quadrática, tangente hiperbólica e logarítmico, todos decrescentes. Os quatro primeiros possuem comportamento fixo, o último, possui comportamento adaptativo. Os algoritmos 2D geram uma representação bidimensional do sinal de S-EMG a partir da segmentação do sinal 1D e são divididos em três grupos: 1) Contêm os algoritmos de compressão baseados em Transformada Wavelet 2D e na alocação de bits por sub-bandas do espaço transformado 2D. 2) Contêm os algoritmos de compressão baseados em Transformada Wavelet 2D, no reordenamento adaptativo do espaço transformado e na alocação de bits pelo perfil tangente hiperbólico. E por fim, 3) Composto pelos algoritmos baseados no codificador de vídeo HEVC aplicados a uma imagem do sinal de S-EMG gerada por reordenação simples ou baseada no recorte adaptativo entre duas contrações musculares consecutivas. Os algoritmos são testados com bancos de sinais reais dinâmicos e isométricos e o desempenho é avaliado por métricas objetivas. Ademais, são realizadas comparações de desempenho entre os algoritmos propostos e por outros algoritmos relatados na literatura. Os algoritmos propostos se mostram promissores por serem superiores aos outros algoritmos comparados quando o fator de compressão é menor que 90% para protocolo isométrico e em toda faixa de fator de compressão para o protocolo dinâmico. / The aim of this PhD thesis is the design of compression algorithms for Surface Eletromyography (S-EMG) signals arranged one-dimensional (1D) and bi-dimensional mode. The 1D algorithms are based in Wavelet Transform and the bits allocation by subbands of the transformed space 1D. Five distinct allocation profiles are proposed: Exponential, linear, root-quadratic, hyperbolic and logarithmic tangent, all decreasing. The first four have static behavior, the latter has adaptive behavior. The 2D algorithms generate a bi-dimensional representation of the S-EMG signal from the 1D signal segmentation and are divided into three groups: 1) This group contains the compression algorithms based on Wavelet Transform 2D and the bits allocation by
|
13 |
Estudo comparativo da transformada Karhunen-Loève na compressão de imagensMello, Ricardo Noé Bretin de January 2003 (has links)
A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.
|
14 |
Estudo comparativo da transformada Karhunen-Loève na compressão de imagensMello, Ricardo Noé Bretin de January 2003 (has links)
A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.
|
15 |
Metodos universais de compreensão de dadosSouza, Fabiola Gonçalves Pereira de 16 December 1991 (has links)
Orientador : Claudio Leonardo Lucchesi / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencias da Computação / Made available in DSpace on 2018-07-14T01:46:22Z (GMT). No. of bitstreams: 1
Souza_FabiolaGoncalvesPereirade_M.pdf: 4968380 bytes, checksum: fc7f2d0645f34c886f3fdb770798105b (MD5)
Previous issue date: 1991 / Resumo: A Compressão de Dados objetiva representar os dados de maneira reduzida. Este trabalho apresenta os principais métodos de compressão para dados textuais, cuja compressão exibida seja universal (a compressão se adapta a qualquer tipo de dado) e fiel (os dados podem ser recuperados integralmente). A dissertação consiste de quatro Capítulos. O Capítulo 1 apresenta o assunto. O Capítulo 2 introduz conceitos necessários ao entendimento dos métodos. Desta maneira, realiza uma caracterização dos códigos adotados na representação; esclarece porque é possível reduzir o comprimento dos textos; engloba os métodos numa classificação. O Capítulo 3 apresenta os métodos. Para tanto, realiza uma descrição do processo de compressão adotado, fornece uma avaliação teórica do seu desempenho, e detalha possíveis implementações. Os métodos estudados são: Shannon Fano, Huffman, Aritmético, Elias-Bentley e Lempel-Ziv. Além disso, sempre que possível, é feita uma associação entre os métodos mencionados e os utilitários: PKPAK, PKZIP, ICE, LHA, ARJ e também pack, compact e compress a Capítulo 4 apresenta uma avaliação empírica sobre o desempenho dos vários métodos estudados, bem como uma comparação que também envolve os utilitários mencionados / Abstract: The objective of Data Compression is to reduce the size of data representation. In this work we present the most important methods for universal and lossless compression, that is, methods which are applicable to all kinds of data and allow full recovery of information. This dissertation consists of four chapters. In Chapter 1 we present the subject. In Chapter 2 we introduce the fundamental concepts in data compression. Thus, we characterize codes, redundancy and classify data compression methods. In Chapter 3 we describe the most important methods and discuss their performance and possible implementations; the methods are: Shannon-Fano's, Huffman's, Arithmetic Coding, Elias-Bentley's and Lempel-Ziv's. In addition, whenever possible, an association is made with well-known data compression programs such as PKPAK, PKZIP, ICE, LHA, ARJ and pack, compact and compress. In Chapter 4 we give an empirical evaluation of the performance of those methods, as well as a comparison with the well-known programs mentioned above / Mestrado / Mestre em Ciência da Computação
|
16 |
Codigos de linha para sistemas opticos de alta capacidadeBatista, Marcos Antonio Cassiolato 27 January 1994 (has links)
Orientador : Helio Waldman / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-18T21:56:10Z (GMT). No. of bitstreams: 1
Batista_MarcosAntonioCassiolato_M.pdf: 2067265 bytes, checksum: b1c3bf232caaa8d21e774d3a0d79ddc1 (MD5)
Previous issue date: 1994 / Resumo: Foi realizado um estudo sobre várias técnicas de codificação de linha para sistemas ópticos de alta velocidade, nas quais o uso de grandes tabelas memorizadas é problemático. Duas soluções para este problema são discutidas neste trabalho. A primeira é uma versão modificada dos códigos PFmB(m+ 1 )B, com vantagens de desempenho e sem nenhum acréscimo de complexidade. O segundo esquema de codificação proposto combina técnicas de memorização das palavras-código em tabelas com técnicas algorítmicas, porém com a finalidade de reduzir ao mínimo imprescindível o tamanho destas tabelas para um determinado desbalanço especificado. O compromisso entre o tamanho das tabelas e o balanceamento alcançável é estudado e dimensionado. Finalmente, são estudados outros parâmetros de desempenho, como as propriedades espectrais, a sincronizabilidade e a monitorabilidade da taxa de erros / Abstract: Alternative coding techniques for high speed optical transmission systems, in wich the use of extensive tables in memory is a problem, have been discussed in recent literature. Two solutions for this problem are discussed in this work. The first is a modified version of the PFmB(m+ 1)B codes, with higher performance and no added complexity. The second coding method combines traditional codeword assignment techniques with algorithmic techniques. This method minimizes the size of the tables for the specified running digital sum. The compromise between the table size and sequence imbalance is studied and dimensioned. Finally, other performance parameters such as spectral properties, synchronizability, and error rate monitorizability, are studied. / Mestrado / Mestre em Engenharia Elétrica
|
17 |
Um sistema multimétodos para compressão de dadosDalcio Diogenes de Lima Ribas 00 December 2001 (has links)
Os objetivos deste trabalho sao proporcionar a compreensao ea avaliacao de metodos de compressao de dados, com preservacao da informacao, quando empregados em varios tipos de aplicacoes e construir um sistema multimetodos para codificar e decodificar informacoes com economia de espaco. Uma visao qualitativa do melhor metodo para determinada aplicacao e apresentada, bem como, melhoriase novos metodos sao propostos. A dissertacao apresenta varios metodos encontrados na literatura. Muitos desses metodos foram adaptados e modificados, perfazendo um total de sessenta e nove metodos implementados em linguagem C. Os resultados obtidos sao comparados aos produzidos por alguns produtos comerciais. Classificando-se as fontes geradoras de dados, realiza-se uma avaliacao do desempenho dos metodos propostos. O sistema apresenta em tela o resultado obtido de cada uma dos sessenta e nove metodos e usa para a codificacao definitiva o de melhor rendimento.
|
18 |
Motion compensation with minimal residue dispersion matching criteriaOliveira, Gabriel Lemes Silva Luciano de 16 February 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnoloigia, 2016. / Com a crescente demanda por serviços de vídeo, técnicas de compressão de vídeo tornaram-se uma tecnologia de importância central para os sistemas de comunicação modernos. Padrões para codificação de vídeo foram criados pela indústria, permitindo a integração entre esses serviços e
os mais diversos dispositivos para acessá-los. A quase totalidade desses padrões adota um modelo de codificação híbrida, que combina métodos de codificação diferencial e de codificação por transformadas, utilizando a compensação de movimento por blocos (CMB) como técnica central na etapa de predição. O método CMB tornou-se a mais importante técnica para explorar a forte
redundância temporal típica da maioria das sequências de vídeo. De fato, muito do aprimoramento em termos de e ciência na codificação de vídeo observado nas últimas duas décadas pode ser atribuído a refinamentos incrementais na técnica de CMB. Neste trabalho, apresentamos um novo refinamento a essa técnica. Uma questão central à abordagem de CMB é a estimação de movimento (EM), ou seja, a seleção de vetores de movimento (VM) apropriados. Padrões de codificação tendem a regular
estritamente a sintaxe de codificação e os processos de decodificação para VM's e informação de resíduo, mas o algoritmo de EM em si é deixado a critério dos projetistas do codec. No entanto,
embora praticamente qualquer critério de seleção permita uma decodi cação correta, uma seleção de VM criteriosa é vital para a e ciência global do codec, garantindo ao codi cador uma vantagem competitiva no mercado. A maioria do algoritmos de EM baseia-se na minimização de uma função
de custo para os blocos candidatos a predição para um dado bloco alvo, geralmente a soma das diferenças absolutas (SDA) ou a soma das diferenças quadradas (SDQ). A minimização de qualquer uma dessas funções de custo selecionará a predição que resulta no menor resíduo, cada uma em um sentido diferente porém bem de nido. Neste trabalho, mostramos que a predição de mínima dispersão de resíduo é frequentemente mais e ciente que a tradicional predição com resíduo de mínimo tamanho. Como prova de conceito, propomos o algoritmo de duplo critério de correspondência (ADCC), um algoritmo simples em dois estágios para explorar ambos esses critérios de seleção em turnos. Estágios de minimização de dispersão e de minimização de tamanho são executadas independentemente. O codificador
então compara o desempenho dessas predições em termos da relação taxa-distorção e efetivamente codifica somente a mais eficiente. Para o estágio de minimização de dispersão do ADCC, propomos
ainda o desvio absoluto total com relação à média (DATM) como a medida de dispersão a ser minimizada no processo de EM. A tradicional SDA é utilizada como a função de custo para EM no estágio de minimização de tamanho. O ADCC com SDA/DATM foi implementado em uma versão modificada do software de referência JM para o amplamente difundido padrão H.264/AVC de codificação. Absoluta compatibilidade a esse padrão foi mantida, de forma que nenhuma modificação foi necessária no lado do decodificador. Os resultados mostram aprimoramentos significativos com
relação ao codificador H.264/AVC não modificado. / With the ever growing demand for video services, video compression techniques have become a technology of central importance for communication systems. Industry standards for video coding
have emerged, allowing the integration between these services and the most diverse devices. The almost entirety of these standards adopt a hybrid coding model combining di erential and transform
coding methods, with block-based motion compensation (BMC) at the core of its prediction step. The BMC method have become the single most important technique to exploit the strong temporal redundancy typical of most video sequences. In fact, much of the improvements in video
coding e ciency over the past two decades can be attributed to incremental re nements to the BMC technique. In this work, we propose another such re nement. A key issue to the BMC framework is motion estimation (ME), i.e., the selection of appropriate
motion vectors (MV). Coding standards tend to strictly regulate the coding syntax and decoding processes for MV's and residual information, but the ME algorithm itself is left at the discretion of the codec designers. However, though virtually any MV selection criterion will allow for correct decoding, judicious MV selection is critical to the overall codec performance, providing the encoder
with a competitive edge in the market. Most ME algorithms rely on the minimization of a cost function for the candidate prediction blocks given a target block, usually the sum of absolute
di erences (SAD) or the sum of squared di erences (SSD). The minimization of any of these cost functions will select the prediction that results in the smallest residual, each in a di erent but well
de ned sense. In this work, we show that the prediction of minimal residue dispersion is frequently more e cient than the usual prediction of minimal residue size. As proof of concept, we propose the
double matching criterion algorithm (DMCA), a simple two-pass algorithm to exploit both of these MV selection criteria in turns. Dispersion minimizing and size minimizing predictions are
carried out independently. The encoder then compares these predictions in terms of rate-distortion performance and outputs only the most e cient one. For the dispersion minimizing pass of the
DMCA, we also propose the total absolute deviation from the mean (TADM) as the measure of residue dispersion to be minimized in ME. The usual SAD is used as the ME cost function in the size minimizing pass. The DMCA with SAD/TADM was implemented in a modi ed version of
the JM reference software encoder for the widely popular H.264/AVC coding standard. Absolute compliance to the standard was maintained, so that no modi cations on the decoder side were necessary. Results show signi cant improvements over the unmodi ed H.264/AVC encoder.
|
19 |
Efeito da roupa de compressão em membros inferiores durante o esforço sobre parâmetros fisiológicos, de desempenho e percepção subjetiva de esforço em adultos atletas e não atletas : revisão sistemática e meta-análiseSilva, César Augusto da January 2016 (has links)
Resumo não disponível
|
20 |
Espacialização de parâmetro de rocha intacta em modelos de blocos utilizando krigagem da indicatrizCruz, Fabiana Andresa Reis da January 2017 (has links)
Os modelos geológicos 3D associado as suas compartimentações geomecânicas e hidrogeológicas não são atualmente usados na maioria das minas, particularmente na indústria mineira brasileira. Isso ocorre muitas vezes devido ao investimento em construção da base de dados de dados geomecânicos se inicia em etapas mais madura dos projetos e por consequência o seu volume não é suficiente para ser espacializada. A ausência de informações sobre a qualidade dos maciços rochosos afeta os projetos de mineração, especialmente as mais sensíveis à incerteza associada aos parâmetros geotécnicos. Esta falta de modelos geomecânicos deve-se principalmente à escassa disponibilidade de dados geotécnicos e à consequente dificuldade de interpola-los e discretizá-los em vários locais de depósito. Para superar esta escassez de dados, este estudo propõe a construção de modelo geomecânico 3D associado ao modelo geológico via modelagem indireta de classes de consistência de rochas, usando dados derivados da descrição tátil-visual em testemunhos de sondagem. Estes dados foram agrupados em sete categorias de consistência de rochas e modelados espacialmente através de krigagem de indicadores categóricos. Cada uma destas categorias está associada a uma gama de valores possíveis de resistência à compressão uniaxial. Combinando cada probabilidade de categoria estimada e seu intervalo de possíveis valores de resistência, é possível atribuir a cada bloco uma resistência à compressão uniaxial média. Os valores numéricos podem ser estimados pela média dos histogramas categóricos (classe probabilidade x centro do intervalo de classe) para preencher o modelo de bloco com valores de resistência à compressão uniaxial. A dissertação também apresenta o esquema de interpolação de anisotropia dinâmica que facilita o processo de modelagem da continuidade das camadas em mineralizações dobradas. Este método basicamente modela a direção do mergulho de cada ponto mapeado ou interpolado em mapas de linhas de forma de cada tipo de rocha, permitindo que o variograma e o elipsóide de busca girem adequadamente em cada posição dentro do domínio. O modelo final foi verificado dentro de regiões onde foram realizados ensaios laboratoriais de compressão uniaxiais. A metodologia se mostrou eficiente e foi ilustrada em um grande depósito de minério de ferro no Brasil, apresentando propostas de aplicações, como mapeamento de zonas de instáveis baseadas na resistência e na relação entre descontinuidade e direção dos taludes. / Geomechanical 3D models are not currently used in most mines particularly at the Brazilian mining industry. The absence of rock mass quality information affects mining design specially the ones more sensitive to the uncertainty associated with geotechnical parameters. This lack of geomechanical models is mainly due the scarce availability of geotechnical data and the consequent difficulty to interpolate and discretize them at various deposit locations. To overcome this data shortage, this study proposes building 3D geomechanical models via indirect modelling of rock consistency classes using data derived from tactile-visual description at borehole cores. These data were grouped into seven rock consistency categories and spatially modelled via categorical indicator kriging. Each of these categories are associated with a range of uniaxial compressive resistance possible values. Combining each estimated category probability and its range of possible resistance values allow to assign to each block an average uniaxial compressive strength. Numerical values can be estimated by averaging these categorical histograms (class probability x center of the class interval) to fill the block model with compressive resistance values. The dissertation also presents the dynamic anisotropy interpolation scheme which facilitates the modelling process in folded mineralizations. This method basically models the dip direction of each rock type allowing the variogram and search ellipsoid rotate adequately at each position within the domain. The final model was checked within regions of the model where compressive uniaxial lab tests were conducted. The methodology proved to be efficient and was illustrated at a major iron ore deposit in Brazil, presenting applications proposals, such as mapping unstable zones based on resistance and the relationship between discontinuity and slope direction.
|
Page generated in 0.0638 seconds