Spelling suggestions: "subject:"compressão dde dados"" "subject:"compressão dde lados""
31 |
Aplicações do algoritmo CTW na predição e na codificação de imagens com o padrão JPEG-LS.Diogo Chadud Milagres 27 October 2005 (has links)
Nesta Tese é estudado o compressor padrão de imagens sem perda, JPEG-LS. É observado que a estrutura do JPEG-LS utiliza um modelo probabilístico baseado em uma memória de comprimento fixo. Obviamente este não é o melhor modelo para todas as imagens. Seguindo os conceitos da teoria da codificação universal de fonte, o modelo probabilístico do JPEG-LS é modificado, levando a serem criados outros algoritmos para compressão de imagens sem perda. O conhecido algoritmo context-tree weighting (CTW), que é uma solução elegante para o problema da codificação universal de fonte para a classe de fontes com memória finita, é utilizado para auxiliar na formação da estrutura dos novos protótipos, para que se tenha um modelo probabilístico baseado em uma memória finita, porém variável em comprimento. Esses novos protótipos são denominados JPEG-LS/CTW. O desempenho desses novos compressores é medido segundo dois grupos de imagens. O primeiro é composto por imagens simuladas considerando um modelo probabilístico baseado em ausência de memória. O segundo grupo é constituído de imagens denominadas naturais, aéreas e médicas. Os resultados obtidos com o primeiro grupo mostram que o JPEG-LS/CTW consegue uma melhora de 7,5% em média, dependendo dos parâmetros do modelo. Além disso, a melhora atingida pelo JPEG-LS cuja estrutura utiliza um modelo probabilístico sem memória, que é uma escolha apropriada para imagens simuladas sem memória, não atingiu taxas de bits significantes em relação ao JPEG-LS/CTW. Os resultados obtidos com o segundo grupo mostram que o JPEG-LS/CTW alcança praticamente o mesmo desempenho que o JPEG-LS padrão (de fato, a diferença de desempenho entre os compressores é de menos de 0,5% em média) e consegue desempenhos melhores em relação a versões do JPEG-LS que utilizam modelos probabilísticos diferentes do convencional.
|
32 |
Codificação conjunta fonte-canal utilizando codificadores universais adaptativos.Mariana Olivieri Caixeta Altoé 21 March 2007 (has links)
Tradicionalmente, codificação de fonte e codificação de canal são tratados independentemente, no que se denomina sistema de codificação em dois passos. Isso ocorre porque o teorema da separação das codificações de fonte e canal garante que não há perdas em termos de confiabilidade da transmissão em assim fazê-lo quando o volume de dados gerados pela fonte cresce indefinidamente. No entanto, para seqüências finitas, foi mostrado que pode ser mais eficiente realizar a codificação em apenas um passo, denominada codificação conjunta fonte-canal, que faz uso das características da fonte ou do codificador de fonte para prover proteção contra erros. Este trabalho propõe uma técnica de codificação conjunta utilizando codificadores de fonte e canal consagrados e encontrados em aplicações práticas. São eles o codificador universal adaptativo LZW e o codificador de canal Reed-Solomon. O método proposto utiliza o fato do codificador de fonte não remover completamente a redundância dos arquivos originais para adicionar bits extras, sem perda de desempenho e sem distorção dos dados originais. A redundância remanescente no código é então utilizada para embutir os bits de paridade do código de canal. O desempenho do método é medido através de sua aplicação em arquivos dos corpos de Calgary e Canterbury. A exploração da redundância remanescente no código gerado pelo LZW pode ser aplicada aos codificadores universais LZ78 e suas variações que se baseiam no mesmo princípio de atualização do dicionário.
|
33 |
Transformada wavelet e função de ambigüidade em detecção de sinais de radar e sonarFábio Cézar Martins 01 December 1996 (has links)
Neste trabalho são propostos um modelo matemático para sinais eco de alvos pontuais sem flutuação temporal da refletividade, mas considerando-se o parâmetro de escalonamento temporal, e uma estrutura para o receptor ótimo caracterizada por um processo de Transformação "Wavelet". O modelo proposto permite modelar a estrutura do receptor ótimo a partir de uma função ambigüidade modificada, que difere da clássica que só leva em consideração o desvio "Doppler" em sua fase devido ao movimento radial do alvo, por um processo de Transformação "Wavelet". Através de simulações realizadas analisou-se a função ambigüidade modificada e clássica, para alvos de sistemas Radar e Sonar, utilizando-se como sinal transmitido "Wavelets mães"e fez-se uma comparação qualitativa dos resultados obtidos. O trabalho realizado e o modelamento proposto podem ser utilizados para escolha da "Wavelet mãe" que apresenta um melhor desempenho para alvos de sistemas Radar e Sonar. Pode-se também, através dos resultados, implementar a estrutura do receptor ótimo através de DSP';s (processadores digitais de sinais) para sistemas Sonar.
|
34 |
Fractal color image compression.Li Zhaohui 00 December 2000 (has links)
A compressão de dados é uma ferramenta importante para o armazenamento e a transmissão da informção. Dentro do domínio da imagem digital, uma técnica nova de codificação chamada de Codificação Fractal despertou muito interesse nos último dez anos. O princípio derivado da codificação da imagem por fractal consiste em encontrar uma regra de constução que produza uma imagem fractal, que se aproxime da imagem original. A proposta desta tese consiste em duas partes. A primeira deve rever a codificação imagem por fractal baseada em ações de transformação interativas. Inicialmente, a base teórica é esboçada. O centro desta base teórica é o teorema de mapeamento contrativo e as propriedades matemáticas do Sistema de Função Interativa (IFS). Além disso, o algoritmo fractal clássico de compressão e suas alternativas, incluindo vários métodos de partição da imagem, procurando a estratégia e a classificação do bloco de domínio também são revistas. A segunda parte deve desenvolver um método novo, chamado Codificação Hierárquica de Blocos para comprimir as imagens coloridas, baseado na Codificação Fractal (HCBC). Este método transforma os três planos de cores de uma imagem colorida para uma imagem de um plano de cor através da extração das correlações entre os três planos de cores da imagem original. Ele divide hierarquicamente os três planos de cores em blocos homogêneos. Cada bloco é representado pelo valor médio dos coeficientes tricromáticos dos pixels, e uma imagem composta por um plano de cor comprimida pela codificação fractal. A reconstrução é feita pelo algoritmo de codificaçãp fractal com os valores médios associados a cada bloco. Para decodificar inteiramente a imagem colorida reconstruí-se pelo algoritmo de codificação fractal e pelos valores médios do coeficiente tricromáticos obtida pelo HCBC. Comparado com o método de codificação fractal de três-componentes separados, o método proposto consegue o mesmo nível da qualidade de reconstrução, mas, o que é mais importante, com uma maior taxa de compressão e um menor tempo de compressão.
|
35 |
Um sistema de compressão de imagens baseado no JPEG com e sem perdas: projeto e análise comparativa de eficiência.Dalcio Diogenes de Lima Ribas 00 December 2001 (has links)
Sistemas de compressão de imagens sem perdas, no atual estado da arte, decompõem o processo em modelagem e em codificação. A tese aqui defendida é que alta eficiência na compressão pode ser obtida usando-se técnicas combinadas de modelagens aliadas a algoritmos combinados de codificação. Este trabalho, baseando-se nos padrões JPEG com e sem perdas, implementa variantes de modelagens e seleciona a mais eficiente através de cálculo que considera a entropia dos dados a serem codificados. Na compressão com perdas, introduz-se uma fase de modelagem que consiste no agrupamento de bits dos coeficientes da transformada, criando-se áreas potencialmente redundantes e preparando, dessa forma, os dados para uma melhor eficiência dos algoritmos de codificação. Na fase de codificação, com perdas ou sem perdas, avaliam-se vários algoritmos, entre eles alguns desenvolvidos e propostos neste trabalho, selecionando-se o mais eficiente através de cálculos baseados nas estatísticas posicionais e globais obtidas durante uma leitura prévia dos dados.
|
36 |
Uma solução para compressão de imagens de sensoriamento remoto baseada em FPGA COTSAntonio Lopes Filho 22 October 2013 (has links)
Motivado pelos avanços tecnológicos dos instrumentos de sensoriamento remoto o que, por sua vez, implica a necessidade de compressores de imagens embarcados em satélites e motivado também pela tendência ao uso de dispositivos comerciais (COTS) em aplicações espaciais, este trabalho propõe uma solução completa em hardware para compressão de imagens de sensoriamento remoto. Como requisitos, considera-se um nível de compressão mínimo é quatro vezes (4:1), com qualidade melhor do que 50 dB e taxa de processamento acima de 5 Mpixel/s. Como solução para compressão, optou-se pelo padrão JPEG-LS, de baixa complexidade, com a adição de recursos de mitigação de erros provocados pelos efeitos da radiação espacial em órbitas baixas, visando sua implementação em dispositivos lógicos programáveis (FPGA) COTS. A susceptibilidade do compressor JPEG-LS, com e sem adição de métodos clássicos de mitigação de erros, como a redundância modular tripla (TMR) e a codificação Hamming, é avaliada utilizando-se um esquema de injeção aleatória de eventos singulares, transitórios (SET) e comutação de bit (SEU), para levantamento de taxas relativas de erros, por simulação, e do respectivo impacto em área, por síntese. Para simular os efeitos da radiação no espaço, emprega-se um modelo com uma distribuição gaussiana de incidência de eventos de duração fixa, menor do que o período de clock, e com uma distribuição uniforme para seleção do sinal e do respectivo bit afetado. Ao longo da simulação, a contagem de erros é efetuada através da comparação dos dados gerados com um padrão de referência, sem erros. O método para avaliação de susceptibilidade proposto possibilita, através de rápidas iterações entre simulação e síntese, a obtenção de informações relevantes que permitem estimar a relação custo-benefício referente à adição de diferentes medidas de mitigação. A solução completa abrange o empacotamento dos dados resultantes da compressão, considerando tópicos como armazenamento temporário e controle da taxa de compressão, para acomodar flutuações na taxa de dados; multiplexação dos dados de diferentes bandas espectrais; formatação dos blocos de dados; e adição de codificação Reed-Solomon, para mitigar erros relativos ao enlace de transmissão. Dentre as contribuições do trabalho destaca-se: a avaliação de um compressor de imagens implementado em hardware com resultados que excedem os requisitos de projeto; a proposta de um método de avaliação de susceptibilidade que se diferencia pela injeção de SETs, pelo levantamento de taxas de erros e pelo tempo relativamente rápido de execução; uma estimativa melhor do que 100 vezes para redução na susceptibilidade do algoritmo de compressão com adição de mitigação de erros, obtida com o emprego do método proposto; e uma avaliação em hardware dos princípios envolvidos na concepção da solução completa, com resultados positivos.
|
37 |
Avaliação de desempenho de compressores de imagens baseada no consumo de energiaChristofer Schwartz 20 November 2015 (has links)
O principal objetivo deste trabalho é apresentar uma análise de desempenho de algoritmos de compressão de imagens, levando em consideração a energia demandada por eles. Em outras palavras, além dos critérios comumente utilizados para avaliar o desempenho de algoritmos de compressão de imagens (e.g., taxa-distorção), este trabalho também irá considerar uma variável custo em termos de energia (i.e., taxa-distorção-energia). Uma avaliação desse tipo pode permitir que a escolha de um algoritmo de compressão de imagens para operar em sistemas com restrição de energia (e.g., satélites de sensoriamento remoto) seja mais apropriada. Sabe-se que uma análise envolvendo o gasto de energia de um algoritmo apresentará resultados que dependerão do hardware que o executa. Por isso, o estudo feito por esse trabalho irá abordar o assunto considerando questões importantes da esfera da computação, onde alguns experimentos irão envolver plataformas de processamento com características distintas. Também é sabido que os processadores mais recentes permitem o processamento paralelo de operações. Quando utilizado, esse recurso é capaz de aumentar a eficiência do algoritmo em termos de tempo de processamento e gasto de energia. Por outro lado, os algoritmos de compressão de imagens mais utilizados, foram desenvolvidos sob a óptica do processamento sequencial de operações (assim como suas implementações mais usuais). Dito isso, este trabalho também irá avaliar o ganho de desempenho que é possível alcançar ao se perseguir a criação de algoritmos de compressão que façam uso do recurso de processamento paralelo. Os resultados das análises apontam para um aumento significativo do desempenho dos algoritmos analisados, em termos de tempo de processamento e gasto de energia, quando utilizado o recurso de processamento paralelo. Além disso, será possível analisar de que forma as estratégias de compressão adotadas pelos algoritmos que serão analisados irão impactar no consumo de energia do sistema.
|
38 |
Atribuição de autoria de documentos em língua portuguesa utilizando a distância normalizada de compressão / Walter Ribeiro de Oliveira Junior ; orientador, Edson José Rodrigues Justino ; co-orientador Luiz Eduardo S. OliveiraOliveira Junior, Walter Ribeiro de January 2011 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2011 / Bibliografia: f. [125]- 129 / A atribuição de autoria de documentos em língua portuguesa tem sido objeto de estudos recentes. Este trabalho propõe o uso de compressores de dados, com o uso da medida normalizada de compressão, para a tarefa de atribuição de autoria. São utilizados meca / Authorship attribution of documents written in Portuguese has been object of recent researches. This research proposes the use of data compressors, using the normalized compression distance, to the authorship attribution task. The questioned document has
|
39 |
Análise Bayesiana de dados composicionais na presença de covariáveisShimizu, Taciana Kisaki Oliveira [UNESP] 24 February 2014 (has links) (PDF)
Made available in DSpace on 2014-08-13T14:50:48Z (GMT). No. of bitstreams: 0
Previous issue date: 2014-02-24Bitstream added on 2014-08-13T18:00:27Z : No. of bitstreams: 1
000759735.pdf: 5936644 bytes, checksum: 2a76b56febeeca13c37e5729a1d4df30 (MD5) / Dados composicionais consistem em vetores conhecidos como composições cujos componentes são positivos e definidos no intervalo (0,1) representando proporções ou frações de um “todo”. A soma desses componentes deve ser igual a um. Os dados composicionais estão presentes em diferentes áreas, como na geologia, ecologia, economia, medicina entre muitas outras. Desta forma há um grande interesse em novas abordagens de modelar dados composicionais. Neste estudo, introduzimos as transformações logaritmo da razão (alr) e Box-Cox em modelos usados para dados composicionais, assumindo erros normais não correlacionados. O objetivo principal deste trabalho é aplicar métodos Bayesianos para estes modelos utilizando os métodos padrões de Monte Carlo via Cadeias de Markov (MCMC) para simular amostras da posteriori conjunta de interesse. Nós aplicamos a metodologia proposta em dois conjuntos de dados, sendo que um deles é sobre um experimento de medidas repetidas na qual introduzimos uma variável de efeito aleatório para capturar a dependência para os dados longitudinais e, além disso, a introdução de dois efeitos aleatórios extras no modelo. Estes resultados de modelagem podem ser de grande interesse em trabalhos aplicados que lidam com conjuntos de dados composicionais. / Compositional data consist of known compositions vectors whose components are positive and defined in the interval (0,1) representing proportions or fractions of a “whole”. The sum of these components must be equal to one. Compositional data is present in different areas, as in ecology, economy, medicine among many others. In this way, there is a great interest in new modeling approaches for compositional data. In this study we introduced additive log-ratio (alr) and Box-Cox transformations models used for compositional data, under uncorrelated normal errors. The main objective of this project is to apply Bayesian methods to these models using standard Markov Chain Monte Carlo (MCMC) methods to simulate samples of the joint posterior of interest. We apply the proposed methodology in two data sets, whereas one of them is about an experiment of repeated measures where we introduced a random effect variable to capture the dependence for the longitudinal data and also the introduction of two extra random effects in the model. These modeling results could be of great interest in the applied work dealing with compositional data sets.
|
40 |
Inferência bayesiana não-paramétrica para elicitação da função de contabilidadePenha, Débora Luzia [UNESP] 20 January 2014 (has links) (PDF)
Made available in DSpace on 2014-08-13T14:50:49Z (GMT). No. of bitstreams: 0
Previous issue date: 2014-01-20Bitstream added on 2014-08-13T18:00:24Z : No. of bitstreams: 1
000760059.pdf: 2134645 bytes, checksum: 635b296c4a3f8dc210e08b94a273ae35 (MD5) / A elicitação é um processo que permite a incorporação da informação a priori fornecida por um especialista sobre alguma quantidade, desconhecida e de interesse, à informação proveniente dos dados do experimento. Pode ser utilizada em muitas áreas aplicadas do conhecimento, principalmente em situações nas quais os dados experimentais não são tão numerosos devido à di culdade ou custo para obtê-los. Na abordagem Bayesiana nãoparam étrica, a densidade ou a função de interesse podem ser estimadas sem imposição de quaisquer suposições restritivas sobre a sua forma. Assim, os dados permitem determinar a estimativa da função de interesse em vez de condicioná-la a pertencer a uma dada fam ília paramétrica. O objetivo do presente trabalho é realizar uma aplicação do método Bayesiano não-paramétrico de elicitação de prioris proposto por Oakley e O'Hagan (2007), Moala (2009) e Moala e O'Hagan (2010) a m de estimar a função de con abilidade, considerada completamente desconhecida em sua forma, baseando-se apenas na informação fornecida pelo especialista. / The elicitation is a process that allows the incorporation of a prior information provided by an expert on some quantity, unknown and of interest, to the information from the experimental data. It can be used in many applied areas of knowledge, especially in situations where experimental data are not numerous because of the di culty or cost to obtain them. In Bayesian non-parametric approach, the density or the function of interest can be estimated without imposing any restrictive assumptions on its shape. Thus, the data allows determine the estimate of the interested function rather than conditioning it to a given parametric class functions. The aim of this paper is to apply the Bayesian nonparametric elicitation method of priors proposed by Oakley and O'Hagan (2007), Moala (2009) and Moala and O'Hagan (2010) to estimate the reliability function, considered completely unknown in its form, based only on the information provided by the expert.
|
Page generated in 0.099 seconds