Spelling suggestions: "subject:"compressão dde dados"" "subject:"compressão dde lados""
71 |
Compressão de dados de demanda elétrica em Smart Metering / Data compression electricity demand in Smart MeteringFlores Rodriguez, Andrea Carolina, 1987- 08 August 2014 (has links)
Orientador: Gustavo Fraidenraich / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-26T03:16:11Z (GMT). No. of bitstreams: 1
FloresRodriguez_AndreaCarolina_M.pdf: 1415054 bytes, checksum: 6b986968e8d7ec4e6459e4cea044d379 (MD5)
Previous issue date: 2014 / Resumo: A compressão dos dados de consumo residencial de energia elétrica registrados torna-se extremadamente necessária em Smart Metering, a fim de resolver o problema de grandes volumes de dados gerados pelos medidores. A principal contribuição desta tese é a proposta de um esquema de representação teórica da informação registrada na forma mais compacta, sugerindo uma forma de atingir o limite fundamental de compressão estabelecido pela entropia da fonte sobre qualquer técnica de compressão disponibilizada no medidor. A proposta consiste na transformação de codificação dos dados, baseado no processamento por segmentação: no tempo em taxas de registros de 1/900 Hz a 1 Hz, e nos valores de consumo residencial de energia elétrica. Este último subdividido em uma compressão por amplitude mudando sua granularidade e compressão dos dados digitais para representar o consumo com o menor número de bits possíveis usando: PCM-Huffman, DPCM-Huffman e codificação de entropia supondo diferentes ordens de distribuição da fonte. O esquema é aplicado sobre dados modelados por cadeias de Markov não homogêneas para as atividades dos membros da casa que influenciam no consumo elétrico e dados reais disponibilizados publicamente. A avaliação do esquema é feita analisando o compromisso da compressão entre as altas taxas de registro, distorção resultante da digitalização dos dados, e exploração da correlação entre amostras consecutivas. Vários exemplos numéricos são apresentados ilustrando a eficiência dos limites de compressão. Os resultados revelam que os melhores esquemas de compressão de dados são encontrados explorando a correlação entre as amostras / Abstract: Data compression of recorded residential electricity consumption becomes extremely necessary on Smart Metering, in order to solve the problem of large volumes of data generated by meters. The main contribution of this thesis is to propose a scheme of theoretical representation of recorded information in the most compact form, which suggests a way to reach the fundamental limit of compression set by the entropy of the source, of any compression technique available in the meter. The proposal consists in the transformation of data encoding, based on the processing by segmentation: in time by registration rate from 1/900 Hz to 1 Hz, and in the values of residential electricity consumption. The latter is subdivided into compression: by amplitude changing their regularity, and digital data compression to represent consumption as few bits as possible. It is using PCM-Huffman, DPCM-Huffman and entropy encoding by assuming different orders of the source. The scheme is applied to modeled data by inhomogeneous Markov chains to create the activities of household members that influence electricity consumption, and real data publicly available. The assessment scheme is made by analyzing the trade off of compression between high registration rates, the distortion resulting from the digitization of data, and analyzing the correlation of consecutive samples. Several examples are presented to illustrate the efficiency of the compression limits. The analysis reveals that better data compression schemes can be found by exploring the correlation among the samples / Mestrado / Telecomunicações e Telemática / Mestra em Engenharia Elétrica
|
72 |
Tópicos em seleção de modelos markovianos / Topics in selection of Markov modelsViola, Márcio Luis Lanfredi, 1978- 19 August 2018 (has links)
Orientador: Jesus Enrique Garcia / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-19T15:10:51Z (GMT). No. of bitstreams: 1
Viola_MarcioLuisLanfredi_D.pdf: 951071 bytes, checksum: 87d2c8b2501105bc64aab5e92c769ea4 (MD5)
Previous issue date: 2011 / Resumo: Nesta tese abordamos o problema estatístico de seleção de um modelo Markoviano de ordem finita que se ajuste bem a um conjunto de dados em duas situações diferentes. Em relação ao primeiro caso, propomos uma metodologia para a estimação de uma árvore de contextos utilizando-se amostras independentes sendo que a maioria delas são provenientes de um mesmo processo de Markov de memória variável finita e as demais provêm de um outro processo Markoviano de memória variável finita. O método proposto é baseado na taxa de entropia relativa simetrizada como uma medida de similaridade. Além disso, o conceito de ponto de ruptura assintótico foi adaptado ao nosso problema de seleção a fim de mostrar que o procedimento proposto, nesta tese, é robusto. Em relação ao segundo problema, considerando um processo de Markov multivariado de ordem finita, propomos uma metodologia consistente que fornece a partição mais fina das coordenadas do processo de forma que os seus elementos sejam condionalmente independentes. O método obtido é baseado no BIC (Critério de Informação Bayesiano). Porém, quando o número de coordenadas do processo cresce, o custo computacional do critério BIC torna-se excessivo. Neste caso, propomos um algoritmo mais eficiente do ponto de vista computacional e a sua consistência é demonstrada. A eficiência das metodologias propostas foi estudada através de simulações e elas foram aplicadas em dados linguísticos / Abstract: This work related two statistical problems involving the selection of a Markovian model of finite order. Firstly, we propose a procedure to choose a context tree from independent samples, with more than half of them being realizations of the same finite memory Markovian processes with finite alphabet with law P. Our model selection strategy is based on estimating relative entropies to select a subset of samples that are realizations of the same law. We define the asymptotic breakdown point for a model selection procedure, and show the asymptotic breakdown point for our procedure. Moreover, we study the robust procedure by simulations and it is applied to linguistic data. The aim of other problem is to develop a consistent methodology for obtain the finner partitions of the coordinates of an multivariate Markovian stationary process such that their elements are conditionally independents. The proposed method is establishment by Bayesian information criterion (BIC). However, when the number of the coordinates of process increases, the computing of criterion BIC becomes excessive. In this case, we propose an algorithm more efficient and the its consistency is demonstrated. It is tested by simulations and applied to linguistic data / Doutorado / Estatistica / Doutor em Estatística
|
73 |
Design and evaluation of compact ISAs / Estudo e avaliação de conjuntos de instruções compactosLopes, Bruno Cardoso, 1985- 24 August 2018 (has links)
Orientador: Rodolfo Jardim de Azevedo / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-24T12:29:38Z (GMT). No. of bitstreams: 1
Lopes_BrunoCardoso_D.pdf: 3162388 bytes, checksum: 3a46d0fb9404a69bf87489922e4743b0 (MD5)
Previous issue date: 2014 / Resumo: Sistemas embarcados modernos são compostos de SoC heterogêneos, variando entre processadores de baixo e alto custo. Apesar de processadores RISC serem o padrão para estes dispositivos, a situação mudou recentemente: fabricantes estão construindo sistemas embarcados utilizando processadores RISC - ARM e MIPS - e CISC (x86). A adição de novas funcionalidades em software embarcados requer maior utilização da memória, um recurso caro e escasso em SoCs. Assim, o tamanho de código executável é crítico, porque afeta diretamente o número de misses na cache de instruções. Processadores CISC costumavam possuir maior densidade de código do que processadores RISC, uma vez que a codificação de instruções com tamanho variável beneficia as instruções mais usadas, os programas são menores. No entanto, com a adição de novas extensões e instruções mais longas, a densidade do CISC em aplicativos recentes tornou-se similar ao RISC. Nesta tese de doutorado, investigamos a compressibilidade de processadores RISC e CISC; SPARC e x86. Nós propomos uma extensão de 16-bits para o processador SPARC, o SPARC16. Apresentamos também, a primeira metodologia para gerar ISAs de 16-bits e avaliamos a compressão atingida em comparação com outras extensões de 16-bits. Programas do SPARC16 podem atingir taxas de compressão melhores do que outros ISAs, atingindo taxas de até 67%. O SPARC16 também reduz taxas de cache miss em até 9%, podendo usar caches menores do que processadores SPARC mas atingindo o mesmo desempenho; a redução pode chegar à um fator de 16. Estudamos também como novas extensões constantemente introduzem novas funcionalidades para o x86, levando ao inchaço do ISA - com o total de 1300 instruções em 2013. Alem disso, 57 instruções se tornam inutilizadas entre 1995 e 2012. Resolvemos este problema propondo um mecanismo de reciclagem de opcodes utilizando emulação de instruções legadas, sem quebrar compatibilidade com softwares antigos. Incluímos um estudo de caso onde instruções x86 da extensão AVX são recodificadas usando codificações menores, oriundas de instruções inutilizadas, atingindo até 14% de redução no tamanho de código e 53% de diminuição do número de cache misses. Os resultados finais mostram que usando nossa técnica, até 40% das instruções do x86 podem ser removidas com menos de 5% de perda de desempenho / Abstract: Modern embedded devices are composed of heterogeneous SoC systems ranging from low to high-end processor chips. Although RISC has been the traditional processor for these devices, the situation changed recently; manufacturers are building embedded systems using both RISC - ARM and MIPS - and CISC processors (x86). New functionalities in embedded software require more memory space, an expensive and rare resource in SoCs. Hence, executable code size is critical since performance is directly affected by instruction cache misses. CISC processors used to have a higher code density than RISC since variable length encoding benefits most used instructions, yielding smaller programs. However, with the addition of new extensions and longer instructions, CISC density in recent applications became similar to RISC. In this thesis, we investigate compressibility of RISC and CISC processors, namely SPARC and x86. We propose a 16-bit extension to the SPARC processor, the SPARC16. Additionally, we provide the first methodology for generating 16-bit ISAs and evaluate compression among different 16-bit extensions. SPARC16 programs can achieve better compression ratios than other ISAs, attaining results as low as 67%. SPARC16 also reduces cache miss rates up to 9%, requiring smaller caches than SPARC processors to achieve the same performance; a cache size reduction that can reach a factor of 16. Furthermore, we study how new extensions are constantly introducing new functionalities to x86, leading to the ISA bloat at the cost a complex microprocessor front-end design, area and energy consumption - the x86 ISA reached over 1300 different instructions in 2013. Moreover, analyzed x86 code from 5 Windows versions and 7 Linux distributions in the range from 1995 to 2012 shows that up to 57 instructions get unused with time. To solve this problem, we propose a mechanism to recycle instruction opcodes through legacy instruction emulation without breaking backward software compatibility. We present a case study of the AVX x86 SIMD instructions with shorter instruction encodings from other unused instructions to yield up to 14% code size reduction and 53% instruction cache miss reduction in SPEC CPU2006 floating-point programs. Finally, our results show that up to 40% of the x86 instructions can be removed with less than 5% of overhead through our technique without breaking any legacy code / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
|
74 |
Desenvolvimento e implementação em FPGA de um compressor sem perdas de baixa complexidade para imagens de satéliteCosta, Yuri Gonzaga Gonçalves da 31 July 2012 (has links)
Made available in DSpace on 2015-05-14T12:36:33Z (GMT). No. of bitstreams: 1
Arquivototal.pdf: 3633724 bytes, checksum: f53669bf4f692585666fd625941bdbe0 (MD5)
Previous issue date: 2012-07-31 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The amount of data generated and transmitted by satellites to ground stations is always growing. As the technology advances, space imaging systems, especially those
present in Earth observing missions, use equipment of increasing resolutions. Hence, it is necessary to ensure that this great quantity of data arrives at their destination reliably. Among some techniques involved, data compression plays an important role to accomplish this requirement. A data compression system for this purpose must comply with some conditions, particularly regarding performance. In this context, hardware implementations based on prediction and Golomb-Rice coding has achieved excellent results considering hardware and compression performance in both lossless and lossy cases. This work proposes a digital hardware approach of a low complexity satellite image lossless compressor based on prediction and Golomb-Rice coding that is attuned to the balance between performance requirements and error propagation, a
common issue in space systems environment that is enhanced by data compression. In order to validate and analyze the compressor, a functional verification and FPGA prototyping methodology were followed. Given an image set from Brazilian's National Institute for Space Research (INPE, in the Portuguese acronym), CBERS-2B satellite, its results in FPGA show that this compressor achieves average compression ratio of 3.4, comparable value to related works in this area, and throughput of 28 MPixel/s (224
Mbit/s). Taking advantage of images nature, its compression can be parallelized through simultaneous multi-cores compressors. For example, using 5 cores, this work
is able to compress those images in a rate of 142 MPixel/s (1.1 Gbit/s). All these features make it useful and effective in a current remote sensing imaging system. / A quantidade de dados gerados e transmitidos pelos satélites para as estações na Terra é cada vez maiores. Com o passar do tempo e avanço da tecnologia, os sistemas de imageamento espaciais, particularmente as missões de observação da Terra, tem utilizado equipamentos com resoluções cada vez maiores. Por esse motivo, se faz necessário garantir que os dados cheguem ao destino de maneira confiável. Dentre algumas técnicas envolvidas, a compressão de dados é o meio mais viável de alcançar esse requisito. Um sistema de compressão de dados para esse fim deve obedecer algumas condições, principalmente quanto ao desempenho. Nesse contexto, implementações em hardware baseadas em predição e codificação de Golomb-Rice têm obtido excelentes resultados considerando desempenho do hardware e da compressão, tanto nos casos sem perdas como nos com perdas. O presente trabalho apresenta uma proposta de hardware digital de um compressor sem perdas para imagens de satélite baseado em predição e codificação Golomb-Rice que busca um balanceamento entre os requisitos de desempenho e a propagação de erros, um problema comum no âmbito de sistemas espaciais e que é potencializado no caso dos compressores de dados. Para validação e análise do compressor, é seguida uma metodologia de verificação funcional de hardware digital e o desenvolvimento de um
protótipo em FPGA. Dado um conjunto de imagens do satélite CBERS-2B disponibilizadas pelo Instituto Nacional de Pesquisas Espaciais, os resultados obtidos em FPGA mostram que esse compressor alcança razão de compressão média de 3,4,
valor comparável a trabalhos correlatos, e velocidade de 28 MPixel/s (224 Mbit/s). Considerando a natureza das imagens, a compressão pode ser paralelizada por meio de simultâneos núcleos compressores em uma abordagem multicore. Por exemplo, usando 5 núcleos, o sistema proposto é capaz de comprimir essas imagens em uma velocidade de 142 MPixel/s (1.1 Gbit/s). Todas essas características tornam-no útil e
efetivo para a aplicação em um sistema moderno de imageamento para sensoriamento remoto.
|
75 |
Sistema Embarcado para um Monitor Holter que Utiliza o Modelo PPM na Compressão de Sinais ECGFarias, Thyago Maia Tavares de 04 March 2010 (has links)
Made available in DSpace on 2015-05-14T12:36:54Z (GMT). No. of bitstreams: 1
arquivototal.pdf: 2004014 bytes, checksum: 3d8ca87826ca89996bb9c71a82501746 (MD5)
Previous issue date: 2010-03-04 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In this work, we present the development of an embedded system prototyping with
soft-core Nios II and FPGA for a holter monitor that implements data compression, using the
PPM Algorithm, and simulate ECG signals through the implementation of the Fourier series.
Through a holter monitor, cardiologists can obtain ECG signals, serving as the basis for the
perception of symptoms and activities of patients. These signals are captured and recorded
by monitors in periods greater than or equal to 24 hours, requiring large storage size to store
them, therefore increasing cost of the monitor. Using the PPM algorithm, a monitor holter can
considerably reduce the size of the signals stored, thus reducing storage space and cost of
device, addition to allow rapid transmission of the data. Integrating the ECG signal simulator
to the device, is possible to generate samples of ECG via the embedded system, saving time
and eliminating difficulties in obtaining signals, compared with the capture of real ECG
signals by invasive and noninvasive methods. It enables the analysis and study of normal
and abnormal ECGs. An embedded system on programmable chip (SOPC) was prototyped
with a development kit containing peripherals and FPGA chip compatible with the Nios II.
Architecture soft-core was set to compact operating system and software modules have
been successfully developed, ported and validated on this platform. / Neste trabalho, é apresentado o desenvolvimento de um sistema embarcado com
prototipagem em FPGA contendo instanciação do processador soft-core Nios II (SOPC
System on a Programmable Chip), para um monitor holter que implementa compressão de
dados, utilizando o algoritmo PPM, e simula sinais ECG através da implementação das
Séries de Fourier. Através de um monitor holter, cardiologistas podem obter sinais ECG, que
servem de base para a percepção de sintomas e atividades em pacientes, captados e
armazenados pelos monitores em períodos maiores ou iguais a 24 horas, requisitando
grandes espaços de armazenamento, aumentando, assim, o custo deste monitor. Utilizando
o PPM, o dispositivo desenvolvido poderá reduzir consideravelmente a quantidade de dados
armazenados, reduzindo, portanto, o espaço de armazenamento e o custo do dispositivo,
permitindo ainda a rápida transmissão dos dados. Integrando o simulador de sinais ECG ao
dispositivo, possibilita-se a geração de amostras de sinais eletrocardiográficos através do
sistema embarcado, economizando tempo e eliminando dificuldades na obtenção de sinais,
em comparação com a captação real de sinais ECG através de métodos invasivos e nãoinvasivos.
O mesmo permite a análise e o estudo de sinais ECG normais e anormais. Um
sistema embarcado em chip programável (SOPC) foi prototipado com uma placa contendo
periféricos e uma pastilha FPGA dotada de compatibilidade com o Nios II; a arquitetura do
soft-core foi configurada em sistema operacional compacto e módulos de software foram
exitosamente desenvolvidos, portados e validados sobre essa plataforma.
|
76 |
Reconhecimento de formas utilizando modelos de compressão de dados e espaços de escalas de curvaturaLordão, Fernando Augusto Ferreira 27 August 2009 (has links)
Made available in DSpace on 2015-05-14T12:36:54Z (GMT). No. of bitstreams: 1
arquivototal.pdf: 2499209 bytes, checksum: 80d399f8f00f3e82d2a3b34e52fd6b05 (MD5)
Previous issue date: 2009-08-27 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / As the processing power of computers increases, the quantity and complexity of stored data
have growing in the same way, requiring more sophisticated mechanisms to accomplish
retrieval with efficacy and efficiency over these information. In image processing, it has
become common the retrieval based on its own content, namely Content-Based Image
Retrieval (CBIR), which eliminates the need to place additional annotations as textual
descriptions and keywords registered by an observer. The purpose of this work is the
development of an image retrieval mechanism based on shape recognition. The mechanism
consists in (1) compute the Full Curvature Scale Space (FullCSS) image descriptors; and (2)
apply over them a lossless compression method objecting to (3) classify these descriptors and
retrieve the corresponding images. The FullCSS descriptors register the curvature variations
on the image contour indicating the degree and the signal of these variations, which allow
identifying where the curvature is concave or convex. The adopted compression method uses
the Prediction by Partial Matching (PPM) compression model, which has been successfully
used in other works to classify texture images. The results obtained show that this novel
approach is able to reach competitive levels of efficacy and efficiency when compared to
other works recently developed in this same area. / Com o aumento do poder de processamento dos computadores, cresceu também a quantidade
e complexidade dos dados armazenados, exigindo mecanismos cada vez mais sofisticados
para se conseguir uma recuperação eficaz e eficiente destas informações. No caso do
processamento de imagens, tem se tornado comum a recuperação baseada em seu próprio
conteúdo, ou seja, Recuperação de Imagem Baseada em Conteúdo (Content-Based Image
Retrieval CBIR), eliminando a necessidade de anotações adicionais como descrições
textuais e palavras-chave registradas por um observador. A proposta deste trabalho é o
desenvolvimento de um mecanismo de recuperação de imagens através do reconhecimento de
sua forma. O mecanismo consiste em (1) calcular os descritores Full Curvature Scale Space
(FullCSS) das imagens; e (2) aplicar sobre eles um método de compressão sem perdas com a
finalidade de (3) classificar esses descritores e recuperar as imagens correspondentes. Os
descritores FullCSS registram as variações na curvatura do contorno da imagem indicando o
grau e o sinal dessas variações, permitindo identificar onde a curvatura é côncava ou convexa.
O método de compressão adotado utiliza o modelo de compressão Prediction by Partial
Matching (PPM), utilizado com sucesso em outros trabalhos para classificar imagens de
texturas. Os resultados obtidos indicam que esta abordagem inovadora é capaz de atingir
níveis competitivos de eficácia e eficiência quando comparada a outros trabalhos atualmente
desenvolvidos nesta mesma área.
|
77 |
Uma combinação entre os critérios objetivo e subjetivo na classificação de imagens mamográficas comprimidas pelo método fractalVergütz, Stéphany 29 November 2013 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Images are relevant sources of information in many areas of science and technology. The processing of such information improves and optimizes its use. The image compression causes the information representation is more efficient, reducing the amount of data required to represent an image. The objective of this study is to evaluate the performance of Fractal Compression technique onto mammograms through an association between the objective criteria, provided by Peak Signal Noise Ration (PSNR); and the subjective criteria, given by visual analysis of an expert physician. Visual analysis was performed comparing mammograms compressed to different extents (compression rate) with the original image, where experts classified the compressed images as unacceptable , acceptable , good or great . In doing so, the optimal compression rate and PSNR values of mammograms was achieved, where images are considered acceptable according to experts. In order to compare the performance of fractal compression technique with another compression method, visual analysis was also done on images compressed by JPEG2000 method. / As imagens são fontes relevantes de informação em diversas áreas da ciência e tecnologia. O processamento dessas informações melhora e otimiza sua utilização. A compressão de imagens faz com que a representação da informação seja mais eficiente, reduzindo a quantidade de dados necessários para representar uma imagem. O objetivo deste trabalho é apresentar a avaliação do desempenho da compressão fractal aplicada a imagens mamográficas, pela combinação entre o critério objetivo, fornecido pela relação sinal ruído de pico (Peak Signal Noise Ratio - PSNR), e o critério subjetivo, especificado pela análise visual de médicos especialistas. A análise visual foi realizada comparando as imagens mamográficas comprimidas com diferentes taxas de compressão e a imagem original. Os especialistas classificaram as imagens comprimidas como \"inaceitável\", \"aceitável\", \"boa\" ou \"ótima\". Dessa maneira, conseguiu-se combinar a taxa de compressão e o valor de PSNR, para que as imagens comprimidas sejam consideradas aceitáveis pelos especialistas. Para avaliar o desempenho da compressão fractal foram realizados testes e análises visuais com as mesmas imagens utilizando o método de compressão JPEG2000. / Mestre em Ciências
|
78 |
Aproximações para DCT via pruning com aplicações em codificação de imagem e vídeoCOUTINHO, Vítor de Andrade 23 February 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-06-21T15:14:55Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Vitor_de_Andrade_Coutinho-dissertacao_ppgee.pdf: 3622975 bytes, checksum: 01a22e0302dfc1890d745c6b1bffe327 (MD5) / Made available in DSpace on 2016-06-21T15:14:56Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Vitor_de_Andrade_Coutinho-dissertacao_ppgee.pdf: 3622975 bytes, checksum: 01a22e0302dfc1890d745c6b1bffe327 (MD5)
Previous issue date: 2015-02-23 / CNPq / O presente trabalho aborda o desenvolvimento de aproximações para a transformada dis-
reta do
osseno (DCT) utilizando a abordagem pruning. Devido à propriedade da
ompa
ta-
ção de energia, a DCT é empregada em diversas apli
ações de
ompressão de dados. Embora
algoritmos rápidos permitam
omputar a DCT e
ientemente, operações de multipli
ação são
inevitáveis. Devido a
res
ente demanda por métodos de baixo
onsumo energéti
o, novos
algoritmos de
usto
omputa
ional reduzido são ne
essários. Neste
ontexto, aproximações
para a DCT foram propostas nos últimos anos. Tais aproximações permitem algoritmos livres
de multipli
ação, sem a ne
essidade de operações de ponto utuante, mantendo o desempe-
nho de
ompressão
omparável ao forne
ido por métodos baseados na DCT. Uma abordagem
adi
ional para reduzir o
usto
omputa
ional da DCT é a utilização de pruning. Tal té
ni
a
onsiste em não
onsiderar
oe
ientes dos vetores de entrada e/ou saída que apresentam
menor relevân
ia em termos de energia
on
entrada. No
aso da DCT, esses
oe
ientes são
os termos de mais alta frequên
ia do vetor transformado. A apli
ação de pruning a aproxima-
ções para a DCT é uma área pou
o explorada. O objetivo deste trabalho é apli
ar a té
ni
a a
diferentes métodos aproximados para a DCT. As transformações resultantes foram apli
adas
no
ontexto de
ompressão de imagem e vídeo e os resultados mostraram desempenho
ompa-
rável ao de métodos exatos a um
usto
omputa
ional bastante reduzido. Uma generalização
do
on
eito é apresentada, assim
omo uma análise da
omplexidade aritméti
a. / This work introdu
es approximate dis
rete
osine transforms (DCT) based on the pruning
approa
h. Due to the energy
ompa
tion property, the DCT is employed in several data
ompression appli
ations. Although fast algorithms allow an e
ient DCT
omputation,
multipli
ation operations are inevitable. Due to the in
reasing demand for energy e
ient
methods, new algorithms with redu
ed
omputational
ost are required. In this
ontext,
DCT approximations have been proposed re
ently. Su
h approximations allow multipli
ation
free algorithms whi
h
an avoid oating point operations, while maintaining a
ompetitive
performan
e. A further approa
h to redu
e the
omputational
ost of the DCT is pruning. The
te
hnique
onsists of dis
arding input and/or output ve
tors
oe
ients whi
h are regarded
as less signi
ant. In the
ase of the DCT, su
h
oe
ients are output
oe
ients asso
iated
to higher frequen
y terms. Pruned DCT approximations is a relatively unexplored eld of
resear
h. The obje
tive of this work is the
ombination of approximations and pruning to
derive extremely low-
omplexity DCT approximations. The resulting methods were applied in
the image and vídeo
ompression s
enario and results showed
omparative performan
e with
exa
t methods at a mu
h lower
omputational
omplexity. A qualitative and quantitative
omparison with a
omprehensive list of existing methods is presented. A generalization of
the pruning
on
ept is presented.
|
79 |
Procedimentos para tratamento e compressão de imagens e video utilizando tecnologia fractal e transformadas waveletSilva, Fernando Silvestre da 23 September 2005 (has links)
Orientador: Yuzo Iano / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-05T13:46:30Z (GMT). No. of bitstreams: 1
Silva_FernandoSilvestreda_D.pdf: 35017484 bytes, checksum: fb460a6a42e44fe0a50e94599ac027fc (MD5)
Previous issue date: 2005 / Resumo: A excelente qualidade visual e taxa de compressão dos codificadores fractais de imagem tem aplicações limitadas devido ao exaustivo tempo de codificação inerente. Esta pesquisa apresenta um novo codificador híbrido de imagens que aplica a velocidade da transformada wavelet à qualidade da compressão fractal. Neste esquema, uma codificação fractal acelerada usando a classificação de domínios de Fisher é aplicada na sub-banda passa-baixas de uma imagem transformada por wavelet e uma versão modificada do SPIHT (Set Partitioned in Hierarchical Trees) é aplicada nos coeficientes remanescentes. Os detalhes de imagem e as características de transmissão progressiva da transformada wavelet são mantidas; nenhum efeito de bloco comuns às técnicas fractais é introduzido, e o problema de fidelidade de codificação comuns aos codificadores híbridos fractal-wavelet é resolvido. O sistema proposto reduz o tempo médio de processamento das imagens em 94% comparado com o codificador fractal tradicional e um ganho de 0 a 2,4dB em PSNR sobre o algoritmo SPIHT puro. Em ambos os casos, o novo esquema proposto apresentou melhorias em temos de qualidade subjetiva das imagens para altas, médias e baixas taxas de compressão / Abstract: The excellent visual quality and compression rate of fractal image coding have limited applications due to exhaustive inherent encoding time. This research presents a new fast and efficient image coder that applies the speed of the wavelet transform to the image quality of the fractal compression. In this scheme, a fast fractal encoding using Fisher¿s domain classification is applied to the lowpass subband of wavelet transformed image and a modified SPIHT coding (Set Partitioning in Hierarchical Trees), on the remaining coefficients. The image details and wavelet progressive transmission characteristics are maintained; no blocking effects from fractal techniques are introduced; and the encoding fidelity problem common in fractal-wavelet hybrid coders is solved. The proposed scheme provides an average of 94% reduction in encoding-decoding time compared to the pure accelerated Fractal coding results, and a 0-2,4dB gain in PSNR over the pure SPIHT coding. In both cases, the new scheme improves the subjective quality of pictures for high, medium and low bit rates / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
|
80 |
Inteligência computacional no sensoriamento a fibra ótica / Computational intelligence applied to optical fiber sensingNegri, Lucas Hermann 20 February 2017 (has links)
CAPES; CNPq; Fundação Araucária; FINEP / Esta tese apresenta aplicações de inteligência computacional para o aprimoramento de sensoriamento ótico realizado com sensores em fibra ótica. Para tanto, redes neurais artificiais (perceptron de múltiplas camadas), máquinas de vetor de suporte para regressão, evolução diferencial e métodos de sensoriamento compressivo são empregados em conjunto com transdutores de redes de Bragg em fibras óticas. As redes neurais artificiais, máquinas de vetor de suporte para regressão e redes de Bragg são empregadas na localização de uma carga aplicada sobre uma placa de acrílico. É apresentado um novo método utilizando evolução diferencial para a solução do problema do espalhamento inverso em redes de Bragg em fibra ótica, propondo o uso de restrições para solucioná-lo na ausência de informação de fase do sinal refletido. Um método para a detecção de múltiplas cargas posicionadas acima de uma placa de metal é proposto. Neste método, a placa de metal é suportada por anéis de ferro contendo redes de Bragg em fibra ótica e a detecção das cargas é realizada com o uso de métodos de sensoriamento compressivo para a solução do problema inverso subdeterminado resultante. A troca dos anéis de ferro por blocos de silicone e um novo método baseado em sensoriamento compressivo e evolução diferencial são propostos. Os resultados experimentais mostram que os métodos computacionais propostos auxiliam o sensoriamento e podem permitir uma melhoria da resolução espacial do sistema sem a necessidade do aumento do número de elementos transdutores. / This thesis presents new optical fiber sensing methodologies employing computational intelligence approaches seeking for the improvement of the sensing performance. Particularly, artificial neural networks, support vector regression, differential evolution and compressive sensing methods were employed with fiber Bragg grating transducers. Artificial neural networks (multilayer perceptron) and fiber Bragg gratings were used to determine the location of a load applied to a polymethyl methacrylate sheet. A new method based on the application of differential evolution is proposed to solve the inverse scattering problem in fiber Bragg gratings, where constraints are imposed to solve the problem without the need of phase information. A method for detecting multiple loads on a metal sheet is also proposed. In this method, the metal sheet is supported by iron rings containing fiber Bragg gratings, and compressive sensing methods are employed to solve the resulting underdetermined inverse problem. Further developments of the method replaced the iron rings by silicon blocks and employed a new reconstruction method based on compressive sensing and differential evolution. Experimental results show that the proposed computational methods improve the optical fiber sensing and lead to an enhancement of the spatial resolution without increasing the number of transducers.
|
Page generated in 0.0804 seconds