• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 8
  • 5
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 82
  • 82
  • 41
  • 31
  • 29
  • 29
  • 26
  • 22
  • 21
  • 19
  • 17
  • 16
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Compressão de dados de demanda elétrica em Smart Metering / Data compression electricity demand in Smart Metering

Flores Rodriguez, Andrea Carolina, 1987- 08 August 2014 (has links)
Orientador: Gustavo Fraidenraich / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-26T03:16:11Z (GMT). No. of bitstreams: 1 FloresRodriguez_AndreaCarolina_M.pdf: 1415054 bytes, checksum: 6b986968e8d7ec4e6459e4cea044d379 (MD5) Previous issue date: 2014 / Resumo: A compressão dos dados de consumo residencial de energia elétrica registrados torna-se extremadamente necessária em Smart Metering, a fim de resolver o problema de grandes volumes de dados gerados pelos medidores. A principal contribuição desta tese é a proposta de um esquema de representação teórica da informação registrada na forma mais compacta, sugerindo uma forma de atingir o limite fundamental de compressão estabelecido pela entropia da fonte sobre qualquer técnica de compressão disponibilizada no medidor. A proposta consiste na transformação de codificação dos dados, baseado no processamento por segmentação: no tempo em taxas de registros de 1/900 Hz a 1 Hz, e nos valores de consumo residencial de energia elétrica. Este último subdividido em uma compressão por amplitude mudando sua granularidade e compressão dos dados digitais para representar o consumo com o menor número de bits possíveis usando: PCM-Huffman, DPCM-Huffman e codificação de entropia supondo diferentes ordens de distribuição da fonte. O esquema é aplicado sobre dados modelados por cadeias de Markov não homogêneas para as atividades dos membros da casa que influenciam no consumo elétrico e dados reais disponibilizados publicamente. A avaliação do esquema é feita analisando o compromisso da compressão entre as altas taxas de registro, distorção resultante da digitalização dos dados, e exploração da correlação entre amostras consecutivas. Vários exemplos numéricos são apresentados ilustrando a eficiência dos limites de compressão. Os resultados revelam que os melhores esquemas de compressão de dados são encontrados explorando a correlação entre as amostras / Abstract: Data compression of recorded residential electricity consumption becomes extremely necessary on Smart Metering, in order to solve the problem of large volumes of data generated by meters. The main contribution of this thesis is to propose a scheme of theoretical representation of recorded information in the most compact form, which suggests a way to reach the fundamental limit of compression set by the entropy of the source, of any compression technique available in the meter. The proposal consists in the transformation of data encoding, based on the processing by segmentation: in time by registration rate from 1/900 Hz to 1 Hz, and in the values of residential electricity consumption. The latter is subdivided into compression: by amplitude changing their regularity, and digital data compression to represent consumption as few bits as possible. It is using PCM-Huffman, DPCM-Huffman and entropy encoding by assuming different orders of the source. The scheme is applied to modeled data by inhomogeneous Markov chains to create the activities of household members that influence electricity consumption, and real data publicly available. The assessment scheme is made by analyzing the trade off of compression between high registration rates, the distortion resulting from the digitization of data, and analyzing the correlation of consecutive samples. Several examples are presented to illustrate the efficiency of the compression limits. The analysis reveals that better data compression schemes can be found by exploring the correlation among the samples / Mestrado / Telecomunicações e Telemática / Mestra em Engenharia Elétrica
72

Tópicos em seleção de modelos markovianos / Topics in selection of Markov models

Viola, Márcio Luis Lanfredi, 1978- 19 August 2018 (has links)
Orientador: Jesus Enrique Garcia / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-19T15:10:51Z (GMT). No. of bitstreams: 1 Viola_MarcioLuisLanfredi_D.pdf: 951071 bytes, checksum: 87d2c8b2501105bc64aab5e92c769ea4 (MD5) Previous issue date: 2011 / Resumo: Nesta tese abordamos o problema estatístico de seleção de um modelo Markoviano de ordem finita que se ajuste bem a um conjunto de dados em duas situações diferentes. Em relação ao primeiro caso, propomos uma metodologia para a estimação de uma árvore de contextos utilizando-se amostras independentes sendo que a maioria delas são provenientes de um mesmo processo de Markov de memória variável finita e as demais provêm de um outro processo Markoviano de memória variável finita. O método proposto é baseado na taxa de entropia relativa simetrizada como uma medida de similaridade. Além disso, o conceito de ponto de ruptura assintótico foi adaptado ao nosso problema de seleção a fim de mostrar que o procedimento proposto, nesta tese, é robusto. Em relação ao segundo problema, considerando um processo de Markov multivariado de ordem finita, propomos uma metodologia consistente que fornece a partição mais fina das coordenadas do processo de forma que os seus elementos sejam condionalmente independentes. O método obtido é baseado no BIC (Critério de Informação Bayesiano). Porém, quando o número de coordenadas do processo cresce, o custo computacional do critério BIC torna-se excessivo. Neste caso, propomos um algoritmo mais eficiente do ponto de vista computacional e a sua consistência é demonstrada. A eficiência das metodologias propostas foi estudada através de simulações e elas foram aplicadas em dados linguísticos / Abstract: This work related two statistical problems involving the selection of a Markovian model of finite order. Firstly, we propose a procedure to choose a context tree from independent samples, with more than half of them being realizations of the same finite memory Markovian processes with finite alphabet with law P. Our model selection strategy is based on estimating relative entropies to select a subset of samples that are realizations of the same law. We define the asymptotic breakdown point for a model selection procedure, and show the asymptotic breakdown point for our procedure. Moreover, we study the robust procedure by simulations and it is applied to linguistic data. The aim of other problem is to develop a consistent methodology for obtain the finner partitions of the coordinates of an multivariate Markovian stationary process such that their elements are conditionally independents. The proposed method is establishment by Bayesian information criterion (BIC). However, when the number of the coordinates of process increases, the computing of criterion BIC becomes excessive. In this case, we propose an algorithm more efficient and the its consistency is demonstrated. It is tested by simulations and applied to linguistic data / Doutorado / Estatistica / Doutor em Estatística
73

Design and evaluation of compact ISAs / Estudo e avaliação de conjuntos de instruções compactos

Lopes, Bruno Cardoso, 1985- 24 August 2018 (has links)
Orientador: Rodolfo Jardim de Azevedo / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-24T12:29:38Z (GMT). No. of bitstreams: 1 Lopes_BrunoCardoso_D.pdf: 3162388 bytes, checksum: 3a46d0fb9404a69bf87489922e4743b0 (MD5) Previous issue date: 2014 / Resumo: Sistemas embarcados modernos são compostos de SoC heterogêneos, variando entre processadores de baixo e alto custo. Apesar de processadores RISC serem o padrão para estes dispositivos, a situação mudou recentemente: fabricantes estão construindo sistemas embarcados utilizando processadores RISC - ARM e MIPS - e CISC (x86). A adição de novas funcionalidades em software embarcados requer maior utilização da memória, um recurso caro e escasso em SoCs. Assim, o tamanho de código executável é crítico, porque afeta diretamente o número de misses na cache de instruções. Processadores CISC costumavam possuir maior densidade de código do que processadores RISC, uma vez que a codificação de instruções com tamanho variável beneficia as instruções mais usadas, os programas são menores. No entanto, com a adição de novas extensões e instruções mais longas, a densidade do CISC em aplicativos recentes tornou-se similar ao RISC. Nesta tese de doutorado, investigamos a compressibilidade de processadores RISC e CISC; SPARC e x86. Nós propomos uma extensão de 16-bits para o processador SPARC, o SPARC16. Apresentamos também, a primeira metodologia para gerar ISAs de 16-bits e avaliamos a compressão atingida em comparação com outras extensões de 16-bits. Programas do SPARC16 podem atingir taxas de compressão melhores do que outros ISAs, atingindo taxas de até 67%. O SPARC16 também reduz taxas de cache miss em até 9%, podendo usar caches menores do que processadores SPARC mas atingindo o mesmo desempenho; a redução pode chegar à um fator de 16. Estudamos também como novas extensões constantemente introduzem novas funcionalidades para o x86, levando ao inchaço do ISA - com o total de 1300 instruções em 2013. Alem disso, 57 instruções se tornam inutilizadas entre 1995 e 2012. Resolvemos este problema propondo um mecanismo de reciclagem de opcodes utilizando emulação de instruções legadas, sem quebrar compatibilidade com softwares antigos. Incluímos um estudo de caso onde instruções x86 da extensão AVX são recodificadas usando codificações menores, oriundas de instruções inutilizadas, atingindo até 14% de redução no tamanho de código e 53% de diminuição do número de cache misses. Os resultados finais mostram que usando nossa técnica, até 40% das instruções do x86 podem ser removidas com menos de 5% de perda de desempenho / Abstract: Modern embedded devices are composed of heterogeneous SoC systems ranging from low to high-end processor chips. Although RISC has been the traditional processor for these devices, the situation changed recently; manufacturers are building embedded systems using both RISC - ARM and MIPS - and CISC processors (x86). New functionalities in embedded software require more memory space, an expensive and rare resource in SoCs. Hence, executable code size is critical since performance is directly affected by instruction cache misses. CISC processors used to have a higher code density than RISC since variable length encoding benefits most used instructions, yielding smaller programs. However, with the addition of new extensions and longer instructions, CISC density in recent applications became similar to RISC. In this thesis, we investigate compressibility of RISC and CISC processors, namely SPARC and x86. We propose a 16-bit extension to the SPARC processor, the SPARC16. Additionally, we provide the first methodology for generating 16-bit ISAs and evaluate compression among different 16-bit extensions. SPARC16 programs can achieve better compression ratios than other ISAs, attaining results as low as 67%. SPARC16 also reduces cache miss rates up to 9%, requiring smaller caches than SPARC processors to achieve the same performance; a cache size reduction that can reach a factor of 16. Furthermore, we study how new extensions are constantly introducing new functionalities to x86, leading to the ISA bloat at the cost a complex microprocessor front-end design, area and energy consumption - the x86 ISA reached over 1300 different instructions in 2013. Moreover, analyzed x86 code from 5 Windows versions and 7 Linux distributions in the range from 1995 to 2012 shows that up to 57 instructions get unused with time. To solve this problem, we propose a mechanism to recycle instruction opcodes through legacy instruction emulation without breaking backward software compatibility. We present a case study of the AVX x86 SIMD instructions with shorter instruction encodings from other unused instructions to yield up to 14% code size reduction and 53% instruction cache miss reduction in SPEC CPU2006 floating-point programs. Finally, our results show that up to 40% of the x86 instructions can be removed with less than 5% of overhead through our technique without breaking any legacy code / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
74

Desenvolvimento e implementação em FPGA de um compressor sem perdas de baixa complexidade para imagens de satélite

Costa, Yuri Gonzaga Gonçalves da 31 July 2012 (has links)
Made available in DSpace on 2015-05-14T12:36:33Z (GMT). No. of bitstreams: 1 Arquivototal.pdf: 3633724 bytes, checksum: f53669bf4f692585666fd625941bdbe0 (MD5) Previous issue date: 2012-07-31 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The amount of data generated and transmitted by satellites to ground stations is always growing. As the technology advances, space imaging systems, especially those present in Earth observing missions, use equipment of increasing resolutions. Hence, it is necessary to ensure that this great quantity of data arrives at their destination reliably. Among some techniques involved, data compression plays an important role to accomplish this requirement. A data compression system for this purpose must comply with some conditions, particularly regarding performance. In this context, hardware implementations based on prediction and Golomb-Rice coding has achieved excellent results considering hardware and compression performance in both lossless and lossy cases. This work proposes a digital hardware approach of a low complexity satellite image lossless compressor based on prediction and Golomb-Rice coding that is attuned to the balance between performance requirements and error propagation, a common issue in space systems environment that is enhanced by data compression. In order to validate and analyze the compressor, a functional verification and FPGA prototyping methodology were followed. Given an image set from Brazilian's National Institute for Space Research (INPE, in the Portuguese acronym), CBERS-2B satellite, its results in FPGA show that this compressor achieves average compression ratio of 3.4, comparable value to related works in this area, and throughput of 28 MPixel/s (224 Mbit/s). Taking advantage of images nature, its compression can be parallelized through simultaneous multi-cores compressors. For example, using 5 cores, this work is able to compress those images in a rate of 142 MPixel/s (1.1 Gbit/s). All these features make it useful and effective in a current remote sensing imaging system. / A quantidade de dados gerados e transmitidos pelos satélites para as estações na Terra é cada vez maiores. Com o passar do tempo e avanço da tecnologia, os sistemas de imageamento espaciais, particularmente as missões de observação da Terra, tem utilizado equipamentos com resoluções cada vez maiores. Por esse motivo, se faz necessário garantir que os dados cheguem ao destino de maneira confiável. Dentre algumas técnicas envolvidas, a compressão de dados é o meio mais viável de alcançar esse requisito. Um sistema de compressão de dados para esse fim deve obedecer algumas condições, principalmente quanto ao desempenho. Nesse contexto, implementações em hardware baseadas em predição e codificação de Golomb-Rice têm obtido excelentes resultados considerando desempenho do hardware e da compressão, tanto nos casos sem perdas como nos com perdas. O presente trabalho apresenta uma proposta de hardware digital de um compressor sem perdas para imagens de satélite baseado em predição e codificação Golomb-Rice que busca um balanceamento entre os requisitos de desempenho e a propagação de erros, um problema comum no âmbito de sistemas espaciais e que é potencializado no caso dos compressores de dados. Para validação e análise do compressor, é seguida uma metodologia de verificação funcional de hardware digital e o desenvolvimento de um protótipo em FPGA. Dado um conjunto de imagens do satélite CBERS-2B disponibilizadas pelo Instituto Nacional de Pesquisas Espaciais, os resultados obtidos em FPGA mostram que esse compressor alcança razão de compressão média de 3,4, valor comparável a trabalhos correlatos, e velocidade de 28 MPixel/s (224 Mbit/s). Considerando a natureza das imagens, a compressão pode ser paralelizada por meio de simultâneos núcleos compressores em uma abordagem multicore. Por exemplo, usando 5 núcleos, o sistema proposto é capaz de comprimir essas imagens em uma velocidade de 142 MPixel/s (1.1 Gbit/s). Todas essas características tornam-no útil e efetivo para a aplicação em um sistema moderno de imageamento para sensoriamento remoto.
75

Sistema Embarcado para um Monitor Holter que Utiliza o Modelo PPM na Compressão de Sinais ECG

Farias, Thyago Maia Tavares de 04 March 2010 (has links)
Made available in DSpace on 2015-05-14T12:36:54Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2004014 bytes, checksum: 3d8ca87826ca89996bb9c71a82501746 (MD5) Previous issue date: 2010-03-04 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In this work, we present the development of an embedded system prototyping with soft-core Nios II and FPGA for a holter monitor that implements data compression, using the PPM Algorithm, and simulate ECG signals through the implementation of the Fourier series. Through a holter monitor, cardiologists can obtain ECG signals, serving as the basis for the perception of symptoms and activities of patients. These signals are captured and recorded by monitors in periods greater than or equal to 24 hours, requiring large storage size to store them, therefore increasing cost of the monitor. Using the PPM algorithm, a monitor holter can considerably reduce the size of the signals stored, thus reducing storage space and cost of device, addition to allow rapid transmission of the data. Integrating the ECG signal simulator to the device, is possible to generate samples of ECG via the embedded system, saving time and eliminating difficulties in obtaining signals, compared with the capture of real ECG signals by invasive and noninvasive methods. It enables the analysis and study of normal and abnormal ECGs. An embedded system on programmable chip (SOPC) was prototyped with a development kit containing peripherals and FPGA chip compatible with the Nios II. Architecture soft-core was set to compact operating system and software modules have been successfully developed, ported and validated on this platform. / Neste trabalho, é apresentado o desenvolvimento de um sistema embarcado com prototipagem em FPGA contendo instanciação do processador soft-core Nios II (SOPC System on a Programmable Chip), para um monitor holter que implementa compressão de dados, utilizando o algoritmo PPM, e simula sinais ECG através da implementação das Séries de Fourier. Através de um monitor holter, cardiologistas podem obter sinais ECG, que servem de base para a percepção de sintomas e atividades em pacientes, captados e armazenados pelos monitores em períodos maiores ou iguais a 24 horas, requisitando grandes espaços de armazenamento, aumentando, assim, o custo deste monitor. Utilizando o PPM, o dispositivo desenvolvido poderá reduzir consideravelmente a quantidade de dados armazenados, reduzindo, portanto, o espaço de armazenamento e o custo do dispositivo, permitindo ainda a rápida transmissão dos dados. Integrando o simulador de sinais ECG ao dispositivo, possibilita-se a geração de amostras de sinais eletrocardiográficos através do sistema embarcado, economizando tempo e eliminando dificuldades na obtenção de sinais, em comparação com a captação real de sinais ECG através de métodos invasivos e nãoinvasivos. O mesmo permite a análise e o estudo de sinais ECG normais e anormais. Um sistema embarcado em chip programável (SOPC) foi prototipado com uma placa contendo periféricos e uma pastilha FPGA dotada de compatibilidade com o Nios II; a arquitetura do soft-core foi configurada em sistema operacional compacto e módulos de software foram exitosamente desenvolvidos, portados e validados sobre essa plataforma.
76

Reconhecimento de formas utilizando modelos de compressão de dados e espaços de escalas de curvatura

Lordão, Fernando Augusto Ferreira 27 August 2009 (has links)
Made available in DSpace on 2015-05-14T12:36:54Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2499209 bytes, checksum: 80d399f8f00f3e82d2a3b34e52fd6b05 (MD5) Previous issue date: 2009-08-27 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / As the processing power of computers increases, the quantity and complexity of stored data have growing in the same way, requiring more sophisticated mechanisms to accomplish retrieval with efficacy and efficiency over these information. In image processing, it has become common the retrieval based on its own content, namely Content-Based Image Retrieval (CBIR), which eliminates the need to place additional annotations as textual descriptions and keywords registered by an observer. The purpose of this work is the development of an image retrieval mechanism based on shape recognition. The mechanism consists in (1) compute the Full Curvature Scale Space (FullCSS) image descriptors; and (2) apply over them a lossless compression method objecting to (3) classify these descriptors and retrieve the corresponding images. The FullCSS descriptors register the curvature variations on the image contour indicating the degree and the signal of these variations, which allow identifying where the curvature is concave or convex. The adopted compression method uses the Prediction by Partial Matching (PPM) compression model, which has been successfully used in other works to classify texture images. The results obtained show that this novel approach is able to reach competitive levels of efficacy and efficiency when compared to other works recently developed in this same area. / Com o aumento do poder de processamento dos computadores, cresceu também a quantidade e complexidade dos dados armazenados, exigindo mecanismos cada vez mais sofisticados para se conseguir uma recuperação eficaz e eficiente destas informações. No caso do processamento de imagens, tem se tornado comum a recuperação baseada em seu próprio conteúdo, ou seja, Recuperação de Imagem Baseada em Conteúdo (Content-Based Image Retrieval CBIR), eliminando a necessidade de anotações adicionais como descrições textuais e palavras-chave registradas por um observador. A proposta deste trabalho é o desenvolvimento de um mecanismo de recuperação de imagens através do reconhecimento de sua forma. O mecanismo consiste em (1) calcular os descritores Full Curvature Scale Space (FullCSS) das imagens; e (2) aplicar sobre eles um método de compressão sem perdas com a finalidade de (3) classificar esses descritores e recuperar as imagens correspondentes. Os descritores FullCSS registram as variações na curvatura do contorno da imagem indicando o grau e o sinal dessas variações, permitindo identificar onde a curvatura é côncava ou convexa. O método de compressão adotado utiliza o modelo de compressão Prediction by Partial Matching (PPM), utilizado com sucesso em outros trabalhos para classificar imagens de texturas. Os resultados obtidos indicam que esta abordagem inovadora é capaz de atingir níveis competitivos de eficácia e eficiência quando comparada a outros trabalhos atualmente desenvolvidos nesta mesma área.
77

Uma combinação entre os critérios objetivo e subjetivo na classificação de imagens mamográficas comprimidas pelo método fractal

Vergütz, Stéphany 29 November 2013 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Images are relevant sources of information in many areas of science and technology. The processing of such information improves and optimizes its use. The image compression causes the information representation is more efficient, reducing the amount of data required to represent an image. The objective of this study is to evaluate the performance of Fractal Compression technique onto mammograms through an association between the objective criteria, provided by Peak Signal Noise Ration (PSNR); and the subjective criteria, given by visual analysis of an expert physician. Visual analysis was performed comparing mammograms compressed to different extents (compression rate) with the original image, where experts classified the compressed images as unacceptable , acceptable , good or great . In doing so, the optimal compression rate and PSNR values of mammograms was achieved, where images are considered acceptable according to experts. In order to compare the performance of fractal compression technique with another compression method, visual analysis was also done on images compressed by JPEG2000 method. / As imagens são fontes relevantes de informação em diversas áreas da ciência e tecnologia. O processamento dessas informações melhora e otimiza sua utilização. A compressão de imagens faz com que a representação da informação seja mais eficiente, reduzindo a quantidade de dados necessários para representar uma imagem. O objetivo deste trabalho é apresentar a avaliação do desempenho da compressão fractal aplicada a imagens mamográficas, pela combinação entre o critério objetivo, fornecido pela relação sinal ruído de pico (Peak Signal Noise Ratio - PSNR), e o critério subjetivo, especificado pela análise visual de médicos especialistas. A análise visual foi realizada comparando as imagens mamográficas comprimidas com diferentes taxas de compressão e a imagem original. Os especialistas classificaram as imagens comprimidas como \"inaceitável\", \"aceitável\", \"boa\" ou \"ótima\". Dessa maneira, conseguiu-se combinar a taxa de compressão e o valor de PSNR, para que as imagens comprimidas sejam consideradas aceitáveis pelos especialistas. Para avaliar o desempenho da compressão fractal foram realizados testes e análises visuais com as mesmas imagens utilizando o método de compressão JPEG2000. / Mestre em Ciências
78

Aproximações para DCT via pruning com aplicações em codificação de imagem e vídeo

COUTINHO, Vítor de Andrade 23 February 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-06-21T15:14:55Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Vitor_de_Andrade_Coutinho-dissertacao_ppgee.pdf: 3622975 bytes, checksum: 01a22e0302dfc1890d745c6b1bffe327 (MD5) / Made available in DSpace on 2016-06-21T15:14:56Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Vitor_de_Andrade_Coutinho-dissertacao_ppgee.pdf: 3622975 bytes, checksum: 01a22e0302dfc1890d745c6b1bffe327 (MD5) Previous issue date: 2015-02-23 / CNPq / O presente trabalho aborda o desenvolvimento de aproximações para a transformada dis- reta do osseno (DCT) utilizando a abordagem pruning. Devido à propriedade da ompa ta- ção de energia, a DCT é empregada em diversas apli ações de ompressão de dados. Embora algoritmos rápidos permitam omputar a DCT e ientemente, operações de multipli ação são inevitáveis. Devido a res ente demanda por métodos de baixo onsumo energéti o, novos algoritmos de usto omputa ional reduzido são ne essários. Neste ontexto, aproximações para a DCT foram propostas nos últimos anos. Tais aproximações permitem algoritmos livres de multipli ação, sem a ne essidade de operações de ponto utuante, mantendo o desempe- nho de ompressão omparável ao forne ido por métodos baseados na DCT. Uma abordagem adi ional para reduzir o usto omputa ional da DCT é a utilização de pruning. Tal té ni a onsiste em não onsiderar oe ientes dos vetores de entrada e/ou saída que apresentam menor relevân ia em termos de energia on entrada. No aso da DCT, esses oe ientes são os termos de mais alta frequên ia do vetor transformado. A apli ação de pruning a aproxima- ções para a DCT é uma área pou o explorada. O objetivo deste trabalho é apli ar a té ni a a diferentes métodos aproximados para a DCT. As transformações resultantes foram apli adas no ontexto de ompressão de imagem e vídeo e os resultados mostraram desempenho ompa- rável ao de métodos exatos a um usto omputa ional bastante reduzido. Uma generalização do on eito é apresentada, assim omo uma análise da omplexidade aritméti a. / This work introdu es approximate dis rete osine transforms (DCT) based on the pruning approa h. Due to the energy ompa tion property, the DCT is employed in several data ompression appli ations. Although fast algorithms allow an e ient DCT omputation, multipli ation operations are inevitable. Due to the in reasing demand for energy e ient methods, new algorithms with redu ed omputational ost are required. In this ontext, DCT approximations have been proposed re ently. Su h approximations allow multipli ation free algorithms whi h an avoid oating point operations, while maintaining a ompetitive performan e. A further approa h to redu e the omputational ost of the DCT is pruning. The te hnique onsists of dis arding input and/or output ve tors oe ients whi h are regarded as less signi ant. In the ase of the DCT, su h oe ients are output oe ients asso iated to higher frequen y terms. Pruned DCT approximations is a relatively unexplored eld of resear h. The obje tive of this work is the ombination of approximations and pruning to derive extremely low- omplexity DCT approximations. The resulting methods were applied in the image and vídeo ompression s enario and results showed omparative performan e with exa t methods at a mu h lower omputational omplexity. A qualitative and quantitative omparison with a omprehensive list of existing methods is presented. A generalization of the pruning on ept is presented.
79

Procedimentos para tratamento e compressão de imagens e video utilizando tecnologia fractal e transformadas wavelet

Silva, Fernando Silvestre da 23 September 2005 (has links)
Orientador: Yuzo Iano / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-05T13:46:30Z (GMT). No. of bitstreams: 1 Silva_FernandoSilvestreda_D.pdf: 35017484 bytes, checksum: fb460a6a42e44fe0a50e94599ac027fc (MD5) Previous issue date: 2005 / Resumo: A excelente qualidade visual e taxa de compressão dos codificadores fractais de imagem tem aplicações limitadas devido ao exaustivo tempo de codificação inerente. Esta pesquisa apresenta um novo codificador híbrido de imagens que aplica a velocidade da transformada wavelet à qualidade da compressão fractal. Neste esquema, uma codificação fractal acelerada usando a classificação de domínios de Fisher é aplicada na sub-banda passa-baixas de uma imagem transformada por wavelet e uma versão modificada do SPIHT (Set Partitioned in Hierarchical Trees) é aplicada nos coeficientes remanescentes. Os detalhes de imagem e as características de transmissão progressiva da transformada wavelet são mantidas; nenhum efeito de bloco comuns às técnicas fractais é introduzido, e o problema de fidelidade de codificação comuns aos codificadores híbridos fractal-wavelet é resolvido. O sistema proposto reduz o tempo médio de processamento das imagens em 94% comparado com o codificador fractal tradicional e um ganho de 0 a 2,4dB em PSNR sobre o algoritmo SPIHT puro. Em ambos os casos, o novo esquema proposto apresentou melhorias em temos de qualidade subjetiva das imagens para altas, médias e baixas taxas de compressão / Abstract: The excellent visual quality and compression rate of fractal image coding have limited applications due to exhaustive inherent encoding time. This research presents a new fast and efficient image coder that applies the speed of the wavelet transform to the image quality of the fractal compression. In this scheme, a fast fractal encoding using Fisher¿s domain classification is applied to the lowpass subband of wavelet transformed image and a modified SPIHT coding (Set Partitioning in Hierarchical Trees), on the remaining coefficients. The image details and wavelet progressive transmission characteristics are maintained; no blocking effects from fractal techniques are introduced; and the encoding fidelity problem common in fractal-wavelet hybrid coders is solved. The proposed scheme provides an average of 94% reduction in encoding-decoding time compared to the pure accelerated Fractal coding results, and a 0-2,4dB gain in PSNR over the pure SPIHT coding. In both cases, the new scheme improves the subjective quality of pictures for high, medium and low bit rates / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
80

Inteligência computacional no sensoriamento a fibra ótica / Computational intelligence applied to optical fiber sensing

Negri, Lucas Hermann 20 February 2017 (has links)
CAPES; CNPq; Fundação Araucária; FINEP / Esta tese apresenta aplicações de inteligência computacional para o aprimoramento de sensoriamento ótico realizado com sensores em fibra ótica. Para tanto, redes neurais artificiais (perceptron de múltiplas camadas), máquinas de vetor de suporte para regressão, evolução diferencial e métodos de sensoriamento compressivo são empregados em conjunto com transdutores de redes de Bragg em fibras óticas. As redes neurais artificiais, máquinas de vetor de suporte para regressão e redes de Bragg são empregadas na localização de uma carga aplicada sobre uma placa de acrílico. É apresentado um novo método utilizando evolução diferencial para a solução do problema do espalhamento inverso em redes de Bragg em fibra ótica, propondo o uso de restrições para solucioná-lo na ausência de informação de fase do sinal refletido. Um método para a detecção de múltiplas cargas posicionadas acima de uma placa de metal é proposto. Neste método, a placa de metal é suportada por anéis de ferro contendo redes de Bragg em fibra ótica e a detecção das cargas é realizada com o uso de métodos de sensoriamento compressivo para a solução do problema inverso subdeterminado resultante. A troca dos anéis de ferro por blocos de silicone e um novo método baseado em sensoriamento compressivo e evolução diferencial são propostos. Os resultados experimentais mostram que os métodos computacionais propostos auxiliam o sensoriamento e podem permitir uma melhoria da resolução espacial do sistema sem a necessidade do aumento do número de elementos transdutores. / This thesis presents new optical fiber sensing methodologies employing computational intelligence approaches seeking for the improvement of the sensing performance. Particularly, artificial neural networks, support vector regression, differential evolution and compressive sensing methods were employed with fiber Bragg grating transducers. Artificial neural networks (multilayer perceptron) and fiber Bragg gratings were used to determine the location of a load applied to a polymethyl methacrylate sheet. A new method based on the application of differential evolution is proposed to solve the inverse scattering problem in fiber Bragg gratings, where constraints are imposed to solve the problem without the need of phase information. A method for detecting multiple loads on a metal sheet is also proposed. In this method, the metal sheet is supported by iron rings containing fiber Bragg gratings, and compressive sensing methods are employed to solve the resulting underdetermined inverse problem. Further developments of the method replaced the iron rings by silicon blocks and employed a new reconstruction method based on compressive sensing and differential evolution. Experimental results show that the proposed computational methods improve the optical fiber sensing and lead to an enhancement of the spatial resolution without increasing the number of transducers.

Page generated in 0.0804 seconds