• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1349
  • 397
  • 363
  • 185
  • 104
  • 47
  • 36
  • 31
  • 26
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • Tagged with
  • 3045
  • 532
  • 465
  • 417
  • 410
  • 358
  • 328
  • 276
  • 265
  • 222
  • 219
  • 201
  • 169
  • 161
  • 158
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
831

Projeto de uma arquitetura dedicada à compressão de imagens no padrão JPEG2000 / Design of a dedicated architecture to Image compression in the JPEG2000 Standard

Silva, Sandro Vilela da January 2005 (has links)
O incremento das taxas de transmissão e de armazenamento demanda o desenvolvimento de técnicas para aumentar a taxa de compressão de imagens e ao mesmo tempo mantenha a qualidade destas imagens. O padrão JPEG2000 propõe a utilização da transformada wavelet discreta e codificação aritmética para alcançar altos graus de compressão, proporcionando que a imagem resultante tenha qualidade razoável. Este padrão permite tanto compressão com perdas como compressão sem perdas, dependendo apenas do tipo de transformada wavelet utilizada. Este trabalho propõe a implementação de blocos internos em hardware para compor um compressor de imagens com perdas seguindo o padrão JPEG2000. O principal componente deste compressor de imagens é a transformada wavelet discreta irreversível em duas dimensões, que é implementada utilizando um esquema lifting a partir dos coeficientes Daubechies 9/7 descritos na literatura. Para proporcionar altas taxas de compressão para a transformada irreversível, são utilizados coeficientes reais – que são originalmente propostos em representação de ponto-flutuante. Neste trabalho, estes coeficientes foram implementados em formato de ponto-fixo arredondado, o que resulta erros que foram estimados e controlados. Neste trabalho, várias arquiteturas em hardware para a descrição da transformada wavelet discreta irreversível em duas dimensões foram implementadas para avaliar a relação entre tipo de descrição, consumo de área e atraso de propagação. A arquitetura de melhor relação custo benefício requer 2.090 células de um dispositivo FPGA, podendo operar a até 78,72 MHz, proporcionando uma taxa de processamento de 28,2 milhões de amostras por segundo. Esta arquitetura resultou em um nível de erro médio quadrático de 0,41% para cada nível de transformada. A arquitetura implementada para o bloco do codificador de entropia foi sintetizada a partir de uma descrição comportamental, gerando um hardware capaz de processar até 843 mil coeficientes de entrada por segundo. Os resultados indicam que o compressor de imagens com perdas seguindo o padrão JPEG2000, utilizando os blocos implementados nesta dissertação e operando na máxima freqüência de operação definida, pode codificar em média 1,8 milhões de coeficientes por segundo, ou seja, até 27 frames de 256x256 pixels por segundo. Esta limitação na taxa de codificação é definida pelo codificador de entropia, que possui um algoritmo mais complexo, necessitando de um trabalho complementar para melhorar sua taxa de codificação aumentando o paralelismo do hardware. / The increasing demands for higher data transmission rates and higher data storage capacity call for the development of techniques to increase the compression rate of images while at the same time keeping the image quality. The JPEG2000 Standard proposes the use of the discrete wavelet transform and of arithmetic coding to reach high compression rates, providing reasonable quality to the resulting compressed image. This standard allows lossy as well as loss-less compression, dependent on the type of wavelet transform used. This work considers the implementation of the internal hardware blocks that comprise a lossy image compressor in hardware following the JPEG2000 standard. The main component of this image compressor is the two dimensional irreversible discrete wavelet transform, that is implemented using a lifting scheme with the Daubechies 9/7 coefficients presented in the literature. To provide high compression rates for the irreversible transform, these coefficients – originally proposed in their floating-point representation – are used. In this work, they are implemented as fixed-point rounded coefficients, incurring in errors that we estimate and control. In this work, various hardware architectures for the two dimensional irreversible discrete wavelet transform were implemented to evaluate the tradeoff between the type of description, area consumption and delay. The architecture for the best trade-off requires 2,090 logic cells of a FPGA device, being able to operate up to 78.72 MHz, providing a processing rate of 28.2 million of samples per second. This architecture resulted in 0.41% of mean quadratic error for each transformed octave. The architecture implemented for the block of the entropy encoder was synthesized from a behavioral description, generating the hardware able to process up to 843 thousands of input coefficients per second. The results indicate that the lossy image compressor following JPEG2000 standard, using the blocks implemented in this dissertation and operating in the maximum clock frequency can codify, in average, 1.8 million coefficients per second, or conversely, up to 27 frames of 256x256 pixels per second. The rate-limiting step in this case is the entropy encoder, which has a more complex algorithm that needs further work to be sped up with more parallel hardware.
832

Compactação de vídeo escalável / Scalable Compression

Soler, Luciano January 2006 (has links)
A codificação de vídeo é um problema cuja solução deve ser projetada de acordo com as necessidades da aplicação desejada. Neste trabalho, um método de compressão de vídeo com escalabilidade é apresentado, apresentando melhorias dos formatos de compressão atuais. A escalabilidade corresponde a capacidade de extrair do bitstream completo, conjuntos eficientes de bits que são decodificados oferecendo imagens ou vídeos decodificados com uma variação (escala) segundo uma dada característica da imagem ou vídeo. O número de conjuntos que podem ser extraídos do bitstream completo definem a granularidade da escalabilidade fornecida, que pode ser muito fina ou com passos grossos. Muitas das técnicas de codificação escalável utilizam uma camada base que deve ser sempre decodificada e uma ou mais camadas superiores que permitem uma melhoria em termos de qualidade (SNR), resolução espacial e/ou resolução temporal. O esquema de codificação escalável final presente na norma MPEG-4 é uma das técnicas mais promissoras, pois pode adaptar-se às características dos canais (Internet) ou terminais que apresentam um comportamento variável ou desconhecido, como velocidade maxima de acesso, variações de largura de banda, erros de canal, etc. Apesar da norma MPEG-4 FGS se afirmar como uma alternativa viável para aplicações de distribuição de vídeo, possui uma quebra significativa de desempenho em comparação com a codificação não escalável de vídeo (perfil ASP da norma MPEG-4 Visual). Este trabalho tem por objetivo estudar novas ferramentas de codificação de vídeo introduzidas na recente norma H.264/AVC e MPEG-4 Visual, desenvolvendo um modelo que integre a escalabilidade granular presente no MPEG-4 aos avanços na área de codificação presentes no H.264/AVC. Esta estrutura de escalabilidade permite reduzir o custo em termos de eficiência da codificação escalável. Os resultados apresentados dentro de cada capítulo mostram a eficácia do método proposto bem como idéias para melhorias em trabalhos futuros. / Video encoding is a problem whose solution should be designed according to the need of intended application. This work presents a method of video compression with scalability that improves the current compression formats. Scalability represents the extracting capacity of full bitstream, efficient set of bits that are decoded to supply images or decoded videos with a variation according to a given image or video feature. A number of sets that can be extracted from full bitstream defines the supplied scalability granularity, which can be very thin or with thick steps. Most scalable video coding techniques use a base layer which must always be decoded and one or more higher layers which allow improvements in terms of quality (also known as SNR), frame/sampling rate or spatial resolution (for images and video). The MPEG-4 Fine Granularity Scalable (FGS) video coding scheme is one of the most promising techniques, because it can adapt itself to the features of channels (Internet) or terminals that present an unpredictable or unknown behavior, as maximum speed of access, variations of the bandwidth, channel errors, etc. Although the MPEG-4 FGS standard is a feasible solution for video streaming applications, it shows a significant loss of performance in comparison with non-scalable video coding, in particular the rather efficient Advanced Simple Profile defined in MPEG-4 Visual Standard. This work aims at studying new tools of video encoding introduced by the recent H.264/AVC norm and Visual MPEG-4, developing a model that integrates the granular scalability present in MPEG-4 to the coding improvements present in H.264/AVC. This new scalability structure allows cost reduction in terms of efficiency of the scalable coding. The results presented in each chapter show the effectiveness of the proposed method as well as ideas for improvements in future work.
833

Arquiteturas de alto desempenho e baixo custo em hardware para a estimação de movimento em vídeos digitais / High performance and low cost hardware architectures for digital videos motion estimation

Porto, Marcelo January 2008 (has links)
A evolução das Tecnologias de Informação e Comunicação (TIC) favoreceu o crescimento do uso de variados meios na comunicação. Entre diversos meios, o vídeo em particular, necessita de uma grande banda para ser transmitido, ou de um grande espaço para ser armazenado. Uma análise dos diversos sinais de uma comunicação multimídia mostra, entretanto, que existe uma grande redundância de informação. Utilizando técnicas de compressão é possível reduzir de uma a duas ordens de grandeza a quantidade de informação veiculada, mantendo uma qualidade satisfatória. Uma das formas de compressão busca a relação de similaridade entre os quadros vizinhos de uma cena, identificando a redundância temporal existente entre as imagens. Essa técnica chama-se estimação de movimento, este processo é muito eficaz, mas o custo computacional é elevado, exigindo a implementação de algoritmos eficientes em hardware, para o caso de compressão em tempo real de vídeos de alta resolução. Esta dissertação apresenta uma investigação sobre algoritmos de estimação de movimento visando implementações em hardware. Todos os algoritmos foram desenvolvidos primeiramente em linguagem C e submetidos a diversos testes para avaliação de desempenho e custo computacional. Os algoritmos foram aplicados a diversas amostras de vídeo utilizadas pela comunidade científica, para avaliação em aplicações reais. As avaliações demonstraram que os algoritmos rápidos conseguem realizar o processo de estimação de movimento de maneira eficiente, obtendo bons resultados em termos de qualidade de vetores, esforço computacional e desempenho. Com as análises dos resultados obtidos, o algoritmo Busca Diamante (Diamond Search) foi escolhido para ser implementado em hardware, com dois níveis diferentes de subamostragem de pixel: 2:1 e 4:1. As arquiteturas para o algoritmo Busca Diamante, com sub-amostragem de pixel de 2:1 e 4:1, foram descritas em VHDL, sintetizadas para FPGAs Virtex-4 da Xilinx e também para standard cells na tecnologia TSMC 0,18μm. Os resultados mostram que as arquiteturas desenvolvidas possuem desempenho superior ao necessário para tratar vídeos HDTV 1080p em tempo real a 30 quadros por segundo. As arquiteturas desenvolvidas também apresentam um baixo consumo de recursos de hardware, após a síntese para FPGA e ASIC. / The evolution of the communication and information technologies push the development of several communication media. These media, video in particular, need a large bandwidth to be transmitted, or a large digital storage capacity. Many multimedia signals show, however, a high information redundancy. By using compression techniques it is possible to reduce the amount of coded information by one or two orders of magnitude, keeping a satisfactory visual quality. One of these compression techniques searches the similarity between neighboring frames of a scene, identifying the temporal redundancy between them. This technique is called motion estimation, and it is a very efficient method for compression. However, the computational complexity of the motion estimation requires high performance algorithms in hardware, when used for real time compression of high resolution videos. This dissertation presents a comprehensive investigation about motion estimation algorithms, targeting a hardware implementation. All the investigated algorithms were first developed in C language and submitted to many evaluation tests. The algorithms were applied to ten video samples used by the scientific community for the evaluation of real application. The evaluation showed that fast algorithms can carry out the motion estimation process efficiently, producing good results in vectors quality, computational effort and performance. With the results analyses, the Diamond Search algorithm was chosen to be hardware designed, with two different levels of pixel subsampling, 2:1 and 4:1. The architectures for Diamond Search algorithm, with pixel subsampling of 2:1 and 4:1, were described in VHDL, synthesized to Xilinx Virtex-4 FPGAs and also to standard cells TSMC 0.18μm technology. The developed architectures have sufficient performance to process HDTV 1080p videos at 30 frames per second and demand small hardware resources consumption after synthesis to FPGA and ASIC. Keywords: Video compression, motion estimation, VLSI design.
834

Desenvolvimento e implementação de algoritmos de compressão aplicados à qualidade da energia elétrica

Dapper, Roque Eduardo January 2013 (has links)
Os equipamentos de análise de qualidade da energia elétrica, em sua grande parte, salvam a forma de onda amostrada somente no entorno do instante onde é detectado algum distúrbio, tipicamente um transiente. Essa limitação se deve em grande parte aos limites de armazenamento das memórias retentivas e ao alto custo que estas representam para um equipamento. No entanto uma nova geração de analisadores está se tornando cada vez mais comum, os analisadores de registro contínuo. Essa família de analisadores, além de salvar relatórios baseados no cálculo de parâmetros pré-estabelecidos também realiza o armazenamento contínuo da forma de onda amostrada. Essa abordagem permite que, conforme evoluam as ferramentas matemáticas para análise da qualidade da energia elétrica, novas análises sejam feitas sobre os dados coletados, tirando assim novas conclusões sobre um sistema elétrico. No entanto, para poder aplicar esta abordagem é necessário que o armazenamento dessas informações seja feito da forma mais eficiente possível, dado o grande volume de dados amostrados ao longo de todo um período de análise. Este trabalho visa o desenvolvimento de um algoritmo de compressão de registros de qualidade da energia elétrica, bem como sua implementação em hardware reconfigurável. Os algoritmos de compressão desenvolvidos estão baseados em um sistema de compressão composto por diferentes técnicas de compressão utilizadas em conjunto. Os métodos propostos fazem uso do algoritmo Deflate como algoritmo de compressão sem perdas. Para melhorar a capacidade de compressão do algoritmo Deflate, técnicas de transformação, aproximação polinomial e codificação de dados são aplicadas como meio para diminuir a entropia dos dados e assim aumentar a eficiência de compressão. Por fim, é apresentada a implementação dos algoritmos de compressão polinomial e Deflate, os quais foram implementados em linguagem VHDL e sintetizados para uso em FPGA. / Most of the power quality analyzers, just records the waveform of the sampled signals around the moment where a transient disturbance is detected. This limitation is due to the storage limits of the retentive memories and the high cost that it represents in a equipment. However a new generation of analyzers is becoming very common, the continuous logging power quality analyzers. This family of analyzers, as well as records reports based on the calculation of pre-defined parameters also performs the continuous storage of the sampled waveform. This approach allows new analysis on the collected data, thus allowing new conclusions about an electrical system. However, in order to apply this approach is required that the storage of such information is done as efficiently as possible, given the large amount of sampled data recorded in the entire period of analysis. This work aims to develop a compression algorithm to records of power quality as well as its implementation on reconfigurable hardware. The compression algorithms were developed based on a compression system composed of different compression techniques used together. The proposed algorithms make use of the Deflate algorithm as a lossless compression algorithm. The compression rate of the Deflate algorithm it is improved through the preprocessing of the data using techniques like polynomial transformation and data encode, as a way to reduce the date entropy. It is also presented in the work the implementation of the algorithms in VHDL language for use in FPGA devices.
835

Compressão de eletrocardiogramas usando wavelets / Compression of electrocardiograms using wavelets

Agulhari, Cristiano Marcos, 1983- 02 November 2009 (has links)
Orientador: Ivanil Sebastião Bonatti / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-12T20:20:55Z (GMT). No. of bitstreams: 1 Agulhari_CristianoMarcos_M.pdf: 901688 bytes, checksum: 97ec8feb4ee297c319c80463616a7391 (MD5) Previous issue date: 2009 / Resumo: A principal contribuição desta dissertação é a proposta de dois métodos de compressão de eletrocardiogramas (ECGs). O primeiro método, chamado Run Length Encoding Adaptativo (RLEA), é baseado nas transformadas wavelet e consiste basicamente em utilizar uma função wavelet, obtida pela resolução de um problema de otimização, que se ajuste ao sinal a ser comprimido. O problema de otimização torna-se irrestrito com a parametrização dos coeficientes do filtro escala, que definem unicamente uma função wavelet. Após a resolução do problema de otimização é aplicado o procedimento de decomposição wavelet no sinal e os coeficientes de representação mais significativos são retidos, sendo que o número de coeficientes retidos é determinado de forma a satisfazer uma medida de distorção pré-especificada. Os coeficientes retidos são então quantizados e compactados, assim como o bitmap que indica as posições dos coeficientes retidos. A quantização é feita de forma adaptativa, utilizando diferentes números de bits de quantização para os diferentes subespaços de decomposição considerados. Tanto os valores dos coeficientes retidos quanto o bitmap são codificados utilizando uma variante do método Run Length Encoding. O segundo método proposto nesta dissertação, chamado Zero Padding Singular Values Decomposition (ZPSVD), consiste em primeiramente detectar os batimentos, equalizá-los pela inserção de zeros (zero padding) e então aplicar a decomposição SVD para obter tanto a base quanto os coeficientes de representação dos batimentos. Alguns componentes da base são retidos e então comprimidos utilizando os mesmos procedimentos aplicados aos coeficientes de decomposição do ECG no método RLEA, enquanto que os coeficientes de projeção dos batimentos nessa base são quantizados utilizando um procedimento de quantização adaptativa. Os dois métodos de compressão propostos são comparados com diversos outros métodos existentes na literatura por meio de experimentos numéricos / Abstract: The main contribution of the present thesis is the proposition of two electrocardiogram (ECG) compression methods. The first method, called Run Length Encoding Adaptativo (RLEA), is based on wavelet transforms and consists of using a wavelet function, obtained by the resolution of an optimization problem, which fits to the signal to be compressed. The optimization problem becomes unconstrained with the parametrization of the coefficients of the scaling filter, that define uniquely a wavelet function. After the resolution of the optimization problem, the wavelet decomposition procedure is applied to the signal and the most significant coefficients of representation are retained, being the number of retained coefficients determined in order to satisfty a pre-specified distortion measure. The retained coefficients are quantized and compressed, likewise the bitmap that informs the positions of the retained coefficients. The quantization is performed in an adaptive way, using different numbers of bits for the different decomposition subspaces considered. Both the values of the retained coefficients and the bitmap are encoded using a modi- fied version of the Run Length Encoding technique. The second method proposed in this dissertation, called Zero Padding Singular Values Decomposition (ZPSVD), consists of detecting the beat pulses of the ECG, equalizing the pulses by inserting zeros (zero padding), and finally applying the SVD to obtain both the basis and the coefficients of representation of the beat pulses. Some components of the basis are retained and then compressed using the same procedures applied to the coefficients of decomposition of the ECG in the RLEA method, while the coefficients of projection of the beat pulses in the basis are quantized using an adaptive quantization procedure. Both proposed compression methods are compared to other techniques by means of numerical experiments / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
836

Estudo tecnico-economico da compactação de residuos madeireiros para fins energeticos / Technical and economic study of wood residues compression for energy use

Silva, Claudinei Augusto da 27 February 2007 (has links)
Orientador: Jose Dilcio Rocha / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-08-09T06:17:35Z (GMT). No. of bitstreams: 1 Silva_ClaudineiAugustoda_M.pdf: 937524 bytes, checksum: 782eb3844cc3324386d1ce6f150a540b (MD5) Previous issue date: 2007 / Resumo: O objetivo central deste trabalho foi o de demonstrar os processos de compactação de resíduos de biomassa visando à substituição de combustíveis tradicionais, como a lenha e os combustíveis fósseis. Foi estudada a viabilidade técnico-econômica da implantação de uma fábrica de compactação de resíduos madeireiros com capacidade anual de 2.112 toneladas de briquetes ou pellets para fins energéticos. Foram simulados quatro cenários diferentes, visando um estudo mais próximo da realidade. Em cada cenário foram analisados os investimentos fixos e tangíveis e as estruturas de custos operacionais para a implantação de uma fábrica de compactação de resíduos madeireiros. Na simulação dos cenários, foram empregados diferentes valores para o preço da matéria-prima e a incidência de impostos na venda do produto. O estudo de viabilidade técnico-econômica baseou-se em dados reais, disponibilizados por uma empresa madeireira de médio porte. O processo e a utilização de briquetes e pellets no comércio, que pode abrir novas possibilidades, principalmente no setor comercial, foram avaliados. Os processos tradicionais de compactação também foram analisados. Mostrou-se que o processo de compactação de resíduos madeireiros é economicamente viável desde que o custo da matéria-prima não ultrapasse R$ 42,00 por tonelada. Outra forma de tornar o processo economicamente viável é a redução nos impostos incidentes sobre a venda do produto. Através deste estudo ficou clara a incidência de alta carga tributária, um aspecto econômico típico da economia brasileira / Abstract: The main purpose of this work is to demonstrate the biomass compression processes for the substitution of traditional fuels such as wood and fossil fuels. It was performed a technical and economic feasibility analysis of the deployment of a wood residue compression plant with a yearly capacity of 2,112 tons of briquettes or pellets for energy use. Four different scenarios were created as close to reality as possible. In each scenario, intangible and tangible investments and operating costs were analyzed for the deployment of a wood residue compression plant. In addition, different prices of raw material and different sales tax were also used. The technical and economic feasibility study was based on actual data made available by a Brazilian mediumsized company in the woodworking industry. The manufacturing process and commercial use of briquettes and pellets, which can open new possibilities for the commercial sector, were assessed. Traditional compression processes were also evaluated. The study showed that the wood residue compression process is economically feasible if the cost of raw material does not exceed R$42.00 per ton. The process would also be economically feasible if sales taxes dropped. This work clearly demonstrated that high taxes, a typical component in the Brazilian economy, are a significant barrier to wood residue compression processes / Mestrado / Mestre em Planejamento de Sistemas Energéticos
837

Codificação de vídeo baseada em fractais e representações esparsas / Video coding based on fractals and sparse representations

Lima, Vitor de, 1985- 03 December 2012 (has links)
Orientador: Hélio Pedrini / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-20T14:03:42Z (GMT). No. of bitstreams: 1 Lima_Vitorde_M.pdf: 2877007 bytes, checksum: 6ad47f821cd5730035e715cb48102877 (MD5) Previous issue date: 2012 / Resumo: Vídeos são sequências de imagens estáticas representando cenas em movimento. Transmitir e armazenar essas imagens sem nenhum tipo de pré-processamento necessitaria de enormes larguras de banda nos canais de comunicação e uma quantidade massiva de espaço de armazenamento. A fim de reduzir o número de bits necessários para tais dados, foram criados métodos de compressão com perda. Esses métodos geralmente consistem em um codificador e um decodificador, tal que o codificador gera uma sequência de bits que representa uma aproximação razoável do vídeo através de um formato pré-especificado e o decodificador lê essa sequência, convertendo-a novamente em uma série de imagens. A transmissão de vídeos sob restrições extremas de largura de banda tem aplicações importantes como videoconferências e circuitos fechados de televisão. Neste trabalho são abordados dois métodos destinados a essa aplicação, decomposição usando representações esparsas e compressão fractal. A ampla maioria dos codificadores tem como mecanismo principal o uso de transformações inversíveis capazes de representar imagens espacialmente suaves com poucos coeficientes não-nulos. Representações esparsas são uma generalização dessa ideia, em que a transformação tem como base um conjunto cujo número de elementos excede a dimensão do espaço vetorial onde ela opera. A projeção dos dados pode ser feita a partir de uma heurística rápida chamada Matching Pursuit. Uma abordagem combinando essa heurística com um algoritmo para gerar a base sobrecompleta por aprendizado de máquina é apresentada. Codificadores fractais representam uma aproximação da imagem como um sistema de funções iterativas. Para isso, criam e transmitem uma sequência de comandos, chamada colagem, capazes de obter uma representação da imagem na escala original dada a mesma imagem em uma escala reduzida. A colagem é criada de tal forma que, se aplicada a uma imagem inicial qualquer repetidas vezes, reduzindo sua escala antes de toda iteração, converge em uma aproximação da imagem codificada. Métodos simplificados e rápidos para a criação da colagem e uma generalização desses métodos para a compressão de vídeos são apresentados. Ao invés de construir a colagem tentando mapear qualquer bloco da escala reduzida na escala original, apenas um conjunto pequeno de blocos é considerado. O método de compressão proposto para vídeos agrupa um conjunto de quadros consecutivos do vídeo em um fractal volumétrico. A colagem mapeia blocos tridimensionais entre as escalas, considerando uma escala menor tanto no tempo quanto no espaço. Uma adaptação desse método para canais de comunicação cuja largura de banda é instável também é proposta / Abstract: A video is a sequence of still images representing scenes in motion. A video is a sequence of extremely similar images separated by abrupt changes in their content. If these images were transmitted and stored without any kind of preprocessing, this would require a massive amount of storage space and communication channels with very high bandwidths. Lossy compression methods were created in order to reduce the number of bits used to represent this kind of data. These methods generally consist in an encoder and a decoder, where the encoder generates a sequence of bits that represents an acceptable approximation of the video using a certain predefined format and the decoder reads this sequence, converting it back into a series of images. Transmitting videos under extremely limited bandwidth has important applications in video conferences or closed-circuit television systems. Two different approaches are explored in this work, decomposition based on sparse representations and fractal coding. Most video coders are based on invertible transforms capable of representing spatially smooth images with few non-zero coeficients. Sparse representations are a generalization of this idea using a transform that has an overcomplete dictionary as a basis. Overcomplete dictionaries are sets with more elements in it than the dimension of the vector space in which the transform operates. The data can be projected into this basis using a fast heuristic called Matching Pursuits. A video encoder combining this fast heuristic with a machine learning algorithm capable of constructing the overcomplete dictionary is proposed. Fractal encoders represent an approximation of the image through an iterated function system. In order to do that, a sequence of instructions, called a collage, is created and transmitted. The collage can construct an approximation of the original image given a smaller scale version of it. It is created in such a way that, when applied to any initial image several times, contracting it before each iteration, it converges into an approximation of the encoded image. Simplier and faster methods for creating a collage and a generalization of these methods to video compression are presented. Instead of constructing a collage by matching any block from the smaller scale to the original one, a small subset of possible matches is considered. The proposed video encoding method creates groups of consecutive frames which are used to construct a volumetric fractal. The collage maps tridimensional blocks between the different scales, using a smaller scale in both space and time. An improved version of this algorithm designed for communication channels with variable bandwidth is presented / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
838

Wavelet based fast solution of boundary integral equations

Harbrecht, Helmut, Schneider, Reinhold 11 April 2006 (has links) (PDF)
This paper presents a wavelet Galerkin scheme for the fast solution of boundary integral equations. Wavelet Galerkin schemes employ appropriate wavelet bases for the discretization of boundary integral operators which yields quasi-sparse system matrices. These matrices can be compressed such that the complexity for solving a boundary integral equation scales linearly with the number of unknowns without compromising the accuracy of the underlying Galerkin scheme. Based on the wavelet Galerkin scheme we present also an adaptive algorithm. By numerical experiments we provide results which demonstrate the performance of our algorithm.
839

Encodage des signaux de parole par inversion des motifs d'excitation auditive

Lakhdhar, Khaled January 2017 (has links)
On propose dans cette thèse de compresser et de synthétiser un signal audio par inversion de ses motifs d'excitation auditive. On traite l'approche du codage dans le domaine perceptuel et on propose un codeur qui exploite la redondance présente dans ces motifs. On commence par proposer un nouveau filtre auditif à faible complexité qui peut non seulement modéliser les réponses mécaniques de la membrane basilaire, synthétiser les réponses impulsionnelles du nerf auditif mais aussi expliquer les expériences du masquage fréquentiel. Ensuite on détaille l'exploitation de ce même banc de filtres auditifs pour la discipline de la compression des signaux audio. Des modèles de masquage adaptés à ce banc de filtres sont appliqués aux motifs d'excitation auditives pour obtenir des représentations éparses. Des expériences montrent que ce codeur permet de réduire considérablement la redondance dans le domaine perceptuel tout en maintenant une bonne qualité subjective de synthèse.
840

En studie i komprimeringsalgoritmer / A study in compression algorithms

Sjöstrand, Mattias Håkansson January 2005 (has links)
Compression algorithms can be used everywhere. For example, when you look at a DVD movie a lossy algorithm is used, both for picture and sound. If you want to do a backup of your data, you might be using a lossless algorithm. This thesis will explain how many of the more common lossless compression algorithms work. During the work of this thesis I also developed a new lossless compression algorithm. I compared this new algorithm to the more common algorithms by testing it on five different types of files. The result that I got was that the new algorithm was comparable to the other algorithms when comparing the compression ratio, and in some cases it also performed better than the others. / Komprimeringsalgoritmer kan användas överallt. T ex, när du tittar på en DVD-film så används en förstörande algoritm, både för bild och ljud. Om du vill göra en säkerhetskopia av din data, så kanske du använder en icke förstörande algoritm. Denna avhandling kommer att förklara hur många av de mer vanliga icke förstörande algoritmer fungerar. Under arbetets gång så utvecklade jag också en ny icke förstörande algoritm. Jag jämförde denna nya algoritm med de mer vanliga algoritmerna genom att jämföra algoritmerna med varandra på fem olika typer av filer. Resultatet som jag kom fram till var att den nya algoritmen var jämförbar med de andra algoritmerna när man jämförde komprimeringsförhållandet, och i vissa fall så presterade den bättre än de andra.

Page generated in 0.4411 seconds