• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 14
  • Tagged with
  • 69
  • 41
  • 36
  • 36
  • 28
  • 27
  • 21
  • 15
  • 15
  • 14
  • 14
  • 12
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

[pt] CODIFICADORES UNIVERSAIS VIA RECORRÊNCIA DE PADRÕES PARA FONTES COM NÚMERO DE ESTADOS FINITO / [en] UNIVERSAL STRING MATCHING ENCODERS BY RECURRENCE OF STANDARDS FOR SOURCES WITH FINITE NUMBER OF STATES

MARCELO DA SILVA PINHO 01 December 2005 (has links)
[pt] Os codificadores universais via recorrência de padrões surgiram nos anos 70, quando foram propostos os codificadores lz77 e lz78. Devido a baixa complexidade computacional e ao bom desempenho, quando aplicados na compressão de arquivos de dados, estes codificadores se tornaram extremamente populares. Embora estes codificadores sejam universais, i.e., possuam taxas de compressão que convergem para entropia, recentemente foi mostrado que as taxas de compressão não convergem da forma mais rápida possível, nem mesmo para a classe de fontes sem memória. A redundância de um codificador universal C, dada por R, mede a rapidez com que a taxa de compressão converge para a entropia. Para fontes com número de estados finito, enquanto os melhores resultados de codificadores universais via recorrência de padrões apresentam uma redundância da ordem de 1/{log n}, existem codificadores que atingem uma redundancia de {log n} /n. Portanto, os codificadores via recorrência de padrões não são ótimos. Embora seja conhecido codificadores ótimos segundo o critério da redundância, tais codificadores possuem uma alta complexidade computacional e são pouco úteis na prática. Dentre os codificadores via recorrência de padrões, o codificador lz78 possui uma das mais baixas redundâncias para a classe de fontes com número de estados finito. De fato, não existe outro codificador desta classe, tal que a redundância seja melhor que a do lz78. Tomando como base o lz78, este trabalho propõe novas técnicas para acelerar a convergência da taxa de compressão (diminuir a redundância) dos codificadores universais via recorrência de padrões, para fontes com número de estados finito. Estas técnicas dão origem a novas versões do lz78. As redundâncias das novas versões são estabelecidas, considerando a classe de fontes com número de estados finito. Estas versões são aplicadas na compressão de arquivos de dados, e os resultados obtidos são comparados com os resultados de versões anteriores. / [en] The string matching encoders were proposed about 20 years ago, when the lz77 and lz78 were introduced. They became extremely popular because of the relationship between their low complexity and their good performance. Although these encoders are universal, that is, their compression rates converge to the source entropy, it was shown, recently, that those rates do not converge as fast as possible, even for the class of memoryless source. The redundancy of an unversal encoder C, denoted by Rc, measures how fast the compression rate converge to the entropy. In the class of Finite State Machine (FSM) source, while the best result of the string matching encoders is O 1/ {log n}, there are encoders which achieve a redundancy of O {log n}/n. Therefore, the string matching encoders are not optimal. Even though optimal encoders are known, in general, those encoders have a high complexity and are not useful in practice. Considering the class of string matching encoders, the lz78 has one of the best results over the class of FSM source. In fact, there is no encoder based on the string matching, which archives a better redundancy. This work makes use of the lz78 encoder to propose new techniques to improve the performance of sting matching encoders over the class of FSM. These techniques bring up new versions of the lz78. For the class of FSM, the redundancies of this versions are stablished. These versions are used to compress data files, and their perfoermances are compared to the performances of older versions.
12

Excitação multi-taxa usando quantização vetorial estruturada em árvore para o codificador CS-ACELP com aplicação em VoIP

Campaner, Nelson January 2006 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-22T14:46:39Z (GMT). No. of bitstreams: 1 232837.pdf: 3077932 bytes, checksum: bd3466d6948a63bb071206a4e8fa013b (MD5) / Este trabalho apresenta um estudo sobre codificação multi-taxa estruturada sobre o algoritmo CS-ACELP (Conjugate-Structure Algebraic-Code-Excited Linear-Prediction) e a especificação G.729, cujo objetivo é propor um codificador com taxa variável, através da busca da melhor excitação fixa usando codebook estruturado em árvore, para aplicações VoIP (Voice-over-IP). A mudança progressiva do transporte de voz das redes de circuito para as redes IP (Internet Protocol), apesar dos diversos aspectos positivos, tem exposto algumas deficiências intrínsecas destas, mais apropriadas ao tráfego de #melhor esforço# do que ao tráfego com requisitos de tempo. Esta proposta está inserida no conjunto das iniciativas, no âmbito do transmissor, que procuram minimizar os efeitos danosos da rede sobre a qualidade da voz reconstruída. O codebook proposto tem estrutura em árvore binária, concebida a partir de uma heurística onde os vetores CS-ACELP são ordenados por valor de forma decrescente. Uma estratégia particular de armazenamento dos nós, envolvendo simplificação nos centróides, codificação diferencial e geração automática dos dois últimos níveis da árvore, permite reduzir o espaço de armazenamento de 640 para apenas 7 kwords. Através deste modelo chega-se a 13 taxas de codificação, de 5,6 a 8,0 kbit/s, com passo de 0,2 kbit/s. A relação sinal ruído fica em 1,5 dB abaixo da mesma medida na especificação G.729 para a taxa de 5,6 kbit/s, e apenas 0,6 dB abaixo quando na taxa 8,0 kbit/s. Testes subjetivos mostraram uma qualidade bastante aceitável para a taxa mínima e praticamente indistinguível do codec original na taxa máxima. Além disso, a busca da melhor excitação é 2,4 vezes mais rápida em comparação ao codec G.729 e pode ser totalmente compatível com este se a taxa for fixa em 8,0 kbit/s. This work presents a study about multi-rate coding structured over CS-ACELP (Conjugate-Structure Algebraic-Code-Excited Linear-Prediction) algorithm and G.729 standard, whose purpose is to come up with a variable rate codec by means of best fixed excitation search using a tree structured codebook, for VoIP (Voice-over-IP) applications. The progressive change of voice transmission from circuit switched to IP (Internet orks, besides its many positive aspects, has exposed some natural deficiencies of the latter, better suited to best effort traffics than traffics with time requirements. This proposition can be inserted in the bunch of efforts, related to the sender, that seek to reduce the network impairments over the quality of reconstructed voice. The suggested codebook has a binary tree structure heuristically conceived where algebraic CSACELP vectors are disposed by value in a decreasing order. Additionally, a particular approach to store the tree nodes are considered, which involves centroid implification, differential coding and automatic generation of the last two layers of the tree, squeezing the storing space from 640 down to 7 kwords. Through this model we reach 13 coding rates, ranging from 5.6 to 8.0 kbit/s, with 0.2 kbit/s step. The signal-to-noise ratio is 1.5 dB below the same measure for G.729 standard at the rate 5.6 kbit/s, and just 0.6 dB lower at 8.0 kbit/s. Subjective tests pointed to an acceptable quality at minimum rate and virtually indistinguishable quality from the original codec at the maximum one. Also, searching for the best fixed excitation is 2.4 times faster than G.729 and can be truly compatible with it if the rate is fixed in 8 kbit/s.
13

Compactação de vídeo escalável / Scalable Compression

Soler, Luciano January 2006 (has links)
A codificação de vídeo é um problema cuja solução deve ser projetada de acordo com as necessidades da aplicação desejada. Neste trabalho, um método de compressão de vídeo com escalabilidade é apresentado, apresentando melhorias dos formatos de compressão atuais. A escalabilidade corresponde a capacidade de extrair do bitstream completo, conjuntos eficientes de bits que são decodificados oferecendo imagens ou vídeos decodificados com uma variação (escala) segundo uma dada característica da imagem ou vídeo. O número de conjuntos que podem ser extraídos do bitstream completo definem a granularidade da escalabilidade fornecida, que pode ser muito fina ou com passos grossos. Muitas das técnicas de codificação escalável utilizam uma camada base que deve ser sempre decodificada e uma ou mais camadas superiores que permitem uma melhoria em termos de qualidade (SNR), resolução espacial e/ou resolução temporal. O esquema de codificação escalável final presente na norma MPEG-4 é uma das técnicas mais promissoras, pois pode adaptar-se às características dos canais (Internet) ou terminais que apresentam um comportamento variável ou desconhecido, como velocidade maxima de acesso, variações de largura de banda, erros de canal, etc. Apesar da norma MPEG-4 FGS se afirmar como uma alternativa viável para aplicações de distribuição de vídeo, possui uma quebra significativa de desempenho em comparação com a codificação não escalável de vídeo (perfil ASP da norma MPEG-4 Visual). Este trabalho tem por objetivo estudar novas ferramentas de codificação de vídeo introduzidas na recente norma H.264/AVC e MPEG-4 Visual, desenvolvendo um modelo que integre a escalabilidade granular presente no MPEG-4 aos avanços na área de codificação presentes no H.264/AVC. Esta estrutura de escalabilidade permite reduzir o custo em termos de eficiência da codificação escalável. Os resultados apresentados dentro de cada capítulo mostram a eficácia do método proposto bem como idéias para melhorias em trabalhos futuros. / Video encoding is a problem whose solution should be designed according to the need of intended application. This work presents a method of video compression with scalability that improves the current compression formats. Scalability represents the extracting capacity of full bitstream, efficient set of bits that are decoded to supply images or decoded videos with a variation according to a given image or video feature. A number of sets that can be extracted from full bitstream defines the supplied scalability granularity, which can be very thin or with thick steps. Most scalable video coding techniques use a base layer which must always be decoded and one or more higher layers which allow improvements in terms of quality (also known as SNR), frame/sampling rate or spatial resolution (for images and video). The MPEG-4 Fine Granularity Scalable (FGS) video coding scheme is one of the most promising techniques, because it can adapt itself to the features of channels (Internet) or terminals that present an unpredictable or unknown behavior, as maximum speed of access, variations of the bandwidth, channel errors, etc. Although the MPEG-4 FGS standard is a feasible solution for video streaming applications, it shows a significant loss of performance in comparison with non-scalable video coding, in particular the rather efficient Advanced Simple Profile defined in MPEG-4 Visual Standard. This work aims at studying new tools of video encoding introduced by the recent H.264/AVC norm and Visual MPEG-4, developing a model that integrates the granular scalability present in MPEG-4 to the coding improvements present in H.264/AVC. This new scalability structure allows cost reduction in terms of efficiency of the scalable coding. The results presented in each chapter show the effectiveness of the proposed method as well as ideas for improvements in future work.
14

Compactação de vídeo escalável / Scalable Compression

Soler, Luciano January 2006 (has links)
A codificação de vídeo é um problema cuja solução deve ser projetada de acordo com as necessidades da aplicação desejada. Neste trabalho, um método de compressão de vídeo com escalabilidade é apresentado, apresentando melhorias dos formatos de compressão atuais. A escalabilidade corresponde a capacidade de extrair do bitstream completo, conjuntos eficientes de bits que são decodificados oferecendo imagens ou vídeos decodificados com uma variação (escala) segundo uma dada característica da imagem ou vídeo. O número de conjuntos que podem ser extraídos do bitstream completo definem a granularidade da escalabilidade fornecida, que pode ser muito fina ou com passos grossos. Muitas das técnicas de codificação escalável utilizam uma camada base que deve ser sempre decodificada e uma ou mais camadas superiores que permitem uma melhoria em termos de qualidade (SNR), resolução espacial e/ou resolução temporal. O esquema de codificação escalável final presente na norma MPEG-4 é uma das técnicas mais promissoras, pois pode adaptar-se às características dos canais (Internet) ou terminais que apresentam um comportamento variável ou desconhecido, como velocidade maxima de acesso, variações de largura de banda, erros de canal, etc. Apesar da norma MPEG-4 FGS se afirmar como uma alternativa viável para aplicações de distribuição de vídeo, possui uma quebra significativa de desempenho em comparação com a codificação não escalável de vídeo (perfil ASP da norma MPEG-4 Visual). Este trabalho tem por objetivo estudar novas ferramentas de codificação de vídeo introduzidas na recente norma H.264/AVC e MPEG-4 Visual, desenvolvendo um modelo que integre a escalabilidade granular presente no MPEG-4 aos avanços na área de codificação presentes no H.264/AVC. Esta estrutura de escalabilidade permite reduzir o custo em termos de eficiência da codificação escalável. Os resultados apresentados dentro de cada capítulo mostram a eficácia do método proposto bem como idéias para melhorias em trabalhos futuros. / Video encoding is a problem whose solution should be designed according to the need of intended application. This work presents a method of video compression with scalability that improves the current compression formats. Scalability represents the extracting capacity of full bitstream, efficient set of bits that are decoded to supply images or decoded videos with a variation according to a given image or video feature. A number of sets that can be extracted from full bitstream defines the supplied scalability granularity, which can be very thin or with thick steps. Most scalable video coding techniques use a base layer which must always be decoded and one or more higher layers which allow improvements in terms of quality (also known as SNR), frame/sampling rate or spatial resolution (for images and video). The MPEG-4 Fine Granularity Scalable (FGS) video coding scheme is one of the most promising techniques, because it can adapt itself to the features of channels (Internet) or terminals that present an unpredictable or unknown behavior, as maximum speed of access, variations of the bandwidth, channel errors, etc. Although the MPEG-4 FGS standard is a feasible solution for video streaming applications, it shows a significant loss of performance in comparison with non-scalable video coding, in particular the rather efficient Advanced Simple Profile defined in MPEG-4 Visual Standard. This work aims at studying new tools of video encoding introduced by the recent H.264/AVC norm and Visual MPEG-4, developing a model that integrates the granular scalability present in MPEG-4 to the coding improvements present in H.264/AVC. This new scalability structure allows cost reduction in terms of efficiency of the scalable coding. The results presented in each chapter show the effectiveness of the proposed method as well as ideas for improvements in future work.
15

Compactação de vídeo escalável / Scalable Compression

Soler, Luciano January 2006 (has links)
A codificação de vídeo é um problema cuja solução deve ser projetada de acordo com as necessidades da aplicação desejada. Neste trabalho, um método de compressão de vídeo com escalabilidade é apresentado, apresentando melhorias dos formatos de compressão atuais. A escalabilidade corresponde a capacidade de extrair do bitstream completo, conjuntos eficientes de bits que são decodificados oferecendo imagens ou vídeos decodificados com uma variação (escala) segundo uma dada característica da imagem ou vídeo. O número de conjuntos que podem ser extraídos do bitstream completo definem a granularidade da escalabilidade fornecida, que pode ser muito fina ou com passos grossos. Muitas das técnicas de codificação escalável utilizam uma camada base que deve ser sempre decodificada e uma ou mais camadas superiores que permitem uma melhoria em termos de qualidade (SNR), resolução espacial e/ou resolução temporal. O esquema de codificação escalável final presente na norma MPEG-4 é uma das técnicas mais promissoras, pois pode adaptar-se às características dos canais (Internet) ou terminais que apresentam um comportamento variável ou desconhecido, como velocidade maxima de acesso, variações de largura de banda, erros de canal, etc. Apesar da norma MPEG-4 FGS se afirmar como uma alternativa viável para aplicações de distribuição de vídeo, possui uma quebra significativa de desempenho em comparação com a codificação não escalável de vídeo (perfil ASP da norma MPEG-4 Visual). Este trabalho tem por objetivo estudar novas ferramentas de codificação de vídeo introduzidas na recente norma H.264/AVC e MPEG-4 Visual, desenvolvendo um modelo que integre a escalabilidade granular presente no MPEG-4 aos avanços na área de codificação presentes no H.264/AVC. Esta estrutura de escalabilidade permite reduzir o custo em termos de eficiência da codificação escalável. Os resultados apresentados dentro de cada capítulo mostram a eficácia do método proposto bem como idéias para melhorias em trabalhos futuros. / Video encoding is a problem whose solution should be designed according to the need of intended application. This work presents a method of video compression with scalability that improves the current compression formats. Scalability represents the extracting capacity of full bitstream, efficient set of bits that are decoded to supply images or decoded videos with a variation according to a given image or video feature. A number of sets that can be extracted from full bitstream defines the supplied scalability granularity, which can be very thin or with thick steps. Most scalable video coding techniques use a base layer which must always be decoded and one or more higher layers which allow improvements in terms of quality (also known as SNR), frame/sampling rate or spatial resolution (for images and video). The MPEG-4 Fine Granularity Scalable (FGS) video coding scheme is one of the most promising techniques, because it can adapt itself to the features of channels (Internet) or terminals that present an unpredictable or unknown behavior, as maximum speed of access, variations of the bandwidth, channel errors, etc. Although the MPEG-4 FGS standard is a feasible solution for video streaming applications, it shows a significant loss of performance in comparison with non-scalable video coding, in particular the rather efficient Advanced Simple Profile defined in MPEG-4 Visual Standard. This work aims at studying new tools of video encoding introduced by the recent H.264/AVC norm and Visual MPEG-4, developing a model that integrates the granular scalability present in MPEG-4 to the coding improvements present in H.264/AVC. This new scalability structure allows cost reduction in terms of efficiency of the scalable coding. The results presented in each chapter show the effectiveness of the proposed method as well as ideas for improvements in future work.
16

[en] ANALYSIS OF WAVEFORM CODERS FOR SPEECH AND DATA SIGNALS / [pt] ANÁLISE DE CODIFICADORES DE FORMA DE ONDA PARA SINAIS DE VOZ E DADOS

ANTONIO MARCOS DE LIMA ARAUJO 07 November 2006 (has links)
[pt] O trabalho examina o comportamento de Codificadores de forma de onda operando a 32,56 e 64kbit/s para transmissão digital de sinais de voz e de sinais de dados PSK-8 a 4800 bit/s e QAM-16 a 9600 bit/s. A partir de uma análise detalhada dos diversos sistemas, tanto em canal ideal como um canal ruidoso, é verificada a necessidade de se fazer uma identificação do tipo de sinal. De modo a permitir sua codificação de forma mais eficiente. É, então, proposta e avaliada a utilização de uma técnica de identificação estatística de sinais de voz e dados, em codificadores de forma de onda. A incorporação desta técnica ao sistema ADPCM a 32 kbit/s recomendado pelo CCITT permite uma melhoria do desempenho para sinais de dados, sem com isso alterar sua eficiência para sinais de voz. / [en] This thesis evaluates the performance of waveform coders at 32,56 and 64kbit/s for digital transmission of speech signal and 4800 bit/s PSK-8 and 9600 bit/s QAM-16 voiceband data signas. A detailed analysis of the systems is carried out both under ideal and noisy channel conditions. From this analysis it was found that a scheme which accurately distinguishes the two classes of signals, would allow a more efficient encoding procedure. A method of statistical identification of speech and data signals is proposed and its use in wakeform coders is, then, analysed. The incorporation of this method into the 32 kbit/s ADPCM system recommended by CCITT provides an improvement in performance for data signals, without sacrificing its efficiency for speech signal.
17

[en] STUDY ON SPEECH CODING IN SUB-BANDS AT 16 KBITS/S / [pt] ESTUDO DE CODIFICAÇÃO DE VOZ EM SUB-BANDAS A 16 KBIT/S

CARLOS FELIPE DE BRITO JACCOUD 09 November 2006 (has links)
[pt] Neste trabalho são estudados sistemas de codificação digital de sinais de voz em sub-bandas, operando na taxa de 16 kbit/s. Os sistemas são analisados em função do número de sub-bandas, dos esquemas de codificação utilizados nas diversas sub-bandas, dos parâmetros e das técnicas empregados na adaptação dos quantizadores e do tipo de alocação dos recursos binários. A decomposição espectral do sinal é realizada a partir de bancos de filtros espelhados em quadratura (QMF), que tem a vantagem de evitar a sobreposição dos espectros nas diversas sub- bandas. Os sistemas são avaliados, através de simulação em computador, tanto em canal ideal como em um canal ruidoso, utilizando como figura de mérito a razão sinal-ruído frequencial. O desempenho obtido em termos das razões sinal-ruído global e segmentada também é apresentado em todos os casos analisados. A partir de um exame detalhado dos diversos sistemas e proposta uma estrutura de codificação em que a configuração do quantizador e sua técnica de adaptação dependem da sub-banda a ser codificada. Além disso, o sistema proposto utiliza um algoritmo para alocação dos recursos binários baseado em comparações de energias de blocos de amostras das diversas sub-bandas. / [en] In this thesis a study of 16 kbit/s sub-band coding of speech signals is presented. The encoding systems are examined in terms of the number of sub-bands, the schemes used to encode the sub-band signals, the parameters and techniques employed in the quantizers adaptation and the type of bit allocation. Spectral decomposition of the input signal is carried out by means of quadrature mirror filter (QMF) banks. The systems are evaluated through computer simulation, both in ideal and noisy channels, using the frequency - weighted signal-to-noise ratio as the performance criterion. The global and segmental signal- to-noise ratio performances are also given in all cases. After a detailed examination of the various systems, a coding structure is proposed , in which the configuration of the quantizer and its adaptation techniques depend on the sub-band to be coded. Furthermore, the proposed system uses an algorithm for bit allocation based on comparison of the energies fo blocks of samples in the several sub-bands.
18

[en] JOINT SOURCE/CHANNEL CODING USING LAPPED TRANSFORMS / [pt] CODIFICAÇÃO CONJUNTA FONTE/CANAL UTILIZANDO TRANSFORMADAS

ARTHUR LUIZ AMARAL DA CUNHA 15 July 2002 (has links)
[pt] Neste trabalho é feito um estudo sobre compressão de imagens para canal ruidoso.Inicialmente, esquemas de complexidade moderada sem a utilização do princípio da separação de Shannon são investigados e simulados. Com isso, mostra-se que esquemas eficientes de codificação conjunta fonte/canal existem e podem eventualmente apresentar melhor performance do que esquemas separados de codificação e canal e fonte. São também investigados, algoritmos de codificação de imagens visando a transmissão num capital ruidoso. Nesse contexto, é proposto um esquema utilizando transformadas com superposição com boa performance, como mostram as simulações realizadas. O esquema posteriormente estendido para imagens multi- espectrais mostrando-se igualmente eficiente. / [en] In the present dissertation we investigate image compression techniques for transmission over binary symmetric channels poluted with noise. Frist we simulate some known techniques for joint source/channel coding that dispenses with the use of error correcting codes. These techiniques may exhibit better performance when complexity and delay constraits are at stake. We further propose an image compression algorithm for noisy channels based on lapped/block transforms and block source/channel coding. We simulate the proposed scheme for various channel situations. The algorithm is further extented to handle compression and transmission of multiepectral remote sensing satellite imagery. Results for natural and multiespectral images are presented showing the good performance attained by the proposed schemes.
19

[en] CONTRIBUTIONS TO THE SA-DCT AND BLOCK-BASED DCT APPROACHES FOR OBJECT-ORIENTED IMAGE CODING / [pt] CONTRIBUIÇÕES ÀS ABORDAGENS SA-DCT E DCT BASEADA EM BLOCOS PARA CODIFICAÇÃO DE IMAGENS ORIENTADA POR OBJETO

FLAVIA MAGALHAES FREITAS FERREIRA 27 October 2004 (has links)
[pt] Esta tese examina e apresenta contribuições para a codificação de textura intra-quadro na codificação de imagens baseada em objeto. Duas abordagens de codificação são focadas: a DCT baseada em blocos e a DCT adaptativa à forma (SA-DCT). São propostos indicadores morfológicos para extrair características de forma e textura intrínsecas ao objeto a ser codificado, classificando os blocos de imagem 8 X 8 segundo o número de pixels do objeto neles contidos. Esses indicadores são utilizados para a análise de algoritmos de codificação conhecidos na literatura e também para a proposição de esquemas híbridos que solucionem problemas identificados. Os esquemas híbridos propostos baseiam-se no tratamento diferenciado para grupos de blocos distintos, usando como base a informação sobre a textura média nesses grupos. Por fim, é proposta uma estrutura de codificação adaptativa em função da taxa de bits, da textura e da forma do objeto a ser codificado. Essa estratégia incorpora os esquemas híbridos propostos nesta tese para a escolha da direção preferencial de processamento do algoritmo de extrapolação EI - Extension Interpolation - e da SA-DCT. Ela seleciona automaticamente a abordagem de codificação mais adequada a um grupo específico de blocos a cada faixa de taxas de bits, valendo- se dos indicadores morfológicos. O codificador adaptativo proposto mostrou-se equivalente ou superior em desempenho aos melhores esquemas conhecidos na literatura, tanto para taxas baixas, quanto para taxas altas. Os resultados podem ser verificados a partir das curvas de desempenho e também a partir da observação da qualidade subjetiva das imagens recuperadas. / [en] This thesis examines and presents contributions to the intra-frame texture coding of Object-Based Image Coding. Two coding approaches are focused: the block-based DCT and the shape-adaptive DCT (SA-DCT). Morphological features are proposed in order to extract intrinsic characteristics of shape and texture from the object to be encoded. These features classify the 8 X 8 image blocks according to their number of object pixels. These morphological features are used both in the analysis of coding algorithms reported in the literature and in the design of hybrid schemes that overcome some problems identified during the analysis procedure. The proposed hybrid schemes employ different strategies to deal with different groups of blocks. The information about the mean texture value at these groups is used as the basis of the algorithms. Finally, an adaptive coding structure, which is a function of the bit rate, texture and shape of the object, is proposed. This strategy incorporates the hybrid schemes introduced in this thesis, in order to choose the preferential processing direction for the EI - Extension Interpolation - padding technique and for the SA-DCT. It automatically selects the more adequate approach for a specific group of blocks at a given bit rate, depending on the morphological features. Performance of this adaptive coding scheme is either comparable or better than the best object-based transform coding schemes reported in the literature. This is valid both at low and high bit rates. Results are presented in terms of PSNR performance curves and subjective quality of the decoded images.
20

[en] SUB-BAND IMAGE CODING / [pt] CODIFICAÇÃO DE IMAGENS POR DECOMPOSIÇÃO EM SUB-BANDAS

EDMAR DA COSTA VASCONCELLOS 05 July 2006 (has links)
[pt] Este trabalho aborda o problema da compressão de imagens explorando a técnica de codificação por sub-bandas(SBB). Como estrutura básica, usada na primeira parte do trabalho, tem-se a divisão da imagem em 16 sub-bandas buscando replicar os resultados de woods [1]. As componentes das 16 SBB são quantizadas e codificadas, e bits são alocados às SBB usando como critério a minimização do erro médio quadrático. Os quantizadores são projetados segundo uma distribuição Gaussiana Generalizada. Neste processo de codificação, a sub-banda de mais baixa freqüência é codificada com DPCM, enquanto as demais SBB são codificadas por PCM. Como inovação, é proposto o uso do algoritmo de Lempel-Ziv na codificação sem perdas (compactação) das sub-bandas quantizadas. Na compactação são empregados os algoritmos de Huffman e LZW (modificação do LZA). Os resultados das simulações são apresentados em termos da taxa (bits/pixel) versus relação sinal ruído de pico e em termos de analise subjetiva das imagens reconstruídas. Os resultados obtidos indicam um desempenho de compressão superior quanto o algoritmo de Huffman é usado, comparado com o algoritmo LZW. A melhoria de desempenho, na técnica de decomposição em sub-bandas, observada com o algoritmo de Huffman foi superior (2dB acima). Todavia, tendo em vista as vantagens da universalidade do algoritmo de Lempel-Ziv, deve-se continuar a investigar o seu desempenho implementado de forma diferente do explorado neste trabalho. / [en] This work focus on the problem of image compression, with exploring the techniques of subband coding. The basic structure, used in the sirst part of this tesis, encompass the uniform decomposition of the image into 16 subbands. This procedure aims at reproducing the reults of Woods [1]. The component of the 16 subbands are quatized and coded and bits are optimally allocated among the subbands to minimize the mean-squared error. The quantizers desingned match the Generelized Gaussian Distribuition, which model the subband components. In the coding process, the lowest subband is DPCM coded while the higher subbands are coded with PCM. As an innovation, it is proposed the use of the algorithm LZW for coding without error (compaction) the quantized subbands. In the compactation process, the Huffamn and LZW algorithms are used. The simulation results are presented in terms of rate (bits/pel) versus peak signal-to-noise and subjective quality. The performance of the subband decomposition tecnique obtained with the Huffamn´s algorithm is about 2dB better than that obtained with the LZW. The universality of the Lempel-Ziv algorithm is, however, an advantage that leads us to think that further investigation should still be pursued.

Page generated in 0.04 seconds