Spelling suggestions: "subject:"codificacao"" "subject:"modificacao""
11 |
[pt] CODIFICADORES UNIVERSAIS VIA RECORRÊNCIA DE PADRÕES PARA FONTES COM NÚMERO DE ESTADOS FINITO / [en] UNIVERSAL STRING MATCHING ENCODERS BY RECURRENCE OF STANDARDS FOR SOURCES WITH FINITE NUMBER OF STATESMARCELO DA SILVA PINHO 01 December 2005 (has links)
[pt] Os codificadores universais via recorrência de padrões
surgiram nos anos 70, quando foram propostos os
codificadores lz77 e lz78. Devido a baixa complexidade
computacional e ao bom desempenho, quando aplicados na
compressão de arquivos de dados, estes codificadores se
tornaram extremamente populares. Embora estes
codificadores sejam universais, i.e., possuam taxas de
compressão que convergem para entropia, recentemente foi
mostrado que as taxas de compressão não convergem da forma
mais rápida possível, nem mesmo para a classe de fontes
sem memória. A redundância de um codificador universal C,
dada por R, mede a rapidez com que a taxa de compressão
converge para a entropia. Para fontes com número de
estados finito, enquanto os melhores resultados de
codificadores universais via recorrência de padrões
apresentam uma redundância da ordem de 1/{log n}, existem
codificadores que atingem uma redundancia de {log n} /n.
Portanto, os codificadores via recorrência de padrões não
são ótimos. Embora seja conhecido codificadores ótimos
segundo o critério da redundância, tais codificadores
possuem uma alta complexidade computacional e são pouco
úteis na prática. Dentre os codificadores via recorrência
de padrões, o codificador lz78 possui uma das mais baixas
redundâncias para a classe de fontes com número de estados
finito. De fato, não existe outro codificador desta
classe, tal que a redundância seja melhor que a do lz78.
Tomando como base o lz78, este trabalho propõe novas
técnicas para acelerar a convergência da taxa de
compressão (diminuir a redundância) dos codificadores
universais via recorrência de padrões, para fontes com
número de estados finito. Estas técnicas dão origem a
novas versões do lz78. As redundâncias das novas versões
são estabelecidas, considerando a classe de fontes com
número de estados finito. Estas versões são aplicadas na
compressão de arquivos de dados, e os resultados obtidos
são comparados com os resultados de versões anteriores. / [en] The string matching encoders were proposed about 20 years
ago, when the lz77 and lz78 were introduced. They became
extremely popular because of the relationship between
their low complexity and their good performance. Although
these encoders are universal, that is, their compression
rates converge to the source entropy, it was shown,
recently, that those rates do not converge as fast as
possible, even for the class of memoryless source. The
redundancy of an unversal encoder C, denoted by Rc,
measures how fast the compression rate converge to the
entropy. In the class of Finite State Machine (FSM)
source, while the best result of the string matching
encoders is O 1/ {log n}, there are encoders which achieve
a redundancy of O {log n}/n. Therefore, the string
matching encoders are not optimal. Even though optimal
encoders are known, in general, those encoders have a high
complexity and are not useful in practice. Considering the
class of string matching encoders, the lz78 has one of the
best results over the class of FSM source. In fact, there
is no encoder based on the string matching, which archives
a better redundancy. This work makes use of the lz78
encoder to propose new techniques to improve the
performance of sting matching encoders over the class of
FSM. These techniques bring up new versions of the lz78.
For the class of FSM, the redundancies of this versions
are stablished. These versions are used to compress data
files, and their perfoermances are compared to the
performances of older versions.
|
12 |
Excitação multi-taxa usando quantização vetorial estruturada em árvore para o codificador CS-ACELP com aplicação em VoIPCampaner, Nelson January 2006 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-22T14:46:39Z (GMT). No. of bitstreams: 1
232837.pdf: 3077932 bytes, checksum: bd3466d6948a63bb071206a4e8fa013b (MD5) / Este trabalho apresenta um estudo sobre codificação multi-taxa estruturada sobre o algoritmo CS-ACELP (Conjugate-Structure Algebraic-Code-Excited Linear-Prediction) e a especificação G.729, cujo objetivo é propor um codificador com taxa variável, através da busca da melhor excitação fixa usando codebook estruturado em árvore, para aplicações VoIP (Voice-over-IP). A mudança progressiva do transporte de voz das redes de circuito para as redes IP (Internet Protocol), apesar dos diversos aspectos positivos, tem exposto algumas deficiências intrínsecas destas, mais apropriadas ao tráfego de #melhor esforço# do que ao tráfego com requisitos de tempo. Esta proposta está inserida no conjunto das iniciativas, no âmbito do transmissor, que procuram minimizar os efeitos danosos da rede sobre a qualidade da voz reconstruída. O codebook proposto tem estrutura em árvore binária, concebida a partir de uma heurística onde os vetores CS-ACELP são ordenados por valor de forma decrescente. Uma estratégia particular de armazenamento dos nós, envolvendo simplificação nos centróides, codificação diferencial e geração automática dos dois últimos níveis da árvore, permite reduzir o espaço de armazenamento de 640 para apenas 7 kwords. Através deste modelo chega-se a 13 taxas de codificação, de 5,6 a 8,0 kbit/s, com passo de 0,2 kbit/s. A relação sinal ruído fica em 1,5 dB abaixo da mesma medida na especificação G.729 para a taxa de 5,6 kbit/s, e apenas 0,6 dB abaixo quando na taxa 8,0 kbit/s. Testes subjetivos mostraram uma qualidade bastante aceitável para a taxa
mínima e praticamente indistinguível do codec original na taxa máxima. Além disso, a busca da melhor excitação é 2,4 vezes mais rápida em comparação ao codec G.729 e pode ser totalmente compatível com este se a taxa for fixa em 8,0 kbit/s.
This work presents a study about multi-rate coding structured over CS-ACELP (Conjugate-Structure Algebraic-Code-Excited Linear-Prediction) algorithm and G.729 standard, whose purpose is to come up with a variable rate codec by means of best fixed excitation search using a tree structured codebook, for VoIP (Voice-over-IP) applications.
The progressive change of voice transmission from circuit switched to IP (Internet orks, besides its many positive aspects, has exposed some natural deficiencies of the latter, better suited to best effort traffics than traffics with time requirements. This proposition can be inserted in the bunch of efforts, related to the sender, that seek to reduce the network impairments over the quality of reconstructed voice. The suggested codebook has a binary tree structure heuristically conceived where algebraic CSACELP vectors are disposed by value in a decreasing order. Additionally, a particular approach to store the tree nodes are considered, which involves centroid implification, differential coding and automatic generation of the last two layers of the tree, squeezing the storing space from 640 down to 7 kwords. Through this model we reach 13 coding rates, ranging from 5.6 to 8.0 kbit/s, with 0.2 kbit/s step. The signal-to-noise ratio is 1.5 dB below the same measure for G.729 standard at the rate 5.6 kbit/s, and just 0.6 dB lower at 8.0 kbit/s. Subjective tests pointed to an acceptable quality at minimum rate and virtually indistinguishable quality from the original codec at the maximum one. Also, searching for the best fixed excitation is 2.4 times faster than G.729 and can be truly compatible with it if the rate is fixed in 8 kbit/s.
|
13 |
Compactação de vídeo escalável / Scalable CompressionSoler, Luciano January 2006 (has links)
A codificação de vídeo é um problema cuja solução deve ser projetada de acordo com as necessidades da aplicação desejada. Neste trabalho, um método de compressão de vídeo com escalabilidade é apresentado, apresentando melhorias dos formatos de compressão atuais. A escalabilidade corresponde a capacidade de extrair do bitstream completo, conjuntos eficientes de bits que são decodificados oferecendo imagens ou vídeos decodificados com uma variação (escala) segundo uma dada característica da imagem ou vídeo. O número de conjuntos que podem ser extraídos do bitstream completo definem a granularidade da escalabilidade fornecida, que pode ser muito fina ou com passos grossos. Muitas das técnicas de codificação escalável utilizam uma camada base que deve ser sempre decodificada e uma ou mais camadas superiores que permitem uma melhoria em termos de qualidade (SNR), resolução espacial e/ou resolução temporal. O esquema de codificação escalável final presente na norma MPEG-4 é uma das técnicas mais promissoras, pois pode adaptar-se às características dos canais (Internet) ou terminais que apresentam um comportamento variável ou desconhecido, como velocidade maxima de acesso, variações de largura de banda, erros de canal, etc. Apesar da norma MPEG-4 FGS se afirmar como uma alternativa viável para aplicações de distribuição de vídeo, possui uma quebra significativa de desempenho em comparação com a codificação não escalável de vídeo (perfil ASP da norma MPEG-4 Visual). Este trabalho tem por objetivo estudar novas ferramentas de codificação de vídeo introduzidas na recente norma H.264/AVC e MPEG-4 Visual, desenvolvendo um modelo que integre a escalabilidade granular presente no MPEG-4 aos avanços na área de codificação presentes no H.264/AVC. Esta estrutura de escalabilidade permite reduzir o custo em termos de eficiência da codificação escalável. Os resultados apresentados dentro de cada capítulo mostram a eficácia do método proposto bem como idéias para melhorias em trabalhos futuros. / Video encoding is a problem whose solution should be designed according to the need of intended application. This work presents a method of video compression with scalability that improves the current compression formats. Scalability represents the extracting capacity of full bitstream, efficient set of bits that are decoded to supply images or decoded videos with a variation according to a given image or video feature. A number of sets that can be extracted from full bitstream defines the supplied scalability granularity, which can be very thin or with thick steps. Most scalable video coding techniques use a base layer which must always be decoded and one or more higher layers which allow improvements in terms of quality (also known as SNR), frame/sampling rate or spatial resolution (for images and video). The MPEG-4 Fine Granularity Scalable (FGS) video coding scheme is one of the most promising techniques, because it can adapt itself to the features of channels (Internet) or terminals that present an unpredictable or unknown behavior, as maximum speed of access, variations of the bandwidth, channel errors, etc. Although the MPEG-4 FGS standard is a feasible solution for video streaming applications, it shows a significant loss of performance in comparison with non-scalable video coding, in particular the rather efficient Advanced Simple Profile defined in MPEG-4 Visual Standard. This work aims at studying new tools of video encoding introduced by the recent H.264/AVC norm and Visual MPEG-4, developing a model that integrates the granular scalability present in MPEG-4 to the coding improvements present in H.264/AVC. This new scalability structure allows cost reduction in terms of efficiency of the scalable coding. The results presented in each chapter show the effectiveness of the proposed method as well as ideas for improvements in future work.
|
14 |
Compactação de vídeo escalável / Scalable CompressionSoler, Luciano January 2006 (has links)
A codificação de vídeo é um problema cuja solução deve ser projetada de acordo com as necessidades da aplicação desejada. Neste trabalho, um método de compressão de vídeo com escalabilidade é apresentado, apresentando melhorias dos formatos de compressão atuais. A escalabilidade corresponde a capacidade de extrair do bitstream completo, conjuntos eficientes de bits que são decodificados oferecendo imagens ou vídeos decodificados com uma variação (escala) segundo uma dada característica da imagem ou vídeo. O número de conjuntos que podem ser extraídos do bitstream completo definem a granularidade da escalabilidade fornecida, que pode ser muito fina ou com passos grossos. Muitas das técnicas de codificação escalável utilizam uma camada base que deve ser sempre decodificada e uma ou mais camadas superiores que permitem uma melhoria em termos de qualidade (SNR), resolução espacial e/ou resolução temporal. O esquema de codificação escalável final presente na norma MPEG-4 é uma das técnicas mais promissoras, pois pode adaptar-se às características dos canais (Internet) ou terminais que apresentam um comportamento variável ou desconhecido, como velocidade maxima de acesso, variações de largura de banda, erros de canal, etc. Apesar da norma MPEG-4 FGS se afirmar como uma alternativa viável para aplicações de distribuição de vídeo, possui uma quebra significativa de desempenho em comparação com a codificação não escalável de vídeo (perfil ASP da norma MPEG-4 Visual). Este trabalho tem por objetivo estudar novas ferramentas de codificação de vídeo introduzidas na recente norma H.264/AVC e MPEG-4 Visual, desenvolvendo um modelo que integre a escalabilidade granular presente no MPEG-4 aos avanços na área de codificação presentes no H.264/AVC. Esta estrutura de escalabilidade permite reduzir o custo em termos de eficiência da codificação escalável. Os resultados apresentados dentro de cada capítulo mostram a eficácia do método proposto bem como idéias para melhorias em trabalhos futuros. / Video encoding is a problem whose solution should be designed according to the need of intended application. This work presents a method of video compression with scalability that improves the current compression formats. Scalability represents the extracting capacity of full bitstream, efficient set of bits that are decoded to supply images or decoded videos with a variation according to a given image or video feature. A number of sets that can be extracted from full bitstream defines the supplied scalability granularity, which can be very thin or with thick steps. Most scalable video coding techniques use a base layer which must always be decoded and one or more higher layers which allow improvements in terms of quality (also known as SNR), frame/sampling rate or spatial resolution (for images and video). The MPEG-4 Fine Granularity Scalable (FGS) video coding scheme is one of the most promising techniques, because it can adapt itself to the features of channels (Internet) or terminals that present an unpredictable or unknown behavior, as maximum speed of access, variations of the bandwidth, channel errors, etc. Although the MPEG-4 FGS standard is a feasible solution for video streaming applications, it shows a significant loss of performance in comparison with non-scalable video coding, in particular the rather efficient Advanced Simple Profile defined in MPEG-4 Visual Standard. This work aims at studying new tools of video encoding introduced by the recent H.264/AVC norm and Visual MPEG-4, developing a model that integrates the granular scalability present in MPEG-4 to the coding improvements present in H.264/AVC. This new scalability structure allows cost reduction in terms of efficiency of the scalable coding. The results presented in each chapter show the effectiveness of the proposed method as well as ideas for improvements in future work.
|
15 |
Compactação de vídeo escalável / Scalable CompressionSoler, Luciano January 2006 (has links)
A codificação de vídeo é um problema cuja solução deve ser projetada de acordo com as necessidades da aplicação desejada. Neste trabalho, um método de compressão de vídeo com escalabilidade é apresentado, apresentando melhorias dos formatos de compressão atuais. A escalabilidade corresponde a capacidade de extrair do bitstream completo, conjuntos eficientes de bits que são decodificados oferecendo imagens ou vídeos decodificados com uma variação (escala) segundo uma dada característica da imagem ou vídeo. O número de conjuntos que podem ser extraídos do bitstream completo definem a granularidade da escalabilidade fornecida, que pode ser muito fina ou com passos grossos. Muitas das técnicas de codificação escalável utilizam uma camada base que deve ser sempre decodificada e uma ou mais camadas superiores que permitem uma melhoria em termos de qualidade (SNR), resolução espacial e/ou resolução temporal. O esquema de codificação escalável final presente na norma MPEG-4 é uma das técnicas mais promissoras, pois pode adaptar-se às características dos canais (Internet) ou terminais que apresentam um comportamento variável ou desconhecido, como velocidade maxima de acesso, variações de largura de banda, erros de canal, etc. Apesar da norma MPEG-4 FGS se afirmar como uma alternativa viável para aplicações de distribuição de vídeo, possui uma quebra significativa de desempenho em comparação com a codificação não escalável de vídeo (perfil ASP da norma MPEG-4 Visual). Este trabalho tem por objetivo estudar novas ferramentas de codificação de vídeo introduzidas na recente norma H.264/AVC e MPEG-4 Visual, desenvolvendo um modelo que integre a escalabilidade granular presente no MPEG-4 aos avanços na área de codificação presentes no H.264/AVC. Esta estrutura de escalabilidade permite reduzir o custo em termos de eficiência da codificação escalável. Os resultados apresentados dentro de cada capítulo mostram a eficácia do método proposto bem como idéias para melhorias em trabalhos futuros. / Video encoding is a problem whose solution should be designed according to the need of intended application. This work presents a method of video compression with scalability that improves the current compression formats. Scalability represents the extracting capacity of full bitstream, efficient set of bits that are decoded to supply images or decoded videos with a variation according to a given image or video feature. A number of sets that can be extracted from full bitstream defines the supplied scalability granularity, which can be very thin or with thick steps. Most scalable video coding techniques use a base layer which must always be decoded and one or more higher layers which allow improvements in terms of quality (also known as SNR), frame/sampling rate or spatial resolution (for images and video). The MPEG-4 Fine Granularity Scalable (FGS) video coding scheme is one of the most promising techniques, because it can adapt itself to the features of channels (Internet) or terminals that present an unpredictable or unknown behavior, as maximum speed of access, variations of the bandwidth, channel errors, etc. Although the MPEG-4 FGS standard is a feasible solution for video streaming applications, it shows a significant loss of performance in comparison with non-scalable video coding, in particular the rather efficient Advanced Simple Profile defined in MPEG-4 Visual Standard. This work aims at studying new tools of video encoding introduced by the recent H.264/AVC norm and Visual MPEG-4, developing a model that integrates the granular scalability present in MPEG-4 to the coding improvements present in H.264/AVC. This new scalability structure allows cost reduction in terms of efficiency of the scalable coding. The results presented in each chapter show the effectiveness of the proposed method as well as ideas for improvements in future work.
|
16 |
[en] ANALYSIS OF WAVEFORM CODERS FOR SPEECH AND DATA SIGNALS / [pt] ANÁLISE DE CODIFICADORES DE FORMA DE ONDA PARA SINAIS DE VOZ E DADOSANTONIO MARCOS DE LIMA ARAUJO 07 November 2006 (has links)
[pt] O trabalho examina o comportamento de Codificadores de
forma de onda operando a 32,56 e 64kbit/s para transmissão
digital de sinais de voz e de sinais de dados PSK-8 a 4800
bit/s e QAM-16 a 9600 bit/s. A partir de uma análise
detalhada dos diversos sistemas, tanto em canal ideal como
um canal ruidoso, é verificada a necessidade de se fazer
uma identificação do tipo de sinal. De modo a permitir sua
codificação de forma mais eficiente. É, então, proposta e
avaliada a utilização de uma técnica de identificação
estatística de sinais de voz e dados, em codificadores de
forma de onda. A incorporação desta técnica ao sistema
ADPCM a 32 kbit/s recomendado pelo CCITT permite uma
melhoria do desempenho para sinais de dados, sem com isso
alterar sua eficiência para sinais de voz. / [en] This thesis evaluates the performance of waveform coders
at 32,56 and 64kbit/s for digital transmission of speech
signal and 4800 bit/s PSK-8 and 9600 bit/s QAM-16
voiceband data signas. A detailed analysis of the systems
is carried out both under ideal and noisy channel
conditions. From this analysis it was found that a scheme
which accurately distinguishes the two classes of signals,
would allow a more efficient encoding procedure. A method
of statistical identification of speech and data signals
is proposed and its use in wakeform coders is, then,
analysed. The incorporation of this method into the 32
kbit/s ADPCM system recommended by CCITT provides an
improvement in performance for data signals, without
sacrificing its efficiency for speech signal.
|
17 |
[en] STUDY ON SPEECH CODING IN SUB-BANDS AT 16 KBITS/S / [pt] ESTUDO DE CODIFICAÇÃO DE VOZ EM SUB-BANDAS A 16 KBIT/SCARLOS FELIPE DE BRITO JACCOUD 09 November 2006 (has links)
[pt] Neste trabalho são estudados sistemas de codificação
digital de sinais de voz em sub-bandas, operando na taxa
de 16 kbit/s. Os sistemas são analisados em função do
número de sub-bandas, dos esquemas de codificação
utilizados nas diversas sub-bandas, dos parâmetros e das
técnicas empregados na adaptação dos quantizadores e do
tipo de alocação dos recursos binários. A decomposição
espectral do sinal é realizada a partir de bancos de
filtros espelhados em quadratura (QMF), que tem a vantagem
de evitar a sobreposição dos espectros nas diversas sub-
bandas. Os sistemas são avaliados, através de simulação em
computador, tanto em canal ideal como em um canal ruidoso,
utilizando como figura de mérito a razão sinal-ruído
frequencial. O desempenho obtido em termos das razões
sinal-ruído global e segmentada também é apresentado em
todos os casos analisados.
A partir de um exame detalhado dos diversos
sistemas e proposta uma estrutura de codificação em que a
configuração do quantizador e sua técnica de adaptação
dependem da sub-banda a ser codificada. Além disso, o
sistema proposto utiliza um algoritmo para alocação dos
recursos binários baseado em comparações de energias de
blocos de amostras das diversas sub-bandas. / [en] In this thesis a study of 16 kbit/s sub-band coding of
speech signals is presented. The encoding systems are
examined in terms of the number of sub-bands, the schemes
used to encode the sub-band signals, the parameters and
techniques employed in the quantizers adaptation and the
type of bit allocation. Spectral decomposition of the
input signal is carried out by means of quadrature mirror
filter (QMF) banks. The systems are evaluated through
computer simulation, both in ideal and noisy channels,
using the frequency - weighted signal-to-noise ratio as
the performance criterion. The global and segmental signal-
to-noise ratio performances are also given in all cases.
After a detailed examination of the various
systems, a coding structure is proposed , in which the
configuration of the quantizer and its adaptation
techniques depend on the sub-band to be coded.
Furthermore, the proposed system uses an algorithm for bit
allocation based on comparison of the energies fo blocks
of samples in the several sub-bands.
|
18 |
[en] JOINT SOURCE/CHANNEL CODING USING LAPPED TRANSFORMS / [pt] CODIFICAÇÃO CONJUNTA FONTE/CANAL UTILIZANDO TRANSFORMADASARTHUR LUIZ AMARAL DA CUNHA 15 July 2002 (has links)
[pt] Neste trabalho é feito um estudo sobre compressão de
imagens para canal ruidoso.Inicialmente, esquemas de
complexidade moderada sem a utilização do princípio da
separação de Shannon são investigados e simulados. Com
isso, mostra-se que esquemas eficientes de codificação
conjunta fonte/canal existem e podem eventualmente
apresentar melhor performance do que esquemas separados de
codificação e canal e fonte. São também investigados,
algoritmos de codificação de imagens visando a transmissão
num capital ruidoso. Nesse contexto, é proposto um esquema
utilizando transformadas com superposição com boa
performance, como mostram as simulações realizadas. O
esquema posteriormente estendido para imagens multi-
espectrais mostrando-se igualmente eficiente. / [en] In the present dissertation we investigate image
compression techniques for transmission over binary
symmetric channels poluted with noise. Frist we simulate
some known techniques for joint source/channel coding that
dispenses with the use of error correcting codes. These
techiniques may exhibit better performance when complexity
and delay constraits are at stake. We further propose an
image compression algorithm for noisy channels based on
lapped/block transforms and block source/channel coding. We
simulate the proposed scheme for various channel
situations. The algorithm is further extented to handle
compression and transmission of multiepectral remote
sensing satellite imagery. Results for natural and
multiespectral images are presented showing the good
performance attained by the proposed schemes.
|
19 |
[en] CONTRIBUTIONS TO THE SA-DCT AND BLOCK-BASED DCT APPROACHES FOR OBJECT-ORIENTED IMAGE CODING / [pt] CONTRIBUIÇÕES ÀS ABORDAGENS SA-DCT E DCT BASEADA EM BLOCOS PARA CODIFICAÇÃO DE IMAGENS ORIENTADA POR OBJETOFLAVIA MAGALHAES FREITAS FERREIRA 27 October 2004 (has links)
[pt] Esta tese examina e apresenta contribuições para a
codificação de textura intra-quadro na codificação de
imagens baseada em objeto. Duas abordagens de codificação
são focadas: a DCT baseada em blocos e a DCT adaptativa
à forma (SA-DCT). São propostos indicadores morfológicos
para extrair características de forma e textura intrínsecas
ao objeto a ser codificado, classificando os blocos de
imagem 8 X 8 segundo o número de pixels do objeto neles
contidos. Esses indicadores são utilizados para a análise
de algoritmos de codificação conhecidos na literatura e
também para a proposição de esquemas híbridos que
solucionem problemas identificados. Os esquemas híbridos
propostos baseiam-se no tratamento diferenciado para
grupos de blocos distintos, usando como base a informação
sobre a textura média nesses grupos. Por fim, é proposta
uma estrutura de codificação adaptativa em função da taxa
de bits, da textura e da forma do objeto a ser codificado.
Essa estratégia incorpora os esquemas híbridos propostos
nesta tese para a escolha da direção preferencial de
processamento do algoritmo de extrapolação EI - Extension
Interpolation - e da SA-DCT. Ela seleciona automaticamente
a abordagem de codificação mais adequada a um grupo
específico de blocos a cada faixa de taxas de bits, valendo-
se dos indicadores morfológicos. O codificador adaptativo
proposto mostrou-se equivalente ou superior em desempenho
aos melhores esquemas conhecidos na literatura, tanto para
taxas baixas, quanto para taxas altas. Os resultados podem
ser verificados a partir das curvas de desempenho e também
a partir da observação da qualidade subjetiva das imagens
recuperadas. / [en] This thesis examines and presents contributions to the
intra-frame texture coding of Object-Based Image Coding.
Two coding approaches are focused: the block-based DCT and
the shape-adaptive DCT (SA-DCT). Morphological features
are proposed in order to extract intrinsic characteristics
of shape and texture from the object to be encoded.
These features classify the 8 X 8 image blocks according to
their number of object pixels. These morphological features
are used both in the analysis of coding algorithms reported
in the literature and in the design of hybrid schemes
that overcome some problems identified during the analysis
procedure. The proposed hybrid schemes employ different
strategies to deal with different groups of blocks. The
information about the mean texture value at these groups
is used as the basis of the algorithms. Finally, an adaptive
coding structure, which is a function of the bit rate,
texture and shape of the object, is proposed. This strategy
incorporates the hybrid schemes introduced in this thesis,
in order to choose the preferential processing direction
for the EI - Extension Interpolation - padding technique
and for the SA-DCT. It automatically selects the more
adequate approach for a specific group of blocks at a given
bit rate, depending on the morphological features.
Performance of this adaptive coding scheme is either
comparable or better than the best object-based transform
coding schemes reported in the literature. This is valid
both at low and high bit rates. Results are presented in
terms of PSNR performance curves and subjective quality of
the decoded images.
|
20 |
[en] SUB-BAND IMAGE CODING / [pt] CODIFICAÇÃO DE IMAGENS POR DECOMPOSIÇÃO EM SUB-BANDASEDMAR DA COSTA VASCONCELLOS 05 July 2006 (has links)
[pt] Este trabalho aborda o problema da compressão de imagens
explorando a técnica de codificação por sub-bandas(SBB).
Como estrutura básica, usada na primeira parte do
trabalho, tem-se a divisão da imagem em 16 sub-bandas
buscando replicar os resultados de woods [1]. As
componentes das 16 SBB são quantizadas e codificadas, e
bits são alocados às SBB usando como critério a
minimização do erro médio quadrático. Os quantizadores são
projetados segundo uma distribuição Gaussiana Generalizada.
Neste processo de codificação, a sub-banda de mais baixa
freqüência é codificada com DPCM, enquanto as demais SBB
são codificadas por PCM.
Como inovação, é proposto o uso do algoritmo de Lempel-Ziv
na codificação sem perdas (compactação) das sub-bandas
quantizadas.
Na compactação são empregados os algoritmos de Huffman e
LZW (modificação do LZA). Os resultados das simulações são
apresentados em termos da taxa (bits/pixel) versus relação
sinal ruído de pico e em termos de analise subjetiva das
imagens reconstruídas. Os resultados obtidos indicam um
desempenho de compressão superior quanto o algoritmo de
Huffman é usado, comparado com o algoritmo LZW. A melhoria
de desempenho, na técnica de decomposição em sub-bandas,
observada com o algoritmo de Huffman foi superior (2dB
acima). Todavia, tendo em vista as vantagens da
universalidade do algoritmo de Lempel-Ziv, deve-se
continuar a investigar o seu desempenho implementado de
forma diferente do explorado neste trabalho. / [en] This work focus on the problem of image compression, with
exploring the techniques of subband coding.
The basic structure, used in the sirst part of this tesis,
encompass the uniform decomposition of the image into 16
subbands. This procedure aims at reproducing the reults of
Woods [1]. The component of the 16 subbands are quatized
and coded and bits are optimally allocated among the
subbands to minimize the mean-squared error. The
quantizers desingned match the Generelized Gaussian
Distribuition, which model the subband components.
In the coding process, the lowest subband is DPCM coded
while the higher subbands are coded with PCM.
As an innovation, it is proposed the use of the algorithm
LZW for coding without error (compaction) the quantized
subbands.
In the compactation process, the Huffamn and LZW
algorithms are used. The simulation results are presented
in terms of rate (bits/pel) versus peak signal-to-noise
and subjective quality. The performance of the subband
decomposition tecnique obtained with the Huffamn´s
algorithm is about 2dB better than that obtained with the
LZW. The universality of the Lempel-Ziv algorithm is,
however, an advantage that leads us to think that further
investigation should still be pursued.
|
Page generated in 0.0502 seconds