1 |
[en] UNIVERSAL LOSSLESS DATA COMPRESSION WITH FINITE STATE ENCODERS / [pt] COMPRESSÃO DE DADOS VIA CODIFICADORES UNIVERSAIS, DE ESTADO FINITO E SEM PERDA DE INFORMAÇÃOMARCELO DA SILVA PINHO 17 August 2006 (has links)
[pt] Neste trabalho é estudado o problema da compressão de
dados por codificadores de estado finito e sem perda de
informação. O problema é dividido em três partes:
compressão de seqüências individuais, compressão de pares
de seqüências e compressão de imagens. A principal
motivação do trabalho é o estudo da compressão de pares de
seqüências, como um passo intermediário para o
entendimento do problema da compressão de dados
bidimensionais. Para cada um dos casos é definido um
limitante inferior para a taxa de compressão de qualquer
codificador de estado finito e sem perda de informação.
Para os três casos, codificadores universais são propostos
e seus desempenhos são analisados. Os codificadores
propostos foram implementados em software e aplicados à
compressão de seqüências finitas, pares de seqüências
finitas e imagens finitas. Os resultados de simulação
obtidos são analisados. / [en] In this work the problem of data compression by finite-
state and information lossless encorders is studied. The
problem is divided in three parts: compression of
individual sequences, compression of pairs of sequences
and compression of images. For each of these, a lower
bound is defined which sets a limit on the smaller
compression rate that can be achieved by any finite-state
and information lossless enconders. Universal encorders
are proposed and their performance compared to the optimal
attainable. The proposed encoders were implemented in
software and used to compress finite sequences, pairs of
finite sequences and finite images. The simulation results
are analysed.
|
2 |
[pt] UM MÉTODO PARA A COMPRESSÃO DE DADOS VOLUMÉTRICOS BASEADO NA TRANSFORMADA DO COSSENO LOCALANSELMO CARDOSO DE PAIVA 29 July 2002 (has links)
[pt] As Técnicas de visualização volumétrica apresentam dois
clássicos problemas computacionais: necessidade de longo
tempo de execução e grande consumo de memória. A
popularização das aplicações distribuídas tem despertado
um crescente interesse no tratamento dos problemas de
grande consumo de memória. Esse problema é fundamental
também para garantir o acesso às técnicas de visualização
volumétrica em máquinas com pequena capacidade de
memória. Nesta tese, propomos um método para a compressão
de dados volumétricos baseado na utilização da
transformada do cosseno local.Esse método é apropiado ao
desenvolvimento de técnicas de visualização volumétrica
basedas na estrutura do dado comprimido.A transformada do
cosseno local apresenta a capacidade de possibilitar
altas taxas de compressão com a minimização do erro de
reconstrução, possibilitando a reconstrução local do
volume. Neste trabalho, são apresentados os resultados
obtidos com a compressão de volumes reais, estimando a
influência dos parâmetros dométodo de compressão,
investigando as possibilidades de adptação da partição do
volume às suas características de frequencias e estimando
a capacidade de compressão e os erros introduzidos neste
processo.
|
3 |
[en] EVALUATING MOTION ESTIMATION ALGORITHMS FOR VIDEO COMPRESSION / [pt] AVALIAÇÃO DE ALGORITMOS DE MOVIMENTO PARA A COMPRESSÃO DE SEQÜÊNCIAS DE IMAGENSJOSE ANTONIO CASTINEIRA GONZALES 19 July 2006 (has links)
[pt] Este trabalho teve por objetivo estudar algoritmos de
estimação de movimento baseados na técnica de casamento de
bloco a fim de avaliar a importância da sua escolha na
construção de um codificador para uso em compressão de
seqüência de imagens.
Para isto foram estudados quatro algoritmos baseados na
técnica de casamento de bloco, sendo verificada a
interdependência existente entre os vários parâmetros que
os compõem, tais como, tamanho da área de busca, critérios
de medida de distorção entre blocos e tamanhos de blocos,
em relação à qualidade da imagem reconstruída. / [en] This work was performed to study motion estimation
algorithms based on block matching in order to evaluate
the importance of the choice of the motion estimation
algorithm in the Project of a image sequence compression
coder.
In order to do so, they were studied four motion
estimation algorithms, and their performance were
evaluated considering some parameters such as search
region size, methods to measure the matching between
blocks and block sizes, related to the quality of the
reconstructed image.
|
4 |
[en] LOSSY LEMPEL-ZIV ALGORITHM AND ITS APPLICATION TO IMAGE COMPRESSION / [pt] ALGORITMO DE LEMPEL-ZIV COM PERDAS E APLICAÇÃO À COMPRESSÃO DE IMAGENSMURILO BRESCIANI DE CARVALHO 17 August 2006 (has links)
[pt] Neste trabalho, um método de compressão de dados com
perdas, baseado no algoritmo de compressão sem perdas de
Lempel-Ziv é proposto. Simulações são usadas para
caracterizar o desempenho do método, chamado LLZ. É também
aplicado à compressão de imagens e os resultados obtidos
são analisados. / [en] In this work, a lossy data compression method, base don
the Lempel-Ziv lossles compression scheme is proposed.
Simulations are used to study the performance of the
method, called LLZ. The lLZ is also used to compress
digital image data and the results obtained is analized.
|
5 |
[en] A UNIVERSAL ENCODEN FOR CONTINUOUS ALPHABET SOURCE COMPRESSION / [pt] UM ALGORITMO UNIVERSAL PARA COMPRESSÃO DE FONTES COM ALFABETO CONTÍNUOMARCELO DE ALCANTARA LEISTER 04 September 2006 (has links)
[pt] A tese de mestrado, aqui resumida, tem a meta de propor
novos algoritmos para a compressão de dados, em especial
imagens, apresentando aplicações e resultados teóricos.
Como o título sugere, estes dados serão originados de
fontes com alfabeto contínuo, podendo ser particularizado
para os casos discretos.
O algoritmo a ser proposto (LLZ para o caso contínuo) é
baseado no codificador universal Lempel-Ziv, apresentando
a característica de admitir a introdução de perdas, mas
que conduza a um maior aproveitamento do poder de
compressão deste algoritmo. Desta forma, o LLZ se mostra
vantajoso em dois pontos: integrar compactador e
quantizador, e ser um quantizador universal. / [en] This dissertation introduces new data compression
algorithms, specially for images, and presents some
applications and theoretical results related to these
algorithms. The data to be compressed will be originated
from sources with continuos alphabet, and can be stated
for discrete sources.
The proposed algorithms (LLZ for continuos case), which is
based on the universal Lempel-Ziv coder (LZ), accepts
losses, taking advantage of LZ s compression power. As
such, the LIZ is an innovating proposal in two ways:
first, it couples compaction and quantization in one step;
and second, it can be seeing as an universal quantizer.
|
6 |
[en] INTERNAL COMBUSTION ENGINES WITH VARIABLE COMPRESSION RATIO: A THEORETICAL AND EXPERIMENTAL ANALYSIS / [pt] MOTORES A COMBUSTÃO INTERNA COM TAXA DE COMPRESSÃO VARIÁVEL: UMA ANÁLISE TEÓRICA E EXPERIMENTALRENATO NUNES TEIXEIRA 01 February 2012 (has links)
[pt] É realizado um estudo teórico experimental sobre motores a combustão interna operando com taxa de compressão variável. É feita uma análise teórica sobre determinado mecanismo que permite variar a taxa de compressão. Para tal foi utilizado um programa de simulação para motores com ignição por centelha. No presente trabalho o modelo de simulação foi aprimorado, com a inclusão de previsão de detonação, de emissão de hidrocarbonetos, do cálculo da potencia de atrito, assim como a inclusão do dispositivo do mecanismo de taxa de compressão variável, entre outras alterações.
Uma parte experimental foi também realizada, como o objetivo de validar os resultados do modelo teórico e de quantificar os benefícios proporcionados pelo mecanismo em questão. Para tal um motor de pesquisa de combustível – motor CFR – foi utilizado.
Uma comparação dos resultados teóricos e experimentais obtidos no presente trabalho com os de outros pesquisadores é também apresentada. / [en] The present work is concerned with a theoretical and expererimental study of variable compression ratio spark ignition internal combustion engines. A theoretical analysis of the engine, operating with a mechanism allows for variable compression ratio, is carried out. For that a simulation program is utilized. In the present work the simulation model was updated with the inclusion of friction, knocking and hidrocarbon emission models, among other things. An experimental work was also carried out, with a CFR engine. The objective was a wo-fold to validade the results of the theoretical model and to assens the benefits of running an engine with variable compression ratio. A comparison is also made between the rrsults of the present work and those from other authors.
|
7 |
[en] BEHAVIOR OF SLENDER HIGH STRENGTH CONCRETE COLUMNS UNDER UNIAXIAL AND BIAXIAL ECCENTRIC LOADS / [pt] COMPORTAMENTO DE PILARES ESBELTOS DE CONCRETO DE ALTA RESISTÊNCIA SOB FLEXÃO COMPOSTA RETA E OBLÍQUABETZABET EVELIN VILAVILA NORIEGA 18 April 2011 (has links)
[pt] Trata-se de um estudo experimental do comportamento de pilares de alta
resistência submetidos à flexão composta reta e oblíqua. Foram ensaiados oito
pilares com seção transversal de 25x15 cm e comprimento de 300 cm,
compondo duas séries de 4 pilares cada uma. Na primeira série, a resistência do
concreto foi de 40 MPa e os quatro pilares foram ensaiados à flexão composta
oblíqua. Na segunda série, a resistência do concreto foi de 70 MPa e os quatro
pilares foram ensaiados à flexão composta reta. Em cada série, a variável foi a
taxa de armadura longitudinal que assumiu os valores 1,3%, 2,1%, 3,2% e 4,3%.
A finalidade foi verificar os valores da excentricidade de segunda ordem que
devem ser considerados no dimensionamento de pilares de concreto de alta
resistência. Os resultados experimentais foram comparados com os obtidos
pelos métodos do Pilar Padrão com Curvatura Aproximada e do Pilar Padrão
com Rigidez Aproximada que constam na NBR 6118:2003. Essa comparação
mostrou que o método da curvatura aproximada apresenta valores das
excentricidades de 2ª ordem próximos dos reais no caso de pilares submetidos à
flexão composta reta e oblíqua, enquanto que o método da rigidez aproximada é
contra a segurança só na maioria dos ensaios de pilares submetidos à flexão
composta reta. / [en] This work presents an experimental study of the behavior of slender high
strength concrete columns under uniaxial and biaxial eccentric compression
loads. Eight columns with cross-section of 15x25 cm and height of 300 cm were
tested, divided into two series. In the first series, the concrete strength was 40
MPa and the four columns were tested under biaxial compression. In the second
series, the concrete strength was 70 MPa and the four columns were tested
under uniaxial compression. In each series, the variable was the longitudinal
reinforcement ratio which assumed the values 1,3%, 2,1%, 3,2% e 4,3%. The
objective was to verify the values of the eccentricity of second order that should
be taken into account in the design of slender high strength concrete columns.
The experimental results were compared with theoretical results obtained by the
models of the approximated curvature and approximated stiffnes methods
prescribed in the NBR 6118:2003 code. This comparison showed that the method
of curvature approximate present values of the eccentricities of second order
close to the real in the case of columns under uniaxial and biaxial eccentric
compression loads, while the method of stiffness approximate is lower security in
columns under uniaxial eccentric compression load.
|
8 |
[en] REORGANIZATION AND COMPRESSION OF SEISMIC DATA / [pt] REORGANIZAÇÃO E COMPRESSÃO DE DADOS SÍSMICOSFLAVIA MEDEIROS DOS ANJOS 19 February 2008 (has links)
[pt] Dados sísmicos, utilizados principalmente na indústria de
petróleo,
costumam apresentar dimensões de dezenas de gigabytes e em
alguns casos,
centenas. Este trabalho apresenta propostas de manipulação
destes dados que
ajudem a contornar problemas enfrentados por aplicativos
de processamento e
interpretação sísmica ao trabalhar com arquivos deste
porte. As propostas se
baseiam em reorganização e compressão. O conhecimento do
formato de
utilização dos dados permite reestruturar seu
armazenamento diminuindo o
tempo gasto com a transferência entre o disco e a memória
em até 90%. A
compressão é utilizada para diminuir o espaço necessário
para armazenamento.
Para dados desta natureza os melhores resultados, em taxa
de redução, são das
técnicas de compressão com perda, entre elas as
compressões por
agrupamento. Neste trabalho apresentamos um algoritmo que
minimiza o erro
médio do agrupamento uma vez que o número de grupos tenha
sido
determinado. Em qualquer método desta categoria o grau de
erro e a taxa de
compressão obtidos dependem do número de grupos. Os dados
sísmicos
possuem uma coerência espacial que pode ser aproveitada
para melhorar a
compressão dos mesmos. Combinando-se agrupamento e o
aproveitamento da
coerência espacial conseguimos comprimir os dados com
taxas variando de 7%
a 25% dependendo do erro associado. Um novo formato é
proposto utilizando a
reorganização e a compressão em conjunto. / [en] Seismic data, used mainly in the petroleum industry,
commonly present
sizes of tens of gigabyte, and, in some cases, hundreds.
This work presents
propositions for manipulating these data in order to help
overcoming the
problems that application for seismic processing and
interpretation face while
dealing with file of such magnitude. The propositions are
based on reorganization
and compression. The knowledge of the format in which the
data will
be used allows us to restructure storage reducing disc-
memory transference time
up to 90%. Compression is used to save storage space. For
data of such nature,
best results in terms of compression rates come from
techniques associated to
information loss, being clustering one of them. In this
work we present an
algorithm for minimizing the cost of clustering a set of
data for a pre-determined
number of clusters. Seismic data have space coherence that
can be used to
improve their compression. Combining clustering with the
use of space
coherence we were able to compress sets of data with rates
from 7% to 25%
depending on the error associated. A new file format is
proposed using reorganization
and compression together.
|
9 |
[en] CRYPTO-COMPRESSION PREFIX CODING / [pt] CODIFICAÇÃO LIVRE DE PREFIXO PARA CRIPTO-COMPRESSÃOCLAUDIO GOMES DE MELLO 16 May 2007 (has links)
[pt] Cifragem e compressão de dados são funcionalidades
essencias quando dados digitais são armazenados ou
transmitidos através de canais inseguros. Geralmente,
duas
operações sequencias são aplicadas: primeiro, compressão
de dados para economizar espaço de armazenamento e
reduzir
custos de transmissão, segundo, cifragem de dados para
prover confidencialidade. Essa solução funciona bem para
a
maioria das aplicações, mas é necessário executar duas
operações caras, e para acessar os dados, é necessário
primeiro decifrar e depois descomprimir todo o texto
cifrado para recuperar a informação. Neste trabalho são
propostos algoritmos que realizam tanto compressão como
cifragem de dados. A primeira contribuição desta tese é
o
algoritmo ADDNULLS - Inserção Seletiva de Nulos. Este
algoritmo usa a técnica da esteganografia para esconder
os
símbolos codificados em símbolos falsos. É baseado na
inserção seletiva de um número variável de símbolos
nulos
após os símbolos codificados. É mostrado que as perdas
nas
taxas de compressão são relativamente pequenas. A
segunda
contribuição desta tese é o algoritmo HHC - Huffman
Homofônico-Canônico. Este algoritmo cria uma nova árvore
homofônica baseada na árvore de Huffman canônica
original
para o texto de entrada. Os resultados dos experimentos
são mostrados. A terceira contribuição desta tese é o
algoritmo RHUFF - Huffman Randomizado. Este algoritmo
é
uma variante do algoritmo de Huffman que define um
procedimento de cripto-compressão que aleatoriza a
saída.
O objetivo é gerar textos cifrados aleatórios como saída
para obscurecer as redundâncias do texto original
(confusão). O algoritmo possui uma função de permutação
inicial, que dissipa a redundância do texto original
pelo
texto cifrado (difusão). A quarta contribuição desta
tese
é o algoritmo HSPC2 - Códigos de Prefixo baseados em
Substituição Homofônica com 2 homofônicos. No processo
de
codificação, o algoritmo adiciona um bit de sufixo em
alguns códigos. Uma chave secreta e uma taxa de
homofônicos são parâmetros que controlam essa inserção.
É
mostrado que a quebra do HSPC2 é um problema NP-
Completo. / [en] Data compression and encryption are essential features
when digital
data is stored or transmitted over insecure channels.
Usually, we apply
two sequential operations: first, we apply data compression
to save disk
space and to reduce transmission costs, and second, data
encryption to
provide confidentiality. This solution works fine for most
applications,
but we have to execute two expensive operations, and if we
want to
access data, we must first decipher and then decompress the
ciphertext
to restore information. In this work we propose algorithms
that achieve
both compressed and encrypted data. The first contribution
of this thesis is
the algorithm ADDNULLS - Selective Addition of Nulls. This
algorithm
uses steganographic technique to hide the real symbols of
the encoded
text within fake ones. It is based on selective insertion
of a variable
number of null symbols after the real ones. It is shown
that coding and
decoding rates loss are small. The disadvantage is
ciphertext expansion. The
second contribution of this thesis is the algorithm HHC -
Homophonic-
Canonic Huffman. This algorithm creates a new homophonic
tree based
upon the original canonical Huffman tree for the input
text. It is shown the
results of the experiments. Adding security has not
significantly decreased
performance. The third contribution of this thesis is the
algorithm RHUFF
- Randomized Huffman. This algorithm is a variant of
Huffman codes that
defines a crypto-compression algorithm that randomizes
output. The goal
is to generate random ciphertexts as output to obscure the
redundancies
in the plaintext (confusion). The algorithm uses
homophonic substitution,
canonical Huffman codes and a secret key for ciphering.
The secret key is
based on an initial permutation function, which dissipates
the redundancy of
the plaintext over the ciphertext (diffusion). The fourth
contribution of this
thesis is the algorithm HSPC2 - Homophonic Substitution
Prefix Codes
with 2 homophones. It is proposed a provably secure
algorithm by using
a homophonic substitution algorithm and a key. In the
encoding process,
the HSPC2 function appends a one bit suffx to some codes.
A secret key
and a homophonic rate parameters control this appending.
It is shown that
breaking HSPC2 is an NP-Complete problem.
|
10 |
[en] IMAGE COMPRESSION USING WAVELET TRANSFORM AND TRELLIS CODE VECTOR QUANTIZATION WITH ENTROPY CONSTRAINT / [pt] COMPRESSÃO DE IMAGENS USANDO TRANSFORMADA WAVELET E QUANTIZAÇÃO VETORIAL CODIFICADA EM TRELIÇA COM RESTRIÇÃO DE ENTROPIAMARCUS VINICIUS FONSECA DE ARAUJO SILVA 17 July 2006 (has links)
[pt] Essa dissertação apresenta um codificador de imagens para
baixas taxas de bits utilizando a decomposição da imagem
em 10 sub-bandas através da aplicação da transformada
wavelet. Uma técnica de redução de irrelevância visual é
usada para descartar blocos de coeficientes das sub-bandas
de alta freqüência (2 a 10). Os blocos remanescentes são
classificados em bordas e não bordas e codificados através
da técnica ECTCVQ ( Entropy-Constrained Trellis Coded
Vector Quantization). Já a primeira sub-banda é codificada
através da técnica PTCQ( Predictive Trellis Coded
Quantization) com preservação de bordas. Na alocação de
bits entre as sub-bandas é utilizado o algoritmo de
Wersterink et al.
Os resultados obtidos mostram um desempenho muito superior
ao padrão JPEG, e bons resultados quando comparados a
técnica de codificação de imagens recentes. / [en] This dissertation presentes a low bit rate image coder
using a 10 sub-band image decomposition base don the
wavelet transform. Some blocks of coefficients of the high
frequency sub-bands are discarded by a technique of
irrelevancy reduction. The remaning blocks are classified
into edges and non-edges, and coded by ECTCVQ (Entropy-
constrained Trellis Vector Quantization). The fist sub-
band is coded by an edge preserving PTCQ (Predictive
Trellis Coded Quantization), also proposed in this work.
The Westerink et al. algorithm is used to allocate the
bits between the sub-bands.
The results obtained show that the performance of the
proposed coder is
Significantly superior so the one obtained with the
standard JPEG. Moreover, good results are achivied as
compared to recently proposed techniques of images coding.
|
Page generated in 0.053 seconds