• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 2
  • Tagged with
  • 36
  • 36
  • 34
  • 9
  • 8
  • 8
  • 8
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] UNIVERSAL LOSSLESS DATA COMPRESSION WITH FINITE STATE ENCODERS / [pt] COMPRESSÃO DE DADOS VIA CODIFICADORES UNIVERSAIS, DE ESTADO FINITO E SEM PERDA DE INFORMAÇÃO

MARCELO DA SILVA PINHO 17 August 2006 (has links)
[pt] Neste trabalho é estudado o problema da compressão de dados por codificadores de estado finito e sem perda de informação. O problema é dividido em três partes: compressão de seqüências individuais, compressão de pares de seqüências e compressão de imagens. A principal motivação do trabalho é o estudo da compressão de pares de seqüências, como um passo intermediário para o entendimento do problema da compressão de dados bidimensionais. Para cada um dos casos é definido um limitante inferior para a taxa de compressão de qualquer codificador de estado finito e sem perda de informação. Para os três casos, codificadores universais são propostos e seus desempenhos são analisados. Os codificadores propostos foram implementados em software e aplicados à compressão de seqüências finitas, pares de seqüências finitas e imagens finitas. Os resultados de simulação obtidos são analisados. / [en] In this work the problem of data compression by finite- state and information lossless encorders is studied. The problem is divided in three parts: compression of individual sequences, compression of pairs of sequences and compression of images. For each of these, a lower bound is defined which sets a limit on the smaller compression rate that can be achieved by any finite-state and information lossless enconders. Universal encorders are proposed and their performance compared to the optimal attainable. The proposed encoders were implemented in software and used to compress finite sequences, pairs of finite sequences and finite images. The simulation results are analysed.
2

[pt] UM MÉTODO PARA A COMPRESSÃO DE DADOS VOLUMÉTRICOS BASEADO NA TRANSFORMADA DO COSSENO LOCAL

ANSELMO CARDOSO DE PAIVA 29 July 2002 (has links)
[pt] As Técnicas de visualização volumétrica apresentam dois clássicos problemas computacionais: necessidade de longo tempo de execução e grande consumo de memória. A popularização das aplicações distribuídas tem despertado um crescente interesse no tratamento dos problemas de grande consumo de memória. Esse problema é fundamental também para garantir o acesso às técnicas de visualização volumétrica em máquinas com pequena capacidade de memória. Nesta tese, propomos um método para a compressão de dados volumétricos baseado na utilização da transformada do cosseno local.Esse método é apropiado ao desenvolvimento de técnicas de visualização volumétrica basedas na estrutura do dado comprimido.A transformada do cosseno local apresenta a capacidade de possibilitar altas taxas de compressão com a minimização do erro de reconstrução, possibilitando a reconstrução local do volume. Neste trabalho, são apresentados os resultados obtidos com a compressão de volumes reais, estimando a influência dos parâmetros dométodo de compressão, investigando as possibilidades de adptação da partição do volume às suas características de frequencias e estimando a capacidade de compressão e os erros introduzidos neste processo.
3

[en] EVALUATING MOTION ESTIMATION ALGORITHMS FOR VIDEO COMPRESSION / [pt] AVALIAÇÃO DE ALGORITMOS DE MOVIMENTO PARA A COMPRESSÃO DE SEQÜÊNCIAS DE IMAGENS

JOSE ANTONIO CASTINEIRA GONZALES 19 July 2006 (has links)
[pt] Este trabalho teve por objetivo estudar algoritmos de estimação de movimento baseados na técnica de casamento de bloco a fim de avaliar a importância da sua escolha na construção de um codificador para uso em compressão de seqüência de imagens. Para isto foram estudados quatro algoritmos baseados na técnica de casamento de bloco, sendo verificada a interdependência existente entre os vários parâmetros que os compõem, tais como, tamanho da área de busca, critérios de medida de distorção entre blocos e tamanhos de blocos, em relação à qualidade da imagem reconstruída. / [en] This work was performed to study motion estimation algorithms based on block matching in order to evaluate the importance of the choice of the motion estimation algorithm in the Project of a image sequence compression coder. In order to do so, they were studied four motion estimation algorithms, and their performance were evaluated considering some parameters such as search region size, methods to measure the matching between blocks and block sizes, related to the quality of the reconstructed image.
4

[en] LOSSY LEMPEL-ZIV ALGORITHM AND ITS APPLICATION TO IMAGE COMPRESSION / [pt] ALGORITMO DE LEMPEL-ZIV COM PERDAS E APLICAÇÃO À COMPRESSÃO DE IMAGENS

MURILO BRESCIANI DE CARVALHO 17 August 2006 (has links)
[pt] Neste trabalho, um método de compressão de dados com perdas, baseado no algoritmo de compressão sem perdas de Lempel-Ziv é proposto. Simulações são usadas para caracterizar o desempenho do método, chamado LLZ. É também aplicado à compressão de imagens e os resultados obtidos são analisados. / [en] In this work, a lossy data compression method, base don the Lempel-Ziv lossles compression scheme is proposed. Simulations are used to study the performance of the method, called LLZ. The lLZ is also used to compress digital image data and the results obtained is analized.
5

[en] A UNIVERSAL ENCODEN FOR CONTINUOUS ALPHABET SOURCE COMPRESSION / [pt] UM ALGORITMO UNIVERSAL PARA COMPRESSÃO DE FONTES COM ALFABETO CONTÍNUO

MARCELO DE ALCANTARA LEISTER 04 September 2006 (has links)
[pt] A tese de mestrado, aqui resumida, tem a meta de propor novos algoritmos para a compressão de dados, em especial imagens, apresentando aplicações e resultados teóricos. Como o título sugere, estes dados serão originados de fontes com alfabeto contínuo, podendo ser particularizado para os casos discretos. O algoritmo a ser proposto (LLZ para o caso contínuo) é baseado no codificador universal Lempel-Ziv, apresentando a característica de admitir a introdução de perdas, mas que conduza a um maior aproveitamento do poder de compressão deste algoritmo. Desta forma, o LLZ se mostra vantajoso em dois pontos: integrar compactador e quantizador, e ser um quantizador universal. / [en] This dissertation introduces new data compression algorithms, specially for images, and presents some applications and theoretical results related to these algorithms. The data to be compressed will be originated from sources with continuos alphabet, and can be stated for discrete sources. The proposed algorithms (LLZ for continuos case), which is based on the universal Lempel-Ziv coder (LZ), accepts losses, taking advantage of LZ s compression power. As such, the LIZ is an innovating proposal in two ways: first, it couples compaction and quantization in one step; and second, it can be seeing as an universal quantizer.
6

[en] INTERNAL COMBUSTION ENGINES WITH VARIABLE COMPRESSION RATIO: A THEORETICAL AND EXPERIMENTAL ANALYSIS / [pt] MOTORES A COMBUSTÃO INTERNA COM TAXA DE COMPRESSÃO VARIÁVEL: UMA ANÁLISE TEÓRICA E EXPERIMENTAL

RENATO NUNES TEIXEIRA 01 February 2012 (has links)
[pt] É realizado um estudo teórico experimental sobre motores a combustão interna operando com taxa de compressão variável. É feita uma análise teórica sobre determinado mecanismo que permite variar a taxa de compressão. Para tal foi utilizado um programa de simulação para motores com ignição por centelha. No presente trabalho o modelo de simulação foi aprimorado, com a inclusão de previsão de detonação, de emissão de hidrocarbonetos, do cálculo da potencia de atrito, assim como a inclusão do dispositivo do mecanismo de taxa de compressão variável, entre outras alterações. Uma parte experimental foi também realizada, como o objetivo de validar os resultados do modelo teórico e de quantificar os benefícios proporcionados pelo mecanismo em questão. Para tal um motor de pesquisa de combustível – motor CFR – foi utilizado. Uma comparação dos resultados teóricos e experimentais obtidos no presente trabalho com os de outros pesquisadores é também apresentada. / [en] The present work is concerned with a theoretical and expererimental study of variable compression ratio spark ignition internal combustion engines. A theoretical analysis of the engine, operating with a mechanism allows for variable compression ratio, is carried out. For that a simulation program is utilized. In the present work the simulation model was updated with the inclusion of friction, knocking and hidrocarbon emission models, among other things. An experimental work was also carried out, with a CFR engine. The objective was a wo-fold to validade the results of the theoretical model and to assens the benefits of running an engine with variable compression ratio. A comparison is also made between the rrsults of the present work and those from other authors.
7

[en] BEHAVIOR OF SLENDER HIGH STRENGTH CONCRETE COLUMNS UNDER UNIAXIAL AND BIAXIAL ECCENTRIC LOADS / [pt] COMPORTAMENTO DE PILARES ESBELTOS DE CONCRETO DE ALTA RESISTÊNCIA SOB FLEXÃO COMPOSTA RETA E OBLÍQUA

BETZABET EVELIN VILAVILA NORIEGA 18 April 2011 (has links)
[pt] Trata-se de um estudo experimental do comportamento de pilares de alta resistência submetidos à flexão composta reta e oblíqua. Foram ensaiados oito pilares com seção transversal de 25x15 cm e comprimento de 300 cm, compondo duas séries de 4 pilares cada uma. Na primeira série, a resistência do concreto foi de 40 MPa e os quatro pilares foram ensaiados à flexão composta oblíqua. Na segunda série, a resistência do concreto foi de 70 MPa e os quatro pilares foram ensaiados à flexão composta reta. Em cada série, a variável foi a taxa de armadura longitudinal que assumiu os valores 1,3%, 2,1%, 3,2% e 4,3%. A finalidade foi verificar os valores da excentricidade de segunda ordem que devem ser considerados no dimensionamento de pilares de concreto de alta resistência. Os resultados experimentais foram comparados com os obtidos pelos métodos do Pilar Padrão com Curvatura Aproximada e do Pilar Padrão com Rigidez Aproximada que constam na NBR 6118:2003. Essa comparação mostrou que o método da curvatura aproximada apresenta valores das excentricidades de 2ª ordem próximos dos reais no caso de pilares submetidos à flexão composta reta e oblíqua, enquanto que o método da rigidez aproximada é contra a segurança só na maioria dos ensaios de pilares submetidos à flexão composta reta. / [en] This work presents an experimental study of the behavior of slender high strength concrete columns under uniaxial and biaxial eccentric compression loads. Eight columns with cross-section of 15x25 cm and height of 300 cm were tested, divided into two series. In the first series, the concrete strength was 40 MPa and the four columns were tested under biaxial compression. In the second series, the concrete strength was 70 MPa and the four columns were tested under uniaxial compression. In each series, the variable was the longitudinal reinforcement ratio which assumed the values 1,3%, 2,1%, 3,2% e 4,3%. The objective was to verify the values of the eccentricity of second order that should be taken into account in the design of slender high strength concrete columns. The experimental results were compared with theoretical results obtained by the models of the approximated curvature and approximated stiffnes methods prescribed in the NBR 6118:2003 code. This comparison showed that the method of curvature approximate present values of the eccentricities of second order close to the real in the case of columns under uniaxial and biaxial eccentric compression loads, while the method of stiffness approximate is lower security in columns under uniaxial eccentric compression load.
8

[en] REORGANIZATION AND COMPRESSION OF SEISMIC DATA / [pt] REORGANIZAÇÃO E COMPRESSÃO DE DADOS SÍSMICOS

FLAVIA MEDEIROS DOS ANJOS 19 February 2008 (has links)
[pt] Dados sísmicos, utilizados principalmente na indústria de petróleo, costumam apresentar dimensões de dezenas de gigabytes e em alguns casos, centenas. Este trabalho apresenta propostas de manipulação destes dados que ajudem a contornar problemas enfrentados por aplicativos de processamento e interpretação sísmica ao trabalhar com arquivos deste porte. As propostas se baseiam em reorganização e compressão. O conhecimento do formato de utilização dos dados permite reestruturar seu armazenamento diminuindo o tempo gasto com a transferência entre o disco e a memória em até 90%. A compressão é utilizada para diminuir o espaço necessário para armazenamento. Para dados desta natureza os melhores resultados, em taxa de redução, são das técnicas de compressão com perda, entre elas as compressões por agrupamento. Neste trabalho apresentamos um algoritmo que minimiza o erro médio do agrupamento uma vez que o número de grupos tenha sido determinado. Em qualquer método desta categoria o grau de erro e a taxa de compressão obtidos dependem do número de grupos. Os dados sísmicos possuem uma coerência espacial que pode ser aproveitada para melhorar a compressão dos mesmos. Combinando-se agrupamento e o aproveitamento da coerência espacial conseguimos comprimir os dados com taxas variando de 7% a 25% dependendo do erro associado. Um novo formato é proposto utilizando a reorganização e a compressão em conjunto. / [en] Seismic data, used mainly in the petroleum industry, commonly present sizes of tens of gigabyte, and, in some cases, hundreds. This work presents propositions for manipulating these data in order to help overcoming the problems that application for seismic processing and interpretation face while dealing with file of such magnitude. The propositions are based on reorganization and compression. The knowledge of the format in which the data will be used allows us to restructure storage reducing disc- memory transference time up to 90%. Compression is used to save storage space. For data of such nature, best results in terms of compression rates come from techniques associated to information loss, being clustering one of them. In this work we present an algorithm for minimizing the cost of clustering a set of data for a pre-determined number of clusters. Seismic data have space coherence that can be used to improve their compression. Combining clustering with the use of space coherence we were able to compress sets of data with rates from 7% to 25% depending on the error associated. A new file format is proposed using reorganization and compression together.
9

[en] CRYPTO-COMPRESSION PREFIX CODING / [pt] CODIFICAÇÃO LIVRE DE PREFIXO PARA CRIPTO-COMPRESSÃO

CLAUDIO GOMES DE MELLO 16 May 2007 (has links)
[pt] Cifragem e compressão de dados são funcionalidades essencias quando dados digitais são armazenados ou transmitidos através de canais inseguros. Geralmente, duas operações sequencias são aplicadas: primeiro, compressão de dados para economizar espaço de armazenamento e reduzir custos de transmissão, segundo, cifragem de dados para prover confidencialidade. Essa solução funciona bem para a maioria das aplicações, mas é necessário executar duas operações caras, e para acessar os dados, é necessário primeiro decifrar e depois descomprimir todo o texto cifrado para recuperar a informação. Neste trabalho são propostos algoritmos que realizam tanto compressão como cifragem de dados. A primeira contribuição desta tese é o algoritmo ADDNULLS - Inserção Seletiva de Nulos. Este algoritmo usa a técnica da esteganografia para esconder os símbolos codificados em símbolos falsos. É baseado na inserção seletiva de um número variável de símbolos nulos após os símbolos codificados. É mostrado que as perdas nas taxas de compressão são relativamente pequenas. A segunda contribuição desta tese é o algoritmo HHC - Huffman Homofônico-Canônico. Este algoritmo cria uma nova árvore homofônica baseada na árvore de Huffman canônica original para o texto de entrada. Os resultados dos experimentos são mostrados. A terceira contribuição desta tese é o algoritmo RHUFF - Huffman Randomizado. Este algoritmo é uma variante do algoritmo de Huffman que define um procedimento de cripto-compressão que aleatoriza a saída. O objetivo é gerar textos cifrados aleatórios como saída para obscurecer as redundâncias do texto original (confusão). O algoritmo possui uma função de permutação inicial, que dissipa a redundância do texto original pelo texto cifrado (difusão). A quarta contribuição desta tese é o algoritmo HSPC2 - Códigos de Prefixo baseados em Substituição Homofônica com 2 homofônicos. No processo de codificação, o algoritmo adiciona um bit de sufixo em alguns códigos. Uma chave secreta e uma taxa de homofônicos são parâmetros que controlam essa inserção. É mostrado que a quebra do HSPC2 é um problema NP- Completo. / [en] Data compression and encryption are essential features when digital data is stored or transmitted over insecure channels. Usually, we apply two sequential operations: first, we apply data compression to save disk space and to reduce transmission costs, and second, data encryption to provide confidentiality. This solution works fine for most applications, but we have to execute two expensive operations, and if we want to access data, we must first decipher and then decompress the ciphertext to restore information. In this work we propose algorithms that achieve both compressed and encrypted data. The first contribution of this thesis is the algorithm ADDNULLS - Selective Addition of Nulls. This algorithm uses steganographic technique to hide the real symbols of the encoded text within fake ones. It is based on selective insertion of a variable number of null symbols after the real ones. It is shown that coding and decoding rates loss are small. The disadvantage is ciphertext expansion. The second contribution of this thesis is the algorithm HHC - Homophonic- Canonic Huffman. This algorithm creates a new homophonic tree based upon the original canonical Huffman tree for the input text. It is shown the results of the experiments. Adding security has not significantly decreased performance. The third contribution of this thesis is the algorithm RHUFF - Randomized Huffman. This algorithm is a variant of Huffman codes that defines a crypto-compression algorithm that randomizes output. The goal is to generate random ciphertexts as output to obscure the redundancies in the plaintext (confusion). The algorithm uses homophonic substitution, canonical Huffman codes and a secret key for ciphering. The secret key is based on an initial permutation function, which dissipates the redundancy of the plaintext over the ciphertext (diffusion). The fourth contribution of this thesis is the algorithm HSPC2 - Homophonic Substitution Prefix Codes with 2 homophones. It is proposed a provably secure algorithm by using a homophonic substitution algorithm and a key. In the encoding process, the HSPC2 function appends a one bit suffx to some codes. A secret key and a homophonic rate parameters control this appending. It is shown that breaking HSPC2 is an NP-Complete problem.
10

[en] IMAGE COMPRESSION USING WAVELET TRANSFORM AND TRELLIS CODE VECTOR QUANTIZATION WITH ENTROPY CONSTRAINT / [pt] COMPRESSÃO DE IMAGENS USANDO TRANSFORMADA WAVELET E QUANTIZAÇÃO VETORIAL CODIFICADA EM TRELIÇA COM RESTRIÇÃO DE ENTROPIA

MARCUS VINICIUS FONSECA DE ARAUJO SILVA 17 July 2006 (has links)
[pt] Essa dissertação apresenta um codificador de imagens para baixas taxas de bits utilizando a decomposição da imagem em 10 sub-bandas através da aplicação da transformada wavelet. Uma técnica de redução de irrelevância visual é usada para descartar blocos de coeficientes das sub-bandas de alta freqüência (2 a 10). Os blocos remanescentes são classificados em bordas e não bordas e codificados através da técnica ECTCVQ ( Entropy-Constrained Trellis Coded Vector Quantization). Já a primeira sub-banda é codificada através da técnica PTCQ( Predictive Trellis Coded Quantization) com preservação de bordas. Na alocação de bits entre as sub-bandas é utilizado o algoritmo de Wersterink et al. Os resultados obtidos mostram um desempenho muito superior ao padrão JPEG, e bons resultados quando comparados a técnica de codificação de imagens recentes. / [en] This dissertation presentes a low bit rate image coder using a 10 sub-band image decomposition base don the wavelet transform. Some blocks of coefficients of the high frequency sub-bands are discarded by a technique of irrelevancy reduction. The remaning blocks are classified into edges and non-edges, and coded by ECTCVQ (Entropy- constrained Trellis Vector Quantization). The fist sub- band is coded by an edge preserving PTCQ (Predictive Trellis Coded Quantization), also proposed in this work. The Westerink et al. algorithm is used to allocate the bits between the sub-bands. The results obtained show that the performance of the proposed coder is Significantly superior so the one obtained with the standard JPEG. Moreover, good results are achivied as compared to recently proposed techniques of images coding.

Page generated in 0.053 seconds