Spelling suggestions: "subject:"compressao"" "subject:"impressao""
21 |
[en] INTERNAL COMBUSTION ENGINES WITH VARIABLE COMPRESSION RATIO: A THEORETICAL AND EXPERIMENTAL ANALYSIS / [pt] MOTORES A COMBUSTÃO INTERNA COM TAXA DE COMPRESSÃO VARIÁVEL: UMA ANÁLISE TEÓRICA E EXPERIMENTALRENATO NUNES TEIXEIRA 01 February 2012 (has links)
[pt] É realizado um estudo teórico experimental sobre motores a combustão interna operando com taxa de compressão variável. É feita uma análise teórica sobre determinado mecanismo que permite variar a taxa de compressão. Para tal foi utilizado um programa de simulação para motores com ignição por centelha. No presente trabalho o modelo de simulação foi aprimorado, com a inclusão de previsão de detonação, de emissão de hidrocarbonetos, do cálculo da potencia de atrito, assim como a inclusão do dispositivo do mecanismo de taxa de compressão variável, entre outras alterações.
Uma parte experimental foi também realizada, como o objetivo de validar os resultados do modelo teórico e de quantificar os benefícios proporcionados pelo mecanismo em questão. Para tal um motor de pesquisa de combustível – motor CFR – foi utilizado.
Uma comparação dos resultados teóricos e experimentais obtidos no presente trabalho com os de outros pesquisadores é também apresentada. / [en] The present work is concerned with a theoretical and expererimental study of variable compression ratio spark ignition internal combustion engines. A theoretical analysis of the engine, operating with a mechanism allows for variable compression ratio, is carried out. For that a simulation program is utilized. In the present work the simulation model was updated with the inclusion of friction, knocking and hidrocarbon emission models, among other things. An experimental work was also carried out, with a CFR engine. The objective was a wo-fold to validade the results of the theoretical model and to assens the benefits of running an engine with variable compression ratio. A comparison is also made between the rrsults of the present work and those from other authors.
|
22 |
[en] BEHAVIOR OF SLENDER HIGH STRENGTH CONCRETE COLUMNS UNDER UNIAXIAL AND BIAXIAL ECCENTRIC LOADS / [pt] COMPORTAMENTO DE PILARES ESBELTOS DE CONCRETO DE ALTA RESISTÊNCIA SOB FLEXÃO COMPOSTA RETA E OBLÍQUABETZABET EVELIN VILAVILA NORIEGA 18 April 2011 (has links)
[pt] Trata-se de um estudo experimental do comportamento de pilares de alta
resistência submetidos à flexão composta reta e oblíqua. Foram ensaiados oito
pilares com seção transversal de 25x15 cm e comprimento de 300 cm,
compondo duas séries de 4 pilares cada uma. Na primeira série, a resistência do
concreto foi de 40 MPa e os quatro pilares foram ensaiados à flexão composta
oblíqua. Na segunda série, a resistência do concreto foi de 70 MPa e os quatro
pilares foram ensaiados à flexão composta reta. Em cada série, a variável foi a
taxa de armadura longitudinal que assumiu os valores 1,3%, 2,1%, 3,2% e 4,3%.
A finalidade foi verificar os valores da excentricidade de segunda ordem que
devem ser considerados no dimensionamento de pilares de concreto de alta
resistência. Os resultados experimentais foram comparados com os obtidos
pelos métodos do Pilar Padrão com Curvatura Aproximada e do Pilar Padrão
com Rigidez Aproximada que constam na NBR 6118:2003. Essa comparação
mostrou que o método da curvatura aproximada apresenta valores das
excentricidades de 2ª ordem próximos dos reais no caso de pilares submetidos à
flexão composta reta e oblíqua, enquanto que o método da rigidez aproximada é
contra a segurança só na maioria dos ensaios de pilares submetidos à flexão
composta reta. / [en] This work presents an experimental study of the behavior of slender high
strength concrete columns under uniaxial and biaxial eccentric compression
loads. Eight columns with cross-section of 15x25 cm and height of 300 cm were
tested, divided into two series. In the first series, the concrete strength was 40
MPa and the four columns were tested under biaxial compression. In the second
series, the concrete strength was 70 MPa and the four columns were tested
under uniaxial compression. In each series, the variable was the longitudinal
reinforcement ratio which assumed the values 1,3%, 2,1%, 3,2% e 4,3%. The
objective was to verify the values of the eccentricity of second order that should
be taken into account in the design of slender high strength concrete columns.
The experimental results were compared with theoretical results obtained by the
models of the approximated curvature and approximated stiffnes methods
prescribed in the NBR 6118:2003 code. This comparison showed that the method
of curvature approximate present values of the eccentricities of second order
close to the real in the case of columns under uniaxial and biaxial eccentric
compression loads, while the method of stiffness approximate is lower security in
columns under uniaxial eccentric compression load.
|
23 |
[en] REORGANIZATION AND COMPRESSION OF SEISMIC DATA / [pt] REORGANIZAÇÃO E COMPRESSÃO DE DADOS SÍSMICOSFLAVIA MEDEIROS DOS ANJOS 19 February 2008 (has links)
[pt] Dados sísmicos, utilizados principalmente na indústria de
petróleo,
costumam apresentar dimensões de dezenas de gigabytes e em
alguns casos,
centenas. Este trabalho apresenta propostas de manipulação
destes dados que
ajudem a contornar problemas enfrentados por aplicativos
de processamento e
interpretação sísmica ao trabalhar com arquivos deste
porte. As propostas se
baseiam em reorganização e compressão. O conhecimento do
formato de
utilização dos dados permite reestruturar seu
armazenamento diminuindo o
tempo gasto com a transferência entre o disco e a memória
em até 90%. A
compressão é utilizada para diminuir o espaço necessário
para armazenamento.
Para dados desta natureza os melhores resultados, em taxa
de redução, são das
técnicas de compressão com perda, entre elas as
compressões por
agrupamento. Neste trabalho apresentamos um algoritmo que
minimiza o erro
médio do agrupamento uma vez que o número de grupos tenha
sido
determinado. Em qualquer método desta categoria o grau de
erro e a taxa de
compressão obtidos dependem do número de grupos. Os dados
sísmicos
possuem uma coerência espacial que pode ser aproveitada
para melhorar a
compressão dos mesmos. Combinando-se agrupamento e o
aproveitamento da
coerência espacial conseguimos comprimir os dados com
taxas variando de 7%
a 25% dependendo do erro associado. Um novo formato é
proposto utilizando a
reorganização e a compressão em conjunto. / [en] Seismic data, used mainly in the petroleum industry,
commonly present
sizes of tens of gigabyte, and, in some cases, hundreds.
This work presents
propositions for manipulating these data in order to help
overcoming the
problems that application for seismic processing and
interpretation face while
dealing with file of such magnitude. The propositions are
based on reorganization
and compression. The knowledge of the format in which the
data will
be used allows us to restructure storage reducing disc-
memory transference time
up to 90%. Compression is used to save storage space. For
data of such nature,
best results in terms of compression rates come from
techniques associated to
information loss, being clustering one of them. In this
work we present an
algorithm for minimizing the cost of clustering a set of
data for a pre-determined
number of clusters. Seismic data have space coherence that
can be used to
improve their compression. Combining clustering with the
use of space
coherence we were able to compress sets of data with rates
from 7% to 25%
depending on the error associated. A new file format is
proposed using reorganization
and compression together.
|
24 |
[en] COMPRESSION IGNITION OF ETHANOL-POWERED IN RAPID COMPRESSION MACHINE / [pt] IGNIÇÃO POR COMPRESSÃO DE ETANOL ADITIVADO EM UMA MÁQUINA DE COMPRESSÃO RÁPIDAFERNANDO ZEGARRA SANCHEZ 07 March 2017 (has links)
[pt] Com o passar do tempo, a humanidade tem uma maior dependência na geração de energia, utilizada para promoção de conforto, transporte e outros. Com a finalidade de resolver este aumento de demanda, novas fontes eficientes, de preferência renováveis, estão sendo pesquisadas. O transporte é uma das atividades que tem maior dependência dos combustíveis fósseis, além de ser também um dos maiores geradores de gases de efeito estufa. É por isso, que em diversas partes do mundo, o homem pesquisa novas fontes de energia renováveis que possam ser substitutas dos atuais tradicionais usados no transporte. Sabe-se, que os motores Diesel são mais eficientes com relação aos motores Otto. Devido a este fato, há mais 30 anos pesquisam-se e desenvolvem-se sistemas de ignição por compressão, movidos com combustíveis renováveis, o qual permita a diminuição da dependência dos combustíveis fósseis e garanta a redução de gases de efeito estufa. O etanol é um candidato para substituir o oleo Diesel, mas tem que se levar em conta algumas alterações (aumento da relação de compressão, adição de melhoradores da autoignição, etc.) antes de ser utilizado nos motores Diesel. Com base nisto, a presente tese apresenta uma nova proposta, utilizar como melhorador da autoignição do etanol o n-butanol. Para tal propósito se desenvolveu diversos testes com diversas relações de compressão, percentuais em massa de aditivo na mistura de etanol e diversos avanços da injeção. Os testes foram realizados em uma máquina de compressão rápida (MCR) com misturas de etanol e polietilenoglicol 400 e 600, n-butanol, além dos testes refenciais com óleo Disel e ED95. Os resultados mostram que o n-butanol, com uma participação de 10 por cento na mistura, pode ser utilizado como melhorador da autoignição do etanol em sistemas de ignição por compressão. / [en] Over time, humanity has developed a greater reliance inpower generation, used to promoter comfort, transport and others. In order to address this increased demand new efficient sources are being searched, in preference, renewable sources. Transportation is one of the activities that have greater reliance on fossil fuels as well as being one of the largest generators of greenhouse gases. Therefore, in many parts of the world men are engaged in the search of new renewable energy sources that can substitute the current one used in transport. It is known that diesel engines are more efficient in comparison to the Otto engime. Due to this fact, for more than 30 years research has been conducted in order to develop ignition systems by compression, powered with renewable fuels, which reduces the dependence on fossil fuels and the emission of greenhouse gases. Ethanol is a viable candidate to replace diesel oil, but some improvements have to be accounted for before it s used in diesel engines, improvements such as the increase in compression ratio, adding auto-ignition improves, etc. Based on the facts presented, this thesis offers a new proposal, the use of n-butanol as an auto-ignition improver for ethanol. For this purpose several tests have been executed with various compression ratios, mass percentage of additive in the mixture off ethanol and many start of injections. The tests were performed in a rapid compression machine (RCM) with mixtures of ethanol and polyethylene glycol 400 and 600, and n-butanol inaddition to the reference test with diesel oil and ED95. The results show that n-butanol with a 10 per cent share of the mixture, can be used as an auto ignition improver for ethanol in compression ignition systems.
|
25 |
[en] CRYPTO-COMPRESSION PREFIX CODING / [pt] CODIFICAÇÃO LIVRE DE PREFIXO PARA CRIPTO-COMPRESSÃOCLAUDIO GOMES DE MELLO 16 May 2007 (has links)
[pt] Cifragem e compressão de dados são funcionalidades
essencias quando dados digitais são armazenados ou
transmitidos através de canais inseguros. Geralmente,
duas
operações sequencias são aplicadas: primeiro, compressão
de dados para economizar espaço de armazenamento e
reduzir
custos de transmissão, segundo, cifragem de dados para
prover confidencialidade. Essa solução funciona bem para
a
maioria das aplicações, mas é necessário executar duas
operações caras, e para acessar os dados, é necessário
primeiro decifrar e depois descomprimir todo o texto
cifrado para recuperar a informação. Neste trabalho são
propostos algoritmos que realizam tanto compressão como
cifragem de dados. A primeira contribuição desta tese é
o
algoritmo ADDNULLS - Inserção Seletiva de Nulos. Este
algoritmo usa a técnica da esteganografia para esconder
os
símbolos codificados em símbolos falsos. É baseado na
inserção seletiva de um número variável de símbolos
nulos
após os símbolos codificados. É mostrado que as perdas
nas
taxas de compressão são relativamente pequenas. A
segunda
contribuição desta tese é o algoritmo HHC - Huffman
Homofônico-Canônico. Este algoritmo cria uma nova árvore
homofônica baseada na árvore de Huffman canônica
original
para o texto de entrada. Os resultados dos experimentos
são mostrados. A terceira contribuição desta tese é o
algoritmo RHUFF - Huffman Randomizado. Este algoritmo
é
uma variante do algoritmo de Huffman que define um
procedimento de cripto-compressão que aleatoriza a
saída.
O objetivo é gerar textos cifrados aleatórios como saída
para obscurecer as redundâncias do texto original
(confusão). O algoritmo possui uma função de permutação
inicial, que dissipa a redundância do texto original
pelo
texto cifrado (difusão). A quarta contribuição desta
tese
é o algoritmo HSPC2 - Códigos de Prefixo baseados em
Substituição Homofônica com 2 homofônicos. No processo
de
codificação, o algoritmo adiciona um bit de sufixo em
alguns códigos. Uma chave secreta e uma taxa de
homofônicos são parâmetros que controlam essa inserção.
É
mostrado que a quebra do HSPC2 é um problema NP-
Completo. / [en] Data compression and encryption are essential features
when digital
data is stored or transmitted over insecure channels.
Usually, we apply
two sequential operations: first, we apply data compression
to save disk
space and to reduce transmission costs, and second, data
encryption to
provide confidentiality. This solution works fine for most
applications,
but we have to execute two expensive operations, and if we
want to
access data, we must first decipher and then decompress the
ciphertext
to restore information. In this work we propose algorithms
that achieve
both compressed and encrypted data. The first contribution
of this thesis is
the algorithm ADDNULLS - Selective Addition of Nulls. This
algorithm
uses steganographic technique to hide the real symbols of
the encoded
text within fake ones. It is based on selective insertion
of a variable
number of null symbols after the real ones. It is shown
that coding and
decoding rates loss are small. The disadvantage is
ciphertext expansion. The
second contribution of this thesis is the algorithm HHC -
Homophonic-
Canonic Huffman. This algorithm creates a new homophonic
tree based
upon the original canonical Huffman tree for the input
text. It is shown the
results of the experiments. Adding security has not
significantly decreased
performance. The third contribution of this thesis is the
algorithm RHUFF
- Randomized Huffman. This algorithm is a variant of
Huffman codes that
defines a crypto-compression algorithm that randomizes
output. The goal
is to generate random ciphertexts as output to obscure the
redundancies
in the plaintext (confusion). The algorithm uses
homophonic substitution,
canonical Huffman codes and a secret key for ciphering.
The secret key is
based on an initial permutation function, which dissipates
the redundancy of
the plaintext over the ciphertext (diffusion). The fourth
contribution of this
thesis is the algorithm HSPC2 - Homophonic Substitution
Prefix Codes
with 2 homophones. It is proposed a provably secure
algorithm by using
a homophonic substitution algorithm and a key. In the
encoding process,
the HSPC2 function appends a one bit suffx to some codes.
A secret key
and a homophonic rate parameters control this appending.
It is shown that
breaking HSPC2 is an NP-Complete problem.
|
26 |
Desenvolvimento algorítmico e arquitetural para a estimação de movimento na compressão de vídeo de alta definição / Algorithmic and architectural development for motion estimation on high definition video compressionPorto, Marcelo Schiavon January 2012 (has links)
A compressão de vídeo é um tema extremamente relevante no cenário atual, principalmente devido ao crescimento significativo da utilização de vídeos digitais. Sem a compressão, é praticamente impossível enviar ou armazenar vídeos digitais devido à sua grande quantidade de informações, inviabilizando aplicações como televisão digital de alta definição, vídeo conferência, vídeo chamada para celulares etc. O problema vem se tornando maior com o crescimento de aplicações de vídeos de alta definição, onde a quantidade de informação é consideravelmente maior. Diversos padrões de compressão de vídeo foram desenvolvidos nos últimos anos, todos eles podem gerar grandes taxas de compressão. Os padrões de compressão de vídeo atuais obtêm a maior parte dos seus ganhos de compressão explorando a redundância temporal, através da estimação de movimento. No entanto, os algoritmos de estimação de movimento utilizados atualmente não consideram as variações nas características dos vídeos de alta definição. Neste trabalho uma avaliação da estimação de movimento em vídeos de alta definição é apresentada, demonstrando que algoritmos rápidos conhecidos, e largamente utilizados pela comunidade científica, não apresentam os mesmos resultados de qualidade com o aumento da resolução dos vídeos. Isto demonstra a importância do desenvolvimento de novos algoritmos focados em vídeos de altíssima definição, superiores à HD 1080p. Esta tese apresenta o desenvolvimento de novos algoritmos rápidos de estimação de movimento, focados na codificação de vídeos de alta definição. Os algoritmos desenvolvidos nesta tese apresentam características que os tornam menos suscetíveis à escolha de mínimos locais, resultando em ganhos significativos de qualidade em relação aos algoritmos rápidos convencionais, quando aplicados a vídeos de alta definição. Além disso, este trabalho também visa o desenvolvimento de arquiteturas de hardware dedicadas para estes novos algoritmos, igualmente dedicadas a vídeos de alta definição. O desenvolvimento arquitetural é extremamente relevante, principalmente para aplicações de tempo real a 30 quadros por segundo, e também para a utilização em dispositivos móveis, onde requisitos de desempenho e potência são críticos. Todos os algoritmos desenvolvidos foram avaliados para um conjunto de 10 sequências de teste HD 1080p, e seus resultados de qualidade e custo computacional foram avaliados e comparados com algoritmos conhecidos da literatura. As arquiteturas de hardware dedicadas, desenvolvidas para os novos algoritmos, foram descritas em VHDL e sintetizadas para FPGAs e ASIC, em standard cells nas tecnologias 0,18μm e 90nm. Os algoritmos desenvolvidos apresentam ganhos de qualidade para vídeos de alta definição em relação a algoritmos rápidos convencionais, e as arquiteturas desenvolvidas possuem altas taxas de processamento com baixo consumo de recursos de hardware e de potência. / Video compression is an extremely relevant theme in today’s scenario, mainly due to the significant growth in digital video applications. Without compression, it is almost impossible to send or store digital videos, due to the large amount of data that they require, making applications such as high definition digital television, video conferences, mobiles video calls, and others unviable. This demand is increasing since there is a strong growth in high definition video applications, where the amount of information is considerably larger. Many video coding standards were developed in the last few years, all of them can achieve excellent compression rates. A significant part of the compression gains in the current video coding standards are obtained through the exploration of the temporal redundancies by means of the motion estimation process. However, the current motion estimation algorithms do not consider the inherent variations that appear in high and ultra-high definition videos. In this work an evaluation of the motion estimation in high definition videos is presented. This evaluation shows that some well know fast algorithms, that are widely used by the scientific community, do not keep the same quality results when applied to high resolution videos. It demonstrates the relevance of new fast algorithms that are focused on high definition videos. This thesis presents the development of new fast motion estimation algorithms focused in high definition video encoding. The algorithms developed in this thesis show some characteristics that make them more resilient to avoid local minima, when applied to high definition videos. Moreover, this work also aims at the development of dedicated hardware architectures for these new algorithms, focused on high definition videos. The architectural development is extremely relevant, mainly for real time applications at 30 frames per second, and also for mobile applications, where performance and power are critical issues. All developed algorithms were assessed using 10 HD 1080p test video sequences, and the results for quality and computational cost were evaluated and compared against known algorithms from the literature. The dedicated hardware architectures, developed for the new algorithms, were described in VHDL and synthesized for FPGA and ASIC. The ASIC implementation used 0.18μm and 90nm CMOS standard cells technology. The developed algorithms present quality gains in comparison to regular fast algorithms for high definition videos, and the developed architectures presents high processing rate with low hardware resources cost and power consumption.
|
27 |
Proposta e avaliação de técnicas para compressão de transitórios rápidos e análise tempo-frequência de distúrbios em redes elétricas AC / Proposal and evaluation of techniques for fast transient data compression and time-frequency analysis of AC power line disturbancesSoares, Leonardo Bandeira January 2013 (has links)
Este trabalho trata de conceitos relacionados à qualidade da Energia Elétrica (EE) e, neste contexto, apresenta a proposta de técnicas para a compressão da representação de transitórios rápidos e da análise tempo-frequência de distúrbios elétricos em geral. A qualidade da Energia Elétrica é medida pelo coeficiente de desvios que os sinais de tensão e corrente apresentam em relação ao sinal senoidal ideal. Tais desvios são denominados de distúrbios, podendo ser classificados como quase estacionários (e.g. distorção de harmônicas) e eventos (e.g. transitórios rápidos). No contexto de EE, os transitórios rápidos possuem pequena duração (i.e. na ordem dos microssegundos), são detectados por altas taxas de amostragem (i.e. na ordem dos MHz) e possuem difícil parametrização. Portanto, as representações das formas de onda geralmente são armazenadas para auxiliar a avaliação subjetiva dos transitórios e dos parâmetros de interesse. Consequentemente, a compressão destas formas de onda torna-se de extrema importância para armazenar dados adquiridos por longos períodos de tempo, e estes modos de compressão são tratados nesta dissertação. Em virtude das altas taxas de amostragem utilizadas, uma técnica baseada em Análise de Componentes Principais (PCA – Principal Component Analysis) é proposta para esta representação mais compacta de transitórios. Resultados mostram que o desempenho em compressão versus qualidade de reconstrução é semelhante ao de trabalhos relacionados com a vantagem de atender aos requisitos de altas taxas de amostragem. A análise tempo-frequência é um mecanismo que auxilia na classificação e caracterização dos distúrbios elétricos. Neste trabalho, a Transformada de Hilbert-Huang é estudada e uma proposta de melhoria na Decomposição Empírica de Modos (EMD – Empirical Mode Decomposition) é apresentada. Nossos resultados mostram que a técnica proposta economiza o custo computacional se comparada com o estado da arte. Em virtude disso, a técnica proposta apresenta uma taxa de redução no tempo médio de execução de 99,76 % em relação à técnica do estado da arte. Além disso, uma verificação acerca do desempenho em eficiência de compressão versus qualidade de reconstrução de trabalhos anteriores é também desenvolvida nesta dissertação. Foi utilizada uma sistemática de avaliação experimental com base em amostras de sinais AC, de forma a avaliar as taxas de compressão atingidas pelas técnicas estudadas, como a Transformada Wavelet Discreta. Resultados mostram que a Transformada Wavelet falha para compressão de todo e qualquer tipo de distúrbio elétrico quando analisado o compromisso entre acuidade de reconstrução versus eficiência de compressão. / This work deals with concepts related to the AC Power Quality theoretical framework and, in this scope, proposes techniques for the representation of fast transient data compression and for the power line disturbances time-frequency analysis. The AC power quality is measured by the differences between actual and ideal sinusoidal voltage/current signals. These differences are known as electrical disturbances, which can be classified as quasi-stationary (e.g. harmonic distortion) or events (e.g. surge or fast transients) disturbances. In the AC Power Quality scope, the fast transients have short duration (i.e. typically on the order of microseconds), are detected by high sampling rates (i.e. typically on the order of MHz), and are hard to characterize and parameterize. Hence, the resultant representation of the waveforms is in general stored to help in the subjective evaluation of these fast transients and their parameters of interest. As a consequence the compression turns out to be of main concern, in order to store this information acquired over long periods of time (like weeks or months). In this work, a compression technique is proposed taking into account the high sampling rates. The proposed technique makes use of the Principal Component Analysis (PCA) for such compact representation of fast transients. The Compression efficiency versus reconstruction accuracy results show a similar performance for the proposed technique when compared to the related works. On the other hand, the proposed technique can handle the large amount of data provided by the high sampling rates. The time-frequency analysis helps in the classification and characterization of AC power quality disturbances. In this work, the Hilbert-Huang Transform is studied and a modification is proposed in order to improve the Empirical Mode Decomposition (EMD) performance. Our results show that the proposed modification can save computational cost when compared to the state-of-the-art. Therefore, the average execution time is reduced to 99.76 % in comparison with the state-of-the-art technique. Besides that, this work also revisits previous techniques based on the Discrete Wavelet Transform (DWT) in order to verify the trade-off between reconstruction accuracy versus compression efficiency under a more systematic experimental evaluation setup, considering samples of real AC signals. Results show that DWT fails as a general-purpose technique in AC Power Quality scope.
|
28 |
[en] IMAGE COMPRESSION USING WAVELET TRANSFORM AND TRELLIS CODE VECTOR QUANTIZATION WITH ENTROPY CONSTRAINT / [pt] COMPRESSÃO DE IMAGENS USANDO TRANSFORMADA WAVELET E QUANTIZAÇÃO VETORIAL CODIFICADA EM TRELIÇA COM RESTRIÇÃO DE ENTROPIAMARCUS VINICIUS FONSECA DE ARAUJO SILVA 17 July 2006 (has links)
[pt] Essa dissertação apresenta um codificador de imagens para
baixas taxas de bits utilizando a decomposição da imagem
em 10 sub-bandas através da aplicação da transformada
wavelet. Uma técnica de redução de irrelevância visual é
usada para descartar blocos de coeficientes das sub-bandas
de alta freqüência (2 a 10). Os blocos remanescentes são
classificados em bordas e não bordas e codificados através
da técnica ECTCVQ ( Entropy-Constrained Trellis Coded
Vector Quantization). Já a primeira sub-banda é codificada
através da técnica PTCQ( Predictive Trellis Coded
Quantization) com preservação de bordas. Na alocação de
bits entre as sub-bandas é utilizado o algoritmo de
Wersterink et al.
Os resultados obtidos mostram um desempenho muito superior
ao padrão JPEG, e bons resultados quando comparados a
técnica de codificação de imagens recentes. / [en] This dissertation presentes a low bit rate image coder
using a 10 sub-band image decomposition base don the
wavelet transform. Some blocks of coefficients of the high
frequency sub-bands are discarded by a technique of
irrelevancy reduction. The remaning blocks are classified
into edges and non-edges, and coded by ECTCVQ (Entropy-
constrained Trellis Vector Quantization). The fist sub-
band is coded by an edge preserving PTCQ (Predictive
Trellis Coded Quantization), also proposed in this work.
The Westerink et al. algorithm is used to allocate the
bits between the sub-bands.
The results obtained show that the performance of the
proposed coder is
Significantly superior so the one obtained with the
standard JPEG. Moreover, good results are achivied as
compared to recently proposed techniques of images coding.
|
29 |
Desenvolvimento de comprimidos de clozapina obtidos pelo método de compressão direta / Development of clozapine tablets by direct compressionSausen, Tiago Rafael January 2007 (has links)
O presente trabalho teve como objetivo o desenvolvimento de formulação para produção de comprimidos contendo 25 mg de clozapina através do método de compressão direta. A clozapina é utilizada no tratamento da psicose e consta na lista do Programa de Medicamentos Distribuídos em Caráter Excepcional do Ministério da Saúde. Para o desenvolvimento proposto, foi utilizado um desenho experimental do tipo desenho composto central a fim de avaliar a influência dos adjuvantes estearato de magnésio e croscarmelose sódica nas características dos comprimidos obtidos a partir de formulações que continham, além destes dois adjuvantes, dióxido de silício coloidal, celulose microcristalina e lactose spray-dried. Os complexos farmacêuticos formados apresentaram boa capacidade de escoamento e compactação e geraram comprimidos com parâmetros de qualidade dentro dos limites estabelecidos pelos códigos oficiais. A dureza e a friabilidade dos comprimidos foram mais suscetíveis à concentração de estearato de magnésio, enquanto que o tempo de desintegração sofreu maior influência da concentração de croscarmelose sódica. A eficiência de dissolução dos comprimidos também foi influenciada pela croscarmelose sódica, sendo que os comprimidos apresentaram perfis de dissolução característicos de formas farmacêuticas de liberação imediata. Dessa forma, através da comprovação da rápida dissolução dos comprimidos e da comparação das curvas de dissolução do medicamento de referência e do teste, verificou-se que a formulação contendo 4,41 % de croscarmelose, 1,59 % de estearato de magnésio, além de 0,5 % de dióxido de silício coloidal e uma mistura de celulose microcristalina e lactose (70:30 m/m), apresentou equivalência farmacêutica em relação ao medicamento de referência. / It was the aim of this work to develop tablets containing 25 mg of clozapine by direct compression. Clozapine is used in psychoses treatment and is included on Brazilian Healthy Ministry Program of drugs exceptionally distributed. To this purpose, a composite central design was used to estimate the influence of the excipients magnesium stearate and sodium croscarmelose on the characteristics of tablets containing additionally, colloidal silicon dioxide, microcrystalline cellulose and spraydried lactose. The pharmaceutical mixtures obtained demonstrated good flowing and compaction capacity. Additionally, the tablets produced quality parameters within the limits established by official codex. Hardness and friability were more susceptible to magnesium stearate concentration, while disintegration time was influenced by sodium croscarmelose concentration. The dissolution efficiency was also influenced by sodium croscarmelose. Additionally, the dissolution profiles of the tablets suggest an immediate release mechanism of clozapine. Our results demonstrated that the formulation containing 4,41 % of sodium croscarmelose, 1,59 % of magnesium stearate, 0,5 % of colloidal silicon dioxide and a mixture of microcrystalline cellulose and spray-dried lactose (70:30 w/w) is pharmaceutically equivalent to the reference product.
|
30 |
[en] COMPRESSION OF NATURAL NUMBERS, SEQUENCE OF BITS AND GRAPHS / [pt] COMPRESSÃO DE NÚMEROS NATURAIS, SEQUÊNCIA DE BITS E GRAFOSBRUNO TENORIO AVILA 01 June 2012 (has links)
[pt] Esta tese aborda os problemas de compressão para os seguintes tipos
de dados: sequência de bits e grafos web. Para o problema de compressão de
sequência de bits, demonstramos a relação entre algoritmos de intercalação
e codificadores de fonte binária. Em seguida, mostramos que os algoritmos
de intercalação binária (Hwang e Lin, 1972), recursivo (Dudzinski, 1981)
e probabilístico (Vega, 1993), geram respectivamente os codificadores de
entropia baseado em comprimentos de carreiras codificados com o código
de Rice, o codificador de intercalação binária (Moffat, 2000) e o codificador
de Rice aleatório, na qual é um novo variante do código de Rice.
Para o problema de compressão de grafos web, propomos uma nova representa
ção compacta para grafos web, intitulada árvore-w, construída especificamente
para memória externa (disco), sendo a primeira nesse gênero.
Propomos também um novo tipo de layout projetado especificamente para
grafos web, intitulado layout escalado. Além disso, mostramos como construir
um layout cache-oblivious para explorar a hierarquia de memórias,
sendo a primeira desse tipo. Apresentamos vários tipos de consultas que
podem ser executadas e é a primeira representação a suportar execução de
consulta de leitura aleatória em lote e a otimização de consultas avançadas,
inclusive em memória principal. Por fim, executamos uma série de experimentos
que mostra que a árvore-w apresenta taxas de compressão e de
tempo de execução competitivas com outras representações compactas em
memória principal. Assim, demonstramos empiricamente a viabilidade de
uma representação compacta para memória externa na prática, contrariando
a afirmação de vários pesquisadores (Suel, 2001) (Buehrer, 2008). / [en] This thesis addresses the problems of compression for the following
data types: numbers, sequence of bits and webgraphs. For the problem of
compression of a sequence of bits, we demonstrate the relationship between
merge algorithms and binary source coders. Then, we show that the algorithms
binary merge (Hwang and Lin, 1972), recursive merge (Dudzinski,
1981) and probabilistic merge (Vega, 1993), generate respectively an entropy
coder based runlengths encoded with the Rice code, the interpolative binary
coder (Moffat, 2000) and the random Rice coder, which is a new variant of
the Rice code. For the problem of webgraph compression, we propose a new
compact representation for webgraphs, entitled w-tree, built specifically for
external memory (disk), being the first one in this genre. We also propose a
new type of layout designed specifically for webgraphs, entitled scaled layout.
In addition, we show how to build a cache-oblivious layout to explore the
hierarchy of memories, being the first of its kind. We offer several types of
queries that can be performed and it is the first representation to support
batched random read query execution and advanced query optimization,
including in main memory. Finally, we performed a series of experiments
showing that the w-tree provides compression rates and running times competitive
with other compact representations for main memory. Therefore,
we demonstrate empirically the feasibility of a compact representation for
external memory in practice, contrary to the assertion of several researchers
(Suel, 2001) (Buehrer, 2008).
|
Page generated in 0.3398 seconds