• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 119
  • 14
  • Tagged with
  • 133
  • 86
  • 58
  • 53
  • 51
  • 29
  • 27
  • 27
  • 26
  • 24
  • 22
  • 18
  • 17
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

[en] INTERNAL COMBUSTION ENGINES WITH VARIABLE COMPRESSION RATIO: A THEORETICAL AND EXPERIMENTAL ANALYSIS / [pt] MOTORES A COMBUSTÃO INTERNA COM TAXA DE COMPRESSÃO VARIÁVEL: UMA ANÁLISE TEÓRICA E EXPERIMENTAL

RENATO NUNES TEIXEIRA 01 February 2012 (has links)
[pt] É realizado um estudo teórico experimental sobre motores a combustão interna operando com taxa de compressão variável. É feita uma análise teórica sobre determinado mecanismo que permite variar a taxa de compressão. Para tal foi utilizado um programa de simulação para motores com ignição por centelha. No presente trabalho o modelo de simulação foi aprimorado, com a inclusão de previsão de detonação, de emissão de hidrocarbonetos, do cálculo da potencia de atrito, assim como a inclusão do dispositivo do mecanismo de taxa de compressão variável, entre outras alterações. Uma parte experimental foi também realizada, como o objetivo de validar os resultados do modelo teórico e de quantificar os benefícios proporcionados pelo mecanismo em questão. Para tal um motor de pesquisa de combustível – motor CFR – foi utilizado. Uma comparação dos resultados teóricos e experimentais obtidos no presente trabalho com os de outros pesquisadores é também apresentada. / [en] The present work is concerned with a theoretical and expererimental study of variable compression ratio spark ignition internal combustion engines. A theoretical analysis of the engine, operating with a mechanism allows for variable compression ratio, is carried out. For that a simulation program is utilized. In the present work the simulation model was updated with the inclusion of friction, knocking and hidrocarbon emission models, among other things. An experimental work was also carried out, with a CFR engine. The objective was a wo-fold to validade the results of the theoretical model and to assens the benefits of running an engine with variable compression ratio. A comparison is also made between the rrsults of the present work and those from other authors.
22

[en] BEHAVIOR OF SLENDER HIGH STRENGTH CONCRETE COLUMNS UNDER UNIAXIAL AND BIAXIAL ECCENTRIC LOADS / [pt] COMPORTAMENTO DE PILARES ESBELTOS DE CONCRETO DE ALTA RESISTÊNCIA SOB FLEXÃO COMPOSTA RETA E OBLÍQUA

BETZABET EVELIN VILAVILA NORIEGA 18 April 2011 (has links)
[pt] Trata-se de um estudo experimental do comportamento de pilares de alta resistência submetidos à flexão composta reta e oblíqua. Foram ensaiados oito pilares com seção transversal de 25x15 cm e comprimento de 300 cm, compondo duas séries de 4 pilares cada uma. Na primeira série, a resistência do concreto foi de 40 MPa e os quatro pilares foram ensaiados à flexão composta oblíqua. Na segunda série, a resistência do concreto foi de 70 MPa e os quatro pilares foram ensaiados à flexão composta reta. Em cada série, a variável foi a taxa de armadura longitudinal que assumiu os valores 1,3%, 2,1%, 3,2% e 4,3%. A finalidade foi verificar os valores da excentricidade de segunda ordem que devem ser considerados no dimensionamento de pilares de concreto de alta resistência. Os resultados experimentais foram comparados com os obtidos pelos métodos do Pilar Padrão com Curvatura Aproximada e do Pilar Padrão com Rigidez Aproximada que constam na NBR 6118:2003. Essa comparação mostrou que o método da curvatura aproximada apresenta valores das excentricidades de 2ª ordem próximos dos reais no caso de pilares submetidos à flexão composta reta e oblíqua, enquanto que o método da rigidez aproximada é contra a segurança só na maioria dos ensaios de pilares submetidos à flexão composta reta. / [en] This work presents an experimental study of the behavior of slender high strength concrete columns under uniaxial and biaxial eccentric compression loads. Eight columns with cross-section of 15x25 cm and height of 300 cm were tested, divided into two series. In the first series, the concrete strength was 40 MPa and the four columns were tested under biaxial compression. In the second series, the concrete strength was 70 MPa and the four columns were tested under uniaxial compression. In each series, the variable was the longitudinal reinforcement ratio which assumed the values 1,3%, 2,1%, 3,2% e 4,3%. The objective was to verify the values of the eccentricity of second order that should be taken into account in the design of slender high strength concrete columns. The experimental results were compared with theoretical results obtained by the models of the approximated curvature and approximated stiffnes methods prescribed in the NBR 6118:2003 code. This comparison showed that the method of curvature approximate present values of the eccentricities of second order close to the real in the case of columns under uniaxial and biaxial eccentric compression loads, while the method of stiffness approximate is lower security in columns under uniaxial eccentric compression load.
23

[en] REORGANIZATION AND COMPRESSION OF SEISMIC DATA / [pt] REORGANIZAÇÃO E COMPRESSÃO DE DADOS SÍSMICOS

FLAVIA MEDEIROS DOS ANJOS 19 February 2008 (has links)
[pt] Dados sísmicos, utilizados principalmente na indústria de petróleo, costumam apresentar dimensões de dezenas de gigabytes e em alguns casos, centenas. Este trabalho apresenta propostas de manipulação destes dados que ajudem a contornar problemas enfrentados por aplicativos de processamento e interpretação sísmica ao trabalhar com arquivos deste porte. As propostas se baseiam em reorganização e compressão. O conhecimento do formato de utilização dos dados permite reestruturar seu armazenamento diminuindo o tempo gasto com a transferência entre o disco e a memória em até 90%. A compressão é utilizada para diminuir o espaço necessário para armazenamento. Para dados desta natureza os melhores resultados, em taxa de redução, são das técnicas de compressão com perda, entre elas as compressões por agrupamento. Neste trabalho apresentamos um algoritmo que minimiza o erro médio do agrupamento uma vez que o número de grupos tenha sido determinado. Em qualquer método desta categoria o grau de erro e a taxa de compressão obtidos dependem do número de grupos. Os dados sísmicos possuem uma coerência espacial que pode ser aproveitada para melhorar a compressão dos mesmos. Combinando-se agrupamento e o aproveitamento da coerência espacial conseguimos comprimir os dados com taxas variando de 7% a 25% dependendo do erro associado. Um novo formato é proposto utilizando a reorganização e a compressão em conjunto. / [en] Seismic data, used mainly in the petroleum industry, commonly present sizes of tens of gigabyte, and, in some cases, hundreds. This work presents propositions for manipulating these data in order to help overcoming the problems that application for seismic processing and interpretation face while dealing with file of such magnitude. The propositions are based on reorganization and compression. The knowledge of the format in which the data will be used allows us to restructure storage reducing disc- memory transference time up to 90%. Compression is used to save storage space. For data of such nature, best results in terms of compression rates come from techniques associated to information loss, being clustering one of them. In this work we present an algorithm for minimizing the cost of clustering a set of data for a pre-determined number of clusters. Seismic data have space coherence that can be used to improve their compression. Combining clustering with the use of space coherence we were able to compress sets of data with rates from 7% to 25% depending on the error associated. A new file format is proposed using reorganization and compression together.
24

[en] COMPRESSION IGNITION OF ETHANOL-POWERED IN RAPID COMPRESSION MACHINE / [pt] IGNIÇÃO POR COMPRESSÃO DE ETANOL ADITIVADO EM UMA MÁQUINA DE COMPRESSÃO RÁPIDA

FERNANDO ZEGARRA SANCHEZ 07 March 2017 (has links)
[pt] Com o passar do tempo, a humanidade tem uma maior dependência na geração de energia, utilizada para promoção de conforto, transporte e outros. Com a finalidade de resolver este aumento de demanda, novas fontes eficientes, de preferência renováveis, estão sendo pesquisadas. O transporte é uma das atividades que tem maior dependência dos combustíveis fósseis, além de ser também um dos maiores geradores de gases de efeito estufa. É por isso, que em diversas partes do mundo, o homem pesquisa novas fontes de energia renováveis que possam ser substitutas dos atuais tradicionais usados no transporte. Sabe-se, que os motores Diesel são mais eficientes com relação aos motores Otto. Devido a este fato, há mais 30 anos pesquisam-se e desenvolvem-se sistemas de ignição por compressão, movidos com combustíveis renováveis, o qual permita a diminuição da dependência dos combustíveis fósseis e garanta a redução de gases de efeito estufa. O etanol é um candidato para substituir o oleo Diesel, mas tem que se levar em conta algumas alterações (aumento da relação de compressão, adição de melhoradores da autoignição, etc.) antes de ser utilizado nos motores Diesel. Com base nisto, a presente tese apresenta uma nova proposta, utilizar como melhorador da autoignição do etanol o n-butanol. Para tal propósito se desenvolveu diversos testes com diversas relações de compressão, percentuais em massa de aditivo na mistura de etanol e diversos avanços da injeção. Os testes foram realizados em uma máquina de compressão rápida (MCR) com misturas de etanol e polietilenoglicol 400 e 600, n-butanol, além dos testes refenciais com óleo Disel e ED95. Os resultados mostram que o n-butanol, com uma participação de 10 por cento na mistura, pode ser utilizado como melhorador da autoignição do etanol em sistemas de ignição por compressão. / [en] Over time, humanity has developed a greater reliance inpower generation, used to promoter comfort, transport and others. In order to address this increased demand new efficient sources are being searched, in preference, renewable sources. Transportation is one of the activities that have greater reliance on fossil fuels as well as being one of the largest generators of greenhouse gases. Therefore, in many parts of the world men are engaged in the search of new renewable energy sources that can substitute the current one used in transport. It is known that diesel engines are more efficient in comparison to the Otto engime. Due to this fact, for more than 30 years research has been conducted in order to develop ignition systems by compression, powered with renewable fuels, which reduces the dependence on fossil fuels and the emission of greenhouse gases. Ethanol is a viable candidate to replace diesel oil, but some improvements have to be accounted for before it s used in diesel engines, improvements such as the increase in compression ratio, adding auto-ignition improves, etc. Based on the facts presented, this thesis offers a new proposal, the use of n-butanol as an auto-ignition improver for ethanol. For this purpose several tests have been executed with various compression ratios, mass percentage of additive in the mixture off ethanol and many start of injections. The tests were performed in a rapid compression machine (RCM) with mixtures of ethanol and polyethylene glycol 400 and 600, and n-butanol inaddition to the reference test with diesel oil and ED95. The results show that n-butanol with a 10 per cent share of the mixture, can be used as an auto ignition improver for ethanol in compression ignition systems.
25

[en] CRYPTO-COMPRESSION PREFIX CODING / [pt] CODIFICAÇÃO LIVRE DE PREFIXO PARA CRIPTO-COMPRESSÃO

CLAUDIO GOMES DE MELLO 16 May 2007 (has links)
[pt] Cifragem e compressão de dados são funcionalidades essencias quando dados digitais são armazenados ou transmitidos através de canais inseguros. Geralmente, duas operações sequencias são aplicadas: primeiro, compressão de dados para economizar espaço de armazenamento e reduzir custos de transmissão, segundo, cifragem de dados para prover confidencialidade. Essa solução funciona bem para a maioria das aplicações, mas é necessário executar duas operações caras, e para acessar os dados, é necessário primeiro decifrar e depois descomprimir todo o texto cifrado para recuperar a informação. Neste trabalho são propostos algoritmos que realizam tanto compressão como cifragem de dados. A primeira contribuição desta tese é o algoritmo ADDNULLS - Inserção Seletiva de Nulos. Este algoritmo usa a técnica da esteganografia para esconder os símbolos codificados em símbolos falsos. É baseado na inserção seletiva de um número variável de símbolos nulos após os símbolos codificados. É mostrado que as perdas nas taxas de compressão são relativamente pequenas. A segunda contribuição desta tese é o algoritmo HHC - Huffman Homofônico-Canônico. Este algoritmo cria uma nova árvore homofônica baseada na árvore de Huffman canônica original para o texto de entrada. Os resultados dos experimentos são mostrados. A terceira contribuição desta tese é o algoritmo RHUFF - Huffman Randomizado. Este algoritmo é uma variante do algoritmo de Huffman que define um procedimento de cripto-compressão que aleatoriza a saída. O objetivo é gerar textos cifrados aleatórios como saída para obscurecer as redundâncias do texto original (confusão). O algoritmo possui uma função de permutação inicial, que dissipa a redundância do texto original pelo texto cifrado (difusão). A quarta contribuição desta tese é o algoritmo HSPC2 - Códigos de Prefixo baseados em Substituição Homofônica com 2 homofônicos. No processo de codificação, o algoritmo adiciona um bit de sufixo em alguns códigos. Uma chave secreta e uma taxa de homofônicos são parâmetros que controlam essa inserção. É mostrado que a quebra do HSPC2 é um problema NP- Completo. / [en] Data compression and encryption are essential features when digital data is stored or transmitted over insecure channels. Usually, we apply two sequential operations: first, we apply data compression to save disk space and to reduce transmission costs, and second, data encryption to provide confidentiality. This solution works fine for most applications, but we have to execute two expensive operations, and if we want to access data, we must first decipher and then decompress the ciphertext to restore information. In this work we propose algorithms that achieve both compressed and encrypted data. The first contribution of this thesis is the algorithm ADDNULLS - Selective Addition of Nulls. This algorithm uses steganographic technique to hide the real symbols of the encoded text within fake ones. It is based on selective insertion of a variable number of null symbols after the real ones. It is shown that coding and decoding rates loss are small. The disadvantage is ciphertext expansion. The second contribution of this thesis is the algorithm HHC - Homophonic- Canonic Huffman. This algorithm creates a new homophonic tree based upon the original canonical Huffman tree for the input text. It is shown the results of the experiments. Adding security has not significantly decreased performance. The third contribution of this thesis is the algorithm RHUFF - Randomized Huffman. This algorithm is a variant of Huffman codes that defines a crypto-compression algorithm that randomizes output. The goal is to generate random ciphertexts as output to obscure the redundancies in the plaintext (confusion). The algorithm uses homophonic substitution, canonical Huffman codes and a secret key for ciphering. The secret key is based on an initial permutation function, which dissipates the redundancy of the plaintext over the ciphertext (diffusion). The fourth contribution of this thesis is the algorithm HSPC2 - Homophonic Substitution Prefix Codes with 2 homophones. It is proposed a provably secure algorithm by using a homophonic substitution algorithm and a key. In the encoding process, the HSPC2 function appends a one bit suffx to some codes. A secret key and a homophonic rate parameters control this appending. It is shown that breaking HSPC2 is an NP-Complete problem.
26

Desenvolvimento algorítmico e arquitetural para a estimação de movimento na compressão de vídeo de alta definição / Algorithmic and architectural development for motion estimation on high definition video compression

Porto, Marcelo Schiavon January 2012 (has links)
A compressão de vídeo é um tema extremamente relevante no cenário atual, principalmente devido ao crescimento significativo da utilização de vídeos digitais. Sem a compressão, é praticamente impossível enviar ou armazenar vídeos digitais devido à sua grande quantidade de informações, inviabilizando aplicações como televisão digital de alta definição, vídeo conferência, vídeo chamada para celulares etc. O problema vem se tornando maior com o crescimento de aplicações de vídeos de alta definição, onde a quantidade de informação é consideravelmente maior. Diversos padrões de compressão de vídeo foram desenvolvidos nos últimos anos, todos eles podem gerar grandes taxas de compressão. Os padrões de compressão de vídeo atuais obtêm a maior parte dos seus ganhos de compressão explorando a redundância temporal, através da estimação de movimento. No entanto, os algoritmos de estimação de movimento utilizados atualmente não consideram as variações nas características dos vídeos de alta definição. Neste trabalho uma avaliação da estimação de movimento em vídeos de alta definição é apresentada, demonstrando que algoritmos rápidos conhecidos, e largamente utilizados pela comunidade científica, não apresentam os mesmos resultados de qualidade com o aumento da resolução dos vídeos. Isto demonstra a importância do desenvolvimento de novos algoritmos focados em vídeos de altíssima definição, superiores à HD 1080p. Esta tese apresenta o desenvolvimento de novos algoritmos rápidos de estimação de movimento, focados na codificação de vídeos de alta definição. Os algoritmos desenvolvidos nesta tese apresentam características que os tornam menos suscetíveis à escolha de mínimos locais, resultando em ganhos significativos de qualidade em relação aos algoritmos rápidos convencionais, quando aplicados a vídeos de alta definição. Além disso, este trabalho também visa o desenvolvimento de arquiteturas de hardware dedicadas para estes novos algoritmos, igualmente dedicadas a vídeos de alta definição. O desenvolvimento arquitetural é extremamente relevante, principalmente para aplicações de tempo real a 30 quadros por segundo, e também para a utilização em dispositivos móveis, onde requisitos de desempenho e potência são críticos. Todos os algoritmos desenvolvidos foram avaliados para um conjunto de 10 sequências de teste HD 1080p, e seus resultados de qualidade e custo computacional foram avaliados e comparados com algoritmos conhecidos da literatura. As arquiteturas de hardware dedicadas, desenvolvidas para os novos algoritmos, foram descritas em VHDL e sintetizadas para FPGAs e ASIC, em standard cells nas tecnologias 0,18μm e 90nm. Os algoritmos desenvolvidos apresentam ganhos de qualidade para vídeos de alta definição em relação a algoritmos rápidos convencionais, e as arquiteturas desenvolvidas possuem altas taxas de processamento com baixo consumo de recursos de hardware e de potência. / Video compression is an extremely relevant theme in today’s scenario, mainly due to the significant growth in digital video applications. Without compression, it is almost impossible to send or store digital videos, due to the large amount of data that they require, making applications such as high definition digital television, video conferences, mobiles video calls, and others unviable. This demand is increasing since there is a strong growth in high definition video applications, where the amount of information is considerably larger. Many video coding standards were developed in the last few years, all of them can achieve excellent compression rates. A significant part of the compression gains in the current video coding standards are obtained through the exploration of the temporal redundancies by means of the motion estimation process. However, the current motion estimation algorithms do not consider the inherent variations that appear in high and ultra-high definition videos. In this work an evaluation of the motion estimation in high definition videos is presented. This evaluation shows that some well know fast algorithms, that are widely used by the scientific community, do not keep the same quality results when applied to high resolution videos. It demonstrates the relevance of new fast algorithms that are focused on high definition videos. This thesis presents the development of new fast motion estimation algorithms focused in high definition video encoding. The algorithms developed in this thesis show some characteristics that make them more resilient to avoid local minima, when applied to high definition videos. Moreover, this work also aims at the development of dedicated hardware architectures for these new algorithms, focused on high definition videos. The architectural development is extremely relevant, mainly for real time applications at 30 frames per second, and also for mobile applications, where performance and power are critical issues. All developed algorithms were assessed using 10 HD 1080p test video sequences, and the results for quality and computational cost were evaluated and compared against known algorithms from the literature. The dedicated hardware architectures, developed for the new algorithms, were described in VHDL and synthesized for FPGA and ASIC. The ASIC implementation used 0.18μm and 90nm CMOS standard cells technology. The developed algorithms present quality gains in comparison to regular fast algorithms for high definition videos, and the developed architectures presents high processing rate with low hardware resources cost and power consumption.
27

Proposta e avaliação de técnicas para compressão de transitórios rápidos e análise tempo-frequência de distúrbios em redes elétricas AC / Proposal and evaluation of techniques for fast transient data compression and time-frequency analysis of AC power line disturbances

Soares, Leonardo Bandeira January 2013 (has links)
Este trabalho trata de conceitos relacionados à qualidade da Energia Elétrica (EE) e, neste contexto, apresenta a proposta de técnicas para a compressão da representação de transitórios rápidos e da análise tempo-frequência de distúrbios elétricos em geral. A qualidade da Energia Elétrica é medida pelo coeficiente de desvios que os sinais de tensão e corrente apresentam em relação ao sinal senoidal ideal. Tais desvios são denominados de distúrbios, podendo ser classificados como quase estacionários (e.g. distorção de harmônicas) e eventos (e.g. transitórios rápidos). No contexto de EE, os transitórios rápidos possuem pequena duração (i.e. na ordem dos microssegundos), são detectados por altas taxas de amostragem (i.e. na ordem dos MHz) e possuem difícil parametrização. Portanto, as representações das formas de onda geralmente são armazenadas para auxiliar a avaliação subjetiva dos transitórios e dos parâmetros de interesse. Consequentemente, a compressão destas formas de onda torna-se de extrema importância para armazenar dados adquiridos por longos períodos de tempo, e estes modos de compressão são tratados nesta dissertação. Em virtude das altas taxas de amostragem utilizadas, uma técnica baseada em Análise de Componentes Principais (PCA – Principal Component Analysis) é proposta para esta representação mais compacta de transitórios. Resultados mostram que o desempenho em compressão versus qualidade de reconstrução é semelhante ao de trabalhos relacionados com a vantagem de atender aos requisitos de altas taxas de amostragem. A análise tempo-frequência é um mecanismo que auxilia na classificação e caracterização dos distúrbios elétricos. Neste trabalho, a Transformada de Hilbert-Huang é estudada e uma proposta de melhoria na Decomposição Empírica de Modos (EMD – Empirical Mode Decomposition) é apresentada. Nossos resultados mostram que a técnica proposta economiza o custo computacional se comparada com o estado da arte. Em virtude disso, a técnica proposta apresenta uma taxa de redução no tempo médio de execução de 99,76 % em relação à técnica do estado da arte. Além disso, uma verificação acerca do desempenho em eficiência de compressão versus qualidade de reconstrução de trabalhos anteriores é também desenvolvida nesta dissertação. Foi utilizada uma sistemática de avaliação experimental com base em amostras de sinais AC, de forma a avaliar as taxas de compressão atingidas pelas técnicas estudadas, como a Transformada Wavelet Discreta. Resultados mostram que a Transformada Wavelet falha para compressão de todo e qualquer tipo de distúrbio elétrico quando analisado o compromisso entre acuidade de reconstrução versus eficiência de compressão. / This work deals with concepts related to the AC Power Quality theoretical framework and, in this scope, proposes techniques for the representation of fast transient data compression and for the power line disturbances time-frequency analysis. The AC power quality is measured by the differences between actual and ideal sinusoidal voltage/current signals. These differences are known as electrical disturbances, which can be classified as quasi-stationary (e.g. harmonic distortion) or events (e.g. surge or fast transients) disturbances. In the AC Power Quality scope, the fast transients have short duration (i.e. typically on the order of microseconds), are detected by high sampling rates (i.e. typically on the order of MHz), and are hard to characterize and parameterize. Hence, the resultant representation of the waveforms is in general stored to help in the subjective evaluation of these fast transients and their parameters of interest. As a consequence the compression turns out to be of main concern, in order to store this information acquired over long periods of time (like weeks or months). In this work, a compression technique is proposed taking into account the high sampling rates. The proposed technique makes use of the Principal Component Analysis (PCA) for such compact representation of fast transients. The Compression efficiency versus reconstruction accuracy results show a similar performance for the proposed technique when compared to the related works. On the other hand, the proposed technique can handle the large amount of data provided by the high sampling rates. The time-frequency analysis helps in the classification and characterization of AC power quality disturbances. In this work, the Hilbert-Huang Transform is studied and a modification is proposed in order to improve the Empirical Mode Decomposition (EMD) performance. Our results show that the proposed modification can save computational cost when compared to the state-of-the-art. Therefore, the average execution time is reduced to 99.76 % in comparison with the state-of-the-art technique. Besides that, this work also revisits previous techniques based on the Discrete Wavelet Transform (DWT) in order to verify the trade-off between reconstruction accuracy versus compression efficiency under a more systematic experimental evaluation setup, considering samples of real AC signals. Results show that DWT fails as a general-purpose technique in AC Power Quality scope.
28

[en] IMAGE COMPRESSION USING WAVELET TRANSFORM AND TRELLIS CODE VECTOR QUANTIZATION WITH ENTROPY CONSTRAINT / [pt] COMPRESSÃO DE IMAGENS USANDO TRANSFORMADA WAVELET E QUANTIZAÇÃO VETORIAL CODIFICADA EM TRELIÇA COM RESTRIÇÃO DE ENTROPIA

MARCUS VINICIUS FONSECA DE ARAUJO SILVA 17 July 2006 (has links)
[pt] Essa dissertação apresenta um codificador de imagens para baixas taxas de bits utilizando a decomposição da imagem em 10 sub-bandas através da aplicação da transformada wavelet. Uma técnica de redução de irrelevância visual é usada para descartar blocos de coeficientes das sub-bandas de alta freqüência (2 a 10). Os blocos remanescentes são classificados em bordas e não bordas e codificados através da técnica ECTCVQ ( Entropy-Constrained Trellis Coded Vector Quantization). Já a primeira sub-banda é codificada através da técnica PTCQ( Predictive Trellis Coded Quantization) com preservação de bordas. Na alocação de bits entre as sub-bandas é utilizado o algoritmo de Wersterink et al. Os resultados obtidos mostram um desempenho muito superior ao padrão JPEG, e bons resultados quando comparados a técnica de codificação de imagens recentes. / [en] This dissertation presentes a low bit rate image coder using a 10 sub-band image decomposition base don the wavelet transform. Some blocks of coefficients of the high frequency sub-bands are discarded by a technique of irrelevancy reduction. The remaning blocks are classified into edges and non-edges, and coded by ECTCVQ (Entropy- constrained Trellis Vector Quantization). The fist sub- band is coded by an edge preserving PTCQ (Predictive Trellis Coded Quantization), also proposed in this work. The Westerink et al. algorithm is used to allocate the bits between the sub-bands. The results obtained show that the performance of the proposed coder is Significantly superior so the one obtained with the standard JPEG. Moreover, good results are achivied as compared to recently proposed techniques of images coding.
29

Desenvolvimento de comprimidos de clozapina obtidos pelo método de compressão direta / Development of clozapine tablets by direct compression

Sausen, Tiago Rafael January 2007 (has links)
O presente trabalho teve como objetivo o desenvolvimento de formulação para produção de comprimidos contendo 25 mg de clozapina através do método de compressão direta. A clozapina é utilizada no tratamento da psicose e consta na lista do Programa de Medicamentos Distribuídos em Caráter Excepcional do Ministério da Saúde. Para o desenvolvimento proposto, foi utilizado um desenho experimental do tipo desenho composto central a fim de avaliar a influência dos adjuvantes estearato de magnésio e croscarmelose sódica nas características dos comprimidos obtidos a partir de formulações que continham, além destes dois adjuvantes, dióxido de silício coloidal, celulose microcristalina e lactose spray-dried. Os complexos farmacêuticos formados apresentaram boa capacidade de escoamento e compactação e geraram comprimidos com parâmetros de qualidade dentro dos limites estabelecidos pelos códigos oficiais. A dureza e a friabilidade dos comprimidos foram mais suscetíveis à concentração de estearato de magnésio, enquanto que o tempo de desintegração sofreu maior influência da concentração de croscarmelose sódica. A eficiência de dissolução dos comprimidos também foi influenciada pela croscarmelose sódica, sendo que os comprimidos apresentaram perfis de dissolução característicos de formas farmacêuticas de liberação imediata. Dessa forma, através da comprovação da rápida dissolução dos comprimidos e da comparação das curvas de dissolução do medicamento de referência e do teste, verificou-se que a formulação contendo 4,41 % de croscarmelose, 1,59 % de estearato de magnésio, além de 0,5 % de dióxido de silício coloidal e uma mistura de celulose microcristalina e lactose (70:30 m/m), apresentou equivalência farmacêutica em relação ao medicamento de referência. / It was the aim of this work to develop tablets containing 25 mg of clozapine by direct compression. Clozapine is used in psychoses treatment and is included on Brazilian Healthy Ministry Program of drugs exceptionally distributed. To this purpose, a composite central design was used to estimate the influence of the excipients magnesium stearate and sodium croscarmelose on the characteristics of tablets containing additionally, colloidal silicon dioxide, microcrystalline cellulose and spraydried lactose. The pharmaceutical mixtures obtained demonstrated good flowing and compaction capacity. Additionally, the tablets produced quality parameters within the limits established by official codex. Hardness and friability were more susceptible to magnesium stearate concentration, while disintegration time was influenced by sodium croscarmelose concentration. The dissolution efficiency was also influenced by sodium croscarmelose. Additionally, the dissolution profiles of the tablets suggest an immediate release mechanism of clozapine. Our results demonstrated that the formulation containing 4,41 % of sodium croscarmelose, 1,59 % of magnesium stearate, 0,5 % of colloidal silicon dioxide and a mixture of microcrystalline cellulose and spray-dried lactose (70:30 w/w) is pharmaceutically equivalent to the reference product.
30

[en] COMPRESSION OF NATURAL NUMBERS, SEQUENCE OF BITS AND GRAPHS / [pt] COMPRESSÃO DE NÚMEROS NATURAIS, SEQUÊNCIA DE BITS E GRAFOS

BRUNO TENORIO AVILA 01 June 2012 (has links)
[pt] Esta tese aborda os problemas de compressão para os seguintes tipos de dados: sequência de bits e grafos web. Para o problema de compressão de sequência de bits, demonstramos a relação entre algoritmos de intercalação e codificadores de fonte binária. Em seguida, mostramos que os algoritmos de intercalação binária (Hwang e Lin, 1972), recursivo (Dudzinski, 1981) e probabilístico (Vega, 1993), geram respectivamente os codificadores de entropia baseado em comprimentos de carreiras codificados com o código de Rice, o codificador de intercalação binária (Moffat, 2000) e o codificador de Rice aleatório, na qual é um novo variante do código de Rice. Para o problema de compressão de grafos web, propomos uma nova representa ção compacta para grafos web, intitulada árvore-w, construída especificamente para memória externa (disco), sendo a primeira nesse gênero. Propomos também um novo tipo de layout projetado especificamente para grafos web, intitulado layout escalado. Além disso, mostramos como construir um layout cache-oblivious para explorar a hierarquia de memórias, sendo a primeira desse tipo. Apresentamos vários tipos de consultas que podem ser executadas e é a primeira representação a suportar execução de consulta de leitura aleatória em lote e a otimização de consultas avançadas, inclusive em memória principal. Por fim, executamos uma série de experimentos que mostra que a árvore-w apresenta taxas de compressão e de tempo de execução competitivas com outras representações compactas em memória principal. Assim, demonstramos empiricamente a viabilidade de uma representação compacta para memória externa na prática, contrariando a afirmação de vários pesquisadores (Suel, 2001) (Buehrer, 2008). / [en] This thesis addresses the problems of compression for the following data types: numbers, sequence of bits and webgraphs. For the problem of compression of a sequence of bits, we demonstrate the relationship between merge algorithms and binary source coders. Then, we show that the algorithms binary merge (Hwang and Lin, 1972), recursive merge (Dudzinski, 1981) and probabilistic merge (Vega, 1993), generate respectively an entropy coder based runlengths encoded with the Rice code, the interpolative binary coder (Moffat, 2000) and the random Rice coder, which is a new variant of the Rice code. For the problem of webgraph compression, we propose a new compact representation for webgraphs, entitled w-tree, built specifically for external memory (disk), being the first one in this genre. We also propose a new type of layout designed specifically for webgraphs, entitled scaled layout. In addition, we show how to build a cache-oblivious layout to explore the hierarchy of memories, being the first of its kind. We offer several types of queries that can be performed and it is the first representation to support batched random read query execution and advanced query optimization, including in main memory. Finally, we performed a series of experiments showing that the w-tree provides compression rates and running times competitive with other compact representations for main memory. Therefore, we demonstrate empirically the feasibility of a compact representation for external memory in practice, contrary to the assertion of several researchers (Suel, 2001) (Buehrer, 2008).

Page generated in 0.0658 seconds