• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 8
  • 5
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 82
  • 82
  • 41
  • 31
  • 29
  • 29
  • 26
  • 22
  • 21
  • 19
  • 17
  • 16
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Compressão de eletrocardiogramas usando wavelets / Compression of electrocardiograms using wavelets

Agulhari, Cristiano Marcos, 1983- 02 November 2009 (has links)
Orientador: Ivanil Sebastião Bonatti / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-12T20:20:55Z (GMT). No. of bitstreams: 1 Agulhari_CristianoMarcos_M.pdf: 901688 bytes, checksum: 97ec8feb4ee297c319c80463616a7391 (MD5) Previous issue date: 2009 / Resumo: A principal contribuição desta dissertação é a proposta de dois métodos de compressão de eletrocardiogramas (ECGs). O primeiro método, chamado Run Length Encoding Adaptativo (RLEA), é baseado nas transformadas wavelet e consiste basicamente em utilizar uma função wavelet, obtida pela resolução de um problema de otimização, que se ajuste ao sinal a ser comprimido. O problema de otimização torna-se irrestrito com a parametrização dos coeficientes do filtro escala, que definem unicamente uma função wavelet. Após a resolução do problema de otimização é aplicado o procedimento de decomposição wavelet no sinal e os coeficientes de representação mais significativos são retidos, sendo que o número de coeficientes retidos é determinado de forma a satisfazer uma medida de distorção pré-especificada. Os coeficientes retidos são então quantizados e compactados, assim como o bitmap que indica as posições dos coeficientes retidos. A quantização é feita de forma adaptativa, utilizando diferentes números de bits de quantização para os diferentes subespaços de decomposição considerados. Tanto os valores dos coeficientes retidos quanto o bitmap são codificados utilizando uma variante do método Run Length Encoding. O segundo método proposto nesta dissertação, chamado Zero Padding Singular Values Decomposition (ZPSVD), consiste em primeiramente detectar os batimentos, equalizá-los pela inserção de zeros (zero padding) e então aplicar a decomposição SVD para obter tanto a base quanto os coeficientes de representação dos batimentos. Alguns componentes da base são retidos e então comprimidos utilizando os mesmos procedimentos aplicados aos coeficientes de decomposição do ECG no método RLEA, enquanto que os coeficientes de projeção dos batimentos nessa base são quantizados utilizando um procedimento de quantização adaptativa. Os dois métodos de compressão propostos são comparados com diversos outros métodos existentes na literatura por meio de experimentos numéricos / Abstract: The main contribution of the present thesis is the proposition of two electrocardiogram (ECG) compression methods. The first method, called Run Length Encoding Adaptativo (RLEA), is based on wavelet transforms and consists of using a wavelet function, obtained by the resolution of an optimization problem, which fits to the signal to be compressed. The optimization problem becomes unconstrained with the parametrization of the coefficients of the scaling filter, that define uniquely a wavelet function. After the resolution of the optimization problem, the wavelet decomposition procedure is applied to the signal and the most significant coefficients of representation are retained, being the number of retained coefficients determined in order to satisfty a pre-specified distortion measure. The retained coefficients are quantized and compressed, likewise the bitmap that informs the positions of the retained coefficients. The quantization is performed in an adaptive way, using different numbers of bits for the different decomposition subspaces considered. Both the values of the retained coefficients and the bitmap are encoded using a modi- fied version of the Run Length Encoding technique. The second method proposed in this dissertation, called Zero Padding Singular Values Decomposition (ZPSVD), consists of detecting the beat pulses of the ECG, equalizing the pulses by inserting zeros (zero padding), and finally applying the SVD to obtain both the basis and the coefficients of representation of the beat pulses. Some components of the basis are retained and then compressed using the same procedures applied to the coefficients of decomposition of the ECG in the RLEA method, while the coefficients of projection of the beat pulses in the basis are quantized using an adaptive quantization procedure. Both proposed compression methods are compared to other techniques by means of numerical experiments / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
22

Compressão de byte-code utilizando recuperação de sintaxe abstrata

Costa, Bruno Kraychete da 11 August 2018 (has links)
Orientador: Guido Costa Souza de Araujo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-11T23:31:29Z (GMT). No. of bitstreams: 1 Costa_BrunoKraycheteda_M.pdf: 9665605 bytes, checksum: 16223ea98c66ee77839bcdaae9286d78 (MD5) Previous issue date: 2000 / Resumo: Com os avanços da tecnologia nas áreas de comunicação sem fio e computação pessoal, os chamados computadores portáteis. ou handhelds estão se tornando alvo de muita atenção em Computação. Por outro lado, linguagens cujo alvo são máquinas virtuais (ex. Java), têm permitido a construção de sistemas portáteis distribuídos que são independentes do processador. Os handhelds são normalmente projetados em torno de um processador dedicado e uma pequena quantidade de memória, de modo a manter baixo o custo do projeto. As limitações de memória encontradas em tais dispositivos, e o aumento da demanda por banda disponível. nas redes têm renovado o interesse em pesquisas voltadas para a compressão de código móvel. Neste trabalho, nós mostramos um método de compressão para estes dispositivos baseado na recuperação das Árvores de Sintaxe Abstrata (ASA) do programa. Resultados experimentais, utilizando o Benchmark JVM98, revelaram uma melhoria nas razões de compressão em relação àquelas obtidas usando exclusivamente o algoritmo Lempel-Ziv- Welch. / Abstract: With the advances in technologies for wireless communications and personal computing, the so called portable appliances or handhelds are expected to become mainstream computer devices. Gn the software side, languages targeted to virtual machines (eg. lava) have enabled the design of flexible mobile distributed systems that are independent of the underlying processor. In order to keep costs low, handhelds are usually designed around a cheap dedicated processor and a small memory set. The memory size constraints found on such devices, and the increasing demand for bandwidth have been renewing the research interest towards new program compression techniques. In this work, we show a compression method for these devices, that is based on the recovery of the program Abstract Syntax Trees. Experimental results, using the JVM98 Benchmark, reveal an improvement on the compression ratio over the LZW algorithm when the ASTs are recovered before com pression. / Mestrado / Mestre em Ciência da Computação
23

Um esquema de codificação adaptativa de imagens usando transformada cosseno discreta

Nascimento, Ayres Mardem Almeida do 01 August 2018 (has links)
Orientador: Yuzo Iano / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-01T07:39:33Z (GMT). No. of bitstreams: 1 Nascimento_AyresMardemAlmeidado_D.pdf: 1210920 bytes, checksum: 4c70b7a2494ff4c4d6529c3477a35ee3 (MD5) Previous issue date: 2001 / Doutorado
24

Uma arquitetura para execução de codigo comprimido em sistemas dedicados

Azevedo, Rodolfo Jardim de, 1974- 18 June 2002 (has links)
Orientador : Guido Costa Souza de Araujo / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-01T12:52:13Z (GMT). No. of bitstreams: 1 Azevedo_RodolfoJardimde_D.pdf: 18616768 bytes, checksum: 99d078e8664f7791ae046a28a3108976 (MD5) Previous issue date: 2002 / Resumo: Projetos de sistemas dedicados modernos têm exigido cada vez mais memória de programa para incluir novas funcionalidades como interface com o usuário, suporte a novos componentes, etc. O aumento no tamanho dos programas tem feito com que a área ocupada pela memória em um circuito integrado moderno seja um dos fatores determinantes no seu custo final bem como um dos maiores responsáveis pelo consumo de potência nestes dispositivos. A compressão de código de programa vem sendo considerada como uma estratégia importante na minimização deste problema. Esta tese trata da compressão de programas para execução em sistemas dedicados baseados em arquiteturas RISC. Um amplo estudo demonstra que a utilização do método proposto neste trabalho, Instruction Based Compression (IBC), resulta em boas razões de compressão e implementações eficientes de descompressores. Para a arquitetura MIPS foi obtida a melhor razão de compressão (tamanho final do programa comprimido e do descompressor em relação ao programa original) conhecida (53,6%) utilizando como benchmark programas do SPEC CINT'95. Uma arquitetura pipelined para o descompressor é proposta e um protótipo foi implementado para o processador Leon (SPARC V8). Esta é a primeira implementação em hardware de um descompressor para a arquitetura SPARC, tendo produzido uma razão de compressão de 61,8% para o mesmo benchmark e uma queda de apenas 5,89% no desempenho médio do sistema / Abstract: The demand for program memory in embedded systems has grown considerably in recent years, as a result of the need to accommodate new system functionalities such as novel user interfaces, additional hardware devices, etc. The increase in program size has turned memory into the largest single factor in the total area and power dissipation of a modern System-on-a-Chíp (SoC). Program code compression has been considered recently a central technique in reducing the cost of memory in such systems. This thesis studies the code compression problem for RISC architectures. A thorough experimental study shows that the Instructíon Based Compressíon (IBC) technique proposed herein results in very good compression ratios and efficient decompressor engine implementations. For the MIPS architecture this approach results in the best compression ratio (size of the compressed program divided by the size of the original program) known in the literature (53.6%), when it is evaluated using the SPEC CINT'95 benchmark programs. A decompressor pipelined architecture was developed and prototyped for the Leon (SPARC V8) processor. This is the first implementation of a hardware decompressor on the SPARC architecture, having resulted in a 61.8% compression ratio for the same benchmark, at the expense of a fairly small performance overhead (5.89% on average) / Doutorado / Doutor em Ciência da Computação
25

Compressão progressiva de imagens usando DCT e codigo de Golomb

Oliveira, Fabricio Correa de Araujo 02 August 2018 (has links)
Orientador : Max Henrique Machado Costa / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-02T20:04:46Z (GMT). No. of bitstreams: 1 Oliveira_FabricioCorreadeAraujo_M.pdf: 1139429 bytes, checksum: 099ebea5712f5fca3138f7018e9ff682 (MD5) Previous issue date: 2002 / Mestrado
26

Compressão de codigo baseada em multi-profile

Wanderley Netto, Eduardo Braulio 21 May 2004 (has links)
Orientadores: Paulo Cesar Centoducatte, Rodolfo Jardim de Azevedo / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-03T20:18:33Z (GMT). No. of bitstreams: 1 WanderleyNetto_EduardoBraulio_D.pdf: 1509383 bytes, checksum: 7f2b5d47609daeb50be111be056b2377 (MD5) Previous issue date: 2004 / Resumo: A compressão de códigos de programas representa uma alternativa para diminuição de área de silício usada na fabricação de chips para sistemas embarcados. Este requisito tem sido fortemente influenciado pela crescente funcionalidade, incluíndo aplicações em multimídia, exigida para os softwares que neles executam. Recentes estudos apresentam a compressão de código como alternativa também para melhorar o desempenho e reduzir o consumo de energia nestes sistemas. Este trabalho apresenta um novo método de compressão, o ComPacket, baseado em pequenos dicionários incompletos com um descompressor em hardware situado entre a cache e o processador (RISC), permitindo assim que a cache guarde o código comprimido e portanto possibilitando uma maior capacidade de armazenamento. Além disto, um novo paradigma de construção de dicionários é introduzido de tal forma a propiciar uma melhor exploração da tríade de requisitos área-desempenho-consumo de energia. Este paradigma baseia-se ao mesmo tempo em informações estatísticas obtidas de profiles dinâmico e estático do uso de instruções em um programa e por isto é denominado Multi-Profile. Foram realizados experimentos de uso de dicionários Multi-Profile em dois métodos de compressão de código: o Instruction Based Compression (IBC), desenvolvido anteriormente em nosso laboratório e o novo ComPacket. Para o IBC, a razão de compressão média varia entre 71% e 77% para um conjunto de aplicações retiradas das suites Mediabench e MiBench, enquanto o número de ciclos de clock usados para execução do código comprimido varia em média de 75% a 65% dos valores obtidos sem compressão. Usando o mesmo conjunto de aplicações e o ComPacket, a razão de compressão média varia entre 72% e 88%, o número de ciclos de clock chega a 52% do original para uma construção específica do dicionário e a redução no consumo de energia na cache de instruções chega a 46% do valor original (sem com pressão) / Abstract: Code compression is an approach to reduce the silicon area requirement to produce embedded systems chips. This requirement is stronlgy affected by the increasing functionality, including multimedia applications, required by the embedded softwares. Recently, some researches point out the code compression as an alternative to increase performance and reduce energy consumption. This work introduces a new code compression method, the ComPacket, based on small, incomplete dictionary and a new decompressor hardware which is located between the cache and the processor (RIS C), thus making the cache to keep compressed instructions augmenting its storage capacity. Moreover, a new paradigm to build dictionaries is introduced, such that a better exploration of area-performance-energy consumption trade-offs is achieved. This paradigm is based on both dynamic and static profiles informations at the same time, which led the name of Multi-Profile. We used this paradigm on two code compression scheme: the Instruction Based Compression (IBC), formerly developed in our Laboratory, and the new ComPacket. For the IBC, the average compression ratio varies from 71% to 77% for the benchmarks excerpted from Mediabench and MiBench suites, while a cycle count reduction of 75% to 65% were achieved (related to original uncompressed execution of the code). For the ComPacket, the average compression ratio varies from 72% to 88% and the cycle count reduction is as low as 52% for a special case of dicionary construction. The instruction cache energy reduction reaches 46% of the original / Doutorado / Doutor em Ciência da Computação
27

Estudo de caracterização de trafego e alocação de banda para redes ATM

Perlingeiro, Firmiano Ramos 25 July 2018 (has links)
Orientador: Lee Luan Ling / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-25T04:13:02Z (GMT). No. of bitstreams: 1 Perlingeiro_FirmianoRamos_M.pdf: 3189822 bytes, checksum: 07965fc6ad7d80019c485bbe75cedb6d (MD5) Previous issue date: 1999 / Resumo: A crescente competição no mundo dos negócios tem exigido que as empresas racionalizem e otimizem a utilização de seus recursos. Aliado a esse fato, o desenvolvimento de novos recursos computacionais e de telecomunicações nos últimos anos têm promovido uma evolução das aplicações e um crescimento da necessidade de serviços sem precedentes. Ambos os fatos têm causado substanciais alterações nas características de tráfego. Como conseqüência, a alocação de banda torna-se um importante aspecto no projeto de redes de telecomunicações. As duas maiores abordagens para alocação de banda levam em consideração a probabilidade de perda de células e o atraso das células mas sem considerar a característica auto-similar do tráfego, podendo subestimar a banda necessária. O objetivo deste trabalho é apresentar um método de caracterização de tráfego facilitando o cálculo da banda necessária para redes ATM. Neste estudo generalizamos o método proposto por Kesidis provendo uma estimativa mais realista considerando a característica auto-similar do tráfego. O resultado é otimizado através de método experimental e combinado com o método de Le Boudec. Neste estudo foram aplicados métodos analíticos, heurísticos e de simulação para validar o método proposto / Abstract: The increase of economic competition in the world has demanded companies rationalize and optimize the use of their resources. Jointly with this fact, the development of new computational and telecommunication facilities in the recent years have promoted some unprecedented evolution of application and increasing necessity of communication services. Both facts have caused remarkable changes in traffic characteristics. Therefore the bandwiih allocation become an important issue for telecommunication networks design. Cell loss probability and cell latency have been two major approaches to estimate the effective bandwidth of communication network connections. Unfortunately, most of methods underestimated values when traffic is self-similar. The goal of this work is to present traffic characterization method for ATM networks, facilitating their bandwidth allocation and design. In this study, we generalize the effective bandwidth estimation method proposed by Kesidis providing a more realistic estimate value whether the traffic is self-similar or not. Experimentally the estimated effective bandwidth is optimized to reduce the impact provoked by traffic highly self-similar and the results are combined with the Le Boudec's approach. For this end, analytical, heuristical and simulation methods were used jointly both in design and validation of the proposed method / Mestrado / Mestre em Engenharia Elétrica
28

Procedimentos para metodo hibrido de compressão de imagens digitais utilizando transformadas Wavelet e codificação fractal

Silva, Ana Lucia Mendes Cruz Silvestre da 05 May 2005 (has links)
Orientador: Yuzo Iano / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-04T08:06:11Z (GMT). No. of bitstreams: 1 Silva_AnaLuciaMendesCruzSilvestreda_D.pdf: 6306093 bytes, checksum: df224a66ce294e0b07b8601c24f317ef (MD5) Previous issue date: 2005 / Resumo: O principal obstáculo nas implementações da compressão fractal de images é o exaustivo tempo de codificação inerente. O objetivo desta pesquisa é introduzir uma nova aproximação para acelerar a codificação fractal de imagens através da aplicação da TWD e suas propriedades, sem que haja detrimento do PSNR ou da qualidade visual subjetiva. Logo, este trabalho apresenta um novo Codificador Híbrido Fractal-Wavelet, que aplica a compressão fractal acelerada à imagens estáticas decompostas pela transformada wavelet, explorando a correlação direcional das subimagens-wavelet. Este tipo de correlação foi constatada por Shapiro em outro contexto [2]. O esquema proposto promove melhor qualidade visual (compatível com as medidas de PSNR) e uma redução média de cerca de 80% no tempo de codificação-decodificação quando comparado aos resultados da codificação fractal pura para diversas imagens e taxas de bits. Adicionalmente os detalhes da imagem e as características de transmissão progressiva wavelet foram preservados. Nenhum artefato de blocagem, usualmente encontrados em codificadores fractais puros, resultou do processo de compressão híbrido. Os resultados deste trabalho demonstram o potencial da compressão híbrida fractal-wavelet como sendo uma ferramenta poderosa ainda a ser explorada / Abstract: The major drawback in the implementations of the fractal image compression is the exhaustive inherent encoding time. The objective of this research is to introduce a new approach to accelerate the fractal image coding through the application of the DWT and its properties without decrease in the PSNR as well as in the subjective visual quality. Thus, this work presents a New Fast Hybrid Fractal-Wavelet Image Coder that applies the accelerated fractal compression to wavelet transformed images by exploiting the directional correlation of the wavelet subimages. This kind of correlation was noticed by Shapiro in a different context [2]. The proposed scheme promotes better visual quality (compatible to the PSNR measures) and an average reduction of about 80% in encoding-decoding time when compared to the results of the pure accelerated fractal coding for several images and bitrates. Furthermore, the image details and the characteristics of wavelet progressive transmission are maintained; blocking effects, usually found in pure fractal coders, are not introduced. The results of this work demonstrate the potential of the fractal-wavelet hybrid compression as a powerful tool to be further explored. / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
29

Novas abordagens para compressão de documentos XML / New approaches for compression of XML documents

Teixeira, Márlon Amaro Coelho 19 August 2018 (has links)
Orientador: Leonardo de Souza Mendes / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-19T13:11:21Z (GMT). No. of bitstreams: 1 Teixeira_MarlonAmaroCoelho_M.pdf: 1086156 bytes, checksum: 1acfaaf659e42716010448c6781b6313 (MD5) Previous issue date: 2011 / Resumo: Atualmente, alguns dos fatores que determinam o sucesso ou fracasso das corporações estão ligados a velocidade e a eficiência da tomada de suas decisões. Para que estes quesitos sejam alcançados, a integração dos sistemas computacionais legados aos novos sistemas computacionais é de fundamental importância, criando assim a necessidade de que velhas e novas tecnologias interoperem. Como solução a este problema surge a linguagem XML, uma linguagem auto-descritiva, independente de tecnologia e plataforma, que vem se tornando um padrão de comunicação entre sistemas heterogêneos. Por ser auto-descritiva, a XML se torna redundante, o que gera mais informações a ser transferida e armazenada, exigindo mais recursos dos sistemas computacionais. Este trabalho consiste em apresentar novas abordagens de compressão específicas para a linguagem XML, com o objetivo de reduzir o tamanho de seus documentos, diminuindo os impactos sobre os recursos de rede, armazenamento e processamento. São apresentadas 2 novas abordagens, assim como os casos de testes que as avaliam, considerando os quesitos: taxa de compressão, tempo de compressão e tolerância dos métodos a baixas disponibilidades de memória. Os resultados obtidos são comparados aos métodos de compressão de XML que se destacam na literatura. Os resultados demonstram que a utilização de compressores de documentos XML pode reduzir consideravelmente os impactos de desempenho criados pela linguagem / Abstract: Actually, some of the factors that determine success or failure of a corporation are on the speed and efficiency of making their decisions. For these requirements are achieved, the integration of legacy computational systems to new computational systems is of fundamental importance, thus creating the need for old and new technologies interoperate. As a solution to this problem comes to XML, a language self-descriptive and platform-independent technology, and it is becoming a standard for communication between heterogeneous systems. Being self-descriptive, the XML becomes redundant, which generates more information to be transferred and stored, requiring more resources of computational systems. This work presents new approaches to specific compression for XML, in order to reduce the size of your documents, reducing the impacts on the reducing the impact on network, storage and processing resources. Are presented two new approaches as well as test cases that evaluate, considering the questions: compression ratio, compression time and tolerance of the methods to low memory availability. The results are compared to the XML compression methods that stand out in the literature. The results demonstrate that the use of compressors XML documents can significantly reduce the performance impacts created by the language / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
30

Geração de imagens SAR escalonadas com o algoritmo "chirp scaling".

Gustavo Costa Vieira de Araujo 00 December 2004 (has links)
Neste trabalho é feita a análise da expansão e contração de imagens SAR realizada pelo algoritmo de síntese de imagens denominado Chirp Scaling. O processo de mudança de escala da imagem SAR pode ser utilizado, por exemplo, para o registro de imagens visando a sua utilização nos processos de interferometria e no calculo da coerência entre imagens. Faz-se a descrição do algoritmo Chirp Scaling e analisam-se duas metodologias para a mudança da escala da imagem nas dimensões azimutal (direção de vôo do sensor) e radial (direção de propagação da onda eletromagnética). A título de comparação é feita a análise do algoritmo de síntese de imagens denominado Range-Doppler. As duas metodologias de escalonamento utilizadas no algoritmo Chirp Scaling foram avaliadas por intermédio de imagens de alvos pontuais simuladas e por imagens do sensor orbital ERS-1/2.

Page generated in 0.022 seconds