• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 8
  • 5
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 82
  • 82
  • 41
  • 31
  • 29
  • 29
  • 26
  • 22
  • 21
  • 19
  • 17
  • 16
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Um mecanismo eficiente para a compressão de dados em banco de dados orientado a colun para diispositivos móveis / An Efficient Technique for Data Compression in Column-Oriented Database for Mobile Devices (Inglês)

Amorim, Danielle Christina Costa 06 September 2013 (has links)
Made available in DSpace on 2019-03-29T23:38:39Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-09-06 / Accessing data anywhere and anytime, via mobile devices, is a very present reality nowadays. However, even with technological advances, such de-vices may have limited computing resources, such as available secondary mem-ory space and data processing capacity. It is well known that data compression feature may reduce significantly the size of databases as well as improve the performance of I/O intensive workloads. This work presents an approach for data compression to be applied over data existing in such devices to optimize the memory space. The used framework implements a storage column oriented architecture. One of the major advantages concerning this approach is its effect on compression, because data is stored in columns, and there is only one type of data in each column, thus it is possible to use the most appropriate technique for each data type. Experimental results show that the proposed technique reduces the space allocated to store data on mobile devices, and ensures reasonable data access time to access compressed data. The compression technique does not jeopardize data access efficiency. Keywords: Database, Mobile database, Data compression, Column-oriented database. / Acessar dados em qualquer lugar e a qualquer momento, através de dispositivos móveis, é uma realidade muito presente nos dias atuais. Porém, mesmo com os avanços tecnológicos, tais dispositivos apresentam recursos computacionais limitados, tais como espaço de memória secundária e capacidade de processamento. Quando se utiliza esse tipo de dispositivo reduzir o espaço de memória usado é um aspecto critico. Porém, o uso da compressão de dados pode reduzir significativamente o espaço dos dados desses dispositivos, bem como melhorar a performance de E/S. Esse trabalho apresenta um mecanismo eficiente para a compressão de dados em dispositivos móveis que otimiza o espaço em memória, além de não pôr em risco a eficiência do acesso aos dados. O mecanismo tem como base uma arquitetura de armazenamento orientada à coluna. Uma das principais vantagens desse tipo de armazenamento é a compressão, pois os dados são armazenados em colunas, e existe apenas um tipo de dados em cada coluna, assim é possível utilizar a técnica de compressão mais adequada para cada tipo de dado. Resultados experimentais mostram que a técnica de compressão proposta reduz o espaço alocado para armazenar os dados em dispositivos móveis, e garante o acesso aos dados compactados num tempo razoável. Palavras-chave: Banco de Dados, Banco de Dados Móveis, Banco de Dados Orientado a Coluna, Compressão de Dados.
12

Compressão sem perdas de projeções de tomografia computadorizada usando a transformada Wavelet

Sanches, Ionildo José 27 October 2010 (has links)
No description available.
13

Proteção desigual de erros em arquivos compactados / Marcos Alexandre Araújo Siqueira ; [orientador, Marcelo Eduardo Pellenz]

Siqueira, Marcos Alexandre Araújo January 2005 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2005 / Inclui bibliografia / Os algoritmos de compressão sem perdas baseados na codificação de Lempel-Ziv são amplamente usados para compressão de textos e também em determinados esquemas de compressão com perdas para imagem e vídeo. Em sistemas multimídia, sempre é necessário manipu
14

A hybrid no-reference video quality metric for digital transmission applincatios

Morais, Dário Daniel Ribeiro 09 March 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-05-26T21:27:49Z No. of bitstreams: 1 2017_DarioDanielRibeiroMorais.pdf: 11590245 bytes, checksum: 2daecd1489fc94cb4c8afb7736e1181f (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-05-29T23:07:11Z (GMT) No. of bitstreams: 1 2017_DarioDanielRibeiroMorais.pdf: 11590245 bytes, checksum: 2daecd1489fc94cb4c8afb7736e1181f (MD5) / Made available in DSpace on 2017-05-29T23:07:11Z (GMT). No. of bitstreams: 1 2017_DarioDanielRibeiroMorais.pdf: 11590245 bytes, checksum: 2daecd1489fc94cb4c8afb7736e1181f (MD5) Previous issue date: 2017-05-29 / Este trabalho visa desenvolver uma métrica híbrida de qualidade de vídeo sem referência para aplicações de transmissão digital, que leva em consideração três tipos de artefatos: perda de pacotes, blocado e borrado. As características desses artefatos são extraídas a partir das sequências de vídeo a fim de quantificar a força desses artefatos. A avaliação de perda de pacotes é dividida em 2 etapas: detecção e medição. As avaliações de blocado e borrado seguem referências da literatura. Depois de obter as características dos três tipos de artefatos, um processo de aprendizado de máquina (SVR) é utilizado para estimar a nota de qualidade prevista a partir das características extraídas. Os resultados obtidos com a métrica proposta foram comparados com os resultados obtidos com outras três métricas disponíveis na literatura (duas métricas NR de perda de pacotes e 1 métrica FR) e eles são promissores. A métrica proposta é cega, rápida e confiável para ser usada em cenários em tempo real. / This work aims to develop a hybrid no-reference video quality metric for digital transmission applications, which takes into account three types of artifacts: packet-loss, blockiness and bluriness. Features are extracted from the video sequences in order to quantity the strength of these three artifacts. The assessment of the packet-loss strength is performed in 2 stages: detection and measurement. The assessment of the strength of blockiness and blussiness follow references from literature. After obtaining the features from these three types of artifacts, a machine learning algorithm ( the support vector regression technique), is used to estimate the predicted quality score from the extracted features. The results obtained with the proposed metric were compared with the results obtained with three other metrics available in the literature (two NR packet-loss metrics and one FR metric). The proposed metric is blind, fast, and reliable to be used in real-time scenarios.
15

Sistema de esteganografia em áudio digital que utiliza técnicas eficientes de inserção de dados

Schütz, Cristiano Augusto January 2009 (has links)
Made available in DSpace on 2013-08-07T18:53:11Z (GMT). No. of bitstreams: 1 000412960-Texto+Completo-0.pdf: 778127 bytes, checksum: a6289858979d586fcbd985f416013d0c (MD5) Previous issue date: 2009 / This dissertation presents an improvement to a spread spectrum audio steganography technique that allows us to embed much more information into the host signal, with no perceptual quality degradation, by using three different lossless data compression methods on the data sources. An error-correcting code (ECC) is also used in order to allow higher data bit rates without affecting the detection error probability. The psychoacoustic model, as well as the spread spectrum technique, are explained in details, and the behavior of the human auditory system (HAS) under the effect of auditory stimuli is described. Furthermore, embedding capacity measurement tests and audio perceptual quality evaluation tests – more specifically the basic version of the Perceptual Evaluation of Audio Quality (PEAQ) algorithm (ITU, 1998-2001) – are performed over six different audio excerpts, with different compressed text files as data sources. Finally, a comparison of the compression algorithms used in this dissertation is presented, proving that data compression do not affect the perceptual audio quality and, at the same time, it can enhance the host signal embedding capacity in over 100%. / Esta dissertação apresenta uma melhoria feita em uma técnica de esteganografia para áudio que emprega espalhamento espectral (spread spectrum), o que permite que se insira muito mais informação no sinal hospedeiro, sem que com isso haja degradação da qualidade perceptual, utilizando três métodos diferentes de compressão de dados sem perdas nas fontes de dados. Um código corretor de erros (ECC) também é utilizado a fim de permitir taxas de bits de dados mais altas sem afetar a probabilidade de erros de detecção. O modelo psicoacústico, assim como a técnica de espalhamento espectral, são explicados em detalhes, e o comportamento do sistema auditivo humano (HAS) sob o efeito de estímulos auditivos é descrito. Além disso, testes de medição da capacidade de inserção e de avaliação da qualidade perceptual do áudio – mais especificamente a versão básica do algoritmo Perceptual Evaluation of Audio Quality (PEAQ) (ITU, 1998-2001) – são realizados com seis diferente excertos de áudio e diferentes arquivos de texto comprimidos sendo utilizados como fontes de dados. Finalmente, é apresentada uma comparação dos algoritmos de compressão utilizados nesta dissertação, provando que a compressão dos dados não afeta a qualidade perceptual do áudio e, ao mesmo tempo, pode aumentar a capacidade de inserção do sinal hospedeiro em mais de 100%.
16

Dedupeer: um algoritmo para deduplicação de arquivos através de processamento particionado

Soares, Paulo Fernando Almeida 28 August 2013 (has links)
Submitted by Luiz Felipe Barbosa (luiz.fbabreu2@ufpe.br) on 2015-03-12T12:54:34Z No. of bitstreams: 2 Dissertação Paulo Soares.pdf: 1814911 bytes, checksum: 49222357c42fc4ab6506dff18824fa1d (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T12:53:37Z (GMT) No. of bitstreams: 2 Dissertação Paulo Soares.pdf: 1814911 bytes, checksum: 49222357c42fc4ab6506dff18824fa1d (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T12:53:37Z (GMT). No. of bitstreams: 2 Dissertação Paulo Soares.pdf: 1814911 bytes, checksum: 49222357c42fc4ab6506dff18824fa1d (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-08-28 / A deduplicação é uma técnica de compressão de dados sem perda que elimina dados redundantes tanto intra-file como inter-file, diferente de ferramentas de compressão de dados como o gzip que só eliminam a redundância intra-file. A deduplicação reduz a necessidade de armazenamento através da eliminação de blocos de dados redundantes. Na deduplicação, todos os blocos de dados que estão duplicados em um sistema de armazenamento podem ser reduzidos à uma única cópia, esses blocos desalocados pela deduplicação são transformados em referência para o que foi mantido no sistema. Técnicas de deduplicação começaram a ser estudadas para sistemas de armazenamento comerciais em meados de 2004. Hoje, os principais sistemas de armazenamento de dados usam deduplicação, mas os algoritmos implementados e as técnicas utilizadas não são detalhadas publicamente. Existem alguns trabalhos acadêmicos focados na implementação de algoritmos de deduplicação, mas eles são raros e não são voltados para a sua utilização em sistemas de armazenamento existentes. O principal objetivo deste trabalho é criar um algoritmo para deduplicação de arquivos no cliente de forma remota, através de processamento particionado e utilizando comparação por fingerprints. Este algoritmo foi incorporado em um componente de software com interface interoperável para facilitar a utilização em qualquer sistema de armazenamento de dados e beneficiá-los com economia de armazenamento, e na transferência de dados no caso dos sistemas de armazenamento distribuídos. Além do componente de software, foi desenvolvido também um sistema de armazenamento com gerenciamento de dados baseado no Apache Cassandra, o que o torna capaz de ser distribuído, com o objetivo de validar o algoritmo de deduplicação. A integração do componente de software com o sistema de armazenamento foi implementada e avaliada neste trabalho.
17

Otimização bytecode Java na plataforma J2ME

Pinto Camara, Tarcisio January 2004 (has links)
Made available in DSpace on 2014-06-12T15:59:18Z (GMT). No. of bitstreams: 2 arquivo5023_1.pdf: 1253051 bytes, checksum: 0bb4a72739c259711e027e24c5f3659f (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Aplicações para os dispositivos móveis, como telefones celulares e pagers, implementadas em J2ME (Java 2 Micro Edition) são desenvolvidas sob severas restrições de tamanho e desempenho do código. A indústria tem adotado ferramentas de otimização, como obfuscators e shrinkers, que aplicam otimizações de programa inteiro (Whole Program Optimizations) considerando que o código gerado não será estendido ou usado por outras aplicações. Infelizmente, os desenvolvedores freqüentemente não conhecem suficientemente nestas ferramentas e continuam sacrificando a qualidade do código na tentativa de otimizar suas aplicações. Este trabalho apresenta um estudo original identificando a efetividade das otimizações mais comuns nos obfuscators. Este estudo mostra também que a otimização de Method Inlining, conhecida pelos benefícios de desempenho, tem sido negligenciada por estas ferramentas por normalmente esperarse que ela tenha efeito negativo sobre o tamanho de código. Assim, este trabalho contribui com uma implementação de method inlining entre classes e fundada no princípio de otimização de programa inteiro, capaz de melhorar tanto o tamanho do código como o desempenho da aplicação, ao remover cerca de 50% dos métodos alcançáveis. Finalmente, na tentativa de ajudar os desenvolvedores a tirar o melhor proveito destas ferramentas, o estudo inclui também um guia de boas práticas de programação considerando as otimizações implementadas pelos obfuscators
18

Analise da compactação de energia na codificação de imagens por sub-bandas, utilizando banco de filtros lineares e não-lineares

Bergamo, Rubem Toledo 29 September 2000 (has links)
Orientador: João Baptista T. Yabu-uti / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-27T02:29:43Z (GMT). No. of bitstreams: 1 Bergamo_RubemToledo_M.pdf: 5494689 bytes, checksum: 0e9b4c2a4e247d985158114b3427d100 (MD5) Previous issue date: 2000 / Resumo: Este trabalho avalia sistemas baseados em transformadas de multi-resolução ou decomposição em sub-bandas na aplicação em codificação de sinais e imagens. Uma importante propriedade que estas formas de representação exibem é a compactação de energia no domínio dos coeficientes resultantes da transformada. Este trabalho investiga esta propriedade através de uma medida empírica definida como ganho de compactação (GC). Em muitos casos esta medida é igual ao ganho de codificação em sub-bandas em relação à codificação PCM. A medida proposta apresenta a vantagem de poder ser calculada exclusivamente a partir das variâncias das sub-bandas geradas. Segundo esta medida, a eficiência de compactação de energia de diversos bancos de filtros lineares e 000lineares é estudada para várias imagens de teste. Estimam-se as complexidades computacionais dos bancos de filtros que tiveram melhor desempenho quanto à compactação de energia e implementa-se um sistema básico de compressão de imagens para avaliar o desempenho dos bancos de filtros através da PSNR versus taxa de compressão e da qualidade visual / Abstract: This study evaluates some systems based on multiresolution transforms or subband decomposition in image coding. An important characteristic presented by those forms of representation is the compaction of energy in the transform domain. This work investigates such a characteristic using of an empirical measure, witch is defined as compaction gain (CO). In many cases, this measure is equal to the subband coding gain in relation to PCM coding. The proposed measure is advantageous since it may be calculated exc1usively through the variance of the subbands. According to that measure, the efficiency in energy compaction of severa1linear and non-linear filter banks is analyzed for a number of test images. Computational complexity is evaluated for the filter banks which achieved the best performances regarding energy compaction, and a basic system for image compaction has been implemented in order to evaluate the performance of the filter banks concerning PSNR versus compression rate and visual quality / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
19

Procedimentos para medição e minimização do efeito de bloco decorrente do processamento digital de imagens (PDI)

Silva, Fernando Silvestre da 27 July 2018 (has links)
Orientador: Yuzo Iano / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-27T15:22:05Z (GMT). No. of bitstreams: 1 Silva_FernandoSilvestreda_M.pdf: 4996586 bytes, checksum: 8d99a9993fc9f18ef2c32b5ddf2f80ef (MD5) Previous issue date: 2001 / Mestrado
20

Compressão de sinais de eletrocardiograma : /b uma contribuição ao seu estudo

Nicolosi, Denys Emílio Campion, 1956- 17 September 1999 (has links)
Orientadores: Marcio Luiz de Andrade Netto, Dalton Soares Arantes / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-28T14:33:55Z (GMT). No. of bitstreams: 1 Nicolosi_DenysEmilioCampion_D.pdf: 8955129 bytes, checksum: 8f8ef3bc0a751ee4e96a249a94724a59 (MD5) Previous issue date: 1999 / Resumo: A área de Compressão de Dados de sinais digitalizados de Eletrocardiograma, ECG, tem grande importância prática pela economia de espaço de memória, de arquivo, ou de tempo de transmissão que ela viabiliza, e é considerada uma área efervescente, onde trabalhos científicos de excelente nível têm sido publicados. Neste trabalho, desenvolve-se um procedimento novo de criação experimental da função taxa da distorção ("Rate Distortion Function"), R(D), utilizada em comunicações e com raízes na Teoria da Informação. O método desenvolvido realiza a decomposição do sinal em componentes principais (Principal Component Analysis) e cria a curva R(D) através da recuperação parcial desses componentes principais. A taxa R é computada através da entropia das Funções de Densidade de Probabilidade dos pesos (scores) de cada componente principal utilizado nesta recuperação parcial, obtendo-se então a relação RxD. Os resultados obtidos representam uma referência para esta área, pois impõem um limitante inferior para a melhor taxa de compressão que se pode obter para esses sinais. Foi possível também caracterizar a Função de Densidade de Probabilidade para sinais de ECG, que não tinha sido bem explorada na literatura. Constatou-se que ela se aproxima fortemente de uma função Laplaciana. ...Observação: O resumo, na íntegra, poderá ser visualizado no texto completo da tese digital / Abstract: Data Compression of Electrocardiogram digitalized signals is a very important subject in many aspects, such as memory and space economy or data transmission, and it is considered an area in constant development with excelent scientific works worldwide. In this work, a new procedure for the experimental computation of the Rate Distortion Function, R(D), is developed. This is a function which is commonly used in Communications and whose origins are in the Information Theory. This work presents a novel procedure for determining the R(D) function, by means of a decomposition of the signal in its principals components (Principal Components Analysis). The R(D) curve is then created through the partial recuperation of these principals components, as a function of the distortion D obtained from this partial recovery. The Rate "R", is then obtained using each of the Principal Component score values derived from its probability density function, in such a way that the relation "R x D" is obtained. It was also possible in this work, to characterize the probability density function for ECG signals, which have not been well explored in the literature : We have concluded that this density is very dose to a Laplacian function, which is a surprising result. ...Note: The complete abstract is available with the full electronic digital thesis or dissertations / Doutorado / Doutor em Engenharia Elétrica

Page generated in 0.0901 seconds