• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 8
  • 5
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 36
  • 36
  • 36
  • 17
  • 16
  • 15
  • 14
  • 12
  • 9
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Compressão de dados de demanda elétrica em Smart Metering / Data compression electricity demand in Smart Metering

Flores Rodriguez, Andrea Carolina, 1987- 08 August 2014 (has links)
Orientador: Gustavo Fraidenraich / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-26T03:16:11Z (GMT). No. of bitstreams: 1 FloresRodriguez_AndreaCarolina_M.pdf: 1415054 bytes, checksum: 6b986968e8d7ec4e6459e4cea044d379 (MD5) Previous issue date: 2014 / Resumo: A compressão dos dados de consumo residencial de energia elétrica registrados torna-se extremadamente necessária em Smart Metering, a fim de resolver o problema de grandes volumes de dados gerados pelos medidores. A principal contribuição desta tese é a proposta de um esquema de representação teórica da informação registrada na forma mais compacta, sugerindo uma forma de atingir o limite fundamental de compressão estabelecido pela entropia da fonte sobre qualquer técnica de compressão disponibilizada no medidor. A proposta consiste na transformação de codificação dos dados, baseado no processamento por segmentação: no tempo em taxas de registros de 1/900 Hz a 1 Hz, e nos valores de consumo residencial de energia elétrica. Este último subdividido em uma compressão por amplitude mudando sua granularidade e compressão dos dados digitais para representar o consumo com o menor número de bits possíveis usando: PCM-Huffman, DPCM-Huffman e codificação de entropia supondo diferentes ordens de distribuição da fonte. O esquema é aplicado sobre dados modelados por cadeias de Markov não homogêneas para as atividades dos membros da casa que influenciam no consumo elétrico e dados reais disponibilizados publicamente. A avaliação do esquema é feita analisando o compromisso da compressão entre as altas taxas de registro, distorção resultante da digitalização dos dados, e exploração da correlação entre amostras consecutivas. Vários exemplos numéricos são apresentados ilustrando a eficiência dos limites de compressão. Os resultados revelam que os melhores esquemas de compressão de dados são encontrados explorando a correlação entre as amostras / Abstract: Data compression of recorded residential electricity consumption becomes extremely necessary on Smart Metering, in order to solve the problem of large volumes of data generated by meters. The main contribution of this thesis is to propose a scheme of theoretical representation of recorded information in the most compact form, which suggests a way to reach the fundamental limit of compression set by the entropy of the source, of any compression technique available in the meter. The proposal consists in the transformation of data encoding, based on the processing by segmentation: in time by registration rate from 1/900 Hz to 1 Hz, and in the values of residential electricity consumption. The latter is subdivided into compression: by amplitude changing their regularity, and digital data compression to represent consumption as few bits as possible. It is using PCM-Huffman, DPCM-Huffman and entropy encoding by assuming different orders of the source. The scheme is applied to modeled data by inhomogeneous Markov chains to create the activities of household members that influence electricity consumption, and real data publicly available. The assessment scheme is made by analyzing the trade off of compression between high registration rates, the distortion resulting from the digitization of data, and analyzing the correlation of consecutive samples. Several examples are presented to illustrate the efficiency of the compression limits. The analysis reveals that better data compression schemes can be found by exploring the correlation among the samples / Mestrado / Telecomunicações e Telemática / Mestra em Engenharia Elétrica
32

Novas abordagens para compressão de documentos XML / New approaches for compression of XML documents

Teixeira, Márlon Amaro Coelho 19 August 2018 (has links)
Orientador: Leonardo de Souza Mendes / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-19T13:11:21Z (GMT). No. of bitstreams: 1 Teixeira_MarlonAmaroCoelho_M.pdf: 1086156 bytes, checksum: 1acfaaf659e42716010448c6781b6313 (MD5) Previous issue date: 2011 / Resumo: Atualmente, alguns dos fatores que determinam o sucesso ou fracasso das corporações estão ligados a velocidade e a eficiência da tomada de suas decisões. Para que estes quesitos sejam alcançados, a integração dos sistemas computacionais legados aos novos sistemas computacionais é de fundamental importância, criando assim a necessidade de que velhas e novas tecnologias interoperem. Como solução a este problema surge a linguagem XML, uma linguagem auto-descritiva, independente de tecnologia e plataforma, que vem se tornando um padrão de comunicação entre sistemas heterogêneos. Por ser auto-descritiva, a XML se torna redundante, o que gera mais informações a ser transferida e armazenada, exigindo mais recursos dos sistemas computacionais. Este trabalho consiste em apresentar novas abordagens de compressão específicas para a linguagem XML, com o objetivo de reduzir o tamanho de seus documentos, diminuindo os impactos sobre os recursos de rede, armazenamento e processamento. São apresentadas 2 novas abordagens, assim como os casos de testes que as avaliam, considerando os quesitos: taxa de compressão, tempo de compressão e tolerância dos métodos a baixas disponibilidades de memória. Os resultados obtidos são comparados aos métodos de compressão de XML que se destacam na literatura. Os resultados demonstram que a utilização de compressores de documentos XML pode reduzir consideravelmente os impactos de desempenho criados pela linguagem / Abstract: Actually, some of the factors that determine success or failure of a corporation are on the speed and efficiency of making their decisions. For these requirements are achieved, the integration of legacy computational systems to new computational systems is of fundamental importance, thus creating the need for old and new technologies interoperate. As a solution to this problem comes to XML, a language self-descriptive and platform-independent technology, and it is becoming a standard for communication between heterogeneous systems. Being self-descriptive, the XML becomes redundant, which generates more information to be transferred and stored, requiring more resources of computational systems. This work presents new approaches to specific compression for XML, in order to reduce the size of your documents, reducing the impacts on the reducing the impact on network, storage and processing resources. Are presented two new approaches as well as test cases that evaluate, considering the questions: compression ratio, compression time and tolerance of the methods to low memory availability. The results are compared to the XML compression methods that stand out in the literature. The results demonstrate that the use of compressors XML documents can significantly reduce the performance impacts created by the language / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
33

Tópicos em seleção de modelos markovianos / Topics in selection of Markov models

Viola, Márcio Luis Lanfredi, 1978- 19 August 2018 (has links)
Orientador: Jesus Enrique Garcia / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-19T15:10:51Z (GMT). No. of bitstreams: 1 Viola_MarcioLuisLanfredi_D.pdf: 951071 bytes, checksum: 87d2c8b2501105bc64aab5e92c769ea4 (MD5) Previous issue date: 2011 / Resumo: Nesta tese abordamos o problema estatístico de seleção de um modelo Markoviano de ordem finita que se ajuste bem a um conjunto de dados em duas situações diferentes. Em relação ao primeiro caso, propomos uma metodologia para a estimação de uma árvore de contextos utilizando-se amostras independentes sendo que a maioria delas são provenientes de um mesmo processo de Markov de memória variável finita e as demais provêm de um outro processo Markoviano de memória variável finita. O método proposto é baseado na taxa de entropia relativa simetrizada como uma medida de similaridade. Além disso, o conceito de ponto de ruptura assintótico foi adaptado ao nosso problema de seleção a fim de mostrar que o procedimento proposto, nesta tese, é robusto. Em relação ao segundo problema, considerando um processo de Markov multivariado de ordem finita, propomos uma metodologia consistente que fornece a partição mais fina das coordenadas do processo de forma que os seus elementos sejam condionalmente independentes. O método obtido é baseado no BIC (Critério de Informação Bayesiano). Porém, quando o número de coordenadas do processo cresce, o custo computacional do critério BIC torna-se excessivo. Neste caso, propomos um algoritmo mais eficiente do ponto de vista computacional e a sua consistência é demonstrada. A eficiência das metodologias propostas foi estudada através de simulações e elas foram aplicadas em dados linguísticos / Abstract: This work related two statistical problems involving the selection of a Markovian model of finite order. Firstly, we propose a procedure to choose a context tree from independent samples, with more than half of them being realizations of the same finite memory Markovian processes with finite alphabet with law P. Our model selection strategy is based on estimating relative entropies to select a subset of samples that are realizations of the same law. We define the asymptotic breakdown point for a model selection procedure, and show the asymptotic breakdown point for our procedure. Moreover, we study the robust procedure by simulations and it is applied to linguistic data. The aim of other problem is to develop a consistent methodology for obtain the finner partitions of the coordinates of an multivariate Markovian stationary process such that their elements are conditionally independents. The proposed method is establishment by Bayesian information criterion (BIC). However, when the number of the coordinates of process increases, the computing of criterion BIC becomes excessive. In this case, we propose an algorithm more efficient and the its consistency is demonstrated. It is tested by simulations and applied to linguistic data / Doutorado / Estatistica / Doutor em Estatística
34

Design and evaluation of compact ISAs / Estudo e avaliação de conjuntos de instruções compactos

Lopes, Bruno Cardoso, 1985- 24 August 2018 (has links)
Orientador: Rodolfo Jardim de Azevedo / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-24T12:29:38Z (GMT). No. of bitstreams: 1 Lopes_BrunoCardoso_D.pdf: 3162388 bytes, checksum: 3a46d0fb9404a69bf87489922e4743b0 (MD5) Previous issue date: 2014 / Resumo: Sistemas embarcados modernos são compostos de SoC heterogêneos, variando entre processadores de baixo e alto custo. Apesar de processadores RISC serem o padrão para estes dispositivos, a situação mudou recentemente: fabricantes estão construindo sistemas embarcados utilizando processadores RISC - ARM e MIPS - e CISC (x86). A adição de novas funcionalidades em software embarcados requer maior utilização da memória, um recurso caro e escasso em SoCs. Assim, o tamanho de código executável é crítico, porque afeta diretamente o número de misses na cache de instruções. Processadores CISC costumavam possuir maior densidade de código do que processadores RISC, uma vez que a codificação de instruções com tamanho variável beneficia as instruções mais usadas, os programas são menores. No entanto, com a adição de novas extensões e instruções mais longas, a densidade do CISC em aplicativos recentes tornou-se similar ao RISC. Nesta tese de doutorado, investigamos a compressibilidade de processadores RISC e CISC; SPARC e x86. Nós propomos uma extensão de 16-bits para o processador SPARC, o SPARC16. Apresentamos também, a primeira metodologia para gerar ISAs de 16-bits e avaliamos a compressão atingida em comparação com outras extensões de 16-bits. Programas do SPARC16 podem atingir taxas de compressão melhores do que outros ISAs, atingindo taxas de até 67%. O SPARC16 também reduz taxas de cache miss em até 9%, podendo usar caches menores do que processadores SPARC mas atingindo o mesmo desempenho; a redução pode chegar à um fator de 16. Estudamos também como novas extensões constantemente introduzem novas funcionalidades para o x86, levando ao inchaço do ISA - com o total de 1300 instruções em 2013. Alem disso, 57 instruções se tornam inutilizadas entre 1995 e 2012. Resolvemos este problema propondo um mecanismo de reciclagem de opcodes utilizando emulação de instruções legadas, sem quebrar compatibilidade com softwares antigos. Incluímos um estudo de caso onde instruções x86 da extensão AVX são recodificadas usando codificações menores, oriundas de instruções inutilizadas, atingindo até 14% de redução no tamanho de código e 53% de diminuição do número de cache misses. Os resultados finais mostram que usando nossa técnica, até 40% das instruções do x86 podem ser removidas com menos de 5% de perda de desempenho / Abstract: Modern embedded devices are composed of heterogeneous SoC systems ranging from low to high-end processor chips. Although RISC has been the traditional processor for these devices, the situation changed recently; manufacturers are building embedded systems using both RISC - ARM and MIPS - and CISC processors (x86). New functionalities in embedded software require more memory space, an expensive and rare resource in SoCs. Hence, executable code size is critical since performance is directly affected by instruction cache misses. CISC processors used to have a higher code density than RISC since variable length encoding benefits most used instructions, yielding smaller programs. However, with the addition of new extensions and longer instructions, CISC density in recent applications became similar to RISC. In this thesis, we investigate compressibility of RISC and CISC processors, namely SPARC and x86. We propose a 16-bit extension to the SPARC processor, the SPARC16. Additionally, we provide the first methodology for generating 16-bit ISAs and evaluate compression among different 16-bit extensions. SPARC16 programs can achieve better compression ratios than other ISAs, attaining results as low as 67%. SPARC16 also reduces cache miss rates up to 9%, requiring smaller caches than SPARC processors to achieve the same performance; a cache size reduction that can reach a factor of 16. Furthermore, we study how new extensions are constantly introducing new functionalities to x86, leading to the ISA bloat at the cost a complex microprocessor front-end design, area and energy consumption - the x86 ISA reached over 1300 different instructions in 2013. Moreover, analyzed x86 code from 5 Windows versions and 7 Linux distributions in the range from 1995 to 2012 shows that up to 57 instructions get unused with time. To solve this problem, we propose a mechanism to recycle instruction opcodes through legacy instruction emulation without breaking backward software compatibility. We present a case study of the AVX x86 SIMD instructions with shorter instruction encodings from other unused instructions to yield up to 14% code size reduction and 53% instruction cache miss reduction in SPEC CPU2006 floating-point programs. Finally, our results show that up to 40% of the x86 instructions can be removed with less than 5% of overhead through our technique without breaking any legacy code / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
35

Uma combinação entre os critérios objetivo e subjetivo na classificação de imagens mamográficas comprimidas pelo método fractal

Vergütz, Stéphany 29 November 2013 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Images are relevant sources of information in many areas of science and technology. The processing of such information improves and optimizes its use. The image compression causes the information representation is more efficient, reducing the amount of data required to represent an image. The objective of this study is to evaluate the performance of Fractal Compression technique onto mammograms through an association between the objective criteria, provided by Peak Signal Noise Ration (PSNR); and the subjective criteria, given by visual analysis of an expert physician. Visual analysis was performed comparing mammograms compressed to different extents (compression rate) with the original image, where experts classified the compressed images as unacceptable , acceptable , good or great . In doing so, the optimal compression rate and PSNR values of mammograms was achieved, where images are considered acceptable according to experts. In order to compare the performance of fractal compression technique with another compression method, visual analysis was also done on images compressed by JPEG2000 method. / As imagens são fontes relevantes de informação em diversas áreas da ciência e tecnologia. O processamento dessas informações melhora e otimiza sua utilização. A compressão de imagens faz com que a representação da informação seja mais eficiente, reduzindo a quantidade de dados necessários para representar uma imagem. O objetivo deste trabalho é apresentar a avaliação do desempenho da compressão fractal aplicada a imagens mamográficas, pela combinação entre o critério objetivo, fornecido pela relação sinal ruído de pico (Peak Signal Noise Ratio - PSNR), e o critério subjetivo, especificado pela análise visual de médicos especialistas. A análise visual foi realizada comparando as imagens mamográficas comprimidas com diferentes taxas de compressão e a imagem original. Os especialistas classificaram as imagens comprimidas como \"inaceitável\", \"aceitável\", \"boa\" ou \"ótima\". Dessa maneira, conseguiu-se combinar a taxa de compressão e o valor de PSNR, para que as imagens comprimidas sejam consideradas aceitáveis pelos especialistas. Para avaliar o desempenho da compressão fractal foram realizados testes e análises visuais com as mesmas imagens utilizando o método de compressão JPEG2000. / Mestre em Ciências
36

Inteligência computacional no sensoriamento a fibra ótica / Computational intelligence applied to optical fiber sensing

Negri, Lucas Hermann 20 February 2017 (has links)
CAPES; CNPq; Fundação Araucária; FINEP / Esta tese apresenta aplicações de inteligência computacional para o aprimoramento de sensoriamento ótico realizado com sensores em fibra ótica. Para tanto, redes neurais artificiais (perceptron de múltiplas camadas), máquinas de vetor de suporte para regressão, evolução diferencial e métodos de sensoriamento compressivo são empregados em conjunto com transdutores de redes de Bragg em fibras óticas. As redes neurais artificiais, máquinas de vetor de suporte para regressão e redes de Bragg são empregadas na localização de uma carga aplicada sobre uma placa de acrílico. É apresentado um novo método utilizando evolução diferencial para a solução do problema do espalhamento inverso em redes de Bragg em fibra ótica, propondo o uso de restrições para solucioná-lo na ausência de informação de fase do sinal refletido. Um método para a detecção de múltiplas cargas posicionadas acima de uma placa de metal é proposto. Neste método, a placa de metal é suportada por anéis de ferro contendo redes de Bragg em fibra ótica e a detecção das cargas é realizada com o uso de métodos de sensoriamento compressivo para a solução do problema inverso subdeterminado resultante. A troca dos anéis de ferro por blocos de silicone e um novo método baseado em sensoriamento compressivo e evolução diferencial são propostos. Os resultados experimentais mostram que os métodos computacionais propostos auxiliam o sensoriamento e podem permitir uma melhoria da resolução espacial do sistema sem a necessidade do aumento do número de elementos transdutores. / This thesis presents new optical fiber sensing methodologies employing computational intelligence approaches seeking for the improvement of the sensing performance. Particularly, artificial neural networks, support vector regression, differential evolution and compressive sensing methods were employed with fiber Bragg grating transducers. Artificial neural networks (multilayer perceptron) and fiber Bragg gratings were used to determine the location of a load applied to a polymethyl methacrylate sheet. A new method based on the application of differential evolution is proposed to solve the inverse scattering problem in fiber Bragg gratings, where constraints are imposed to solve the problem without the need of phase information. A method for detecting multiple loads on a metal sheet is also proposed. In this method, the metal sheet is supported by iron rings containing fiber Bragg gratings, and compressive sensing methods are employed to solve the resulting underdetermined inverse problem. Further developments of the method replaced the iron rings by silicon blocks and employed a new reconstruction method based on compressive sensing and differential evolution. Experimental results show that the proposed computational methods improve the optical fiber sensing and lead to an enhancement of the spatial resolution without increasing the number of transducers.

Page generated in 0.07 seconds