• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2072
  • 111
  • 100
  • 100
  • 99
  • 97
  • 51
  • 9
  • 3
  • 1
  • Tagged with
  • 2144
  • 2144
  • 682
  • 528
  • 528
  • 482
  • 433
  • 353
  • 342
  • 253
  • 248
  • 242
  • 241
  • 191
  • 180
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Identificação de problemas no fluxo de faturamento das operadoras de telecomunicações

De Luca, Sandro Daros January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T08:56:27Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T01:12:17Z : No. of bitstreams: 1 184564.pdf: 2802177 bytes, checksum: 1a55428196514e29bb5410c5beb3029d (MD5) / Este trabalho apresenta um mecanismo para analisar dados de chamadas telefônicas de teste. A idéia central é analisar problemas no fluxo de faturamento das operadoras, a partir dos registros de chamadas gerados pela central telefônica (CDR - Call Detail Recording) e dos gerados por um equipamento de teste. Com esta análise pretende-se indicar os pontos de falhas na geração dos CDRs. Para realizar esta análise, utilizar-se-á dos mecanismos computacionais de lógica fuzzy e regras de produção.
42

Detecção e remediação de erros através de múltiplas representações externas e da teoria da reparação

Silva, Derik Evangelista Rodrigues da January 2014 (has links)
Orientador : Prof. Dr.Andrey Ricardo Pimentel / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 29/08/2014 / Inclui referências / Resumo:Neste trabalho, são apresentados aspectos que ilustram a necessidade da utilização de múltiplas representações externas em um tutor inteligente para a remediação de erros cometidos pelo aprendiz. Nesta pesquisa é apresentado um tutor desenvolvido com base na Teoria da Reparação. Não foi encontrado nenhum trabalho na literatura científica que mesclasse a Teoria da Reparação com as Múltiplas Representações Externas para fins de remediação de erro. Foi realizado um estudo sobre conceitos e definições importantes na área de sistemas tutores inteligentes, teorias de aprendizado, múltiplas representações externas e classificações de erros matemáticos. Com base neste estudo, desenvolveu-se um tutor inteligente para ensino da operação de subtração, detalhando a sua arquitetura e funcionamento. Ao final, são apresentadas as perspectivas de trabalhos futuros. Palavras-chave: Objetos de Aprendizagem, Teoria da Reparação, remediação de erros, Múltiplas Representações Externas / Abstract: This document describes several aspects that illustrate the need to use multiple external representations in a intelligent tutoring system in order to remediate the student's errors. The main purpose of this research is present a tutor constructed over the repair theory. No work have been found in the scientic literature that put together the repair theory and multiple external representations, aiming the error remediation. A study of important concepts and denitions in the eld of intelligent tutoring systems, learning theories, multiple external representations and classications of mathematical errors was conducted. Based on this study, an intelligent tutor was developed for teaching of the subtraction, detailing its architecture and operation. Finally, we present future works perspectives. Keywords: Learning objects, Repair Theory, error remediation, Multiple External Representations
43

Gerando dados para o teste de mutação de linha de produto de software com algoritmos de otimização multiobjetivo

Matnei Filho, Rui Angelo January 2015 (has links)
Orientador : Prof. Dr. Silvia Regina Vergilio / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 16/04/2015 / Inclui referências : fls 85-95 / Resumo: O teste de mutação tem sido recentemente aplicado no teste de Linha de Produto de Software. A ideia consiste em selecionar produtos para o teste de acordo com operadores de mutacao que representam possíveis defeitos em um diagrama de características (feature model - FM). Esses operadores associados ao escore de mutacao são então usados para avaliacão e geracão de conjuntos de casos de teste. A geracao de conjuntos de casos de teste que matem todos os mutantes e que, alem disso, satisfaçam outros requisitos para o teste de software, tais como o menor número possível de produtos, e uma tarefa complexa. A fim de resolver esse problema, este trabalho propoe uma abordagem de otimizacao multiobjetivo que inclui uma representacão para o problema, operadores de busca e uma funcao de avaliacao que inclui três objetivos relacionados ao numero de casos de teste, numero de mutantes mortos e numero de pares de características cobertos. A abordagem foi implementada com três algoritmos evolutivos multiobjetivos: NSGA- II, SPEA2 e IBEA. Foram realizados dois experimentos: um experimento (2M) com dois objetivos considerando tamanho do conjunto e numero de mutantes mortos; e um experimento (3MP) com três objetivos considerando tamanho do conjunto, numero de mutantes mortos e cobertura de pares de características (pairwise testing). A avaliacao realizada analisou as soluçoes obtidas e comparou os algoritmos. De maneira geral todos obtiveram um bom desempenho com destaque para o tempo de execuçcãao do IBEA, o nímero de soluçoes do NSGA-II no experimento 2M e a unanimidade de melhores solucães obtidas pelo algoritmo SPEA2 no experimento 3MP. Uma vantagem dessa abordagem e oferecer ao testador um conjunto de boas solucoes, com um numero reduzido de produtos e altos valores de cobertura. / Abstract: The mutation test has recently been applied to the Software Product Line testing. The idea is to select products for testing according to mutation operators that represent possible faults in the Feature Model - FM. These operators associated with the mutation score are then used for evaluation and generation of test case sets. The generation of test sets to kill all mutants, and also meet other testing requirements with the minimum possible number of products, is a complex task. To solve this problem, this work proposes a multiobjective optimization approach that includes a representation to the problem, search operators and a fitness function with three objectives, related to the number of test cases, number of mutants killed, and number of covered feature pairs. The approach was implemented with three multiobjective evolutionary algorithms: NSGA-II, SPEA2 and IBEA. Two experiments were conducted: one experiment (2M) with two objectives: set size and number of killed mutants; and other one (3MP) with three objectives: set size, number of killed mutants and feature coverage (pairwise testing). The evaluation analyzes the solutions obtained and compares the algorithms. In general all algorithms performed well. Among the main results we can mention: the IBEA runtime and the number of solutions obtained by NSGA-II in the experiment 2M and the best solutions obtained by SPEA2 in the experiment 3MP. An advantage of this approach is to offer the tester a set of good solutions, with a small number of products and high coverage values.
44

An analysis of deep neural networks for texture classification

Hafemann, Luiz Gustavo January 2014 (has links)
Orientador : Prof. Dr. Luiz Eduardo Soares de Oliveira / Co-orientador : Prof. Dr. Paulo Rodrigo Cavalin / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 21/112014 / Inclui referências / Resumo: Classifica¸c˜ao de texturas 'e um problema na 'area de Reconhecimento de Padr˜oes com uma ampla gama de aplica¸c˜oes. Esse problema 'e geralmente tratado com o uso de descritores de texturas e modelos de reconhecimento de padr˜oes, tais como M'aquinas de Vetores de Suporte (SVM) e Regra dos K vizinhos mais pr'oximos (KNN). O m'etodo cl'assico para endere¸car o problema depende do conhecimento de especialistas no dom'ýnio para a cria¸c˜ao de extratores de caracter'ýsticas relevantes (discriminantes), criando-se v'arios descritores de textura, cada um voltado para diferentes cen'arios (por exemplo, descritores de textura que s˜ao invariantes 'a rota¸c˜ao, ou invariantes ao borramento da imagem). Uma estrat'egia diferente para o problema 'e utilizar algoritmos para aprender os descritores de textura, ao inv'es de constru'ý-los manualmente. Esse 'e um dos objetivos centrais de modelos de Arquitetura Profunda – modelos compostos por m'ultiplas camadas, que tem recebido grande aten¸c˜ao nos 'ultimos anos. Um desses m'etodos, chamado de Rede Neural Convolucional, tem sido utilizado para atingir o estado da arte em v'arios problemas de vis˜ao computacional como, por exemplo, no problema de reconhecimento de objetos. Entretanto, esses m'etodos ainda n˜ao s˜ao amplamente explorados para o problema de classifica¸c˜ao de texturas. A presente disserta¸c˜ao preenche essa lacuna, propondo um m'etodo para treinar Redes Neurais Convolucionais para problemas de classifica¸c˜ao de textura, lidando com os desafios e tomando em considera¸c˜ao as caracter'ýsticas particulares desse tipo de problema. O m'etodo proposto foi testado em seis bases de dados de texturas, cada uma apresentando um desafio diferente, e resultados pr'oximos ao estado da arte foram observados para a maioria das bases, obtendo-se resultados superiores em duas das seis bases de dados. Por fim, 'e apresentado um m'etodo para transferˆencia de conhecimento entre diferentes problemas de classifica¸c˜ao de texturas, usando Redes Neurais Convolucionais. Os experimentos conduzidos demonstraram que essa t'ecnica pode melhorar o desempenho dos classificadores em problemas de textura com bases de dados pequenas, utilizando o conhecimento aprendido em um problema similar, que possua uma grande base de dados. Palavras chave: Reconhecimento de padr˜oes; Classifica¸c˜ao de Texturas; Redes Neurais Convolucionais / Abstract: Texture classification is a Pattern Recognition problem with a wide range of applications. This task is commonly addressed using texture descriptors designed by domain experts, and standard pattern recognition models, such as Support Vector Machines (SVM) and K-Nearest Neighbors (KNN). The classical method to address the problem relies on expert knowledge to build relevant (discriminative) feature extractors. Experts are required to create multiple texture descriptors targeting different scenarios (e.g. features that are invariant to image rotation, or invariant to blur). A different approach for this problem is to learn the feature extractors instead of using human knowledge to build them. This is a core idea behind Deep Learning, a set of models composed by multiple layers that are receiving increased attention in recent years. One of these methods, Convolutional Neural Networks, has been used to set the state-of-the-art in many computer vision tasks, such as object recognition, but are not yet widely explored for the task of texture classification. The present work address this gap, by proposing a method to train Convolutional Neural Networks for texture classification tasks, facing the challenges of texture recognition and taking advantage of particular characteristics of textures. We tested our method on six texture datasets, each one posing different challenges, and achieved results close to the state-of-the-art in the majority of the datasets, surpassing the best previous results in two of the six tasks. We also present a method to transfer learning across different texture classification problems using Convolutional Neural Networks. Our experiments demonstrated that this technique can improve the performance on tasks with small datasets, by leveraging knowledge learned from tasks with larger datasets. Keywords: Pattern Recognition; Texture Classification; Convolutional Neural Networks
45

Arquitetura em pipeline para o alogaritmo de Canny em uma plataforma VHDL/FPGA

Vidal, Leonardo de Amaral January 2014 (has links)
Orientador : Prof. Dr. Eduardo Todt / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 16/09/2014 / Inclui referências / Resumo: Os algoritmos de detecção de bordas necessitam de um poder muito alto de processamento, devido 'a quantidade de convoluções, problema agravado no caso de aplicações que exigem processamento de video em tempo real, como em rob'otica m'ovel. Uma maneira de melhorar o desempenho 'e implementar o algoritmo diretamente em hardware. Esta dissertação descreve um projeto de uma implementação do algoritmo de detecção de bordas Canny, realizada com a linguagem de descrição VHDL e com a linguagem de programação C++, em uma plataforma híbrida. A suavização, o cálculo do gradiente, a supressão de não máximos e o threshold duplo estão implementados em um computador de mesa do tipo PC (Personal Computer ) e a segunda etapa da histerese est'a implementada em um FPGA (Field Programmable Gate Array), modelo Virtex 6, da Xilinx. A arquitetura da parte implementada no FPGA 'e em pipeline e paralela. Palavras-chave: Canny; FPGA; Hardware Reconfigur'avel; VHDL; Processamento de Imagens; Detec¸c˜ao de Bordas; Arquitetura Paralela; Arquitetura H'ýbrida; pipeline. / Abstract: The edge detection algorithms require a very high power processing due the number of convolutions, an issue in real-time video applications like mobile robotics. One way to improve performance is to implement the algorithm directly in hardware. This paper describes and demonstrates the results of an implementation of the edge detection Canny algorithm performed with VHDL and the C++ programming language in a hybrid platform i.e.; Noise reduction, gradient intensity finding, non-maxima supression and double thresholding are implemented on a Desktop Personal Computer and the second part of hysteresis is implemented in a Xilinx Virtex 6 FPGA (Field Programmable Gate Array). The architecture designed on FPGA is a pipeline and parallel type. Keywords: Canny; FPGA; Reconfigurable Hardware; VHDL; Image Processing; Edge Detection; Parallel Architecture; Hybrid architecture; pipeline.
46

Antenas cônicas anulares embutidas

MOURA, Vanine Sabino de 15 September 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-30T18:06:50Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Versão_Final_Biblioteca_Vanine.pdf: 1640662 bytes, checksum: d1aab86bf91da3fd9df7988cbfd910d0 (MD5) / Made available in DSpace on 2017-11-30T18:06:50Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Versão_Final_Biblioteca_Vanine.pdf: 1640662 bytes, checksum: d1aab86bf91da3fd9df7988cbfd910d0 (MD5) Previous issue date: 2016-09-15 / FACEPE / Este trabalho é dedicado ao estudo de antenas cônicas anulares embutidas. Essas antenas são constituídas por um cone condutor apresentando uma cavidade preenchida por material dielétrico sobre a qual é impressa uma antena anular. É apresentado um método de análise para obtenção das características de radiação de antenas cônicas anulares embutidas e os efeitos da cavidade sobre essas grandezas são observadas, comparando-se os resultados aos obtidos pelo software comercial de simulação eletromagnética HFSS. Uma formulação teórica baseada no princípio da equivalência é desenvolvida de forma que os campos eletromagnéticos no interior e no exterior da cavidade são determinados através de diádicas de Green. A partir de condições de contorno na antena, uma equação integral é formulada. A técnica numérica utilizada para resolvê-la é o método dos momentos, expandindo densidades de corrente magnética equivalentes em funções de base. Resultados numéricos para o ganho e impedância de entrada são apresentados validando o método de análise apresentado. / This work presents an analysis of cavity-backed conical annular antennas. This type of antenna consists of a cavity built within a conical conductor and filled up with dielectric over which an annular antenna is printed. A method of analysis to calculate antenna parameters is presented and the effect of the cavity on the antenna behavior is studied. Results are compared to those obtained from comercial electromagnetic simulation software HFSS. A theoretical formulation based on equivalence principle is developed in a way that the fields inside and outside the cavity are calculated with the aid of dyadic Green’s functions. An integral equation is written from boundary conditions and solved by Method of Moments once the equivalent magnetic currents are expanded in a set of basis functions. Numerical results for input impedance and radiated fields are shown validating the proposed method.
47

Aiding exploratory testing with pruned GUI models

REIS, Jacinto Filipe Silva 22 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T19:50:01Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Jacinto Filipe Silva Reis.pdf: 3426697 bytes, checksum: 1785cceb1a3f11d1a46ed89506bff902 (MD5) / Made available in DSpace on 2018-06-25T19:50:01Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Jacinto Filipe Silva Reis.pdf: 3426697 bytes, checksum: 1785cceb1a3f11d1a46ed89506bff902 (MD5) Previous issue date: 2017-02-22 / Exploratory testing is a software testing approach that emphasizes the tester’s experience in the attempt to maximize the chances to find bugs and minimize the time effort applied on satisfying such a goal. It is naturally a GUI-oriented testing activity for GUI-based systems. However, inmost cases,exploratory testing strategies may not be accurate enough to reach changed code regions. To reduce this gap, in this work, we propose a way of aiding exploratory testing by providing a GUI model of the regions impacted by internal code changes (for example, as result of change requests to fix previous bugs as well as for software improvement). We create such a delimited GUI model by pruning an original GUI model, quickly built by static analysis, using a reachability relation between GUI elements (i.e., windows, buttons, text fields, etc.) and internal source code changes (classes and methods). To illustrate the idea we provide promising data from two experiments, one from the literature and another from our industrial partner. / Teste exploratório é uma abordagem de teste de software que enfatiza a experiência do testador na tentativa de maximizar as chances de encontrarbugs e minimizar o esforço de tempo aplicado na satisfação desse objetivo. É naturalmente uma atividade de testes orientada à GUI aplicada em sistemas que dispõem de GUI. No entanto, na maioria dos casos, as estratégias de testes exploratórios podem não ser suficientemente precisas para alcançar as regiões de código alteradas. Para reduzir esta lacuna, neste trabalho nós propomos uma forma de auxiliar os testes exploratórios, fornecendo um modelo de GUI das regiões impactadas pelas mudanças internas de código (por exemplo, como resultado de solicitações de mudanças para corrigirbugs anteriores, bem como, para realização de melhorias do software). Criamos um modelo de GUI delimitado, podando um modelo de GUI original, construído rapidamente através de análise estática, usando uma relação de alcançabilidade entre elementos de GUI (janelas, botões, campos de textos) e alterações de código interno (classes e métodos). Para ilustrar a ideia, nós fornecemos dados promissores de dois experimentos, um da literatura e outro de nosso parceiro industrial.
48

Inferência de polimorfismos de nucleotídeo único utilizando algoritmos baseados em Relevance Learning Vector Quantization

ARAÚJO, Flávia Roberta Barbosa de 21 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T20:59:33Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Flávia Roberta Barbosa de Araújo.pdf: 2622290 bytes, checksum: c1614ba289657ed54f8b6d463f91bfca (MD5) / Made available in DSpace on 2018-06-25T20:59:33Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Flávia Roberta Barbosa de Araújo.pdf: 2622290 bytes, checksum: c1614ba289657ed54f8b6d463f91bfca (MD5) Previous issue date: 2017-02-21 / FACEPE / Embora duas pessoas compartilhem mais de 99% do DNA, as variações são extremamente relevantes para determinar as variações fenotípicas. Dentre essas variações, os polimorfismos de nucleotídeo único(SNP) são alterações pontuais mais conhecidas por influenciar no aumento no risco de doenças. Os SNPs podem atuar individualmente ou através de interações com outros SNPs (interaçõe sepistáticas). A inferência das interações epistáticas é um problema que vem sendo amplamente estudado, sendo utilizados dados genômicos de estudos de associação ampla do genoma (GWAS) com pacientes casos e controles. Diversas abordagens computacionais foram propostas, utilizando diferentes estratégias para lidar com os desafios de inferir as interações mais relevantes. O primeiro desafio encontrado neste estudo, esta relacionado à grande quantidade de dados (cerca de 500 a 900 mil SNPs). O segundo desafio esta associado ao número de possíveis interações entre SNPs, o que leva a um problema combinatorial. E o terceiro desafio, relaciona-se com o baixo poder estatístico das interações, sendo mais custoso identificá-las. A combinação desses desafios, tornam este um problema difícil de ser tratado. Nesta tese, são utilizadas diferentes metodologias, selecionadas para verificar suas capacidades em lidar com o problema da inferência da interações epistáticas. Dentre estas, são avaliadas técnicas de seleção de características e abordagens computacionais na detecção das interações entre SNPs, assim como algoritmos de aprendizagem de máquina baseados em Relevance Learning Vector Quantization (RLVQ). Nos experimentos realizados, os algoritmos baseados em RLVQ apresentaram resultados satisfatórios ao identificar as interações relevantes entre SNPs em dados com até 5 interações, utilizando requisitos computacionais relativamente baixos quando comparados a outras abordagens descritas na literatura. Um estudo mais extenso foi realizado, com o objetivo de identificar um ajuste ideal dos parâmetros e verificar as capacidades e limitações de cada algoritmo. Com os resultados obtidos através desse ajuste de parâmetros, foi possível levantar hipóteses referente a influência da quantidade de interações entre SNPs e da dimensionalidade dos dados em função dos parâmetros utilizados nos algoritmos. Considerando essas análises, foi possível propor uma nova metodologia denominada iGRLVQ-SNPi, baseada em algoritmos de RLVQ, para lidar de forma mais eficiente com o problema da inferência das interações entre os SNPs. Como iGRLVQ-SNPi, foi possível avaliar interações de ordem n, sem que para isso, fosse necessário informar o número de interações que se deseja avaliar. Nos experimentos realizados, o iGRLVQ-SNPi obteve uma excelente acurácia nos diferentes conjuntos de dados testados, e sendo comparativamente melhor ou tão eficiente quanto outras abordagens de inferência epistáticas avaliadas, utilizando um menor custo computacional. / Although two people share more than 99% of DNA, variations are extremely relevant for determining phenotypic variations. Among these variations, single nucleotide polymorphisms (SNPs) are punctual changes known to influence the increased risk of disease. SNPs can act individually or through interactions with other SNPs (epistatic interactions). The inference of epistatic interactions is a problem that has been extensively studied, using genomic data from genome wide associationstudies(GWAS) with cases and controls patients. Several computational approaches were proposed, using different strategies to deal with the challenges of inferring the most relevant interactions. The first challenge found in this study is related to the large amount of data (about 500 to 900 thousand SNPs). The second challenge is the number of possible interactions between SNPs, which leads to a combinatorial problem. And the third challenge is related to the low statistical power of the interactions, being more difficult to identify them. The combination of these challenges makes this a hard problem to address. In this thesis, different methodologies were used, they were selected to verify their abilities in dealing with the problem of inference of the epistatic interactions. Among these, we evaluate techniques of feature selection and computational approaches in the detection of interactions between SNPs, as well as machine learning algorithms based on Relevance Learning Vector Quantization(RLVQ). In the experiments performed, the RLVQ-based algorithms presented satisfactory results by identifying the relevant interactions between SNPs in data with up to 5 interactions, using relatively low computational requirements when compared to other approaches described in the literature. Amore extensive study was carried out with the objective of identify in ganoptimal adjustment of the parameters and verifying the capacities and limitationsofeachalgorithm. With the results obtained through this adjustment of parameters, it was possible to raise hypotheses regarding the influence of the amount of interactions between SNPs and the dimensionality of the data as a function of the parameters used in the algorithms. Considering these analyzes, it was possible to propose a new methodology called iGRLVQ-SNPi, based on RLVQ algorithms, to deal more efficiently with the problem of inference of the interactions between the SNPs. With iGRLVQ-SNPi, it was possible to evaluate n-order interactions, without it being necessary to inform the number of interactions to be evaluated. In the experiments performed, iGRLVQ-SNPi obtained an excellent accuracy in the different data sets tested, and was comparatively better or as efficient as other evaluated epistatic inference approaches, using a lower computational cost.
49

Testes estatísticos e detecções de mudanças de conceitos em fluxos de dados

CABRAL, Danilo Rafael de Lima 03 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T18:20:19Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-27T16:53:15Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) / Made available in DSpace on 2018-07-27T16:53:15Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) Previous issue date: 2017-02-03 / O aprendizado online objetiva a extração de informações a partir de fluxos de dados compostos de uma grande quantidade de exemplos. Esses fluxos frequentemente contêm mudanças de conceitos que na maioria dos casos são caracterizadas como modificações nas distribuições dos dados. Métodos detectores de mudanças de conceitos são algoritmos projetados para trabalharem conjuntamente com um – ou mais – classificador base, a fim de estimarem as posições das mudanças e quando necessário substituírem o preditor, com o objetivo de melhorar a sua acurácia. DDM, EDDM e STEPD são exemplos de detectores simples, eficientes e bem-conceituados. Apesar de sua eficácia em bases pequenas, o DDM tende a perder precisão quando apresentado a conjuntos de dados consideravelmente grandes. Por outro lado, o EDDM funciona bem com bases de dados graduais, porém alcança baixos índices de acurácia em bases com mudanças de conceitos abruptas. O STEPD, por sua vez, foi projetado para a detecção de mudanças de conceitos através do teste de hipóteses entre duas proporções, entretanto, estatisticamente, esse teste não é recomendado para amostras pequenas e/ou desbalanceadas. Este trabalho propõe quatro novos detectores (formando o total de sete versões) que objetivam melhorar o DDM, EDDM e STEPD. Todos os métodos propostos são baseados em testes estatísticos, sendo o EMZD baseado no teste de hipóteses entre médias de duas amostras independentes e, o FPDD, FSDD e FTDD baseados no teste exato de Fisher. Os experimentos realizados, com dois classificadores base, usando 36 conjuntos de dados artificiais e três bases de dados reais, demonstraram a eficácia e eficiência dos detectores propostos. No que diz respeito a avaliação dos detectores, uma das versões do EMZD obteve as melhores acurácias e o FPDD foi o mais preciso na análise das detecções de mudanças de conceitos. / Online learning aims to extract information from data streams composed of a large number of examples. These flows often contain concept drifts that in most cases are characterized as changes in data distributions. Concept drifts detectors are algorithms designed to work with one or more base classifier in order to estimate the change positions and, when necessary, replace the predictor to improve its accuracy. DDM, EDDM and STEPD are simple, efficient and well-known detectors. Despite its effectiveness on small bases, DDM tends to lose accuracy when faced with considerably large data sets. On the other hand, EDDM works well with gradual databases, but achieves low accuracy on bases with abrupt drifts. STEPD was designed to detect changes in distribution using a hypothesis test between two proportions, however, statistically this test is not recommended for small and/or imbalanced samples. This work proposes four new detectors (seven versions in total) that aim to improve DDM, EDDM and STEPD. All the proposed methods are inspired by statistical tests, where EMZD is based on hypothesis test between means of two independent samples and FPDD, FSDD and FTDD are based on Fisher’s exact test. Experiments with two base classifiers using 36 artificial data sets and three real-world datasets demonstrated the effectiveness and efficiency of the proposed detectors. Regarding the evaluation of detectors, one of the versions of the EMZD obtained the best accuracy and the FPDD was the most accurate in the analysis of the concept drifts detections.
50

Modernização de sistemas legados para disponibilização em dispositivos móveis com arquitetura baseada em microservices

FREITAS, Bruno Chaves de 23 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T17:58:58Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Bruno Chaves de Freitas.pdf: 1529690 bytes, checksum: bd8faa6a88d515bdb1f711e1b8625a7a (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-27T17:12:22Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Bruno Chaves de Freitas.pdf: 1529690 bytes, checksum: bd8faa6a88d515bdb1f711e1b8625a7a (MD5) / Made available in DSpace on 2018-07-27T17:12:22Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Bruno Chaves de Freitas.pdf: 1529690 bytes, checksum: bd8faa6a88d515bdb1f711e1b8625a7a (MD5) Previous issue date: 2017-02-23 / O uso universal de dispositivos móveis computacionais, especialmente dos smartphones, é incontestável e um processo sem volta. Este fato impulsiona as organizações possuidoras de sistemas de informação a adaptá-los para um adequado acesso através deste veículo computacional, proporcionando uma boa experiência de uso além de aproveitar novas possibilidades inerentes a estes dispositivos. Os sistemas legados, no entanto, podem dificultar esta adaptação, seja por sua tecnologia, acoplamento de código ou arquitetura inapropriados, uma vez que a tecnologia à época de seu desenvolvimento ficou defasada com o passar do tempo, demandando uma modernização de sua arquitetura. Neste contexto, a arquitetura de microservices tem se destacado. Este trabalho propõe um processo de modernização de sistemas legados para uma arquitetura baseada em microservices, distribuindo o sistema em diversos serviços pequenos, independentes entre si, focados cada um em uma única tarefa e comunicando-se por mensagens. Esta distribuição e independência deixarão cada serviço livre para utilizar qualquer tecnologia, quebrando as amarras tecnológicas do sistema legado, além de facilitar futuras evoluções. Esta “quebra” do sistema, no entanto, pode ser demorada, em virtude da necessidade de entendimento das regras de negócio implementadas e dos refatoramentos necessários. Em virtude disto, para priorizar a disponibilização do acesso mobile a estes sistemas, o processo proposto prevê uma etapa intermediária de modernização utilizando a técnica de REST Wrapping. / The universal use of mobile computing devices, especially smartphones, is undeniable and an irreversible process. This fact encourages the organizations using information systems to adapt them to provide an adequate access through this computational tool, providing a good experience of use besides taking advantage of new possibilities inherent to these devices. Legacy systems, however, can make this adaptation difficult, either because of its technology, inappropriate code coupling or architecture, since the technology at the time of its development lags behind with time, demanding the modernization of its architecture. In this context, the microservices architecture has been emerging. This work proposes a modernization process of legacy systems to a microservice-based architecture, distributing the system into several small independent services, each focused on a single task and communicating through messages. This distribution and independence will leave each service independent to use any technology, breaking the technological constraints of the legacy system in addition to facilitating future evolutions. However, this separation of the system, can be time-consuming because of the need to understand the business rules implemented and the necessary refactorings. In order to prioritize the availability of mobile access to these systems, the proposed process provides an intermediate step of modernization using the REST Wrapping technique.

Page generated in 0.0642 seconds