• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6983
  • 486
  • 318
  • 283
  • 283
  • 279
  • 194
  • 89
  • 78
  • 78
  • 76
  • 42
  • 6
  • 5
  • 2
  • Tagged with
  • 7624
  • 2223
  • 1814
  • 1759
  • 1276
  • 1076
  • 964
  • 962
  • 960
  • 895
  • 881
  • 870
  • 841
  • 799
  • 792
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Abstrações para uma linguagem de programação visando aplicações móveis em um ambiente de Pervasive Computing

Augustin, Iara January 2004 (has links)
Computação Móvel é um termo genérico, ainda em definição, ao redor do qual se delineia um espectro de cenários possíveis, desde a Computação Pessoal, com o uso de computadores de mão, até a visão futurista da Computação Ubíqua. O foco do projeto ISAM (Infra-estrutura de Suporte às Aplicações Móveis Distribuída), em desenvolvimento no II/UFRGS, é a Pervasive Computing. Esta desenha um cenário onde o usuário é livre para se deslocar mantendo o acesso aos recursos da rede e ao seu ambiente computacional, todo tempo em qualquer lugar. Esse novo cenário apresenta muitos desafios para o projeto e execução de aplicações. Nesse escopo, esta tese aprofunda a discussão sobre questões relativas à adaptação ao contexto em um ambiente pervasivo sob a ótica de uma Linguagem de Programação, e define uma linguagem chamada ISAMadapt. A definição da linguagem ISAMadapt baseia-se em quatro abstrações: contexto, adaptadores, políticas e comandos de adaptação. Essas abstrações foram concretizadas em duas visões: (1) em tempo de programação, através de comandos da linguagem e arquivos de configuração, descritos com o auxílio do Ambiente de Desenvolvimento de Aplicações; (2) em tempo de execução, através de serviços e APIs fornecidos pelos componentes que integram o ambiente de execução pervasiva (ISAMpe). Deste, os principais componentes que implementam a semântica de execução da aplicação ISAMadapt são: o serviço de reconhecimento de contexto, ISAMcontextService, e a máquina de execução da adaptação dinâmica, ISAMadaptEngine.As principais contribuições desta tese são: (a) primeira linguagem para a codificação de aplicações pervasivas; (b) sintaxe e semântica de comandos para expressar sensibilidade ao contexto pervasivo; (c) fonte para o desenvolvimento de uma metodologia de projeto de aplicações pervasivas; (d) projeto ISAM e o projeto contextS (www.inf.ufrgs.br/~isam) que fornecem suporte para o ciclo de vida das aplicações, desde o desenvolvimento até a execução de aplicações pervasivas.
242

Critérios de avaliação de técnicas de visualização de informações hierárquicas

Luzzardi, Paulo Roberto Gomes January 2003 (has links)
Após o refinamento, os critérios foram utilizados experimentalmente em três tipos de métodos de avaliação tradicionais, a saber, avaliação heurística, inspeção de conformidade e ensaios de interação. Os resultados obtidos com estas avaliações demonstraram que os critérios de avaliação, definidos neste trabalho, capturaram muito mais problemas relacionados à técnica do que os critérios tradicionalmente usados para avaliar interfaces gráficas. Um resultado promissor, não previsto, foi a constatação que o conjunto de critérios propostos detectaram, também, um número expressivo de problemas de usabilidade na interface, quando da aplicação das sessões de avaliação heurística. Este resultado evidencia a possibilidade de extensão deste conjunto de critérios a fim de avaliar, também, as principais características da interface das técnicas de visualização.
243

Uma generalização do algorítmo de Gao para fatoração de polinômios

Hoppen, Carlos January 2004 (has links)
A presente dissertação trata da fatoração de polinômios em duas variáveis sobre um corpo F. Mais precisamente, o trabalho traça o desenvolvimento histórico de uma estratégia modular que levou à resolução desse problema em tempo polinomial e culmina com a apresentação de um algoritmo publicado por S. Gao no ano de 2003, que determina simultaneamente as fatorações racional e absoluta de um dado polinômio. A nossa contribuição consiste na extensão desse algoritmo a casos que não satisfazem as condições prescritas pelo autor.
244

Performance analysis of virtualization technologies in high performance computing enviroments / Análise do desempenho de tecnologias de virtualização para ambientes de computação de alto desempenho

Beserra, David Willians dos Santos Cavalcanti 13 September 2016 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Computação de Alto Desempenho (CAD) agrega poder computacional com o objetivo de solucionar problemas complexos e de grande escala em diferentes áreas do conhecimento, como ciência e engenharias, variando desde aplicações medias 3D ate a simulação do universo. Atualmente, os usuários de CAD podem utilizar infraestruturas de Nuvem como uma alternativa de baixo custo para a execução de suas aplicações. Apesar de ser possível utilizar as infraestruturas de nuvem como plataformas de CAD, muitas questões referentes as sobrecargas decorrentes do uso de virtualização permanecem sem resposta. Nesse trabalho foi analisado o desempenho de algumas ferramentas de virtualização - Linux Containers (LXC), Docker, VirtualBox e KVM – em atividades de CAD. Durante os experimentos foram avaliados os desempenhos da UCP, da infraestrutura de comunicação (rede física e barramentos internos) e de E/S de dados em disco. Os resultados indicam que cada tecnologia de virtualização impacta diferentemente no desempenho do sistema observado em função do tipo de recurso de hardware utilizado e das condições de compartilhamento do recurso adotadas. / High Performance Computing (HPC) aggregates computing power in order to solve large and complex problems in different knowledge areas, such as science and engineering, ranging from 3D real-time medical images to simulation of the universe. Nowadays, HPC users can utilize virtualized Cloud infrastructures as a low-cost alternative to deploy their applications. Despite of Cloud infrastructures can be used as HPC platforms, many issues from virtualization overhead have kept them almost unrelated. In this work, we analyze the performance of some virtualization solutions - Linux Containers (LXC), Docker, VirtualBox and KVM - under HPC activities. For our experiments, we consider CPU, (physical network and internal buses) communication and disk I/O performance. Results show that different virtualization technologies can impact distinctly in performance according to hardware resource type used by HPC application and resource sharing conditions adopted.
245

Antenas cônicas anulares embutidas

MOURA, Vanine Sabino de 15 September 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-30T18:06:50Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Versão_Final_Biblioteca_Vanine.pdf: 1640662 bytes, checksum: d1aab86bf91da3fd9df7988cbfd910d0 (MD5) / Made available in DSpace on 2017-11-30T18:06:50Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Versão_Final_Biblioteca_Vanine.pdf: 1640662 bytes, checksum: d1aab86bf91da3fd9df7988cbfd910d0 (MD5) Previous issue date: 2016-09-15 / FACEPE / Este trabalho é dedicado ao estudo de antenas cônicas anulares embutidas. Essas antenas são constituídas por um cone condutor apresentando uma cavidade preenchida por material dielétrico sobre a qual é impressa uma antena anular. É apresentado um método de análise para obtenção das características de radiação de antenas cônicas anulares embutidas e os efeitos da cavidade sobre essas grandezas são observadas, comparando-se os resultados aos obtidos pelo software comercial de simulação eletromagnética HFSS. Uma formulação teórica baseada no princípio da equivalência é desenvolvida de forma que os campos eletromagnéticos no interior e no exterior da cavidade são determinados através de diádicas de Green. A partir de condições de contorno na antena, uma equação integral é formulada. A técnica numérica utilizada para resolvê-la é o método dos momentos, expandindo densidades de corrente magnética equivalentes em funções de base. Resultados numéricos para o ganho e impedância de entrada são apresentados validando o método de análise apresentado. / This work presents an analysis of cavity-backed conical annular antennas. This type of antenna consists of a cavity built within a conical conductor and filled up with dielectric over which an annular antenna is printed. A method of analysis to calculate antenna parameters is presented and the effect of the cavity on the antenna behavior is studied. Results are compared to those obtained from comercial electromagnetic simulation software HFSS. A theoretical formulation based on equivalence principle is developed in a way that the fields inside and outside the cavity are calculated with the aid of dyadic Green’s functions. An integral equation is written from boundary conditions and solved by Method of Moments once the equivalent magnetic currents are expanded in a set of basis functions. Numerical results for input impedance and radiated fields are shown validating the proposed method.
246

Suportando o projeto de arquiteturas Halvesting-aware para aplicações em FPGA

LIMA, Marília Souto Maior de 21 August 2015 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2018-04-13T21:07:22Z No. of bitstreams: 1 TESE Marília Souto Maior de Lima.pdf: 5515962 bytes, checksum: 93a1e083a632ff3c954960a6fdd3d14e (MD5) / Made available in DSpace on 2018-04-13T21:07:22Z (GMT). No. of bitstreams: 1 TESE Marília Souto Maior de Lima.pdf: 5515962 bytes, checksum: 93a1e083a632ff3c954960a6fdd3d14e (MD5) Previous issue date: 2015-08-21 / Sistemas computacionais portáteis, como smartphones, tablets, câmeras etc., estão se tornando cada vez mais complexos por implementarem novas funcionalidades que não eram possíveis até alguns anos atrás. Sem conexão contínua à rede elétrica e dependentes de bateria como fonte de energia, torna-se um desafio projetar esses sistemas para que sejam capazes de se manterem operacionais durante um longo período de tempo sem recarga. Recentemente, a tecnologia de energy harvesting surgiu como uma forma de superar o problema de fornecimento de energia para este tipo de sistema. O conceito de energy harvesting significa coletar outras formas de energia disponíveis no ambiente e transformá-las em energia elétrica (KANSAL et al., 2007). Porém, para sistemas com energy harvesting, um modelo mais sofisticado é necessário para caracterizar o fornecimento e consumo da energia disponível: como utilizar a energia captada a uma taxa adequada, a fim de manter o sistema funcionando continuamente? Este paradigma foi chamado de “energy neutral operation mode” em (KANSAL et al., 2007) e significa que, durante todo o funcionamento, a energia consumida pelo sistema deve ser inferior à energia disponível, permitindo assim que a sua operação seja contínua e sem desligamento devido à falta de energia. Se por um lado a tecnologia de energy harvesting representa uma alternativa de fornecimento de energia, por outro lado, a complexidade da concepção do projeto aumenta, uma vez que elementos relativos à gestão do consumo de energia e adaptação do desempenho do sistema devem também estar presentes. Como forma de superar esse desafio, neste trabalho é proposto um novo modelo de arquitetura para a concepção de aplicações harvesting-aware em FPGA com o objetivo de reduzir a complexidade adicional de projeto inerente a este tipo de aplicação. A principal contribuição é um modelo de arquitetura capaz de tornar harvesting-aware aplicações síncronas em FPGA que usam energia solar como fonte alternativa de energia. A estratégia adotada consiste em adaptar o consumo de energia do sistema controlando a dissipação de potência dinâmica de acordo com a previsão de energia e os níveis de desempenho definidos pelo projetista. O modelo da arquitetura foi validado com uma implementação em Verilog sintetizável num FPGA Cyclone IV e as suas principais vantagens são: pode ser utilizada num amplo escopo de aplicações, uma vez que foi modelada para controlar sistemas síncronos; causa baixo impacto sobre a concepção do projeto, pois a sua utilização não implica mudanças no código fonte da aplicação. Além disso, a inclusão dos módulos da arquitetura no projeto acarretam um baixo overhead computacional em termos de área ocupada, consumo de energia e tempo de processamento. No estudo de caso apresentado, um conversor de RGB-YCrCb foi utilizado para validar os resultados obtidos através de simulação e medições no FPGA. / Portable computing systems, such as smartphones, tablets, handheld cameras etc., are becoming increasingly more complex providing new functionalities that were not possible a few years ago. Dependent on batteries as a power source, and not connected continuously to the main supply, it becomes a challenge to design these systems to be operational for a long period of time. Recently, energy harvesting technology has emerged as a manner with which to tackle the problem of supplying energy to this type of system. The concept of energy harvesting means collecting other forms of energy available within the environment and transforming them into electrical energy (KANSAL et al., 2007). In systems with energy harvesting, a more sophisticated model is required in order to characterize the available energy: how to use the captured energy at an appropriate rate in order to keep the system running continuously? This paradigm has been called the “energy neutral operation mode” in (KANSAL et al., 2007) and means that the energy consumed by the system is less than the energy available throughout its operation, allowing its continuous operation without suffering shut downs due to the lack of energy. If on one hand energy harvesting technology represents an alternative for generating power for portable computing systems, on the other, the complexity of the project design increases, since elements regarding the management of energy consumption and adapting the application performance must be present. This fact becomes even more evident when implementing these systems in hardware. This thesis describes a novel scalable architecture model for the design of harvesting-aware applications on FPGAs. The objective of the proposed approach is to reduce the additional design complexity inherent to this type of design. The main contribution of this work is an architecture model capable of supporting applications on FPGAs that use solar energy to become harvesting aware. The adopted strategy was to adapt the energy consumption of the system by controlling the toggle rate of its signals according to the energy prediction and the performance levels set by the system designer. The architecture model was designed in a Cyclone IV FPGA and its main advantages are: it may be used within a wide range of applications, since it has been modelled to control synchronous systems; it causes a little impact on the project design, as to couple the harvesting-aware subsystem with the the application modules does not imply changes in the application source code. Moreover, the implementation of the architecture model has a low computational overhead in terms of area, power dissipation and processing time. In the case study presented, an RGB-YCrCb Converter was used as an application in order to validate the implementation data, simulation, measurements and results presented in this work.
247

Aiding exploratory testing with pruned GUI models

REIS, Jacinto Filipe Silva 22 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T19:50:01Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Jacinto Filipe Silva Reis.pdf: 3426697 bytes, checksum: 1785cceb1a3f11d1a46ed89506bff902 (MD5) / Made available in DSpace on 2018-06-25T19:50:01Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Jacinto Filipe Silva Reis.pdf: 3426697 bytes, checksum: 1785cceb1a3f11d1a46ed89506bff902 (MD5) Previous issue date: 2017-02-22 / Exploratory testing is a software testing approach that emphasizes the tester’s experience in the attempt to maximize the chances to find bugs and minimize the time effort applied on satisfying such a goal. It is naturally a GUI-oriented testing activity for GUI-based systems. However, inmost cases,exploratory testing strategies may not be accurate enough to reach changed code regions. To reduce this gap, in this work, we propose a way of aiding exploratory testing by providing a GUI model of the regions impacted by internal code changes (for example, as result of change requests to fix previous bugs as well as for software improvement). We create such a delimited GUI model by pruning an original GUI model, quickly built by static analysis, using a reachability relation between GUI elements (i.e., windows, buttons, text fields, etc.) and internal source code changes (classes and methods). To illustrate the idea we provide promising data from two experiments, one from the literature and another from our industrial partner. / Teste exploratório é uma abordagem de teste de software que enfatiza a experiência do testador na tentativa de maximizar as chances de encontrarbugs e minimizar o esforço de tempo aplicado na satisfação desse objetivo. É naturalmente uma atividade de testes orientada à GUI aplicada em sistemas que dispõem de GUI. No entanto, na maioria dos casos, as estratégias de testes exploratórios podem não ser suficientemente precisas para alcançar as regiões de código alteradas. Para reduzir esta lacuna, neste trabalho nós propomos uma forma de auxiliar os testes exploratórios, fornecendo um modelo de GUI das regiões impactadas pelas mudanças internas de código (por exemplo, como resultado de solicitações de mudanças para corrigirbugs anteriores, bem como, para realização de melhorias do software). Criamos um modelo de GUI delimitado, podando um modelo de GUI original, construído rapidamente através de análise estática, usando uma relação de alcançabilidade entre elementos de GUI (janelas, botões, campos de textos) e alterações de código interno (classes e métodos). Para ilustrar a ideia, nós fornecemos dados promissores de dois experimentos, um da literatura e outro de nosso parceiro industrial.
248

Inferência de polimorfismos de nucleotídeo único utilizando algoritmos baseados em Relevance Learning Vector Quantization

ARAÚJO, Flávia Roberta Barbosa de 21 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T20:59:33Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Flávia Roberta Barbosa de Araújo.pdf: 2622290 bytes, checksum: c1614ba289657ed54f8b6d463f91bfca (MD5) / Made available in DSpace on 2018-06-25T20:59:33Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Flávia Roberta Barbosa de Araújo.pdf: 2622290 bytes, checksum: c1614ba289657ed54f8b6d463f91bfca (MD5) Previous issue date: 2017-02-21 / FACEPE / Embora duas pessoas compartilhem mais de 99% do DNA, as variações são extremamente relevantes para determinar as variações fenotípicas. Dentre essas variações, os polimorfismos de nucleotídeo único(SNP) são alterações pontuais mais conhecidas por influenciar no aumento no risco de doenças. Os SNPs podem atuar individualmente ou através de interações com outros SNPs (interaçõe sepistáticas). A inferência das interações epistáticas é um problema que vem sendo amplamente estudado, sendo utilizados dados genômicos de estudos de associação ampla do genoma (GWAS) com pacientes casos e controles. Diversas abordagens computacionais foram propostas, utilizando diferentes estratégias para lidar com os desafios de inferir as interações mais relevantes. O primeiro desafio encontrado neste estudo, esta relacionado à grande quantidade de dados (cerca de 500 a 900 mil SNPs). O segundo desafio esta associado ao número de possíveis interações entre SNPs, o que leva a um problema combinatorial. E o terceiro desafio, relaciona-se com o baixo poder estatístico das interações, sendo mais custoso identificá-las. A combinação desses desafios, tornam este um problema difícil de ser tratado. Nesta tese, são utilizadas diferentes metodologias, selecionadas para verificar suas capacidades em lidar com o problema da inferência da interações epistáticas. Dentre estas, são avaliadas técnicas de seleção de características e abordagens computacionais na detecção das interações entre SNPs, assim como algoritmos de aprendizagem de máquina baseados em Relevance Learning Vector Quantization (RLVQ). Nos experimentos realizados, os algoritmos baseados em RLVQ apresentaram resultados satisfatórios ao identificar as interações relevantes entre SNPs em dados com até 5 interações, utilizando requisitos computacionais relativamente baixos quando comparados a outras abordagens descritas na literatura. Um estudo mais extenso foi realizado, com o objetivo de identificar um ajuste ideal dos parâmetros e verificar as capacidades e limitações de cada algoritmo. Com os resultados obtidos através desse ajuste de parâmetros, foi possível levantar hipóteses referente a influência da quantidade de interações entre SNPs e da dimensionalidade dos dados em função dos parâmetros utilizados nos algoritmos. Considerando essas análises, foi possível propor uma nova metodologia denominada iGRLVQ-SNPi, baseada em algoritmos de RLVQ, para lidar de forma mais eficiente com o problema da inferência das interações entre os SNPs. Como iGRLVQ-SNPi, foi possível avaliar interações de ordem n, sem que para isso, fosse necessário informar o número de interações que se deseja avaliar. Nos experimentos realizados, o iGRLVQ-SNPi obteve uma excelente acurácia nos diferentes conjuntos de dados testados, e sendo comparativamente melhor ou tão eficiente quanto outras abordagens de inferência epistáticas avaliadas, utilizando um menor custo computacional. / Although two people share more than 99% of DNA, variations are extremely relevant for determining phenotypic variations. Among these variations, single nucleotide polymorphisms (SNPs) are punctual changes known to influence the increased risk of disease. SNPs can act individually or through interactions with other SNPs (epistatic interactions). The inference of epistatic interactions is a problem that has been extensively studied, using genomic data from genome wide associationstudies(GWAS) with cases and controls patients. Several computational approaches were proposed, using different strategies to deal with the challenges of inferring the most relevant interactions. The first challenge found in this study is related to the large amount of data (about 500 to 900 thousand SNPs). The second challenge is the number of possible interactions between SNPs, which leads to a combinatorial problem. And the third challenge is related to the low statistical power of the interactions, being more difficult to identify them. The combination of these challenges makes this a hard problem to address. In this thesis, different methodologies were used, they were selected to verify their abilities in dealing with the problem of inference of the epistatic interactions. Among these, we evaluate techniques of feature selection and computational approaches in the detection of interactions between SNPs, as well as machine learning algorithms based on Relevance Learning Vector Quantization(RLVQ). In the experiments performed, the RLVQ-based algorithms presented satisfactory results by identifying the relevant interactions between SNPs in data with up to 5 interactions, using relatively low computational requirements when compared to other approaches described in the literature. Amore extensive study was carried out with the objective of identify in ganoptimal adjustment of the parameters and verifying the capacities and limitationsofeachalgorithm. With the results obtained through this adjustment of parameters, it was possible to raise hypotheses regarding the influence of the amount of interactions between SNPs and the dimensionality of the data as a function of the parameters used in the algorithms. Considering these analyzes, it was possible to propose a new methodology called iGRLVQ-SNPi, based on RLVQ algorithms, to deal more efficiently with the problem of inference of the interactions between the SNPs. With iGRLVQ-SNPi, it was possible to evaluate n-order interactions, without it being necessary to inform the number of interactions to be evaluated. In the experiments performed, iGRLVQ-SNPi obtained an excellent accuracy in the different data sets tested, and was comparatively better or as efficient as other evaluated epistatic inference approaches, using a lower computational cost.
249

Testes estatísticos e detecções de mudanças de conceitos em fluxos de dados

CABRAL, Danilo Rafael de Lima 03 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T18:20:19Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-27T16:53:15Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) / Made available in DSpace on 2018-07-27T16:53:15Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) Previous issue date: 2017-02-03 / O aprendizado online objetiva a extração de informações a partir de fluxos de dados compostos de uma grande quantidade de exemplos. Esses fluxos frequentemente contêm mudanças de conceitos que na maioria dos casos são caracterizadas como modificações nas distribuições dos dados. Métodos detectores de mudanças de conceitos são algoritmos projetados para trabalharem conjuntamente com um – ou mais – classificador base, a fim de estimarem as posições das mudanças e quando necessário substituírem o preditor, com o objetivo de melhorar a sua acurácia. DDM, EDDM e STEPD são exemplos de detectores simples, eficientes e bem-conceituados. Apesar de sua eficácia em bases pequenas, o DDM tende a perder precisão quando apresentado a conjuntos de dados consideravelmente grandes. Por outro lado, o EDDM funciona bem com bases de dados graduais, porém alcança baixos índices de acurácia em bases com mudanças de conceitos abruptas. O STEPD, por sua vez, foi projetado para a detecção de mudanças de conceitos através do teste de hipóteses entre duas proporções, entretanto, estatisticamente, esse teste não é recomendado para amostras pequenas e/ou desbalanceadas. Este trabalho propõe quatro novos detectores (formando o total de sete versões) que objetivam melhorar o DDM, EDDM e STEPD. Todos os métodos propostos são baseados em testes estatísticos, sendo o EMZD baseado no teste de hipóteses entre médias de duas amostras independentes e, o FPDD, FSDD e FTDD baseados no teste exato de Fisher. Os experimentos realizados, com dois classificadores base, usando 36 conjuntos de dados artificiais e três bases de dados reais, demonstraram a eficácia e eficiência dos detectores propostos. No que diz respeito a avaliação dos detectores, uma das versões do EMZD obteve as melhores acurácias e o FPDD foi o mais preciso na análise das detecções de mudanças de conceitos. / Online learning aims to extract information from data streams composed of a large number of examples. These flows often contain concept drifts that in most cases are characterized as changes in data distributions. Concept drifts detectors are algorithms designed to work with one or more base classifier in order to estimate the change positions and, when necessary, replace the predictor to improve its accuracy. DDM, EDDM and STEPD are simple, efficient and well-known detectors. Despite its effectiveness on small bases, DDM tends to lose accuracy when faced with considerably large data sets. On the other hand, EDDM works well with gradual databases, but achieves low accuracy on bases with abrupt drifts. STEPD was designed to detect changes in distribution using a hypothesis test between two proportions, however, statistically this test is not recommended for small and/or imbalanced samples. This work proposes four new detectors (seven versions in total) that aim to improve DDM, EDDM and STEPD. All the proposed methods are inspired by statistical tests, where EMZD is based on hypothesis test between means of two independent samples and FPDD, FSDD and FTDD are based on Fisher’s exact test. Experiments with two base classifiers using 36 artificial data sets and three real-world datasets demonstrated the effectiveness and efficiency of the proposed detectors. Regarding the evaluation of detectors, one of the versions of the EMZD obtained the best accuracy and the FPDD was the most accurate in the analysis of the concept drifts detections.
250

Modernização de sistemas legados para disponibilização em dispositivos móveis com arquitetura baseada em microservices

FREITAS, Bruno Chaves de 23 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T17:58:58Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Bruno Chaves de Freitas.pdf: 1529690 bytes, checksum: bd8faa6a88d515bdb1f711e1b8625a7a (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-27T17:12:22Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Bruno Chaves de Freitas.pdf: 1529690 bytes, checksum: bd8faa6a88d515bdb1f711e1b8625a7a (MD5) / Made available in DSpace on 2018-07-27T17:12:22Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Bruno Chaves de Freitas.pdf: 1529690 bytes, checksum: bd8faa6a88d515bdb1f711e1b8625a7a (MD5) Previous issue date: 2017-02-23 / O uso universal de dispositivos móveis computacionais, especialmente dos smartphones, é incontestável e um processo sem volta. Este fato impulsiona as organizações possuidoras de sistemas de informação a adaptá-los para um adequado acesso através deste veículo computacional, proporcionando uma boa experiência de uso além de aproveitar novas possibilidades inerentes a estes dispositivos. Os sistemas legados, no entanto, podem dificultar esta adaptação, seja por sua tecnologia, acoplamento de código ou arquitetura inapropriados, uma vez que a tecnologia à época de seu desenvolvimento ficou defasada com o passar do tempo, demandando uma modernização de sua arquitetura. Neste contexto, a arquitetura de microservices tem se destacado. Este trabalho propõe um processo de modernização de sistemas legados para uma arquitetura baseada em microservices, distribuindo o sistema em diversos serviços pequenos, independentes entre si, focados cada um em uma única tarefa e comunicando-se por mensagens. Esta distribuição e independência deixarão cada serviço livre para utilizar qualquer tecnologia, quebrando as amarras tecnológicas do sistema legado, além de facilitar futuras evoluções. Esta “quebra” do sistema, no entanto, pode ser demorada, em virtude da necessidade de entendimento das regras de negócio implementadas e dos refatoramentos necessários. Em virtude disto, para priorizar a disponibilização do acesso mobile a estes sistemas, o processo proposto prevê uma etapa intermediária de modernização utilizando a técnica de REST Wrapping. / The universal use of mobile computing devices, especially smartphones, is undeniable and an irreversible process. This fact encourages the organizations using information systems to adapt them to provide an adequate access through this computational tool, providing a good experience of use besides taking advantage of new possibilities inherent to these devices. Legacy systems, however, can make this adaptation difficult, either because of its technology, inappropriate code coupling or architecture, since the technology at the time of its development lags behind with time, demanding the modernization of its architecture. In this context, the microservices architecture has been emerging. This work proposes a modernization process of legacy systems to a microservice-based architecture, distributing the system into several small independent services, each focused on a single task and communicating through messages. This distribution and independence will leave each service independent to use any technology, breaking the technological constraints of the legacy system in addition to facilitating future evolutions. However, this separation of the system, can be time-consuming because of the need to understand the business rules implemented and the necessary refactorings. In order to prioritize the availability of mobile access to these systems, the proposed process provides an intermediate step of modernization using the REST Wrapping technique.

Page generated in 0.0364 seconds