• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7867
  • 323
  • 316
  • 307
  • 307
  • 294
  • 218
  • 89
  • 69
  • 16
  • 16
  • 12
  • 11
  • 11
  • 11
  • Tagged with
  • 8371
  • 2340
  • 2223
  • 1576
  • 1140
  • 1083
  • 1059
  • 953
  • 914
  • 893
  • 846
  • 758
  • 741
  • 691
  • 596
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

A ciência da informação entre sombra e luz: domínio epistemológico e campo interdisciplinar.

Pinheiro, Lena Vânia Ribeiro January 1997 (has links)
Submitted by Sonia Burnier (sdesouza@ibict.br) on 2011-07-20T16:54:50Z No. of bitstreams: 1 lenavaniapinheiro1997.pdf: 2525478 bytes, checksum: 0aa7da99b26f6fed4ec1c68cd0c9bd45 (MD5) / Made available in DSpace on 2011-07-20T16:54:50Z (GMT). No. of bitstreams: 1 lenavaniapinheiro1997.pdf: 2525478 bytes, checksum: 0aa7da99b26f6fed4ec1c68cd0c9bd45 (MD5) Previous issue date: 1997 / Estudo dos conceitos, métodos, princípios, leis e teorias da Ciência da Informação, sob a abordagem da Epistemologia histórica, abrangendo. desde a sua gênese até os dias atuais, num processo evolutivo que reflete as suas dimensões sociais e tecnológicas. Discussão de seus fundamentos, disciplinas constituintes e relações. interdisciplinares, tendo como base empírica o ARIST - Annual Review of Information Science and Technology. A Ciência da Informação se inscreve entre os novos campos do conhecimento da sociedade da informação, caracterizados por também novas exigências teóricas. / [en] Information Science is analysed in its concepts, methods, principles, laws and heories. The approach adopted was historic Epistemology and the study from its genesis to our days. The evolution process which reflects its genesis to our days. The evolution process wich reflects its social and technological dimensions was stressed. The empirical basic of research was the publication ARIST - Annual Review of Information Science and Technology which gave the means to discuss the interdisciplinary relations, fundamental basic and its areas. Information science is among the new fields of Knowledge in the Information Society which is characterized by new theoretical demands. RÉSUMÉ: Étude des concepts, méthodes, principes, lois et théories de la science de l’Information, par approche de l”Épistémologie historique, comprennant dès sa génèse jusqui’aujourd’hui dans un procès évolutif qui miroitte ses. dimensions sociale et téchnologique. Discussion de ses fondements, disciplines constitutives et rélations interdisciplinaires appuyée aussi, empiriquement, sur l’ARIST - Annual Review of Information Science and Technology. / La Science de l”Information s’inscrit parmi les nouveaux domains de connaissance de la société de l’information caractérisé par aussi des. nouvelles exigences théoriques
252

Antenas cônicas anulares embutidas

MOURA, Vanine Sabino de 15 September 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-30T18:06:50Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Versão_Final_Biblioteca_Vanine.pdf: 1640662 bytes, checksum: d1aab86bf91da3fd9df7988cbfd910d0 (MD5) / Made available in DSpace on 2017-11-30T18:06:50Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Versão_Final_Biblioteca_Vanine.pdf: 1640662 bytes, checksum: d1aab86bf91da3fd9df7988cbfd910d0 (MD5) Previous issue date: 2016-09-15 / FACEPE / Este trabalho é dedicado ao estudo de antenas cônicas anulares embutidas. Essas antenas são constituídas por um cone condutor apresentando uma cavidade preenchida por material dielétrico sobre a qual é impressa uma antena anular. É apresentado um método de análise para obtenção das características de radiação de antenas cônicas anulares embutidas e os efeitos da cavidade sobre essas grandezas são observadas, comparando-se os resultados aos obtidos pelo software comercial de simulação eletromagnética HFSS. Uma formulação teórica baseada no princípio da equivalência é desenvolvida de forma que os campos eletromagnéticos no interior e no exterior da cavidade são determinados através de diádicas de Green. A partir de condições de contorno na antena, uma equação integral é formulada. A técnica numérica utilizada para resolvê-la é o método dos momentos, expandindo densidades de corrente magnética equivalentes em funções de base. Resultados numéricos para o ganho e impedância de entrada são apresentados validando o método de análise apresentado. / This work presents an analysis of cavity-backed conical annular antennas. This type of antenna consists of a cavity built within a conical conductor and filled up with dielectric over which an annular antenna is printed. A method of analysis to calculate antenna parameters is presented and the effect of the cavity on the antenna behavior is studied. Results are compared to those obtained from comercial electromagnetic simulation software HFSS. A theoretical formulation based on equivalence principle is developed in a way that the fields inside and outside the cavity are calculated with the aid of dyadic Green’s functions. An integral equation is written from boundary conditions and solved by Method of Moments once the equivalent magnetic currents are expanded in a set of basis functions. Numerical results for input impedance and radiated fields are shown validating the proposed method.
253

Aiding exploratory testing with pruned GUI models

REIS, Jacinto Filipe Silva 22 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T19:50:01Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Jacinto Filipe Silva Reis.pdf: 3426697 bytes, checksum: 1785cceb1a3f11d1a46ed89506bff902 (MD5) / Made available in DSpace on 2018-06-25T19:50:01Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Jacinto Filipe Silva Reis.pdf: 3426697 bytes, checksum: 1785cceb1a3f11d1a46ed89506bff902 (MD5) Previous issue date: 2017-02-22 / Exploratory testing is a software testing approach that emphasizes the tester’s experience in the attempt to maximize the chances to find bugs and minimize the time effort applied on satisfying such a goal. It is naturally a GUI-oriented testing activity for GUI-based systems. However, inmost cases,exploratory testing strategies may not be accurate enough to reach changed code regions. To reduce this gap, in this work, we propose a way of aiding exploratory testing by providing a GUI model of the regions impacted by internal code changes (for example, as result of change requests to fix previous bugs as well as for software improvement). We create such a delimited GUI model by pruning an original GUI model, quickly built by static analysis, using a reachability relation between GUI elements (i.e., windows, buttons, text fields, etc.) and internal source code changes (classes and methods). To illustrate the idea we provide promising data from two experiments, one from the literature and another from our industrial partner. / Teste exploratório é uma abordagem de teste de software que enfatiza a experiência do testador na tentativa de maximizar as chances de encontrarbugs e minimizar o esforço de tempo aplicado na satisfação desse objetivo. É naturalmente uma atividade de testes orientada à GUI aplicada em sistemas que dispõem de GUI. No entanto, na maioria dos casos, as estratégias de testes exploratórios podem não ser suficientemente precisas para alcançar as regiões de código alteradas. Para reduzir esta lacuna, neste trabalho nós propomos uma forma de auxiliar os testes exploratórios, fornecendo um modelo de GUI das regiões impactadas pelas mudanças internas de código (por exemplo, como resultado de solicitações de mudanças para corrigirbugs anteriores, bem como, para realização de melhorias do software). Criamos um modelo de GUI delimitado, podando um modelo de GUI original, construído rapidamente através de análise estática, usando uma relação de alcançabilidade entre elementos de GUI (janelas, botões, campos de textos) e alterações de código interno (classes e métodos). Para ilustrar a ideia, nós fornecemos dados promissores de dois experimentos, um da literatura e outro de nosso parceiro industrial.
254

Inferência de polimorfismos de nucleotídeo único utilizando algoritmos baseados em Relevance Learning Vector Quantization

ARAÚJO, Flávia Roberta Barbosa de 21 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T20:59:33Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Flávia Roberta Barbosa de Araújo.pdf: 2622290 bytes, checksum: c1614ba289657ed54f8b6d463f91bfca (MD5) / Made available in DSpace on 2018-06-25T20:59:33Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Flávia Roberta Barbosa de Araújo.pdf: 2622290 bytes, checksum: c1614ba289657ed54f8b6d463f91bfca (MD5) Previous issue date: 2017-02-21 / FACEPE / Embora duas pessoas compartilhem mais de 99% do DNA, as variações são extremamente relevantes para determinar as variações fenotípicas. Dentre essas variações, os polimorfismos de nucleotídeo único(SNP) são alterações pontuais mais conhecidas por influenciar no aumento no risco de doenças. Os SNPs podem atuar individualmente ou através de interações com outros SNPs (interaçõe sepistáticas). A inferência das interações epistáticas é um problema que vem sendo amplamente estudado, sendo utilizados dados genômicos de estudos de associação ampla do genoma (GWAS) com pacientes casos e controles. Diversas abordagens computacionais foram propostas, utilizando diferentes estratégias para lidar com os desafios de inferir as interações mais relevantes. O primeiro desafio encontrado neste estudo, esta relacionado à grande quantidade de dados (cerca de 500 a 900 mil SNPs). O segundo desafio esta associado ao número de possíveis interações entre SNPs, o que leva a um problema combinatorial. E o terceiro desafio, relaciona-se com o baixo poder estatístico das interações, sendo mais custoso identificá-las. A combinação desses desafios, tornam este um problema difícil de ser tratado. Nesta tese, são utilizadas diferentes metodologias, selecionadas para verificar suas capacidades em lidar com o problema da inferência da interações epistáticas. Dentre estas, são avaliadas técnicas de seleção de características e abordagens computacionais na detecção das interações entre SNPs, assim como algoritmos de aprendizagem de máquina baseados em Relevance Learning Vector Quantization (RLVQ). Nos experimentos realizados, os algoritmos baseados em RLVQ apresentaram resultados satisfatórios ao identificar as interações relevantes entre SNPs em dados com até 5 interações, utilizando requisitos computacionais relativamente baixos quando comparados a outras abordagens descritas na literatura. Um estudo mais extenso foi realizado, com o objetivo de identificar um ajuste ideal dos parâmetros e verificar as capacidades e limitações de cada algoritmo. Com os resultados obtidos através desse ajuste de parâmetros, foi possível levantar hipóteses referente a influência da quantidade de interações entre SNPs e da dimensionalidade dos dados em função dos parâmetros utilizados nos algoritmos. Considerando essas análises, foi possível propor uma nova metodologia denominada iGRLVQ-SNPi, baseada em algoritmos de RLVQ, para lidar de forma mais eficiente com o problema da inferência das interações entre os SNPs. Como iGRLVQ-SNPi, foi possível avaliar interações de ordem n, sem que para isso, fosse necessário informar o número de interações que se deseja avaliar. Nos experimentos realizados, o iGRLVQ-SNPi obteve uma excelente acurácia nos diferentes conjuntos de dados testados, e sendo comparativamente melhor ou tão eficiente quanto outras abordagens de inferência epistáticas avaliadas, utilizando um menor custo computacional. / Although two people share more than 99% of DNA, variations are extremely relevant for determining phenotypic variations. Among these variations, single nucleotide polymorphisms (SNPs) are punctual changes known to influence the increased risk of disease. SNPs can act individually or through interactions with other SNPs (epistatic interactions). The inference of epistatic interactions is a problem that has been extensively studied, using genomic data from genome wide associationstudies(GWAS) with cases and controls patients. Several computational approaches were proposed, using different strategies to deal with the challenges of inferring the most relevant interactions. The first challenge found in this study is related to the large amount of data (about 500 to 900 thousand SNPs). The second challenge is the number of possible interactions between SNPs, which leads to a combinatorial problem. And the third challenge is related to the low statistical power of the interactions, being more difficult to identify them. The combination of these challenges makes this a hard problem to address. In this thesis, different methodologies were used, they were selected to verify their abilities in dealing with the problem of inference of the epistatic interactions. Among these, we evaluate techniques of feature selection and computational approaches in the detection of interactions between SNPs, as well as machine learning algorithms based on Relevance Learning Vector Quantization(RLVQ). In the experiments performed, the RLVQ-based algorithms presented satisfactory results by identifying the relevant interactions between SNPs in data with up to 5 interactions, using relatively low computational requirements when compared to other approaches described in the literature. Amore extensive study was carried out with the objective of identify in ganoptimal adjustment of the parameters and verifying the capacities and limitationsofeachalgorithm. With the results obtained through this adjustment of parameters, it was possible to raise hypotheses regarding the influence of the amount of interactions between SNPs and the dimensionality of the data as a function of the parameters used in the algorithms. Considering these analyzes, it was possible to propose a new methodology called iGRLVQ-SNPi, based on RLVQ algorithms, to deal more efficiently with the problem of inference of the interactions between the SNPs. With iGRLVQ-SNPi, it was possible to evaluate n-order interactions, without it being necessary to inform the number of interactions to be evaluated. In the experiments performed, iGRLVQ-SNPi obtained an excellent accuracy in the different data sets tested, and was comparatively better or as efficient as other evaluated epistatic inference approaches, using a lower computational cost.
255

Nanocompósitos magnéticos magnetita/quitosana/polianilina e seu uso na extração e purificação de DNA

MACIEL, Bruna Gomes 13 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-18T19:54:53Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Bruna Gomes Maciel.pdf: 4848081 bytes, checksum: f429c30b7d80c3b3d9b54a8a9c3f1348 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-20T17:45:58Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Bruna Gomes Maciel.pdf: 4848081 bytes, checksum: f429c30b7d80c3b3d9b54a8a9c3f1348 (MD5) / Made available in DSpace on 2018-07-20T17:45:58Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Bruna Gomes Maciel.pdf: 4848081 bytes, checksum: f429c30b7d80c3b3d9b54a8a9c3f1348 (MD5) Previous issue date: 2017-03-13 / CAPES / Descrevemos neste trabalho a preparação de nanopartículas magnéticas de óxido de ferro/quitosana (NPMs Fe₃O₄@Qui) por co-precipitação química, e sua funcionalização com polianilina por polimerização em emulsão do monômero anilina, do que resulta o nanocompósito híbrido composto por óxido de ferro, quitosana e polianilina (NCM Fe₃O₄@Qui@Pani). As NPMs e o NCM foram caracterizados por difração de raios-X (DRX), medidas magnéticas, espectroscopia de absorção no ultravioleta-visível (UV-VIS), espectroscopia no infravermelho com transformada de Fourier (FT-IR), microscopia eletrônica de varredura (MEV). Ainda, através dos métodos de Brunauer-Emmett-Teller (BET) e BarrettJoyner-Halenda (BJH) obtivemos uma estimativa da área superficial, tamanho e volume dos poros. As NPMs e o NCM possuem tamanho médio de 12 nm e 20 nm, respectivamente; ambos apresentam comportamento superparamagnético com magnetização de saturação (Ms) de 42 emu/g para as nanopartículas e de 22 emu/g para o nanocompósito. Após o estudo das propriedades físicas e químicas destes materiais, prosseguimos a investigação para aplicação do NCM como adsorvente de fase sólida para extração de ácido desoxirribonucléico (DNA). Inicialmente usamos como sistema modelo soluções de DNA de esperma de salmão em meio aquoso, e utilizamos a espectroscopia na região do UV-VIS, correspondente ao comprimento de onda do pico de absorção característico do DNA (λ= 260 nm) para determinar a concentração da solução de DNA antes e após a interação com o nanocompósito. Ao realizar experimentos de adsorção no modo de batelada, obtivemos que a capacidade de adsorção do NCM é de 49,5 mg/g após 60 minutos de interação, mas quando este processo é realizado no vortex, há um aumento na capacidade que atinge o máximo de 90,5 mg/g em 10 minutos com porcentagem de adsorção de 61%. Além do processo de adsorção, conseguimos realizar a dessorção (liberação) de uma quantidade significativa (66%) do DNA capturado, apenas por alteração do pH. Diante dos resultados obtidos, decidimos posteriormente aplicar o NCM para extração de DNA total a partir de sangue humano, analisando a interação por espectroscopia UV-VIS, eletroforese e reação em cadeia da polimerase (PCR) com bons resultados. / In this work, we describe the preparation of magnetic nanoparticles of iron oxide/chitosan (Chitosan@Fe₃O₄MNPs) by chemical co-precipitation, and their functionalization with polyaniline by emulsion polymerization of the aniline monomer, resulting in a hybrid polyaniline, chitosan and iron oxide nanocomposite (Pani@Chi@Fe₃O₄ MNC). The MNPs and MNC were characterized by X-ray diffraction (XRD), magnetic measurements, ultravioletvisible absorption spectroscopy (UV-VIS), Fourier transform infrared spectroscopy (FT-IR), scanning electron microscopy (MEV). In addition, through the methods of Brunauer-EmmettTeller (BET) and Barrett-Joyner-Halenda (BJH), we have obtained an estimate of surface area, size and volume of pores. The MNPs and MNC have an average size of 12 nm and 20 nm, respectively, and both exhibit superparamagnetic behavior with a saturation magnetization (Ms) of 42 emu/g [22 emu/g] for the nanoparticles [nanocomposite]. After establishing the most relevant physical-chemical properties of these materials, we applied the MNC as a solid phase adsorbent for the extraction of deoxyribonucleic acid (DNA) molecules. Initially, we used salmon sperm DNA in aqueous media as a model system, and the characteristic absorption peak of the DNA (λ= 260 nm) was measured to determine the variation in the DNA concentration of the solution as a result of the interaction with the nanocomposite. When adsorption experiments were carried out in the batch mode, the adsorption capacity of the MNC was 49.5 mg/g after 60 minutes of interaction, but when this process is performed in the vortex, the capacity increase, reaching a maximum of 90.5 mg/g in 10 minutes with percentage of adsorption of 61%. In addition, we have shown that a significant amount (66%) of the captured DNA can be desorbed by a simple change in the pH of the solution. These results have stimulated us to apply the MNC for the DNA extraction from human blood samples. The retrieved nucleic acid exhibited good quality as determined UV-Vis spectroscopy, electrophoresis and polymerase chain reaction (PCR) investigations.
256

Testes estatísticos e detecções de mudanças de conceitos em fluxos de dados

CABRAL, Danilo Rafael de Lima 03 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T18:20:19Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-27T16:53:15Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) / Made available in DSpace on 2018-07-27T16:53:15Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) Previous issue date: 2017-02-03 / O aprendizado online objetiva a extração de informações a partir de fluxos de dados compostos de uma grande quantidade de exemplos. Esses fluxos frequentemente contêm mudanças de conceitos que na maioria dos casos são caracterizadas como modificações nas distribuições dos dados. Métodos detectores de mudanças de conceitos são algoritmos projetados para trabalharem conjuntamente com um – ou mais – classificador base, a fim de estimarem as posições das mudanças e quando necessário substituírem o preditor, com o objetivo de melhorar a sua acurácia. DDM, EDDM e STEPD são exemplos de detectores simples, eficientes e bem-conceituados. Apesar de sua eficácia em bases pequenas, o DDM tende a perder precisão quando apresentado a conjuntos de dados consideravelmente grandes. Por outro lado, o EDDM funciona bem com bases de dados graduais, porém alcança baixos índices de acurácia em bases com mudanças de conceitos abruptas. O STEPD, por sua vez, foi projetado para a detecção de mudanças de conceitos através do teste de hipóteses entre duas proporções, entretanto, estatisticamente, esse teste não é recomendado para amostras pequenas e/ou desbalanceadas. Este trabalho propõe quatro novos detectores (formando o total de sete versões) que objetivam melhorar o DDM, EDDM e STEPD. Todos os métodos propostos são baseados em testes estatísticos, sendo o EMZD baseado no teste de hipóteses entre médias de duas amostras independentes e, o FPDD, FSDD e FTDD baseados no teste exato de Fisher. Os experimentos realizados, com dois classificadores base, usando 36 conjuntos de dados artificiais e três bases de dados reais, demonstraram a eficácia e eficiência dos detectores propostos. No que diz respeito a avaliação dos detectores, uma das versões do EMZD obteve as melhores acurácias e o FPDD foi o mais preciso na análise das detecções de mudanças de conceitos. / Online learning aims to extract information from data streams composed of a large number of examples. These flows often contain concept drifts that in most cases are characterized as changes in data distributions. Concept drifts detectors are algorithms designed to work with one or more base classifier in order to estimate the change positions and, when necessary, replace the predictor to improve its accuracy. DDM, EDDM and STEPD are simple, efficient and well-known detectors. Despite its effectiveness on small bases, DDM tends to lose accuracy when faced with considerably large data sets. On the other hand, EDDM works well with gradual databases, but achieves low accuracy on bases with abrupt drifts. STEPD was designed to detect changes in distribution using a hypothesis test between two proportions, however, statistically this test is not recommended for small and/or imbalanced samples. This work proposes four new detectors (seven versions in total) that aim to improve DDM, EDDM and STEPD. All the proposed methods are inspired by statistical tests, where EMZD is based on hypothesis test between means of two independent samples and FPDD, FSDD and FTDD are based on Fisher’s exact test. Experiments with two base classifiers using 36 artificial data sets and three real-world datasets demonstrated the effectiveness and efficiency of the proposed detectors. Regarding the evaluation of detectors, one of the versions of the EMZD obtained the best accuracy and the FPDD was the most accurate in the analysis of the concept drifts detections.
257

Modernização de sistemas legados para disponibilização em dispositivos móveis com arquitetura baseada em microservices

FREITAS, Bruno Chaves de 23 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T17:58:58Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Bruno Chaves de Freitas.pdf: 1529690 bytes, checksum: bd8faa6a88d515bdb1f711e1b8625a7a (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-27T17:12:22Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Bruno Chaves de Freitas.pdf: 1529690 bytes, checksum: bd8faa6a88d515bdb1f711e1b8625a7a (MD5) / Made available in DSpace on 2018-07-27T17:12:22Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Bruno Chaves de Freitas.pdf: 1529690 bytes, checksum: bd8faa6a88d515bdb1f711e1b8625a7a (MD5) Previous issue date: 2017-02-23 / O uso universal de dispositivos móveis computacionais, especialmente dos smartphones, é incontestável e um processo sem volta. Este fato impulsiona as organizações possuidoras de sistemas de informação a adaptá-los para um adequado acesso através deste veículo computacional, proporcionando uma boa experiência de uso além de aproveitar novas possibilidades inerentes a estes dispositivos. Os sistemas legados, no entanto, podem dificultar esta adaptação, seja por sua tecnologia, acoplamento de código ou arquitetura inapropriados, uma vez que a tecnologia à época de seu desenvolvimento ficou defasada com o passar do tempo, demandando uma modernização de sua arquitetura. Neste contexto, a arquitetura de microservices tem se destacado. Este trabalho propõe um processo de modernização de sistemas legados para uma arquitetura baseada em microservices, distribuindo o sistema em diversos serviços pequenos, independentes entre si, focados cada um em uma única tarefa e comunicando-se por mensagens. Esta distribuição e independência deixarão cada serviço livre para utilizar qualquer tecnologia, quebrando as amarras tecnológicas do sistema legado, além de facilitar futuras evoluções. Esta “quebra” do sistema, no entanto, pode ser demorada, em virtude da necessidade de entendimento das regras de negócio implementadas e dos refatoramentos necessários. Em virtude disto, para priorizar a disponibilização do acesso mobile a estes sistemas, o processo proposto prevê uma etapa intermediária de modernização utilizando a técnica de REST Wrapping. / The universal use of mobile computing devices, especially smartphones, is undeniable and an irreversible process. This fact encourages the organizations using information systems to adapt them to provide an adequate access through this computational tool, providing a good experience of use besides taking advantage of new possibilities inherent to these devices. Legacy systems, however, can make this adaptation difficult, either because of its technology, inappropriate code coupling or architecture, since the technology at the time of its development lags behind with time, demanding the modernization of its architecture. In this context, the microservices architecture has been emerging. This work proposes a modernization process of legacy systems to a microservice-based architecture, distributing the system into several small independent services, each focused on a single task and communicating through messages. This distribution and independence will leave each service independent to use any technology, breaking the technological constraints of the legacy system in addition to facilitating future evolutions. However, this separation of the system, can be time-consuming because of the need to understand the business rules implemented and the necessary refactorings. In order to prioritize the availability of mobile access to these systems, the proposed process provides an intermediate step of modernization using the REST Wrapping technique.
258

A robust technique for detecting custom patterns of roundish features

PESSOA, Saulo Andrade 10 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-27T17:52:23Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Saulo Andrade Pessoa.pdf: 13702473 bytes, checksum: fb19820230bd6d159a5f8955f442c524 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-01T22:38:09Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Saulo Andrade Pessoa.pdf: 13702473 bytes, checksum: fb19820230bd6d159a5f8955f442c524 (MD5) / Made available in DSpace on 2018-08-01T22:38:10Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Saulo Andrade Pessoa.pdf: 13702473 bytes, checksum: fb19820230bd6d159a5f8955f442c524 (MD5) Previous issue date: 2017-03-10 / FACEPE / A fundamental task in computer vision is extracting low-level features from the image. Since this is one of the first tasks executed by most vision-based systems, imprecisions and errors committed during its execution are propagated to the next stages thus affecting the system overall performance. Therefore, robust and precise feature extractors are mandatory in computer vision. In the literature, two kinds of low-level features are commonly used: natural features, and artificial patterns of features. Natural features are extractable only from scenarios rich in textured elements. On the other hand, artificial patterns of features can be easily crafted by using commodity printers, which permits its application in a diversity of scenarios. Moreover, since the real dimensions of the pattern are known beforehand, the usage of artificial patterns allows the construction of metric systems. This thesis presents a new detection technique for patterns formed by roundish features. The new technique is composed of two stages: the extraction of candidates for features of the pattern; and the searching for the elements (among the candidates) that actually constitute the pattern. Differently from the techniques found in the related literature, the proposed one does not restrict the patterns to be rectangular grids of regularly-spaced features, but it allows the creation of a variety of patterns through the use of graphs (the pattern template). Experimental results collected from two case studies evidence that the new technique is robust to uneven and low-lighting conditions. / Em visão computacional, uma tarefa fundamental é a extração de características da imagem. Por essa ser uma das primeiras etapas a serem realizadas na maioria dos sistemas computacionais baseados em visão, imprecisões e erros cometidos durante sua realização são propagados para as demais etapas afetando o resultado final obtido pelo sistema. Dessa forma, extratores de características que sejam robustos e precisos são uma necessidade em visão computacional. Na literatura, dois tipos de características são amplamente utilizados: características naturais; e padrões artificiais de características. Características naturais são extraíveis apenas de cenários ricos em elementos texturizados. Já padrões artificiais de características podem ser facilmente confeccionados com impressoras domésticas, permitindo sua aplicação em diversos cenários. Além disso, o uso de padrões artificiais possibilita que as medidas reais entre as características sejam previamente conhecidas (informação essencial à construção de sistemas métricos). Esta tese apresenta uma nova técnica para detecção de padrões artificiais formados por características arredondadas, sendo composta de dois estágios: a extração de elementos candidatos a característica do padrão; e a busca para encontrar quais elementos (dentre os candidatos) constituem o padrão de interesse. Diferentemente das técnicas encontradas na literatura, a técnica proposta não é restrita a detectar padrões retangulares formados por características uniformemente espaçadas; o usuário é livre para criar o padrão da sua escolha através da construção de um grafo (o gabarito do padrão). Experimentos realizados com imagens reais comprovam que a técnica proposta é robusta a iluminação não uniforme e a baixo contraste.
259

Analytic solutions to stochastic epidemic models

SOUZA, Danillo Barros de 24 February 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-07-26T20:39:13Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danillo Barros de Souza.pdf: 7642919 bytes, checksum: 6768e6fd189bd85a95913caab91d956c (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-09T22:43:44Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danillo Barros de Souza.pdf: 7642919 bytes, checksum: 6768e6fd189bd85a95913caab91d956c (MD5) / Made available in DSpace on 2018-08-09T22:43:44Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danillo Barros de Souza.pdf: 7642919 bytes, checksum: 6768e6fd189bd85a95913caab91d956c (MD5) Previous issue date: 2017-02-24 / CNPq / Even the simplest outbreaks might not be easily predictable. Fortunately, deterministic and stochastic models, systems differential equations and computational simulations have proved to be useful to a better understanding of the mechanics that leads to an epidemic outbreak. Whilst such systems are regularly studied from a modelling viewpoint using stochastic simulation algorithms, numerous potential analytical tools can be inherited from statistical and quantum physics, replacing randomness due to quantum fluctuations with low copy number stochasticity. Here, the Fock space representation, used in quantum mechanics, is combined with the symbolic algebra of creation and annihilation operators to consider explicit solutions for the master equations describing epidemics represented via the SIR model (Susceptible-Infected-Recovered), originally developed via Kermack and McKendrick’s theory. This is illustrated with an exact solution for a short size of population, including a consideration of very short time scales for the next infection, which emphasises when stiffness is present even for small copy numbers. Furthermore, we present a general matrix representation for the SIR model with an arbitrary number of individuals following diagonalization. This leads to the solution of this complex stochastic problem, including an explicit way to express the mean time of epidemic and basic reproduction number depending on the size of population and parameters of infection and recovery. Specifically, the project objective to apply use of the same tools in the approach of system governed by law of mass action, as previously developed for the Michaelis-Menten enzyme kinetics model [Santos et. al. Phys Rev. E 92, 062714 (2015)]. For this, a flexible symbolic Maple code is provided, demonstrating the prospective advantages of this framework compared to Gillespie stochastic simulation algorithms. / Mesmo os surtos mais simples podem não ser facilmente previsíveis. Felizmente, modelos determinísticos e estocásticos, equações diferenciais de sistemas e simulações computa- cionais provaram ser úteis para uma melhor compreensão da mecânica que leva a um surto epidêmico. Enquanto tais sistemas são regularmente estudados a partir de um ponto de vista de modelagem usando algoritmos de simulação estocástica, inúmeras ferramentas analíticas potenciais podem ser herdadas da física estatística e quântica, substituindo aleatoriedade devido a flutuações quânticas com baixa estocástica de número de cópias. Aqui, a representação do espaço de Fock, usada na mecânica quântica, é combinada com a álgebra simbólica dos operadores de criação e aniquilação para considerar soluções explícitas para as equações mestra que descrevem epidemias representadas via modelo SIR (Suscetível-Infectado-Recuperado), originalmente desenvolvido pela teoria de Kermack e McKendrick. Isto é ilustrado com uma solução exata para um tamanho pequeno de população, considerando escalas de tempo muito curtas para a próxima infecção, que enfatiza quando a rigidez está presente mesmo para números de cópias pequenos. Além disso, apresentamos uma representação matricial geral para o modelo SIR com um número arbitrário de indivíduos após diagonalização. Isto nos leva à solução deste problema es- tocástico complexo, além de ter uma maneira explícita de expressar o tempo médio de epidemia e o número básico de reprodução, ambos dependendo do tamanho da população e parâmetros de infecção e recuperação. Especificamente, o objetivo é utilizar as mesmas ferramentas na abordagem de um sistema regido por lei de ação das massas, como anterior- mente desenvolvido para o modelo de cinética enzimática de Michaelis-Menten [Santos et. Al PRE 2015]. Para isso, é fornecido um código Maple simbólico flexível, demonstrando as vantagens potenciais desta estrutura comparados aos algoritmos de simulação estocástica de Gillespie.
260

Representações cache eficientes para montagem de fragmentos baseada em grafos de de Bruijn de sequências biológicas

LIMA, Jamerson Felipe Pereira 20 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-01T20:18:15Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Jamerson Felipe Pereira Lima.pdf: 1541250 bytes, checksum: ccefce36b254aed5273279c3a4600f9f (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-02T20:09:33Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Jamerson Felipe Pereira Lima.pdf: 1541250 bytes, checksum: ccefce36b254aed5273279c3a4600f9f (MD5) / Made available in DSpace on 2018-08-02T20:09:33Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Jamerson Felipe Pereira Lima.pdf: 1541250 bytes, checksum: ccefce36b254aed5273279c3a4600f9f (MD5) Previous issue date: 2017-02-20 / FACEPE / O estudo dos genomas dos seres vivos têm sido impulsionado pelos avanços na biotecnologia ocorridos desde a segunda metade do Séc. XX. Particularmente, o desenvolvimento de novas plataformas de sequenciamento de alto desempenho ocasionou a proliferação de dados brutos de fragmentos de sequências nucleicas. Todavia, a montagem dos fragmentos de DNA continua a ser uma das etapas computacionais mais desafiadoras, visto que a abordagem tradicional desse problema envolve a solução de problemas intratáveis sobre grafos obtidos a partir dos fragmentos, como, por exemplo, a determinação de caminhos hamiltonianos. Mais recentemente, soluções baseadas nos grafos de de Bruijn (gdB), também obtidos a partir dos fragmentos sequenciados, têm sido adotadas. Nesse caso, o problema da montagem relaciona-se com o de encontrar caminhos eulerianos, o qual possui soluções polinomiais conhecidas. Embora apresentem custo computacional teórico mais baixo, ainda demandam, na prática, grande poder computacional, face ao volume de dados envolvido. Por exemplo, a representação empregada por algumas ferramentas para o gdB do genoma humano pode alcançar centenas de gigabytes. Faz-se necessário, portanto, o emprego de técnicas algorítmicas para manipulação eficiente de dados em memória interna e externa. Nas arquiteturas computacionais modernas, a memória é organizada de forma hierárquica em camadas: cache, memória RAM, disco, rede, etc. À medida que o nível aumenta, cresce a capacidade de armazenagem, porém também o tempo de acesso. O ideal, portanto, seria manter a informação limitada o mais possível aos níveis inferiores, diminuindo a troca de dados entre níveis adjacentes. Para tal, uma das abordagens são os chamados algoritmos cache-oblivious, que têm por objetivo reduzir o número de trocas de dados entre a memória cache e a memória principal sem que seja necessário para tanto introduzir parâmetros relativos à configuração da memória ou instruções para a movimentação explícita de blocos de memória. Uma outra alternativa que vêm ganhando ímpeto mais recentemente é o emprego de estruturas de dados ditas sucintas, ou seja, estruturas que representam a informação usando uma quantidade ótima de bits do ponto de vista da teoria da informação. Neste trabalho, foram implementadas três representações para os gdB, com objetivo de avaliar seus desempenhos em termos da utilização eficiente da memória cache. A primeira corresponde a uma implementação tradicional com listas de adjacências, usada como referência, a segunda é baseada em estruturas de dados cache-oblivious, originalmente descritas para percursos em grafos genéricos, e a terceira corresponde a uma representação sucinta específica para os gdB, com otimizações voltadas ao melhor uso da cache. O comportamento dessas representações foi avaliado quanto à quantidade de acessos à memória em dois algoritmos, nomeadamente o percurso em profundidade (DFS) e o tour euleriano. Os resultados experimentais indicam que as versões tradicional e cache-oblivious genérica apresentam, nessa ordem, os menores números absolutos de cache misses e menores tempos de execução para dados pouco volumosos. Entretanto, a versão sucinta apresenta melhor desempenho em termos relativos, considerando-se a proporção entre o número de cache misses e a quantidade de acessos à memória, sugerindo melhor desempenho geral em situações extremas de utilização de memória. / The study of genomes was boosted by advancements in biotechnology that took place since the second half of 20th century. In particular, the development of new high-throughput sequencing platforms induced the proliferation of nucleic sequences raw data. Although, DNA assembly, i.e., reconstitution of original DNA sequence from its fragments, is still one of the most computational challenging steps. Traditional approach to this problem concerns the solution of intractable problems over graphs that are built over the fragments, as the determination of Hamiltonian paths. More recently, new solutions based in the so called de Bruijn graphs, also built over the sequenced fragments, have been adopted. In this case, the assembly problem relates to finding Eulerian paths, for what polynomial solutions are known. However, those solutions, in spite of having a smaller computational cost, still demand a huge computational power in practice, given the big amount of data involved. For example, the representation employed by some assembly tools for a gdB of human genome may reach hundreds of gigabytes. Therefore, it is necessary to apply algorithmic techniques to efficiently manipulate data in internal and external memory. In modern computer architectures, memory is organized in hierarchical layers: cache, RAM, disc, network, etc. As the level grows, the storage capacity is also bigger, as is the access time (latency). That is, the speed of access is smaller. The aim is to keep information limited as much as possible in the highest levels of memory and reduce the need for block exchange between adjacent levels. For that, an approach are cache-oblivious algorithms, that try to reduce the the exchange of blocks between cache and main memory without knowing explicitly the physical parameters of the cache. Another alternative is the use of succinct data structures, that store an amount of data in space close to the minimum information-theoretical. In this work, three representations of the de Bruijn graph were implemented, aiming to assess their performances in terms of cache memory efficiency. The first implementation is based in a traditional traversal algorithm and representation for the de Bruijn graph using adjacency lists and is used as a reference. The second implementation is based in cache-oblivious algorithms originally described for traversal in general graphs. The third implementation is based in a succinct representation of the de Bruijn graph, with optimization for cache memory usage. Those implementations were assessed in terms of number of accesses to cache memory in the execution of two algorithms, namely depth-first search (DFS) and Eulerian tour. Experimental results indicate that traditional and generic cache-oblivious representations show, in this order, the least absolute values in terms of number of cache misses and least times for small amount of data. However, the succinct representation shows a better performance in relative terms, when the proportion between number of cache misses and total number of access to memory is taken into account. This suggests that this representation could reach better performances in case of extreme usage of memory.

Page generated in 0.0627 seconds