• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3158
  • 289
  • 265
  • 27
  • 25
  • 17
  • 17
  • 17
  • 11
  • 9
  • 9
  • 9
  • 7
  • 6
  • 4
  • Tagged with
  • 3820
  • 1177
  • 1012
  • 579
  • 546
  • 534
  • 478
  • 456
  • 442
  • 389
  • 332
  • 330
  • 317
  • 304
  • 303
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

O uso da simulação computacional como ferramenta de auxílio à tomada de decisão : aplicação em empresa de papelão ondulado

Castilho, Marcos Rossi January 2004 (has links)
A competição entre as empresas pela busca de mercado tem levado ao aprimoramento de suas atividades e melhorias em seus processos produtivos. Este trabalho apresenta a análise do processo produtivo de uma empresa produtora de embalagens de papelão ondulado através da técnica da simulação computacional. O simulador ProModel foi utilizado no desenvolvimento do estudo e se mostrou adequado para a modelagem do processo produtivo e geração de resultados. Com a sua capacidade de animação, criação de macros e geração de relatórios, ficou facilitado o desenvolvimento e analise de cenários. Isto permitiu que o foco do estudo ficasse sobre a análise dos resultados e simulação de cenários e não na programação para criação e rodagem do modelo de simulação. A partir da modelagem do processo real de trabalho foi possível identificar restrições de capacidades no sistema, o que levou à criação de cenários onde oportunidades de melhoria pudessem ser avaliadas. A revelação de que a parcial utilização do equipamento denominado Onduladeira, o qual gerava perdas por ociosidade nas impressoras, acabou se mostrando como o gargalo do processo produtivo é o mais indicado ponto de melhoria. Com o incremento de produtividade sobre este equipamento, definido a partir de análises dos cenários, obteve-se como resultado a utilização de 100% dos demais equipamentos do processo produtivo. Análises e comparações de resultados entre os cenários e as conclusões do estudo são apresentadas no final do trabalho.
42

Análise crítica e comparativa de Taxonomias de Sistemas de Detecção de Intrusão

Maria Gomes Do Valle, Ana January 2002 (has links)
Made available in DSpace on 2014-06-12T15:59:14Z (GMT). No. of bitstreams: 2 arquivo4982_1.pdf: 758372 bytes, checksum: c159ec4baf2bbb7d9ee1d781c455031f (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2002 / Segurança é um problema muitas vezes presente nas redes de computadores. Existem diversos mecanismos para abordá-la, dentre eles, firewalls, análise de vulnerabilidades, criptografia, certificados digitais, VPNs (Virtual Private Network), detecção de intrusão e, até, uma política de segurança bem planejada e aplicada. Todos são utilizados de forma que haja uma chance elevada de se evitar maiores comprometimentos. Os riscos crescentes de ataques a sistemas computacionais advindos do aumento das atividades não autorizadas, não somente de atacantes externos, mas também de internos (como no caso de empregados descontentes e usuários abusando de seus privilégios), mostra a importância dos Sistemas de Detecção de Intrusão (IDS) no aumento da segurança dos sistemas computacionais. O grande número de IDS desenvolvidos e disponibilizados atualmente, tanto comercialmente, quanto para pesquisa, bem como as muitas questões que envolvem os mesmos, trazem consigo problemas e restrições que precisam ser identificados para possíveis melhoramentos. A área de detecção de intrusão é muito dinâmica, em constante atualização e, com o surgimento de novos IDS, sempre em busca do aprimoramento. Diante disto, é proposta uma taxonomia dos IDS em relação às características mais destacadas encontradas nos 3 (três) módulos principais de um IDS: coleta de dados, análise e componente de resposta. Também é elaborado um survey de diversos IDS, escolhidos pela diversidade de seus mecanismos. Em face deste estudo foi possível propor um modelo de um IDS, derivado de um modelo conceitual já validado por aplicação na área de Administração de Sistemas
43

Novas estratégias para métodos in silico na inovação terapêutica utilizando computação distribuída: GriDoMol

FERREIRA, Luiz Felipe Gomes Rebello 17 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-21T19:25:56Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Luiz Felipe Gomes Rebello Ferreira.pdf: 10574681 bytes, checksum: 88fb46b2af0638e486a62e4ca28fdd89 (MD5) / Made available in DSpace on 2018-06-21T19:25:56Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Luiz Felipe Gomes Rebello Ferreira.pdf: 10574681 bytes, checksum: 88fb46b2af0638e486a62e4ca28fdd89 (MD5) Previous issue date: 2017-02-17 / FACEPE / Estima-se que o uso de métodos in silico pode reduzir os custos associados ao desenvolvimento de um novo fármaco em até 50%. Esta redução ocorre porque o número de moléculas que precisam ser testadas e sintetizadas experimentalmente passa a ser drasticamente reduzido devido a alta confiabilidade dos métodos computacionais. Porém, estes métodos podem apresentar uma alta demanda computacional quando o número de moléculas a ser testados é alto e quando se busca maior precisão nos resultados numéricos. Sendo assim, este trabalho apresenta o desenvolvimento do programa GriDoMol, uma plataforma unificada para realizar cálculos de docking molecular em um sistema distribuído, através de um grid computacional, com foco em alto desempenho e precisão. Utilizando o GriDoMol e configurações avançadas de docking, foi possível realizar o docking molecular de um conjunto de 213 complexos em um tempo até 9,91 vezes mais rápido e encontrando soluções de docking mais estáveis, com reduções de até 1,3 Kcal/mol, quando comparado com a execução sequencial deste mesmo conjunto em um único computador, utilizando apenas um núcleo de processamento e a configuração padrão de docking. O GriDoMol também oferece a opção de realizar estudos de vacinologia reversa permitindo cálculos de docking molecular entre candidatos a epítopos e alelos de MHCs de Classe I e II humanos com o intuito de encontrar epítopos que possuam uma boa afinidade por estes alelos, aumentando as chances de apresentar uma resposta imunológica significativa. / It is estimated that the use of in silico methods can reduce the costs spent at the development stage of a new drug by up to 50%. This happens because the number of molecules that need to be experimentally synthesized and tested becomes drastically reduced due to the high predictability and reliability of the computational methods. Nevertheless, these methods may present a high computational demand when the number of molecules to be tested is high and when it’s seeking for a higher precision in the numerical results. Therefore, this work presents the development of the program GriDoMol, a unified platform for performing molecular docking calculations in a distributed system, through a computational grid environment, with focus in high performance and precision. By using GriDoMol and higher docking settings values, it was possible to execute the molecular docking of a set containing 213 complexes in a time up to 9.91 times faster and finding more stable complexes, with energy reduction by up to 1.3 Kcal/mol, when compared with the sequential execution of this same set on a single computer, using a single processor core and the default docking settings values. The program GriDoMol also offers a reverse vaccinology option, allowing the molecular docking of candidate epitopes on selected human MHC’s Class I and II alleles, in order to find the most promising epitopes which have a good binding affinity on a large set of alleles and, thus, better chances of having a significant immunogenic response.
44

Design guidelines for generating augmented reality instructions

SILVA, Cledja Karina Rolim da 04 March 2016 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-11T20:37:26Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Cledja Karina Rolim da Silva.pdf: 4417000 bytes, checksum: 9649b9a2c3b86f1c7a2ce85556b2cc63 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-17T20:32:07Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Cledja Karina Rolim da Silva.pdf: 4417000 bytes, checksum: 9649b9a2c3b86f1c7a2ce85556b2cc63 (MD5) / Made available in DSpace on 2018-07-17T20:32:08Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Cledja Karina Rolim da Silva.pdf: 4417000 bytes, checksum: 9649b9a2c3b86f1c7a2ce85556b2cc63 (MD5) Previous issue date: 2016-03-04 / CNPQ / Most work about instructions in Augmented Reality do not follow established patterns or design rules – each approach defines its own method for conveying instructions. This work describes our results and experiences towards defining design guidelines for Augmented Reality instructions. From these guidelines, we propose a set of instructions and empirically validate them. The guidelines were derived from a survey of the most common visualization techniques and instruction types applied in Augmented and Mixed Reality. Moreover, we studied how instructions were done in 2D and 3D and how they can be applied in the Augmented Reality context. We observed that most work is related to object instructions and less work to body movement instructions. However, our proposal can be used in both cases. To validate our proposal we implemented a C⁺⁺ system, which -can be seen as a library to be used in different kinds of environments where the instructions of body and objects movements are important. A RGB-D sensor was applied to capture the movements. As result, we had visualization techniques applied together with typical AR instructions and indications of what kind of instruction could be used to: emphasize parts, indication of direction of the movement, management of occlusion, management of depth and feedback. / Grande parte de trabalhos relacionados a instruções em Realidade Aumentada não segue padrões ou guias de desenvolvimento – cada abordagem define seu modo próprio de transmitir instruções. Este trabalho descreve nossos resultados e experiência na direção de definir guias de desenvolvimento ou projeto para aplicações que utilizem Realidade Aumentada. A partir dessas guias de desenvolvimento, propomos um conjunto de instruções e empiricamente validamos as mesmas. Essas guias foram derivadas de uma pesquisa extensiva sobre as técnicas de visualização e instruções relacionadas à Realidade Aumentada e Mista. Além disso, verificamos trabalhos sobre instruções 2D e 3D para entender o funcionamento desta área para checar como e que tipo de informação poderia ser adaptada e usada no contexto de aplicações para Realidade Aumentada. Observamos que a maioria dos trabalhos é relacionada a instruções com objetos e há poucos trabalhos relacionados a instruções de movimentos do corpo. Para validar nossa proposta, implementamos um sistema em C⁺⁺, o qual tem o objetivo de ser uma biblioteca para ser usada em diferentes tipos de ambientes ou contextos onde instruções de movimento do corpo sejam importantes. Para capturar o movimento do corpo, um sensor RGB-D foi utilizado. Como resultado, apresentamos técnicas de visualização aplicadas com instruções comuns em Realidade Aumentada e indicação de que tipo de instrução pode ser usada para: realçar partes, indicação da direção do movimento, gerenciamento de oclusão, gerenciamento de profundidade e retorno para o usuário.
45

A Bayesian framework for object recognition under severe occlusion

GUERRERO PEÑA, Fidel Alejandro 22 February 2017 (has links)
PEÑA, Fidel Alejandro Guerrero também é conhecido em citações bibliográficas por: GUERRERO-PEÑA, Fidel Alejandro / Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T18:34:38Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Fidel Alenjandro Guerrero Peña.pdf: 3548161 bytes, checksum: 0af5697d578c29adf24e374dac93cf4f (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T21:16:04Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Fidel Alenjandro Guerrero Peña.pdf: 3548161 bytes, checksum: 0af5697d578c29adf24e374dac93cf4f (MD5) / Made available in DSpace on 2018-07-26T21:16:04Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Fidel Alenjandro Guerrero Peña.pdf: 3548161 bytes, checksum: 0af5697d578c29adf24e374dac93cf4f (MD5) Previous issue date: 2017-02-22 / CNPq / Shape classification has multiple applications. In real scenes, shapes may contain severe occlusions, hardening the identification of objects. In this work, a bayesian framework for object recognition under severe and varied conditions of occlusion is proposed. The proposed framework is capable of performing three main steps in object recognition: representation of parts, retrieval of the most probable objects and hypotheses validation for final object identification. Occlusion is dealt with separating shapes into parts through high curvature points, then tangent angle signature is found for each part and continuous wavelet transform is calculated for each signature in order to reduce noise. Next, the best matching object is retrieved for each part using Pearson’s correlation coefficient as query prior, indicating the similarity between the part representation and of the most probable object in the database. For each probable class, an ensemble of Hidden Markov Model (HMM) is created through training with the one-class approach. A sort of search space retrieval is created using class posterior probability given by the ensemble. For occlusion likelihood, an area term that measure visual consistency between retrieved object and occlusion is proposed. For hypotheses validation, a area constraint is set to enhance recognition performance eliminating duplicated hypotheses. Experiments were carried out employing several real world images and synthetical generated occluded objects datasets using shapes of CMU_KO and MPEG-7 databases. The MPEG-7 dataset contains 1500 test shape instances with different scenarios of object occlusion with varied levels of object occlusion, different number of object classes in the problem, and different number of objects in the occlusion. For real images experimentation the CMU_KO challenge set contains 8 single view object classes with 100 occluded objects per class for testing and 1 non occluded object per class for training. Results showed the method not only was capable of identifying highly occluded shapes (60%-80% overlapping) but also present several advantages over previous methods. The minimum F-Measure obtained in MPEG-7 experiments was 0.67, 0.93 and 0.92, respectively and minimum AUROC of 0.87 for recognition in CMU_KO dataset, a very promising result due to complexity of the problem. Different amount of noise and varied amount of search space retrieval visited were also tested to measure framework robustness. Results provided an insight on capabilities and limitations of the method, demonstrating the use of HMMs for sorting search space retrieval improved efficiency over typical unsorted version. Also, wavelet filtering consistently outperformed the unfiltered and sampling noise reduction versions under high amount of noise. / A classificação da forma tem múltiplas aplicações. Em cenas reais, as formas podem conter oclusões severas, tornando difícil a identificação de objetos. Neste trabalho, propõe-se uma abordagem bayesiana para o reconhecimento de objetos com oclusão severa e em condições variadas. O esquema proposto é capaz de realizar três etapas principais no reconhecimento de objetos: representação das partes, recuperação dos objetos mais prováveis e a validação de hipóteses para a identificação final dos objetos. A oclusão é tratada separando as formas em partes através de pontos de alta curvatura, então a assinatura do ângulo tangente é encontrada para cada parte e a transformada contínua de wavelet é calculada para cada assinatura reduzindo o ruído. Em seguida, o objeto mais semelhante é recuperado para cada parte usando o coeficiente de correlação de Pearson como prior da consulta, indicando a similaridade entre a representação da parte e o objeto mais provável no banco de dados. Para cada classe provável, um sistema de múltiplos classificadores com Modelos Escondido de Markov (HMM) é criado através de treinamento com a abordagem de uma classe. Um ordenamento do espaço de busca é criada usando a probabilidade a posterior da classe dada pelos classificadores. Como verosimilhança de oclusão, é proposto um termo de área que mede a consistência visual entre o objeto recuperado e a oclusão. Para a validação de hipóteses, uma restrição de área é definida para melhorar o desempenho do reconhecimento eliminando hipóteses duplicadas. Os experimentos foram realizados utilizando várias imagens do mundo real e conjuntos de dados de objetos oclusos gerados de forma sintética usando formas dos bancos de dados CMU_KO e MPEG-7. O conjunto de dados MPEG-7 contém 1500 instâncias de formas de teste com diferentes cenários de oclusão por exemplo, com vários níveis de oclusões de objetos, número diferente de classes de objeto no problema e diferentes números de objetos na oclusão. Para a experimentação de imagens reais, o desafiante conjunto CMU_KO contém 8 classes de objeto na mesma perspectiva com 100 objetos ocluídos por classe para teste e 1 objeto não ocluso por classe para treinamento. Os resultados mostraram que o método não só foi capaz de identificar formas altamente ocluídas (60% - 80% de sobreposição), mas também apresentar várias vantagens em relação aos métodos anteriores. A F-Measure mínima obtida em experimentos com MPEG-7 foi de 0.67, 0.93 e 0.92, respectivamente, e AUROC mínimo de 0.87 para o reconhecimento no conjunto de dados CMU_KO, um resultado muito promissor devido à complexidade do problema. Diferentes quantidades de ruído e quantidade variada de espaço de busca visitado também foram testadas para medir a robustez do método. Os resultados forneceram uma visão sobre as capacidades e limitações do método, demonstrando que o uso de HMMs para ordenar o espaço de busca melhorou a eficiência sobre a versão não ordenada típica. Além disso, a filtragem com wavelets superou consistentemente as versões de redução de ruído não filtradas e de amostragem sob grande quantidade de ruído.
46

Algoritmos bio-inspirados para solução de problemas de otimização

BARBOSA, Carlos Eduardo Martins 09 May 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T19:10:42Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Carlos Eduardo Martins Barbosa.pdf: 4171557 bytes, checksum: 916be606f3460c9a1d6bfd4949bcfdb5 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T22:19:29Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Carlos Eduardo Martins Barbosa.pdf: 4171557 bytes, checksum: 916be606f3460c9a1d6bfd4949bcfdb5 (MD5) / Made available in DSpace on 2018-07-26T22:19:29Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Carlos Eduardo Martins Barbosa.pdf: 4171557 bytes, checksum: 916be606f3460c9a1d6bfd4949bcfdb5 (MD5) Previous issue date: 2017-05-09 / Muitos problemas do mundo real podem ser formulados como problemas de otimização em domínios contínuos. Nos últimos anos, algoritmos bio-inspirados, que fundamentam-se no comportamento dos fenômenos naturais, têm sido cada vez mais empregados para resolver tais problemas. Neste trabalho, são investigados 8 (oito) algoritmos inspirados na natureza: algoritmos genéticos (GA), otimização por colônia de formigas (ACO), otimização por enxame de partículas (PSO), colônia de abelhas artificiais (ABC), algoritmo do vaga-lume (FA), algoritmo de busca do pássaro cuco (CS), algoritmo do morcego (BAT) e algoritmo de busca autoadaptativa do pássaro cuco (SACS). Estes algoritmos são analisados em três tipos de problemas distintos, que compreendem (1) funções de benchmark estudadas comumente em problemas de otimização, (2) previsão da energia eólica a partir da velocidade do vento com dados reais coletados de dois parques eólicos, e (3) clusterização de padrões, necessária na solução de problemas não-supervisionados. Os experimentos realizados com os diferentes algoritmos analisaram as principais vantagens e deficiências dos algoritmos em relação à (1) qualidade das soluções obtidas segundo métricas de desempenho específicas para cada problema, (2) tempo de execução do algoritmo e (3) tempo de convergência para a melhor solução. Uma técnica de ajuste automático dos parâmetros, também bio-inspirada, foi desenvolvida e empregada em todos os problemas e algoritmos, para se determinar os valores ótimos para cada método e permitir uma comparação consistente dos resultados. Os experimentos realizados evidenciaram que o algoritmo do pássaro cuco funciona de forma eficiente, robusta e superior aos outros métodos investigados para a maioria dos experimentos realizados, e que a propriedade de cauda longa da distribuição com voos de Lévy, explorada neste trabalho, é a principal responsável pela eficiência deste algoritmo. / Many real-world problems can be formulated as optimization problems in continuous domains. In the last years, bio-inspired algorithms, whice are based on the behavior of natural phenomena, have been increasingly employed to solve such problems. In this work, 8 (eight) algorithms inspired by nature are investigated: genetic algorithms (GA), ant colony optimization (ACO), particle swarm optimization (PSO), artificial bee colony (ABC), firefly algorithm (FA), cuckoo search algorithm (CS), bat algorithm (BAT) and self-adaptive cuckoo search algorithm (SACS). These algorithms are analyzed in three different types of problems, which comprise (1) benchmark functions commonly studied in optimization problems, (2) prediction of wind energy from wind speed with real data collected from two wind farms, and clustering patterns, required in solving unsupervised problems. The experiments performed with the different algorithms investigated the main advantages and disadvantages of the algorithms concerning (1) the quality of the solutions obtained according to specific metrics for each problem, (2) algorithm execution time and (3) convergence time for the best solution. A bio-inspired technique of automatic parameter tuning was developed and employed in all problems and algorithms in order to determine optimal values for each method and to allow a consistent comparison of the results. The performed experiments showed that the cuckoo search algorithm works efficiently, robustly and superior to the other investigated methods for most of the experiments, and the long tail property of the Lévy Flight distribution, explored in this work, is the main responsible for the efficiency of this algorithm.
47

A robust technique for detecting custom patterns of roundish features

PESSOA, Saulo Andrade 10 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-27T17:52:23Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Saulo Andrade Pessoa.pdf: 13702473 bytes, checksum: fb19820230bd6d159a5f8955f442c524 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-01T22:38:09Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Saulo Andrade Pessoa.pdf: 13702473 bytes, checksum: fb19820230bd6d159a5f8955f442c524 (MD5) / Made available in DSpace on 2018-08-01T22:38:10Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Saulo Andrade Pessoa.pdf: 13702473 bytes, checksum: fb19820230bd6d159a5f8955f442c524 (MD5) Previous issue date: 2017-03-10 / FACEPE / A fundamental task in computer vision is extracting low-level features from the image. Since this is one of the first tasks executed by most vision-based systems, imprecisions and errors committed during its execution are propagated to the next stages thus affecting the system overall performance. Therefore, robust and precise feature extractors are mandatory in computer vision. In the literature, two kinds of low-level features are commonly used: natural features, and artificial patterns of features. Natural features are extractable only from scenarios rich in textured elements. On the other hand, artificial patterns of features can be easily crafted by using commodity printers, which permits its application in a diversity of scenarios. Moreover, since the real dimensions of the pattern are known beforehand, the usage of artificial patterns allows the construction of metric systems. This thesis presents a new detection technique for patterns formed by roundish features. The new technique is composed of two stages: the extraction of candidates for features of the pattern; and the searching for the elements (among the candidates) that actually constitute the pattern. Differently from the techniques found in the related literature, the proposed one does not restrict the patterns to be rectangular grids of regularly-spaced features, but it allows the creation of a variety of patterns through the use of graphs (the pattern template). Experimental results collected from two case studies evidence that the new technique is robust to uneven and low-lighting conditions. / Em visão computacional, uma tarefa fundamental é a extração de características da imagem. Por essa ser uma das primeiras etapas a serem realizadas na maioria dos sistemas computacionais baseados em visão, imprecisões e erros cometidos durante sua realização são propagados para as demais etapas afetando o resultado final obtido pelo sistema. Dessa forma, extratores de características que sejam robustos e precisos são uma necessidade em visão computacional. Na literatura, dois tipos de características são amplamente utilizados: características naturais; e padrões artificiais de características. Características naturais são extraíveis apenas de cenários ricos em elementos texturizados. Já padrões artificiais de características podem ser facilmente confeccionados com impressoras domésticas, permitindo sua aplicação em diversos cenários. Além disso, o uso de padrões artificiais possibilita que as medidas reais entre as características sejam previamente conhecidas (informação essencial à construção de sistemas métricos). Esta tese apresenta uma nova técnica para detecção de padrões artificiais formados por características arredondadas, sendo composta de dois estágios: a extração de elementos candidatos a característica do padrão; e a busca para encontrar quais elementos (dentre os candidatos) constituem o padrão de interesse. Diferentemente das técnicas encontradas na literatura, a técnica proposta não é restrita a detectar padrões retangulares formados por características uniformemente espaçadas; o usuário é livre para criar o padrão da sua escolha através da construção de um grafo (o gabarito do padrão). Experimentos realizados com imagens reais comprovam que a técnica proposta é robusta a iluminação não uniforme e a baixo contraste.
48

Representações cache eficientes para montagem de fragmentos baseada em grafos de de Bruijn de sequências biológicas

LIMA, Jamerson Felipe Pereira 20 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-01T20:18:15Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Jamerson Felipe Pereira Lima.pdf: 1541250 bytes, checksum: ccefce36b254aed5273279c3a4600f9f (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-02T20:09:33Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Jamerson Felipe Pereira Lima.pdf: 1541250 bytes, checksum: ccefce36b254aed5273279c3a4600f9f (MD5) / Made available in DSpace on 2018-08-02T20:09:33Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Jamerson Felipe Pereira Lima.pdf: 1541250 bytes, checksum: ccefce36b254aed5273279c3a4600f9f (MD5) Previous issue date: 2017-02-20 / FACEPE / O estudo dos genomas dos seres vivos têm sido impulsionado pelos avanços na biotecnologia ocorridos desde a segunda metade do Séc. XX. Particularmente, o desenvolvimento de novas plataformas de sequenciamento de alto desempenho ocasionou a proliferação de dados brutos de fragmentos de sequências nucleicas. Todavia, a montagem dos fragmentos de DNA continua a ser uma das etapas computacionais mais desafiadoras, visto que a abordagem tradicional desse problema envolve a solução de problemas intratáveis sobre grafos obtidos a partir dos fragmentos, como, por exemplo, a determinação de caminhos hamiltonianos. Mais recentemente, soluções baseadas nos grafos de de Bruijn (gdB), também obtidos a partir dos fragmentos sequenciados, têm sido adotadas. Nesse caso, o problema da montagem relaciona-se com o de encontrar caminhos eulerianos, o qual possui soluções polinomiais conhecidas. Embora apresentem custo computacional teórico mais baixo, ainda demandam, na prática, grande poder computacional, face ao volume de dados envolvido. Por exemplo, a representação empregada por algumas ferramentas para o gdB do genoma humano pode alcançar centenas de gigabytes. Faz-se necessário, portanto, o emprego de técnicas algorítmicas para manipulação eficiente de dados em memória interna e externa. Nas arquiteturas computacionais modernas, a memória é organizada de forma hierárquica em camadas: cache, memória RAM, disco, rede, etc. À medida que o nível aumenta, cresce a capacidade de armazenagem, porém também o tempo de acesso. O ideal, portanto, seria manter a informação limitada o mais possível aos níveis inferiores, diminuindo a troca de dados entre níveis adjacentes. Para tal, uma das abordagens são os chamados algoritmos cache-oblivious, que têm por objetivo reduzir o número de trocas de dados entre a memória cache e a memória principal sem que seja necessário para tanto introduzir parâmetros relativos à configuração da memória ou instruções para a movimentação explícita de blocos de memória. Uma outra alternativa que vêm ganhando ímpeto mais recentemente é o emprego de estruturas de dados ditas sucintas, ou seja, estruturas que representam a informação usando uma quantidade ótima de bits do ponto de vista da teoria da informação. Neste trabalho, foram implementadas três representações para os gdB, com objetivo de avaliar seus desempenhos em termos da utilização eficiente da memória cache. A primeira corresponde a uma implementação tradicional com listas de adjacências, usada como referência, a segunda é baseada em estruturas de dados cache-oblivious, originalmente descritas para percursos em grafos genéricos, e a terceira corresponde a uma representação sucinta específica para os gdB, com otimizações voltadas ao melhor uso da cache. O comportamento dessas representações foi avaliado quanto à quantidade de acessos à memória em dois algoritmos, nomeadamente o percurso em profundidade (DFS) e o tour euleriano. Os resultados experimentais indicam que as versões tradicional e cache-oblivious genérica apresentam, nessa ordem, os menores números absolutos de cache misses e menores tempos de execução para dados pouco volumosos. Entretanto, a versão sucinta apresenta melhor desempenho em termos relativos, considerando-se a proporção entre o número de cache misses e a quantidade de acessos à memória, sugerindo melhor desempenho geral em situações extremas de utilização de memória. / The study of genomes was boosted by advancements in biotechnology that took place since the second half of 20th century. In particular, the development of new high-throughput sequencing platforms induced the proliferation of nucleic sequences raw data. Although, DNA assembly, i.e., reconstitution of original DNA sequence from its fragments, is still one of the most computational challenging steps. Traditional approach to this problem concerns the solution of intractable problems over graphs that are built over the fragments, as the determination of Hamiltonian paths. More recently, new solutions based in the so called de Bruijn graphs, also built over the sequenced fragments, have been adopted. In this case, the assembly problem relates to finding Eulerian paths, for what polynomial solutions are known. However, those solutions, in spite of having a smaller computational cost, still demand a huge computational power in practice, given the big amount of data involved. For example, the representation employed by some assembly tools for a gdB of human genome may reach hundreds of gigabytes. Therefore, it is necessary to apply algorithmic techniques to efficiently manipulate data in internal and external memory. In modern computer architectures, memory is organized in hierarchical layers: cache, RAM, disc, network, etc. As the level grows, the storage capacity is also bigger, as is the access time (latency). That is, the speed of access is smaller. The aim is to keep information limited as much as possible in the highest levels of memory and reduce the need for block exchange between adjacent levels. For that, an approach are cache-oblivious algorithms, that try to reduce the the exchange of blocks between cache and main memory without knowing explicitly the physical parameters of the cache. Another alternative is the use of succinct data structures, that store an amount of data in space close to the minimum information-theoretical. In this work, three representations of the de Bruijn graph were implemented, aiming to assess their performances in terms of cache memory efficiency. The first implementation is based in a traditional traversal algorithm and representation for the de Bruijn graph using adjacency lists and is used as a reference. The second implementation is based in cache-oblivious algorithms originally described for traversal in general graphs. The third implementation is based in a succinct representation of the de Bruijn graph, with optimization for cache memory usage. Those implementations were assessed in terms of number of accesses to cache memory in the execution of two algorithms, namely depth-first search (DFS) and Eulerian tour. Experimental results indicate that traditional and generic cache-oblivious representations show, in this order, the least absolute values in terms of number of cache misses and least times for small amount of data. However, the succinct representation shows a better performance in relative terms, when the proportion between number of cache misses and total number of access to memory is taken into account. This suggests that this representation could reach better performances in case of extreme usage of memory.
49

Mapeamento semântico incremental com aprendizagem online e não-supervisionada

SOUSA, Ygor César Nogueira 20 March 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-08-01T20:14:58Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Ygor Cesar Nogueira Sousa.pdf: 5852968 bytes, checksum: 99160f17e56209e78af6af2d703ca011 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-03T19:31:06Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Ygor Cesar Nogueira Sousa.pdf: 5852968 bytes, checksum: 99160f17e56209e78af6af2d703ca011 (MD5) / Made available in DSpace on 2018-08-03T19:31:06Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Ygor Cesar Nogueira Sousa.pdf: 5852968 bytes, checksum: 99160f17e56209e78af6af2d703ca011 (MD5) Previous issue date: 2017-03-20 / CNPq / A crescente inclusão de robôs móveis na vida cotidiana das pessoas, compartilhando espaço como agentes em diferentes atividades, tem dado impulso à criação de uma série de novas tecnologias compostas. Neste contexto, aparece o Mapeamento Semântico, que visa criar uma abstração ou representação do espaço em que um robô navega, a fim de proporcionar um meio para comum entendimento e comunicação entre estes robôs e seres humanos. Essa abstração é criada sob a forma de um mapa que agrega informações semânticas (isto é, informações que façam sentido para um ser humano em termos de comunicação) sobre o ambiente no qual o robô se encontra. Desta forma, esta dissertação introduz uma abordagem de Mapeamento Semântico incremental, com aprendizagem online e não-supervisionada, baseada em Mapas Auto-organizáveis (SOMs) de topologia variante no tempo. A abordagem se divide no módulo de mapeamento, o qual cria mapas topológicos de ambientes incrementalmente, enriquecidos com objetos reconhecidos como informação semântica determinante, e no módulo de categorização de lugares, dotado de um método de aprendizagem incremental, não-supervisionado, com treinamento online, baseado em SOM. Com o intuito de avaliar a viabilidade da abordagem, a mesma foi testada a partir de experimentos realizados com uma base dados reais, os quais demonstraram de forma promissora sua capacidade na aquisição incremental de mapas topológicos enriquecidos com informações semânticas e na categorização de lugares mapeados a partir destas informações. / The increasing inclusion of mobile robots in people’s daily lives, sharing space as agents in a range of different activities, has given rise to the creation of a series of new composite technologies. In this context, it appears the Semantic Mapping, which aims to create an abstraction or representation of space in which a robot navigates in order to provide a means for common understanding and communication between these robots and humans. This abstraction is created in the form of a map that aggregates semantic information (i.e., information that makes sense to a human in terms of communication) about the environment in which the robot is. In this way, this dissertation introduces an incremental semantic mapping approach, with online and unsupervised learning, based on self-organizing maps (SOMs) with time-varying topology. The approach is divided into the mapping module, which incrementally creates topological maps of environments, enriched with recognized objects as determinant semantic information, and in the module of places categorization, endowed with an incremental, unsupervised learning method with online training, based on SOM. In order to evaluate the viability of the approach, it was tested in experiments with real world data, which demonstrated a promising capability for the incremental acquisition of topological maps enriched with semantic information and for the categorization of places based on this information.
50

ScreenVar - a biclustering-based methodology for evaluating structural variants

NASCIMENTO JÚNIOR, Francisco do 17 February 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-08-01T20:49:02Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Francisco do Nascimento Junior.pdf: 1104753 bytes, checksum: 794ee127f9a27d065eb71104d4849c0e (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-03T19:38:31Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Francisco do Nascimento Junior.pdf: 1104753 bytes, checksum: 794ee127f9a27d065eb71104d4849c0e (MD5) / Made available in DSpace on 2018-08-03T19:38:31Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Francisco do Nascimento Junior.pdf: 1104753 bytes, checksum: 794ee127f9a27d065eb71104d4849c0e (MD5) Previous issue date: 2017-02-17 / CAPES / The importance of structural variants as a source of phenotypic variation has grown in recent years. At the same time, the number of tools that detect structural variations using Next- Generation Sequencing (NGS) has increased considerably with the dramatic drop in the cost of sequencing in last ten years. Then evaluating properly the detected structural variants has been featured prominently due to the uncertainty of such alterations, bringing important implications for researchers and clinicians on scrutinizing thoroughly the human genome. These trends have raised interest about careful procedures for assessing the outcomes from variant calling tools. Here, we characterize the relevant technical details of the detection of structural variants, which can affect the accuracy of detection methods and also we discuss the most important caveats related to the tool evaluation process. This study emphasizes common assumptions, a variety of possible limitations, and valuable insights extracted from the state-of-the-art in CNV (Copy Number Variation) detection tools. Among such points, a frequently mentioned and extremely important is the lack of a gold standard of structural variants, and its impact on the evaluation of existing detection tools. Next, this document describes a biclustering-based methodology to screen a collection of structural variants and provide a set of reliable events, based on a defined equivalence criterion, that is supported by different studies. Finally, we carry out experiments with the proposed methodology using as input data the Database of Genomic Variants (DGV). We found relevant groups of equivalent variants across different studies. In summary, this thesis shows that there is an alternative approach to solving the open problem of the lack of gold standard for evaluating structural variants. / A importância das variantes estruturais como fonte de variação fenotípica tem se proliferado nos últimos anos. Ao mesmo tempo, o número de ferramentas que detectam variações estruturais usando Next-Generation Sequencing (NGS) aumentou consideravelmente com a dramática queda no custo de seqüenciamento nos últimos dez anos. Neste cenário, avaliar corretamente as variantes estruturais detectadas tem recebido destaque proeminente devido à incerteza de tais alterações, trazendo implicações importantes para os pesquisadores e clínicos no exame minucioso do genoma humano. Essas tendências têm impulsionado o interesse em procedimentos criteriosos para avaliar os variantes identificados. Inicialmente, caracterizamos os detalhes técnicos relevantes em torno da detecção de variantes estruturais, os quais podem afetar a precisão. Além disso, apresentamos advertências fundamentais relacionadas ao processo de avaliação de uma ferramenta. Desta forma, este estudo enfatiza questões como suposições comuns à maioria das ferramentas, juntamente com limitações e vantagens extraídas do estadoda- arte em ferramentas de detecção de variantes estruturais. Entre esses pontos, há uma muito questão bastante citada que é a falta de um gold standard de variantes estruturais, e como sua ausência impacta na avaliação das ferramentas de detecção existentes. Em seguida, este documento descreve uma metodologia baseada em biclustering para pesquisar uma coleção de variantes estruturais e fornecer um conjunto de eventos confiáveis, com base em um critério de equivalência definido e apoiado por diferentes estudos. Finalmente, realizamos experimentos com essa metodologia usando o Database of Genomic Variants (DGV) como dados de entrada e encontramos grupos relevantes de variantes equivalentes em diferentes estudos. Desta forma, esta tese mostra que existe uma abordagem alternativa para o problema em aberto da falta de gold standard para avaliar variantes estruturais.

Page generated in 0.0761 seconds