• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 165
  • 26
  • 25
  • 25
  • 25
  • 18
  • 7
  • 7
  • 7
  • 7
  • Tagged with
  • 167
  • 167
  • 78
  • 38
  • 33
  • 28
  • 28
  • 27
  • 26
  • 25
  • 25
  • 22
  • 20
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Descoberta de padrões de perseguição em trajetórias de objetos móveis

Siqueira, Fernando de Lucca 04 March 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2013-03-04T18:14:18Z (GMT). No. of bitstreams: 1 305188.pdf: 4197506 bytes, checksum: 1eb0b6f76914bc6894c05f5cec429b4e (MD5) / Tecnologias como celulares, GPS e redes de sensores estão ficando cada vez mais populares. Estes dispositivos geram uma grande quantidade de dados chamados de Trajetórias de Objetos Móveis. Uma trajetória é um conjunto de pontos localizados no espaço e no tempo. Estes dados são normalmente volumosos e confusos, sendo necessário criar métodos e algoritmos para extrair informações interessantes destes dados. Vários estudos tem focado na descoberta de padrões em trajetórias como flocks, desvios, recorrência, liderança, etc. Neste trabalho é proposto um novo tipo de padrão: comportamento de perseguição em trajetórias. Mais especificamente, são apresentadas definições formais do comportamento e são definidos diferentes tipos de perseguição, bem como um algoritmo para identificar o padrão. As principais características consideradas são o tempo, a distância e a velocidade, que são utilizadas de forma diferente em relação a trabalhos existentes. O trabalho é validado com experimentos sobre dados sintéticos e dados reais, demonstrando que o método encontra padrões não identificados por outras abordagens.
22

Deteccão de complexos QRS em eletrocardiogramas baseada na decomposição em valores singulares em multirresolução

Oliveira, Bruno Rodrigues de [UNESP] 08 October 2015 (has links) (PDF)
Made available in DSpace on 2016-02-05T18:29:43Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-10-08. Added 1 bitstream(s) on 2016-02-05T18:33:44Z : No. of bitstreams: 1 000857500.pdf: 4743253 bytes, checksum: da5d2724b71f588ae56be27cfaf9a5bd (MD5) / O Eletrocardiograma (ECG) e um exame de extrema importância para avaliar a saúde do coração de um individuo. A analise de seu traçado possibilita diagnosticar uma serie de doenças e anomalias. Para isso, sistemas computacionais precisam segmentar os sinais de ECG, cujo primeiro passo e a detecção dos complexos QRS (ondas Q, R e S). Mui- tos métodos tem sido propostos para tal finalidade. Os primeiros utilizavam técnicas de filtragem e diferenciação, mas recentemente alguns pesquisadores tem concebido metodologias baseadas na analise de multirresolução da transformada Wavelet. Seguindo caminho semelhante, neste trabalho e proposta uma metodologia baseada na decomposição em valores singulares em multirresolução (MRSVD), para solução do problema de detecção dos complexos QRS de um sinal de ECG, que pode ser dividida em quatro etapas essenciais: pré-processamento, inspeção, decisão e correção. Em quase todas elas ha implementações inovadoras: na primeira utiliza-se, de forma inédita, a MRSVD; na segunda etapa exploram-se características fisiológicas do músculo cardíaco para certificar-se de que um determinado segmento compreende ou não uma onda R autentica; na ultima, são corrigidas as detecções baseadas nas amplitudes das ondas R. A avaliação da qualidade de detecção, para os experimentos realizados, mostra que o algoritmo proposto atingiu taxa de previsibilidade de 99, 20%, taxa de sensibilidade de 99, 70% e erro de apenas 1,10%, contra 97, 10%, 99, 00% e 3, 70%, respectivamente, obtidas por outro método / The electrocardiogram (ECG) is a test of utmost importance to evaluate the heart health of a person. The analysis of its layout enables diagnose a number of diseases and abnor- malities. For computer systems that need to segment the ECG signal, the first step the detection of QRS complexes. The earliest methods used filtering techniques and differen- tiation. Recently some researchers have designed methodologies based the multiresolution analysis the wavelet transform. Following similar path, this work proposes a methodology based on singular value decomposition in multiresolution (MRSVD), to solve the prob- lem of detection of QRS complexes of an ECG signal, which can be divided in four key stages: preprocessing, inspection, decision and correction. In of all, there are innovative proposals: in the first, it is used, in an unprecedented manner, the MRSVD; the second stage explores the physiological characteristics of the heart muscle, to make sure that a particular segment comprises or not a genuine R wave and, the last, corrects detections based on the amplitudes of the R wave. The evaluation of quality of detection for the experiments shows that the proposed algorithm has reached a predictive and sensitivity rates of of 99.20% and 99.70%, respectively, and error of only 1.10%, in comparation to another method which obtained 97, 10%, 99, 00% and 3, 70%, respectively
23

Algoritmos de nuvem de partículas e a otimização com muitos objetivos

Castro Junior, Olacir Rodrigues 26 March 2013 (has links)
Resumo: Problemas de otimização multiobjetivo (MOPs) sao problemas que possuem mais de uma função objetivo a ser minimizada ou maximizada. Entre as abordagens mais utilizadas atualmente para resolve-los destaca-se o uso de metaheurísticas populacionais. Esta popularidade se deve principalmente à natureza destas de lidar simultaneamente com diversas soluções (populacao) em uma única execucao. Um algoritmo muito utilizado para lidar com MOPs e chamado otimizacao por nuvem de partículas multiobjetivo (MOPSO), esta e uma abordagem derivada da otimizaçao por nuvem de partículas (PSO), que e uma metaheurística inspirada no comportamento de conjuntos de aves. Devido ao bom desempenho apresentado pelos MOPSOs ao resolver MOPs, esta abordagem vem sendo estendida para a resolucao de problemas de otimizaçao com muitos objetivos (MaOPs). Estes problemas sao caracterizados por apresentarem mais de tres funçoes objetivo e uma alta complexidade causada principalmente porque a proporçao de soluções não dominadas em uma populacao aumenta rapidamente com o número de objetivos, o que diminui a pressao de selecõo em direçao a fronteira de Pareto. Alem disso, o numero de pontos necessúrios para representar a fronteira aumenta exponencialmente de acordo com o numero de objetivos dificultando a obtençao de solucoes diversas o suficiente para cobri-la totalmente. Este trabalho apresenta algumas tecnicas aplicadas para melhorar o desempenho do MOPSO ao resolver MaOPs e tornú-lo menos sensível ao aumento no número de objetivos. Primeiramente estudaram-se duas tecnicas de controle da úrea de dominância das solucoes para aumentar a pressao de seleçõo, normalmente reduzida pelo aumento no numero de objetivos. Outra tecnica estudada foi a alteracao do metodo de selecao de líderes do MOPSO com a realizaçao de um estudo empírico usando seis metodos e os melhores foram destacados. Foi estudada tambem a influencia sofrida por esses metodos devido a alteracao na técnica de controle da área de dominância, e as melhores combinações foram identificadas através de estudos empíricos. Por último um novo MOPSO e proposto usando o conceito de pontos de referencia distribuindo melhor as soluções obtidas e com isso melhorando a convergencia a fronteira real. Estudos empíricos tambem foram realizados para comparar a nova abordagem a abordagem classica. A partir dos trabalhos realizados aqui tres artigos foram publicados, sendo o primeiro um estudo sobre os metodos de selecao de líderes, o segundo propondo um novo MOPSO que usa uma tecnica de controle da area de dominancia, e o terceiro que avalia a influencia das tecnicas de controle da area de dominância no desempenho dos metodos de selecõo de líder e identifica as melhores combinacoes entre tecnica de controle da area de dominância e metodo de seleçao de líder. Em geral todos os estudos realizados apresentaram melhorias de desempenho em relacao ao algoritmo original utilizado, especialmente no contexto de muitos objetivos.
24

Caracterizações de buscas em hipermultigrafos

Boss, Silvio Luiz Bragatto 27 October 2010 (has links)
Resumo: Buscas em grafos é uma das ferramentas mais simples e mais utilizadas para algoritmos em grafos. Um algoritmo de busca examina os vértices e as arestas de um grafo a partir de um vértice inicial e, sistematicamente visita um novo vértice por iterativa travessias em arestas incidentes a um vértice anteriormente já visitado. A ordem em que esses vértices são visitados definem uma enumeração desses vértices em um dado grafo. Na literatura disponível, poucos resultados teóricos são conhecidos sobre uma enumeração que pode ser gerada por um algoritmo de busca específico, embora buscas como em Largura e em Profundidade sejam algoritmos tradicionais e bem conhecidos na literatura atual. ecentemente, dois novos algoritmos, Busca em Largura Lexicográfica e a Busca da Cardinalidade Máxima, têm sido aplicados em uma grande variedade de problemas e, além desses, outras estratégias também são conhecidas, como a Busca em Profundidade Lexicográfica, da Vizinhança Maximal e do Rótulo Maximal, usadas para o reconhecimento de certas classes de grafos, por exemplo. Muito dos resultados obtidos nas aplicações desses algoritmos de busca dependem da simples caracterização da numeração que estes algoritmos podem computar. Neste trabalho, generalizamos o conceito de busca orientada por aresta para o caso de hipermultigrafo, apresentaremos características das enumerações e por fim provaremos que essas enumerações caracterizam um algoritmo de busca.
25

Esquemas de hashing perfeitos, mínimos, práticos, determinísticos e eficientes em tempo e em espaço

Zatesko, Leandro Miranda, 1988- 01 March 2012 (has links)
Resumo: Este trabalho propõe algoritmos determinísticos que, dado um conjunto com n chaves, constroem em tempo esperado O(n) uma função hash com tempo de busca no pior caso O(1), a qual mapeia sem colisão as chaves para o conjunto {0, . . . , n-1}. Esses esquemas de hashing perfeitos e mínimos são meras variantes dos esquemas aleatorizados de Botelho, Kohayakawa e Ziviani (2005) e Botelho, Pagh e Ziviani (2007) e mostraram resultados empíricos equivalentes aos dos algoritmos originais. As variantes determinísticas foram implementadas a partir dos códigos dos esquemas originais desenvolvidos na biblioteca CMPH pelos próprios autores, a qual é mantida no SourceForge.net. Todos os esquemas foram alimentados com os mesmos conjuntos de chaves, para que pudessem ser comparados com justiça. Foram executados testes para conjuntos com até 25 000 000 de chaves. Ademais, os esquemas propostos contam evidentemente com a vantagem de sempre produzirem a mesma hash para um mesmo conjunto de chaves. Esse comportamento determinístico pode ser útil para o desenvolvimento dum esquema dinâmico de hashing, em que figuram operações como inserção e deleção de chaves, inspirado num dos excelentes esquemas estáticos abordados. Um dos esquemas de Botelho, Pagh e Ziviani (2007), por exemplo de excelência, constrói hashes representáveis por apenas aproximadamente 2,62 bits por chave. Tal resultado é muito próximo da cota inferior justa conhecida, de aproximadamente 1,44 bits por chave. Tanto as versões determinísticas propostas quanto as originais mostram-se práticas para aplicações reais de Hashing. No entanto, na fundamentação teórica do trabalho de Botelho, Kohayakawa e Ziviani (2005) ainda restava uma conjectura. A presente dissertação também propõe uma demonstração para a conjectura e encerra a corretude do esquema.
26

Desenvolvimento de algoritmo para modelagem e simulação de sistemas por grafos de ligação

Negrão, Celso Garcia [UNESP] 01 March 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:34:57Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-03-01Bitstream added on 2014-06-13T19:44:41Z : No. of bitstreams: 1 negrao_cg_dr_guara.pdf: 894711 bytes, checksum: d613ce50ad1ab59115fdbfb212a6e245 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Este trabalho propõe a utilização da técnica de modelagem para obtenção das equações do movimento de sistemas dinâmicos, apresentando uma contribuição para o desenvolvimento do algoritmo computacional e implementado através da técnica de grafos de ligação. O objetivo é entender o desempenho do algoritmo desenvolvido através dos grafos de ligações e, assim, avaliar e validar as propostas deste trabalho. O problema da busca para obter uma equação do modelo de sistemas dinâmicos com geração automática em plantas industriais tem levantado a necessidade de desenvolver um algoritmo para sistemas que forneça a equação do movimento do modelo dinâmico. A proposição desta Tese consiste na aplicação da técnica de grafos de ligação para a determinação das equações de estado a partir do algoritmo desenvolvido com um programa computacional para geração automática das equações do movimento na forma de equações de estado. Os algoritmos foram desenvolvidos em ambiente matemático simbólico. Alguns estudos de caso (aplicações) foram utilizados para validação do algoritmo, constituindo estudo de casos sistemáticos, sendo: -Sistema dinâmico viga-bola, sistema mecânico massa-mola-amortecedor e seu análogo o circuito RLC e sistema servo-válvula eletro-hidráulica. No primeiro caso, sistema dinâmico viga-bola (sistema não-linear), o sistema compreende de uma viga fixada ao eixo do motor e uma bola deslizando sobre a viga, onde foi obtida a modelagem via grafos de ligação, utilizando o algoritmo computacional e encontrado o modelo na forma de equação de estado. No segundo caso, sistema mecânico massa-mola-amortecedor e seu análogo circuito RLC, foi obtido o grafo... / This work proposes the use of the technique of modeling for getting the equations of the movement of dynamic linear and non-linear systems, presenting a contribution for the development of the computational algorithm and implemented through the technique of bond graphs. The objective is the understanding of the performance of the algorithm developed by the bond graphs and thus to evaluate and validate the proposals in this work. The problem of the search to obtain an equation of the model of dynamic systems with automatic generation in industrial plants has been lifting the necessity of developing an algorithm for systems which supply the equation of the movement of the dynamic model. The proposition of this Thesis consists in the application of the bond graphs technique for the determination of the equations of state from the algorithm developed with a computational program for automatic generation of the equations of the movement in the form of equations of state. The algorithms were developed in symbolic mathematical environment. Some case studies (applications) were used for validation of the developed algorithm. The first case is a non-linear system, while the second and third thing cases are linear, constituting systematic case study, being: Dynamic system beam-ball, mechanical system mass-spring-damper and its analogue the RLC circuit and electro-hydraulic servo valve system . In the first case, dynamic system beam-ball (non-linear systems), the system consists of a beam attached to the motor shaft and a ball sliding on the beam, where the modeling was obtained by bond graphs, using the computational algorithm and the model was found in the form of equation of state. In the second case, mechanical system mass-spring-damper and its analogue RLC circuit, the validation was carried out... (Complete abstract click eletronic access below)
27

Algoritmos paralelos e eficientes para consultas IP no Intel(R) Xeon Phi(tm) e CPUs Multi-Core

Alencar, Alexandre Lucchesi 29 June 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Priscilla Sousa (priscillasousa@bce.unb.br) on 2017-10-09T13:02:47Z No. of bitstreams: 1 2017_AlexandreLucchesiAlencar.pdf: 1212791 bytes, checksum: d649afa5d4e58b36d30548964058710d (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-10-09T16:17:08Z (GMT) No. of bitstreams: 1 2017_AlexandreLucchesiAlencar.pdf: 1212791 bytes, checksum: d649afa5d4e58b36d30548964058710d (MD5) / Made available in DSpace on 2017-10-09T16:17:08Z (GMT). No. of bitstreams: 1 2017_AlexandreLucchesiAlencar.pdf: 1212791 bytes, checksum: d649afa5d4e58b36d30548964058710d (MD5) Previous issue date: 2017-10-09 / Roteadores em software são uma solução promissora para lidar com o encaminhamento de pacotes devido ao seu bom custo-benefício e flexibilidade. Contudo, é desafiador o desenvolvimento de roteadores em software capazes de atingir as taxas de encaminhamento de pacotes necessárias. O uso de sistemas e técnicas de computação paralela pode ser uma abordagem viável para melhorar o desempenho dessas soluções. A fase de consulta IP constitui uma operação central no encaminhamento de pacotes, que é implementada através de um algoritmo de Casamento de Maior Prefixo (CMP). Assim, este trabalho propõe e avalia o uso de técnicas e processadores paralelos no desenvolvimento de um algoritmo otimizado que emprega filtros de Bloom (BFs) e tabelas hash para a execução de consultas IP. Especificamente, tem-se como alvo a implementação desse algoritmo no coprocessador many-core Intel® Xeon Phi™ (Intel Phi), mas também avalia-se o seu desempenho em CPUs multi-core e em um modelo de execução cooperativa que usa ambos os processadores com várias otimizações. Os resultados experimentais mostram que foi possível atingir altas taxas de consultas IP — até 182,7 Mlps (milhões de pacotes por segundo) ou 119,9 Gbps para pacotes IPv6 de 84B — em um único Intel Phi. Este desempenho indica que o Intel Phi é uma plataforma promissora para a implantação de algoritmos de consultas IP. Além disso, comparou-se o desempenho do algoritmo BFs com uma abordagem eficiente baseada na Multi-Index Hybrid Trie (MIHT), na qual o algoritmo BFs foi até 5,39x mais rápido. Esta comparação mostra que o algoritmo sequencial mais eficiente pode não ser a melhor opção em uma configuração paralela. Alternativamente, é necessário avaliar as características dos processadores, as demandas de computação/dados dos algoritmos e as estruturas de dados empregadas para analisar como os algoritmos podem se beneficiar de um dispositivo de computação paralelo, potenciais limitações na escalabilidade e oportunidades de otimização. Estas descobertas também são importantes para novos esforços no desenvolvimento de algoritmos nessa área, os quais têm sido, em sua maioria, focados em soluções sequenciais. / Software routers are a promising solution to deal with packet forwarding because of their good cost benefit and flexibility. However, it is challenging to develop software routers that can attain the required packet forwarding rates. The use of parallel computing systems and techniques may be a viable approach to improve the performance of these solutions. The IP lookup phase is a core operation in packet forwarding, which is implemented via a Longest Prefix Matching (LPM) algorithm to find the next hop address for every input packet. Therefore, this work proposes and evaluates the use of parallel processors and techniques in the development of an optimized algorithm that employs Bloom filters (BFs) and hash tables to the IP lookup problem. Specifically, we target the implementation on the Intel® Xeon Phi™ (Intel Phi) many-core coprocessor, but we also evaluate its performance on multi-core CPUs and on a cooperative execution model that uses both processors with several optimizations. The experimental results show that we were able to attain high IP lookup throughputs — up to 182.7 Mlps (million packets per second) or 119.9 Gbps for 84B IPv6 packets — on a single Intel Phi. This performance indicates that the Intel Phi is a very promising platform for deployment of IP lookup algorithms. We have also compared the BFs algorithm to an efficient approach based on the Multi-Index Hybrid Trie (MIHT) in which the BFs algorithm was up to 5.39x faster. This comparison shows that the most efficient sequential algorithm may not be the best option in a parallel setting. Instead, it is necessary to evaluate the processors characteristics, algorithms compute/data demands, and data structures employed to analyze how the algorithms will benefit from parallel computing devices, potential limitations on scalability and opportunities for optimizations. These findings are also important to new efforts in algorithmic developments in the topic, which have been highly focused on sequential solutions.
28

Classificação automática de páginas Web Multi-label via MDL e Support Vector Machines

Ormonde, Rodrigo de La Rocque January 2009 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2009. / Submitted by Ruthléa Nascimento (ruthleanascimento@bce.unb.br) on 2015-10-05T16:36:58Z No. of bitstreams: 1 2009_RodrigodeLaRocqueOrmonde.pdf: 831778 bytes, checksum: c5976576592c690b8627dba88bbcac9f (MD5) / Approved for entry into archive by Ruthléa Nascimento(ruthleanascimento@bce.unb.br) on 2015-10-05T16:37:14Z (GMT) No. of bitstreams: 1 2009_RodrigodeLaRocqueOrmonde.pdf: 831778 bytes, checksum: c5976576592c690b8627dba88bbcac9f (MD5) / Made available in DSpace on 2015-10-05T16:37:14Z (GMT). No. of bitstreams: 1 2009_RodrigodeLaRocqueOrmonde.pdf: 831778 bytes, checksum: c5976576592c690b8627dba88bbcac9f (MD5) / Nesta pesquisa é feita a extensão de um novo algoritmo de classificação, chamado de CAH+MDL, anteriormente desenvolvido para lidar apenas com problemas de classificação binários ou multiclasse, para tratar diretamente também problemas de classificação multilabel. Foi estudado então seu desempenho para a classificação de uma base de páginas Web em Português e Inglês, divididas em sete categorias multi-label. Este algoritmo é baseado no princípio da Minimum Description Length (MDL), utilizado juntamente com a Codificação Adaptativa de Huffman e foi anteriormente estudado para a classificação binária na detecção de SPAM, tendo apresentado bons resultados. Não foram encontradas citações na literatura, entretanto, de sua utilização para o caso multi-label, que é bem mais complexo. Para avaliar seu desempenho, os resultados são comparados com os resultados obtidos na classificação da mesma base de dados por uma SVM linear, que é o algoritmo que normalmente apresenta os melhores resultados na classificação de padrões e, especialmente, na classificação de textos. _______________________________________________________________________________ ABSTRACT / In this research, it is developed the extension of a new classification algorithm, called CAH+MDL, previously conceived to deal only with binary or multi-class classification problems, to treat directly multi-label classification problems. Its accuracy is then studied in the classification of a database comprised of Web sites in Portuguese and English, divided into seven multi-label categories. This algorithm is based on the principle of the Minimum Description Length (MDL), used together with the Huffman Adaptive Coding. It has already been studied for binary classification in SPAM detection and has presented good results, however, to the best of my knowledge, it had never been studied before for the multi-label case, which is much more complex. In order to evaluate its performance, its results are compared with the results obtained in the classification of the same database by a linear SVM, which is the algorithm that usually presents the best results in pattern classification and, specially, in text classification.
29

Parallel gpu algorithms for compressed implicit octrees

Zola, Wagner Machado Nunan 1961- January 2015 (has links)
Orientador : Prof. Dr. Luis Carlos Erpen de Bona / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 10/09/2015 / Inclui referências : f. 97-101 / Resumo: O algoritmo Barnes-Hut é um método aproximado amplamente usado para na simulação gravitacional de N-Corpos, que envolve a construção e eaminliamento de árvores esparsas a cada passo de simulação e assim reduzindo a complexidade computacional e possibilitando a solução de problemas práticos de grande escala, A natureza irregular desse código de eaminliamento em árvore apresenta desafios interessantes na sua computação em sistemas paralelos. Desafios adicionais ocorrem nesse tipo de padrão de computação paralela quando se deseja utilizar de maneira eficaz a capacidade computacional de arquiteturas de GPUs (processadores gráficos multieore de propósito geral), Oetrees são estruturas de dados que representam de maneira eficiente as informações de dados espaciais em várias áreas tais como computação científica, computação gráfica, processamento de imagens, dentre outras. Nosso enfoque nesse trabalho é de tratar explicitamente os padrões dinâmicos irregulares de acesso a dados em memória com o remapeamento de dados e transformações de lavouts, dependendo das estruturas acessadas. Também é feito o controle explicito, por programa, de fluxos divergentes de execuções em threads. Apresentamos uma nova estrutura de dados compacta para lavouts de oetrees esparsas, bem como algoritmos paralelos para GPUs, tanto para transformações de lavouts como para eaminliamento paralelo usando a técnica de simulação de "warps"-largos (SWW, Simulated Wide-Warps), Os benefícios de nossas técnicas ocorrem devido à transposição do algoritmo de eamin- nhamento na árvore para execução em padrões mais regulares, possibilitando uma melhor adaptação ao modelo GPU paralelo, A estrutura de dados permite explorar localidades de acessos à memória durante os percursos, ao mesmo tempo conservando espaço em memória eaehe ou em memória compartilhada (scratchpad). Desta forma a memória rápida intra-eore pode ser dedicada a acelerar eaminliamentos. Controle divergência de fluxos também é delimitado de maneira algorítmica, impondo uma execução uniforme na maior parte dos segmentos de execução. Nossos experimentos mostram melhoria de desempenho significativa em relação às soluções em GPU mais conhecidas para este algoritmo. Desenvolvemos um novo algoritmo paralelo eficiente que gera diretamente de uma só vez as oetrees implícitas comprimidas, como um método massivamente paralelo. Este método traz uma nova visão para tratar de forma eficiente com a natureza irregular também presente na construção de oetrees esparsas, O algoritmo proposto de geração massivamente paralela de oetrees esparsas tem aplicação imediata em nossa implementação GPU paralela da simulação Barnes-Hut e em outros métodos de N-eorpos, As técnicas e algoritmos propostos nesta tese também poderão ser aplicadas em outros contextos. Palavras-chave: Algoritmo Massivamente Paralelo para Geração de Octrees; Octrees esparsas; Octree implícita; Probleamas de N-Corpos; Barnes-Hut; GPGPIJ; WarpsLargos Simulados em Software; CIJDA; Algoritmo Paralelo irregular; Algoritmos paralelos; Manycore Computing; Acelerador de Computação; / Abstract: The Barnes-Hut algorithm is a widely used approximation method for the N-Body simulation problem, which involves the construction and traversal of sparse trees at each simulation step and thus reducing the complexity to solve large/praetieal problems. The irregular nature of this tree walking code presents interesting challenges for its computation on parallel systems. Additional problems arise in effectively exploiting the processing capacity of GPU architectures. Octrees are data structures that efficiently represent spatial data in many fields such as scientific computing, computer graphics and image processing, among others. In this work we explicitly deal with dynamic irregular patterns in data accesses with data remapping and data transformation, depending on the data structures being accessed, and by controlling the execution flow divergence of threads. We present a new compact data-strueture for sparse octree layouts, and also GPU parallel algorithms for tree transformation and parallel walking using software Simulated Wide-Warps (SWW), Benefits of our techniques are in transposing the tree algorithm to execute regular patterns to match the GPU parallel model. The data structure allows exploring localities during traversals, at the same time conserving space in caches or scratchpad memory. This way fast intra-eore memory can be dedicated to speed up traversals. Control flow divergence is also algorithmically constrained, enforcing a mostly uniform execution of threads. Our experiments show significant performance improvement over the best known GPU solutions to this algorithm. We have developed a novel efficient parallel algorithm that directly generates entire compressed implicit octrees at once, as a massively parallel method. This method brings new insight on how to efficiently deal with the irregular nature of algorithms for constructing sparse octrees. The proposed algorithm has immediate application to our GPU parallel Barnes-Hut implementation and other N-Body methods. We envision that the techniques and algorithms proposed in this dissertation can also be applied in other contexts. Keywords: Massively Parallel Octree Generation Algorithm; Sparse Octrees; Implicit Octree; N-Body; Barnes-Hut; GPGPU; Software Simulated Wide-Warp; CUDA; Irregular Parallel Algorithm; Parallel algorithms; Many core Computing; Accelerator Computing;
30

Alinhamento automático de imagens de profundidade para modelagem 3D de objetos

Gomes, Leonardo 09 December 2011 (has links)
Resumo: No processo de modelagem 3D de objetos a partir de imagens, o pré-alinhamento é a etapa responsável por determinar uma aproximação da transformação rígida que alinha, em um mesmo sistema de coordenadas, duas superfícies vistas do objeto, representadas por imagens de profundidade (range images). Na área de preservação digital de acervos naturais e culturais, foco deste trabalho, a delidade tanto da geometria quanto da textura do modelo 3D nal é o principal requisito. Entretanto, investir em um sistema prático e ágil para modelagem 3D também é importante para viabilizar sua aplicação sobre acervos com diferentes características. Neste sentido, o estudo e implementação de métodos de pré-alinhamento de imagens de profundidade mais efetivos podem contribuir signicativamente na construção de sistemas mais robustos e apropriados para a área. Este trabalho apresenta um estudo sobre os métodos estado da arte de pré-alinhamento e compara-os com uma nova abordagem esenvolvida, mais efetiva para o problema. A abordagem proposta é baseada em pontos aracterísticos, o que se mostrou bastante apropriado para o cenário avaliado. Dentre as principais contribuições do presente trabalho está a aplicação e substituição da etapa de pré-alinhamento manual utilizada no pipeline de modelagem 3D desenvolvido no grupo de pesquisa IMAGO.

Page generated in 0.095 seconds