• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 38
  • 4
  • 1
  • Tagged with
  • 43
  • 32
  • 10
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

PARTICIONAMENTO DE CONJUNTO DE DADOS E SELEÇÃO DE VARIÁVEIS EM PROBLEMAS DE CALIBRAÇÃO MULTIVARIADA

Alves, André Luiz 22 September 2017 (has links)
Submitted by admin tede (tede@pucgoias.edu.br) on 2017-11-22T13:39:54Z No. of bitstreams: 1 André Luiz Alves.pdf: 760209 bytes, checksum: 09b516d6ffcca2c7f66578b275613b36 (MD5) / Made available in DSpace on 2017-11-22T13:39:54Z (GMT). No. of bitstreams: 1 André Luiz Alves.pdf: 760209 bytes, checksum: 09b516d6ffcca2c7f66578b275613b36 (MD5) Previous issue date: 2017-09-22 / The objective of this work is to compare a proposed algorithm based on the RANdom SAmple Consensus (RANSAC) method for selection of samples, selection of variables and simultaneous selection of samples and variables with the Sucessive Projections Algorithm (SPA) from a chemical data set in the context of multivariate calibration. The proposed method is based on the RANSAC method and Multiple Linear Regression (MLR). The predictive capacity of the models is measured using the Root Mean Square Error of Prediction (RMSEP). The results allow to conclude that the Successive Projection Algorithm improves the predictive capacity of Ransac. It is concluded that the SPA positively influences the Ransac algorithm for selection of samples, for selection of variables and also for simultaneous selection of samples and variables. / O objetivo do trabalho é comparar um algoritmo proposto baseado no método consenso de amostra aleatória (RANdom SAmple Consensus, RANSAC) para seleção de amostras, seleção de variáveis e seleção simultânea de amostras e variáveis com o algoritmo de projeções sucessivas (Sucessive Projections Algorithm, SPA) a partir de conjuntos de dados químicos no contexto da calibração multivariada. O método proposto é baseado no método RANSAC e regressão linear múltipla (Multiple Linear Regression, MLR). A capacidade preditiva dos modelos é medida empregando o erro de previsão da raiz quadrada do erro quadrático médio (Root Mean Square Error Of Prediction, RMSEP). Os resultados permitem concluir que o Algoritmo das Projeções Sucessivas melhora a capacidade preditiva do Ransac. Conclui-se que o SPA influi positivamente no algoritmo Ransac para seleção de amostras, para seleção de variáveis e também para seleção simultânea de amostras e variáveis.
22

Refinamento multinível em redes complexas baseado em similaridade de vizinhança / Multilevel refinement in complex networks based on neighborhood similarity

Valejo, Alan Demetrius Baria 11 November 2014 (has links)
No contexto de Redes Complexas, particularmente das redes sociais, grupos de objetos densamente conectados entre si, esparsamente conectados a outros grupos, são denominados de comunidades. Detecção dessas comunidades tornou-se um campo de crescente interesse científico e possui inúmeras aplicações práticas. Nesse contexto, surgiram várias pesquisas sobre estratégias multinível para particionar redes com elevada quantidade de vértices e arestas. O objetivo dessas estratégias é diminuir o custo do algoritmo de particionamento aplicando-o sobre uma versão reduzida da rede original. Uma possibilidade dessa estratégia, ainda pouco explorada, é utilizar heurísticas de refinamento local para melhorar a solução final. A maioria das abordagens de refinamento exploram propriedades gerais de redes complexas, tais como corte mínimo ou modularidade, porém, não exploram propriedades inerentes de domínios específicos. Por exemplo, redes sociais são caracterizadas por elevado coeficiente de agrupamento e assortatividade significativa, consequentemente, maximizar tais características pode conduzir a uma boa solução e uma estrutura de comunidades bem definida. Motivado por essa lacuna, neste trabalho é proposto um novo algoritmo de refinamento, denominado RSim, que explora características de alto grau de transitividade e assortatividade presente em algumas redes reais, em particular em redes sociais. Para isso, adotou-se medidas de similaridade híbridas entre pares de vértices, que utilizam os conceitos de vizinhança e informações de comunidades para interpretar a semelhança entre pares de vértices. Uma análise comparativa e sistemática demonstrou que o RSim supera os algoritmos de refinamento habituais em redes com alto coeficiente de agrupamento e assortatividade. Além disso, avaliou-se o RSim em uma aplicação real. Nesse cenário, o RSim supera todos os métodos avaliado quanto a eficiência e eficácia, considerando todos os conjuntos de dados selecionados. / In the context of complex networks, particularly social networks, groups of densely interconnected objects, sparsely linked to other groups are called communities. Detection of these communities has become a field of increasing scientific interest and has numerous practical applications. In this context, several studies have emerged on multilevel strategies for partitioning networks with high amount of vertices and edges. The goal of these strategies is to reduce the cost of partitioning algorithm by applying it on a reduced version of the original network. The possibility for this strategy, yet little explored, is to apply local refinement heuristics to improve the final solution. Most refinement approaches explore general properties of complex networks, such as minimum cut or modularity, however, do not exploit inherent properties of specific domains. For example, social networks are characterized by high clustering coefficient and significant assortativity, hence maximize such characteristics may lead to a good solution and a well-defined community structure. Motivated by this gap, in this thesis, we propose a new refinement algorithm, called RSim, which exploits characteristics of high degree of transitivity and assortativity present in some real networks, particularly social networks. For this, we adopted hybrid similarity measures between pairs of vertices, using the concepts of neighborhood and community information to interpret the similarity between pairs of vertices. A systematic and comparative analysis showed that the RSim statistically outperforms usual refinement algorithms in networks with high clustering coefficient and assortativity. In addition, we assessed the RSim in a real application. In this scenario, the RSim surpasses all evaluated methods in efficiency and effectiveness, considering all the selected data sets.
23

[en] AN INTEREST MANAGEMENT APPROACH TO DYNAMIC PARTITIONING DISTRIBUTED SIMULATIONS / [pt] UMA ABORDAGEM BASEADA EM GERENCIAMENTO DE INTERESSES PARA O PARTICIONAMENTO DINÂMICO DE SIMULAÇÕES DISTRIBUÍDAS

FELIPE COIMBRA BACELAR 01 February 2017 (has links)
[pt] Para que simulações distribuídas baseadas em agentes possam ter alto grau de escalabilidade é necessário evitar gargalos de comunicação. Existe troca de mensagens entre máquinas toda vez que um agente contido em um determinado computador precisa interagir com elementos que se encontram em outro computador. O presente trabalho propõe particionar dinamicamente uma simulação de forma a manter um agente no mesmo nó da rede em que se encontram os elementos com os quais ele mais interage, reduzindo o custo de comunicação entre os computadores da rede. Para isto, é utilizado o conceito de gerenciamento de interesses, que visa prover ao agente apenas o conjunto mínimo de informações para que ele possa interagir com o ambiente de forma coerente. Para ilustrar a solução proposta foi desenvolvido um estudo de caso que compreende uma simulação distribuída representando um cenário de derramamento de petróleo no mar. / [en] To achieve high scalability in distributed simulations is necessary to avoid communication bottlenecks. Messages between machines are necessary when an agent kept in a specific computer needs to interact with elements kept in another computer. This work presents an approach to dynamically partitioning a distributed simulation keeping each agent in the same network node where are the elements more accessed by it, reducing the communication cost between the network computers. To reach this objective, we are using the concept of interest management, which aims to provide to an agent only the smallest set of information necessary to allow it to interact with the environment in a coherent way. To illustrate the proposed solution was developed a case study comprehending a distributed simulation representing an oil spill scenario.
24

Efeitos do uso do solo sobre o balanço de radiação e energia em Cuiabá/MT

Angelini, Lucas Peres 21 May 2015 (has links)
Submitted by Jordan (jordanbiblio@gmail.com) on 2017-05-04T16:12:04Z No. of bitstreams: 1 DISS_2015_Lucas Peres Angelini.pdf: 1371602 bytes, checksum: 257a12a7b2421c18c845019a574d2306 (MD5) / Approved for entry into archive by Jordan (jordanbiblio@gmail.com) on 2017-05-04T16:13:36Z (GMT) No. of bitstreams: 1 DISS_2015_Lucas Peres Angelini.pdf: 1371602 bytes, checksum: 257a12a7b2421c18c845019a574d2306 (MD5) / Made available in DSpace on 2017-05-04T16:13:58Z (GMT). No. of bitstreams: 1 DISS_2015_Lucas Peres Angelini.pdf: 1371602 bytes, checksum: 257a12a7b2421c18c845019a574d2306 (MD5) Previous issue date: 2015-05-21 / CAPES / As cidades são as áreas mais densamente povoadas da Terra e continuarão a ser as paisagens artificiais mais utilizadas pela maior parte da população. A substituição de vegetação nativa por superfícies artificiais em áreas urbanas é um dos impactos humanos mais irreversíveis na Terra. O monitoramento da sazonalidade e variação espacial do clima urbano é um desafio para pesquisadores e tomadores de decisão. Com poucas estações meteorológicas, torna-se impossível a medição adequada de variáveis climáticas por meio de abordagens tradicionais. O sensoriamento remoto é uma ferramenta alternativa e efetiva para o monitoramento do clima urbano por obter padrões climáticos representativos de toda a malha urbana, fornecendo informações espaço-temporais consistentes a um menor custo. O objetivo deste trabalho foi estudar a variação temporal e espacial do balanço de radiação e energia em área urbana por técnicas de sensoriamento remoto. O albedo da superfície no solo exposto foi significativamente maior do que dos demais tipos de uso do solo. As áreas de vegetação densa apresentaram valores significativamente maiores de calor latente e evapotranspiração. O Saldo de radiação apresentou diferença significativa entre as estações, sendo maior na estação chuvosa em até 37,5% para o solo exposto e 31, 9% para o asfalto. A evapotranspiração em área construída foi até 80,5% maior na estação seca para o solo exposto e 59,9% maior para área construída. Com o aumento do albedo da superfície ocorre a redução no saldo de radiação, todavia, com o aumento do NDVI houve uma diminuição no albedo da superfície tanto nas estações chuvosa e seca. A substituição de vegetação nativa por áreas alteradas como construções afetou os balanços de radiação e energia. As estimativas dos balanços de radiação e energia por sensoriamento remoto indicaram ser adequadas para avaliar os efeitos do uso do solo no microclima urbano. / Cities are the most dense populated areas on the Earth and will continue to be artificial landscapes most used by the majority of the population. The replacement of native vegetation with artificial surfaces in urban areas is one of the human irreversible impact on the earth. The monitoring of seasonal and spatial variation of urban climate is a challenge for researchers and decision makers. With few weather stations, it is impossible to adequately measuring climatic variables through traditional approaches. Remote sensing is an alternative and effective tool for monitoring the urban climate to obtain representative weather patterns of the whole urban area, providing spatial and temporal information consistent at a lower cost. The objective of this work was to study the temporal and spatial variation of radiation and energy balance in urban areas by remote sensing techniques. The surface albedo in bare soil was significantly higher than that of other types of land use. The areas of dense vegetation had significantly higher values of latent heat and evapotranspiration. The radiation balance showed a significant difference between the seasons, being higher in the rainy season in up to 37.5% for the above bare soil and 31, 9% to the asphalt. Evapotranspiration in built up area was 80.5% higher in the dry season for bare soil and 59.9% higher for building area. With the increase of surface albedo is to reduce the net radiation, however, with the increase of NDVI there was a decrease in surface albedo both wet and dry seasons. The replacement of native vegetation in disturbed areas such as buildings affected the radiation and energy balance sheets. Estimates of radiation and energy balances for remote sensing indicated be appropriate to assess the effects of land use in the urban microclimate.
25

Refinamento multinível em redes complexas baseado em similaridade de vizinhança / Multilevel refinement in complex networks based on neighborhood similarity

Alan Demetrius Baria Valejo 11 November 2014 (has links)
No contexto de Redes Complexas, particularmente das redes sociais, grupos de objetos densamente conectados entre si, esparsamente conectados a outros grupos, são denominados de comunidades. Detecção dessas comunidades tornou-se um campo de crescente interesse científico e possui inúmeras aplicações práticas. Nesse contexto, surgiram várias pesquisas sobre estratégias multinível para particionar redes com elevada quantidade de vértices e arestas. O objetivo dessas estratégias é diminuir o custo do algoritmo de particionamento aplicando-o sobre uma versão reduzida da rede original. Uma possibilidade dessa estratégia, ainda pouco explorada, é utilizar heurísticas de refinamento local para melhorar a solução final. A maioria das abordagens de refinamento exploram propriedades gerais de redes complexas, tais como corte mínimo ou modularidade, porém, não exploram propriedades inerentes de domínios específicos. Por exemplo, redes sociais são caracterizadas por elevado coeficiente de agrupamento e assortatividade significativa, consequentemente, maximizar tais características pode conduzir a uma boa solução e uma estrutura de comunidades bem definida. Motivado por essa lacuna, neste trabalho é proposto um novo algoritmo de refinamento, denominado RSim, que explora características de alto grau de transitividade e assortatividade presente em algumas redes reais, em particular em redes sociais. Para isso, adotou-se medidas de similaridade híbridas entre pares de vértices, que utilizam os conceitos de vizinhança e informações de comunidades para interpretar a semelhança entre pares de vértices. Uma análise comparativa e sistemática demonstrou que o RSim supera os algoritmos de refinamento habituais em redes com alto coeficiente de agrupamento e assortatividade. Além disso, avaliou-se o RSim em uma aplicação real. Nesse cenário, o RSim supera todos os métodos avaliado quanto a eficiência e eficácia, considerando todos os conjuntos de dados selecionados. / In the context of complex networks, particularly social networks, groups of densely interconnected objects, sparsely linked to other groups are called communities. Detection of these communities has become a field of increasing scientific interest and has numerous practical applications. In this context, several studies have emerged on multilevel strategies for partitioning networks with high amount of vertices and edges. The goal of these strategies is to reduce the cost of partitioning algorithm by applying it on a reduced version of the original network. The possibility for this strategy, yet little explored, is to apply local refinement heuristics to improve the final solution. Most refinement approaches explore general properties of complex networks, such as minimum cut or modularity, however, do not exploit inherent properties of specific domains. For example, social networks are characterized by high clustering coefficient and significant assortativity, hence maximize such characteristics may lead to a good solution and a well-defined community structure. Motivated by this gap, in this thesis, we propose a new refinement algorithm, called RSim, which exploits characteristics of high degree of transitivity and assortativity present in some real networks, particularly social networks. For this, we adopted hybrid similarity measures between pairs of vertices, using the concepts of neighborhood and community information to interpret the similarity between pairs of vertices. A systematic and comparative analysis showed that the RSim statistically outperforms usual refinement algorithms in networks with high clustering coefficient and assortativity. In addition, we assessed the RSim in a real application. In this scenario, the RSim surpasses all evaluated methods in efficiency and effectiveness, considering all the selected data sets.
26

Detecção de comunidades em redes complexas utilizando estratégia multinível / Community detection in complex networks: a multilevel approach

Leonardo Jesus Almeida 05 October 2009 (has links)
O grande volume de dados armazenados em meio digital dificulta a anáalise e extração de informações por um ser humano sem que seja utilizada alguma ferramenta computacional inteligente. A área de Aprendizado de Máquina (AM) estuda e desenvolve algoritmos para o processamento e obtenção automática de conhecimento em dados digitais. Tradicionalmente, os algoritmos de AM modelam os dados analisados com base na abordagem proposicional; entretanto, recentemente com a disponibilidade de conjuntos de dados relacionais novas abordagens têm sido estudadas, como a modelagem utilizando redes complexas. Redes complexas é uma área de pesquisa recente e ativa que têm atraíido a atenção de pesquisadores e tem sido aplicada em diversos domínios. Mais especificamente, o estudo de detecção de comunidades em redes complexas é o tema principal deste trabalho. Detectar comunidades consiste em buscar grupos de vértices densamente conectados entre si em uma rede. Detectar a melhor divisão em comunidades de uma rede é um problema NP-completo, o que requer que o desenvolvimento de soluções viáveis baseiem-se em heurísticas como, por exemplo, medidas de qualidade. Newman prop^os a medida de modularidade Q que tem se mostrado eficiiente na análise de comunidades em redes. Este trabalho apresenta o Algoritmo Multinível de Otimização de Modularidade (AMOM) que é baseado a na otimização da medida de modularidade e integrado na estratégia multinível. A estratégia multinível é composta de três fases: (i) sucessivas compactações da rede inicial com base em contrações de arestas e fus~oes de vértices, (ii) particionamento da rede reduzida utilizando Algoritmo de Otimização de Modularidade (AOM) modificado, e (iii) sucessivas descompactações das redes intermediárias até que se retorne a rede inicial. O principal atrativo da estratégia é viabilizar a utilização de algoritmos custosos no particionamento do grafo compactado, uma vez que neste grafo a quantidade de vértices e arestas é uma fração reduzida em relação ao grafo inicial. O trabalho também propõe dois novos métodos para refinamento dos particionamentos durante a fase de uncoasening. A fiim de avaliar a escalabilidade e eficiiência da metodologia proposta foram realizados experimentos empíricos em redes consideradas benchmark. Os resultados demonstram um significativo ganho de desempenho, mantendo bons resultados qualitativos / Human based analysis of large amount of data is a hard task when no intelligent computer aid is provided. In this context, Machine Learning (ML) algorithms are aimed at automatically processing and obtaining knowledge from data. In general, ML algorithms use a propositional representation of data such as an attribute-value table. However, this model is not suitable for relational information modeling, which can be better accomplished using graphs or networks. In this context, complex networks have been call attention of scientific community recently and many applications in different domains have been developed. In special, one of complex networks research trends is the community detection field which is the main focus of this work. Community detection is the problem of finding dense and disjoint connected groups of vertices in a network. The problem is a well know NP-complete task which requires heuristics approaches, like quality measures, to be addressed. Newman introduced a specific quality measure called modularity that proved to be useful for analysis communities in networks. This work presents a new algorithm, called Multilevel Modularity Optimization Algorithm, based on modularity measure optimization integrated in a multilevel graph partitioning strategy. The multilevel graph partitioning scheme consists of three phases: (i) reduction of the size (coarsen) of original graph by collapsing vertices and edges, (ii) partitioning the coarsened graph, and (iii) uncoarsen it to construct a partition for the original graph. The rationale behind this strategy is to apply a computationally expensive method in a coarsened graph, i.e., with a significantly reduced number of vertices and edges. In addition, it is proposed two new methods that uses modularity and clustering coefficient for partition refinement. Empirical evaluation on benchmarks networks using this approach demonstrate a significant speed up gain compared to the original modularity-based algorithm, keeping a good quality clusters partitioning
27

Um Descritor baseado em análise local de cor para busca de imagens em grandes cole ções

Kimura, Petrina de Assis da Silva 02 May 2011 (has links)
Submitted by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-02-05T13:07:49Z No. of bitstreams: 1 Dissertação - Petrina Kimura.pdf: 6170367 bytes, checksum: efa4d4fa978c23e41b25ae1b997e5e53 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-02-05T13:08:16Z (GMT) No. of bitstreams: 1 Dissertação - Petrina Kimura.pdf: 6170367 bytes, checksum: efa4d4fa978c23e41b25ae1b997e5e53 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-02-05T13:08:47Z (GMT) No. of bitstreams: 1 Dissertação - Petrina Kimura.pdf: 6170367 bytes, checksum: efa4d4fa978c23e41b25ae1b997e5e53 (MD5) / Made available in DSpace on 2016-02-05T13:08:47Z (GMT). No. of bitstreams: 1 Dissertação - Petrina Kimura.pdf: 6170367 bytes, checksum: efa4d4fa978c23e41b25ae1b997e5e53 (MD5) Previous issue date: 2011-05-02 / FAPEAM - Fundação de Amparo à Pesquisa do Estado do Amazonas / Advances in multimedia technology led to a large increase in the number of images digital, in consequence, also grew? ä need for m? ethods and more ef fective cient and to store and retrieve this count? udo multimedia ?? edia. Most m? Proposed ethods alcan in literature? Çam high n ?? íveis of and insufficiency and effi c? CFIA (the top 70% accuracy) however most of them perform experiments using small images bases (less 10,000 images), previously classi fied in good ned categories, thus facilitating search task and consequently increasing ní ?? ble accuracy of the evaluated descriptors. On the other hand, when these m? Ethods are evaluated in large paste? Heterogeneous tions, Ni vel ?? accuracy? and relatively low. Thinking about this problem, this dissertation? Tion proposes the descriptor Location Color Pixel Classi cation (LCPC), an m? Ethod based on local analysis to search from large pictures basis. The proposed approach extracts character ?? color ísticas, classifi ing the pixels as border or inside using the same classi scheme is? tion of m? ethod Border / Interior Pixel Classication (BIC), by? are a simple partitioning scheme, but too much and cient and effi cient to incorporate spatial information about the contents? Udo visual image. Experiments were conducted using three bases of images, including one with more than 100,000 images collected from the Web. The results show that the proposed approach? And much higher when compared with other visual descriptors presented previously in literature, with gains in average accuracy of 51% till is 105% / Os avanços em tecnologia multimídia ocasionou um grande crescimento da quantidade de imagens digitais, em consequência disso, cresceu também a necessidade de métodos mais eficazes e eficientes para armazenar e recuperar esse conteúdo multimídia. A maioria dos métodos propostos na literatura alcançam altos níveis de eficiência e eficácia (a cima de 70% de precisão), entretanto grande parte delas executam experimentos usando bases de imagens pequenas (menos de 10.000 imagens), previamente classificadas em categorias bem de nidas, facilitando assim a tarefa de busca e, consequentemente aumentando os níveis de precisão dos descritores avaliados. Por outro lado, quando esses métodos são avaliados em grandes coleções heterogêneas, o nível de precisão e relativamente baixo. Pensando nesse problema, esta dissertação propõe o descritor Local Color Pixel Classication (LCPC), um método baseado em análise local para busca em grandes bases de imagens. A abordagem proposta extrai características de cor, classificando os pixels como borda ou interior, usando o mesmo esquema de classificação do método Border/Interior Pixel Classication (BIC), através de um esquema de particionamento simples, mas muito eficiente e eficaz para incorporar informações espaciais sobre o conteúdo visual da imagem. Experimentos foram conduzidos usando três bases de imagens, incluindo uma com mais de 100.000 imagens coletadas da Web. Os resultados obtidos mostram que a abordagem proposta e bastante superior quando comparado com outros descritores visuais previamente apresentados na literatura, com ganhos em precisão média de 51% até 105%
28

Uma metodologia de projetos para circuitos com reconfiguração dinâmica de hardware aplicada a support vector machines. / A design methodology for circuits with dynamic reconfiguration of hardware applied to support vector machines.

José Artur Quilici Gonzalez 07 November 2006 (has links)
Sistemas baseados em processadores de uso geral caracterizam-se pela flexibilidade a mudanças de projeto, porém com desempenho computacional abaixo daqueles baseados em circuitos dedicados otimizados. A implementação de algoritmos em dispositivos reconfiguráveis, conhecidos como Field Programmable Gate Arrays - FPGAs, oferece uma solução de compromisso entre a flexibilidade dos processadores e o desempenho dos circuitos dedicados, pois as FPGAs permitem que seus recursos de hardware sejam configurados por software, com uma granularidade menor que a do processador de uso geral e flexibilidade maior que a dos circuitos dedicados. As versões atuais de FPGAs apresentam um tempo de reconfiguração suficientemente pequeno para viabilizar sua reconfiguração dinâmica, i.e., mesmo com o dispositivo executando um algoritmo, a forma como seus recursos são dispostos pode ser alterada, oferecendo a possibilidade de particionar temporalmente um algoritmo. Novas linhas de FPGAs já são fabricadas com opção de reconfiguração dinâmica parcial, i.e., é possível reconfigurar áreas selecionadas de uma FPGA enquanto o restante continua em operação. No entanto, para que esta nova tecnologia se torne largamente difundida é necessário o desenvolvimento de uma metodologia própria, que ofereça soluções eficazes aos novos desdobramentos do projeto digital. Em particular, uma das principais dificuldades apresentadas por esta abordagem refere-se à maneira de particionar o algoritmo, de forma a minimizar o tempo necessário para completar sua tarefa. Este manuscrito oferece uma metodologia de projeto para dispositivos dinamicamente reconfiguráveis, com ênfase no problema do particionamento temporal de circuitos, tendo como aplicação alvo uma família de algoritmos, utilizados principalmente em Bioinformática, representada pelo classificador binário conhecido como Support Vector Machine. Algumas técnicas de particionamento para FPGA Dinamicamente Reconfigurável, especificamente aplicáveis ao particionamento de FSM, foram desenvolvidas para garantir que um projeto dominado por fluxo de controle seja mapeado numa única FPGA, sem alterar sua funcionalidade. / Systems based on general-purpose processors are characterized by a flexibility to design changes, although with a computational performance below those based on optimized dedicated circuits. The implementation of algorithms in reconfigurable devices, known as Field Programmable Gate Arrays, FPGAs, offers a solution with a trade-off between the processor\'s flexibility and the dedicated circuit\'s performance. With FPGAs it is possible to have their hardware resources configured by software, with a smaller granularity than that of the general-purpose processor and greater flexibility than that of dedicated circuits. Current versions of FPGAs present a reconfiguration time sufficiently small as to make feasible dynamic reconfiguration, i.e., even with the device executing an algorithm, the way its resources are displayed can be modified, offering the possibility of temporal partitioning of an algorithm. New lines of FPGAs are already being manufactured with the option of partial dynamic reconfiguration, i.e. it is possible to reconfigure selected areas of an FPGA anytime, while the remainder area continue in operation. However, in order for this new technology to become widely adopted the development of a proper methodology is necessary, which offers efficient solutions to the new stages of the digital project. In particular, one of the main difficulties presented by this approach is related to the way of partitioning the algorithm, in order to minimize the time necessary to complete its task. This manuscript offers a project methodology for dynamically reconfigurable devices, with an emphasis on the problem of the temporal partitioning of circuits, having as a target application a family of algorithms, used mainly in Bioinformatics, represented by the binary classifier known as Support Machine Vector. Some techniques of functional partitioning for Dynamically Reconfigurable FPGA, specifically applicable to partitioning of FSMs, were developed to guarantee that a control flow dominated design be mapped in only one FPGA, without modifying its functionality.
29

Sistema de aprendizado reconfigurável para classificação de dados utilizando processamento paralelo / Reconfigurable learning system for classification of data using parallel processing

Moreira, Eduardo Marmo 07 May 2014 (has links)
Esta tese apresenta a arquitetura de um sistema de aprendizado, com um escalonador de tarefas que possibilita a utilização de vários métodos de classificação e validação, permitindo a distribuição dessas tarefas entre os módulos do sistema. Esta arquitetura está estruturada de forma que classificações obtidas através de uma técnica sejam reutilizadas em paralelo pelo mesmo algoritmo ou por outras técnicas, produzindo novas classificações através do refinamento dos resultados alcançados e ampliando o uso em bases de dados com características diferentes. O sistema foi estruturado em quatro partes denominadas, respectivamente, Módulo de Inicialização, Módulo de Validação, Módulo de Refinamento e Módulo Especial de Escalonamento. Em cada módulo, podem ser usados vários algoritmos para atender aos seus objetivos. A estrutura deste sistema permite sua configuração, utilizando diversos métodos, inclusive com técnicas de inteligência artificial. Com isso, é possível a obtenção de resultados mais precisos por meio da escolha do melhor método para cada caso. Os resultados apresentados neste trabalho foram obtidos a partir de bases conhecidas na literatura, o que possibilita comparar as implementações dos métodos tradicionais que foram adicionadas ao sistema e, principalmente, verificar a qualidade dos refinamentos produzidos pela integração de técnicas diferentes. Os resultados demonstram que através de um sistema de aprendizado, minimiza-se a complexidade na análise de grandes bases de dados, permitindo verificar bases com estruturas diferentes e aumentar os métodos aplicados na análise de cada estrutura. Isto favorece a comparação entre os métodos e proporciona resultados mais confiáveis. Para uniformizar os dados provenientes de bases distintas, foi elaborada a modelagem de dados do sistema, o que favorece a escalabilidade do sistema de maneira uniforme. / This thesis presents the architecture of a System Learning with a task scheduler, which makes possible the utilization of several classification and validation methods, allowing the distribution of tasks between the module systems. This architecture is structured of such way that the classifications obtained through a specific technique can be reutilized in parallel by the same algorithm or by other techniques, producing new classifications through the refinement of the results achieved and expanding the use in databases with different characteristics. The system was structured in four parts denominated, respectively, Initialization module; Validation module; Refinement module; and Especial scheduling module. In each module, various algorithms can be employed to reach its objectives. The structure of this system allows its configuration, utilizing various methods, including artificial intelligence techniques. Thus, it is possible to obtain more precise results through the choice of the best method to each case. The results presented in this work were obtained from basis that are known in the literature, which allows to compare the implementations of the traditional methods that were added to the system and, especially, to verify the quality of the refinements produced by the integration of different techniques. The results demonstrated that through a learning system, the complexity of the analysis of great databases is minimized, allowing to verify basis with different structures and to increase the methods applied in the analysis of each structure. It favors the comparison between the methodologies and provides more reliable results. To standardize the data originated of distinct bases, the data modelling system was elaborated, which will favor the uniform scalability of the system.
30

Um algoritmo para o Problema do Isomorfismo de Grafos

Rodrigues, Edilson José January 2014 (has links)
Orientador: Prof. Dr. Daniel Morgato Martin / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Ciências da Computação, 2014. / Neste trabalho estudamos o Problema do Isomorfismo de Grafos e a sua complexidade para resolvê-lo. Nossa principal contribuição é a proposta de um algoritmo para o caso geral do Problema, baseado no particionamento do conjunto de vértices e em emparelhamentos perfeitos de grafos bipartidos. Estudamos também o algoritmo de Brendan McKay, que é o mais rápido algoritmo para o Problema do Isomorfismo de Grafos conhecido. Ao final, implementamos o algoritmo proposto nesta dissertação e o algoritmo de McKay. Após a comparação dos dois algoritmos, verificamos que os resultados obtidos pelo algoritmo proposto não foram satisfatórios, porém apresentamos possíveis melhorias de como deixá-lo mais eficiente. / In this work we study the Graph Isomorphism Problem and their complexity to solve it. Our main contribution is to propose an algorithm for the general case of the Problem, based on partitioning the set vertex and perfect matchings of bipartite graphs. We also studied the Brendan McKay¿s algorithm, who is the fastest algorithm for the Graph Isomorphism Problem known. At the end, we implemented the algorithm proposed in this dissertation and McKay¿s algorithm. After comparison of the two algorithms, we found that the results obtained by the proposed algorithm were not satisfactory, but improvements are possible as to make it more efficient.

Page generated in 0.1236 seconds