Spelling suggestions: "subject:"programação paralela"" "subject:"programação paralelas""
131 |
Uma linguagem para especificação de fluxo de execução em aplicações paralelas / A specification language for execution flow in parallel applicationsEnomoto, Cristina 22 August 2005 (has links)
Orientador: Marco Aurelio Amaral Henriques / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-05T12:56:47Z (GMT). No. of bitstreams: 1
Enomoto_Cristina_M.pdf: 856279 bytes, checksum: ce524a49db0f67734e28d8458d5deb0b (MD5)
Previous issue date: 2005 / Resumo: Vários sistemas de grid e computação distribuída existentes só permitem a execução de aplicações com um fluxo de execução de tarefas básico, no qual é feita a distribuição das tarefas executadas em paralelo e depois a coleta de seus resultados. Outros sistemas permitem definir uma relação de dependências entre as tarefas, formando um grafo direcionado acíclico. Porém, mesmo com este modelo de fluxo de execução não é possível executar vários tipos de aplicações que poderiam ser paralelizadas, como, por exemplo, algoritmos genéticos e de cálculo numérico que utilizam algum tipo de processamento iterativo. Nesta dissertação é proposta uma linguagem de especificação para fluxo de execução de aplicações paralelas que permite um controle de fluxo de tarefas mais flexível, viabilizando desvios condicionais e laços com iterações controladas. A linguagem é baseada na notação XML (eXtensible Markup Language), o que lhe confere características importantes tais como flexibilidade e simplicidade. Para avaliar estas e outras características da linguagem proposta, foi feita uma implementação sobre o sistema de processamento paralelo JoiN. Além de viabilizar a criação e execução de novas aplicações paralelas cujos fluxos de tarefas contêm laços e/ou desvios condicionais, a linguagem se mostrou simples de usar e não causou sobrecarga perceptível ao sistema paralelo / Abstract: Many distributed and parallel systems allow only a basic task flow, in which the parallel tasks are distributed and their results collected. In some systems the application execution flow gives support to a dependence relationship among tasks, represented by a directed acyclic graph. Even with this model it is not possible to execute in parallel some important applications as, for example, genetic algorithms. Therefore, there is a need for a new specification model with more sophisticated flow controls that allow some kind of iterative processing at the level of task management. The purpose of this work is to present a proposal for a specification language for parallel application execution workflow, which provides new types of control structures and allows the implementation of a broader range of applications. This language is based on XML (eXtensible Markup Language) notation, which provides characteristics like simplicity and flexibility to the proposed language. To evaluate these and other characteristics of the language, it was implemented on the JoiN parallel processing system. Besides allowing the creation and execution of new parallel applications containing task flows with loops and conditional branches, the proposedlanguage was easy to use and did not cause any significant overhead to the parallel system / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica
|
132 |
Implementação e analise de ferramentas de quimica comoutacional aplicada ao desenvolvimento de processos / Implentation and analysis of computational chemistry tools applied to the processes developmentPinto, Jefferson Ferreira, 1972- 22 February 2006 (has links)
Orientador: Rubens Maciel Filho / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Qumica / Made available in DSpace on 2018-08-09T18:17:35Z (GMT). No. of bitstreams: 1
Pinto_JeffersonFerreira_D.pdf: 2614838 bytes, checksum: 839b2ff15752c4919e502eaf94e81822 (MD5)
Previous issue date: 2006 / Resumo: As indústrias vêm mudando profundamente nos últimos anos, principalmente para redução de consumo energético, melhoria na qualidade dos produtos e adequação às leis ambientais. Estas mudanças podem ser auxiliadas pelas técnicas de modelagem e simulação, incluindo o detalhamento do modelo em nível atômico, quando então recebe o nome de química computacional. Diversas ferramentas abrangendo todas as áreas de química computacional, em sua maioria gratuitas ou de domínio público, foram implementadas em um microcomputador e analisadas para aplicação no desenvolvimento de processos. Foi analisado também o desempenho computacional em função do sistema operacional, que apresentou diferenças no desempenho de até 353% para cálculos de ponto flutuante, 18% para acesso a memória RAM e 67% para acesso a disco. Para melhorar o desempenho computacional, foi elaborado o projeto de um ambiente computacional paralelo de alto desempenho, no qual o custo ficou limitado à aquisição de hardware, de fácil disponibilidade no mercado, sendo que os softwares utilizados são gratuitos ou de domínio público / Abstract: lndustries are changing in the last years, mainly for reduction of energy consumption, improvement in the product quality and adequacy to the environmental laws. These changes can be assisted by the modeling and simulation techniques, including the detailing of the model in atomic leveI, when then it receives the name of computational chemistry. Several tools enclosing all the areas of computational chemistry, in its mainly free or of public domain, had been implemented in a microcomputer and analyzed for application in the processes development. The computational performance in function of the operational system was also analyzed, that presented differences in the performance of up to 353% for floating-point calculations, 18% for access the RAM memory and 67% for access the hard disk. To improve the computational performance the project of high performance computer system was elaborated, in which the cost was limited the acquisition of the hardware, of easy availability in the market, being that software used is free or of public domain / Doutorado / Desenvolvimento de Processos Químicos / Doutor em Engenharia Química
|
133 |
Explorando memoria transacional em software nos contextos de arquiteturas assimetricas, jogos computacionais e consumo de energia / Exploiting software transactional memory in the context of asymmetric architecturesBaldassin, Alexandro José 15 August 2018 (has links)
Orientador: Paulo Cesar Centoducatte / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-15T20:59:38Z (GMT). No. of bitstreams: 1
Baldassin_AlexandroJose_D.pdf: 1596141 bytes, checksum: 265aa763c420b69f70d59ff687bd8ad9 (MD5)
Previous issue date: 2009 / Resumo: A adoção dos microprocessadores com múltiplos núcleos de execução pela indústria semicondutora tem criado uma crescente necessidade por novas linguagens, metodologias e ferramentas que tornem o desenvolvimento de sistemas concorrentes mais rápido, eficiente e acessível aos programadores de todos os níveis. Uma das principais dificuldades em programação concorrente com memória compartilhada é garantir a correta sincronização do código, evitando assim condições de corrida que podem levar o sistema a um estado inconsistente. A sincronização tem sido tradicionalmente realizada através de métodos baseados em travas, reconhecidos amplamente por serem de difícil uso e pelas anomalias causadas. Um novo mecanismo, conhecido como memória transacional (TM), tem sido alvo de muita pesquisa recentemente e promete simplificar o processo de sincronização, além de possibilitar maior oportunidade para extração de paralelismo e consequente desempenho. O cerne desta tese é formado por três trabalhos desenvolvidos no contexto dos sistemas de memória transacional em software (STM). Primeiramente, apresentamos uma implementação de STM para processadores assimétricos, usando a arquitetura Cell/B.E. como foco. Como principal resultado, constatamos que o uso de sistemas transacionais em arquiteturas assimétricas também é promissor, principalmente pelo fator escalabilidade. No segundo trabalho, adotamos uma abordagem diferente e sugerimos um sistema de STM especialmente voltado para o domínio de jogos computacionais. O principal motivo que nos levou nesta direção é o baixo desempenho das implementações atuais de STM. Um estudo de caso conduzido a partir de um jogo complexo mostra a eficácia do sistema proposto. Finalmente, apresentamos pela primeira vez uma caracterização do consumo de energia de um sistema de STM considerado estado da arte. Além da caracterização, também propomos uma técnica para redução do consumo em casos de alta contenção. Resultados obtidos a partir dessa técnica revelam ganhos de até 87% no consumo de energia / Abstract: The shift towards multicore processors taken by the semiconductor industry has initiated an era in which new languages, methodologies and tools are of paramount importance to the development of efficient concurrent systems that can be built in a timely way by all kinds of programmers. One of the main obstacles faced by programmers when dealing with shared memory programming concerns the use of synchronization mechanisms so as to avoid race conditions that could possibly lead the system to an inconsistent state. Synchronization has been traditionally achieved by means of locks (or variations thereof), widely known by their anomalies and hard-to-get-it-right facets. A new mechanism, known as transactional memory (TM), has recently been the focus of a lot of research and shows potential to simplify code synchronization as well as delivering more parallelism and, therefore, better performance. This thesis presents three works focused on different aspects of software transactional memory (STM) systems. Firstly, we show an STM implementation for asymmetric processors, focusing on the architecture of Cell/B.E. As an important result, we find out that memory transactions are indeed promising for asymmetric architectures, specially due to their scalability. Secondly, we take a different approach to STM implementation by devising a system specially targeted at computer games. The decision was guided by poor performance figures usually seen on current STM implementations. We also conduct a case study using a complex game that effectively shows the system's efficiency. Finally, we present the energy consumption characterization of a state-of-the-art STM for the first time. Based on the observed characterization, we also propose a technique aimed at reducing energy consumption in highly contended scenarios. Our results show that the technique is indeed effective in such cases, improving the energy consumption by up to 87% / Doutorado / Sistemas de Computação / Doutor em Ciência da Computação
|
134 |
Implementação do software MILC no estudo da QCD completa / Implementation of the MILC package in the study of full QCDFernando Henrique e Paula da Luz 12 March 2010 (has links)
A CromoDinâmica Quântica (QCD) é a teoria quântica de campos que descreve as interações fortes entre quarks, que são os constituintes fundamentais das partículas do núcleo atômico. Devido ao caráter peculiar destas interações, o estudo da QCD não pode ser realizado pelos métodos usuais em teorias quânticas de campos, baseados em expansões perturbativas. O estudo não-perturbativo da QCD a partir de primeiros princípios torna-se possível através da formulação de rede da teoria, que equivale a um modelo de mecânica estatística clássica, para o qual podem ser realizadas simulações numéricas através de métodos de Monte Carlo. A área de simulações numéricas da QCD representa uma das maiores aplicações atuais da computação de alto desempenho, sendo realizada nos principais centros computacionais do mundo. As grandes exigências do trabalho de pesquisa nesta área contribuíram inclusive para o desenvolvimento de novas arquiteturas computacionais. O uso de processamento paralelo é vital nessas simulações, principalmente nos casos em que está envolvida a simulação da chamada QCD completa, onde se consideram os efeitos dos quarks dinâmicos. Vários pacotes contendo implementações de algoritmos para o estudo da QCD começam a ser disponibilizados por grupos de pesquisa na área. Nosso foco neste trabalho é voltado para o pacote MILC. Além de fazer uma descrição detalhada da forma de utilização deste pacote, realizamos aqui um acompanhamento da evolução dos métodos empregados, desde o Método de Monte Carlo aplicado no algoritmo de Metropolis até a elaboração do algoritmo RHMC, introduzido recentemente. Fazemos uma comparação de e_ciência entre o RHMC e o algoritmo R, que foi o mais utilizado por décadas. / Quantum ChromoDinamics (QCD) is the quantum field theory that describes the strong interactions between quarks, which are the fundamental constituents of particles in the atomic nucleus. Due to the peculiar characteristic of these interactions, the study of QCD cannot be carried out by usual methods in quantum field theory, which are based on pertubative expansions. The non-pertubative study of QCD from first principles becomes possible through the lattice formulation of the theory, which is equivalent to a classical statistical mechanics model, which in turn can be carried out by numerical simulations using Monte Carlo methods. The field of numerical simulations of QCD is one of the main applications of high performance computing, and is perfomed in most major computational centers around the world. The demanding requirements needed in this field led also to the development of new computational architectures. The use of parallel processing is vital in these types of simulations, especially in cases that involve what is known as full QCD, where the effects of dynamic quarks are taken into account. Several packages with algorithms implemented for the study of QCD have been recently made available by research groups in this field. The focus of this work is the MILC package. Here we make a detailed description of how to use this package and a follow up of the used methods, from the Monte Carlo method applied in the Metropolis algorithm up to the development of the RHMC algorithm, recently introduced. Comparisons are made between the e_ciency of RHMC and the R algorithm, which was the most used in the past decades.
|
135 |
Implementação computacional paralela da homogeneização por expansão assintótica para análise de problemas mecânicos em 3DQuintela, Bárbara de Melo 31 January 2011 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-03-03T14:15:37Z
No. of bitstreams: 1
barbarademeloquintela.pdf: 17938706 bytes, checksum: 9ab0cb4d4226bdefe7051c92e73feec9 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-03-06T20:15:36Z (GMT) No. of bitstreams: 1
barbarademeloquintela.pdf: 17938706 bytes, checksum: 9ab0cb4d4226bdefe7051c92e73feec9 (MD5) / Made available in DSpace on 2017-03-06T20:15:36Z (GMT). No. of bitstreams: 1
barbarademeloquintela.pdf: 17938706 bytes, checksum: 9ab0cb4d4226bdefe7051c92e73feec9 (MD5)
Previous issue date: 2011-01-31 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico / FAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais / A Homogeneização por Expansão Assintótica (HEA) é uma técnica multiescala
empregada ao cálculo de propriedades efetivas de meios contínuos com estrutura periódica.
As principais vantagens desta técnica são a redução do tamanho do problema a resolver e
a possibilidade de se empregar uma propriedade homogeneizada que guarda informações
da microestrutura heterogênea. Quando associada ao Método dos Elementos Finitos
(MEF), a HEA demanda o emprego de malhas que permitam a imposição de condições
de contorno periódicas – sendo portanto necessário especificar tal particularidade quando
da geração dos modelos em MEF. Tais modelos representam as células periódicas, que
são volumes representativos do meio heterogêneo e, em alguns casos, apresentam uma
complexidade geométrica e física que torna imprescindível o emprego de malhas com alto
grau de refinamento – levando a um custo computacional significativo.
Este trabalho tem por objetivo a obtenção de um programa em Elementos Finitos para
a aplicação da HEA à Elasticidade em 3D, empregando técnicas de programação paralela.
Foram desenvolvidas versões do programa em 2D: uma sequencial em C e duas paralelas
empregando OpenMP e CUDA. Foi implementado com sucesso o programa HEA3D em
uma versão sequencial, em linguagem FORTRAN e uma paralela, empregando OpenMP.
Para validação dos programas, foram analisadas células periódicas bifásicas e os resultados
apresentaram boa concordância com valores experimentais e numéricos disponíveis na
literatura. A versão paralela obteve expressivos ganhos de desempenho, com acelerações
de desempenho de até 5.3 vezes em relação a versão sequencial. / The Asymptotic Expansion Homogenization (AEH) is a multiscale technique applied to
estimate the effective properties of heterogeneous media with periodical structure. The
main advantages of this technique are the reduction of the problem size to be solved
and the ability to employ an homogenized property that keeps information from the
heterogeneous microstructure. In association with the Finite Element Method (FEM),
the AEH requires the application of periodic boundary conditions, which must be taken
into account during the generation of FE meshes. Such models represent periodic cells,
which are representative volumes for heterogeneous media and, in some cases, present a
geometric and physics complexity that demands refined meshes, leading to a significant
computational cost.
The aim of this work is to develop a parallel program that applies both FEM and AEH
to estimate the elasticity properties of 3D bodies. A sequential version of the 2D program
using C, and parallel versions using OpenMP and CUDA were implemented. A sequential
version of the program, called HEA3D, was successfully implemented using FORTRAN.
Also, a parallel version of the code was implemented using OpenMP. The validation of
the codes consisted of comparisons of the numerical results obtained, with numerical
and experimental data available in the literature, showing good agreement. Significant
speedups were obtained by the parallel version of the code, achieving speedups up to 5.3
times over its sequential version.
|
136 |
Mapas de símbolos proporcionais / Proportional symbol mapsKunigami, Guilherme, 1986- 09 May 2011 (has links)
Orientador: Pedro Jussieu de Rezende, Cid Carvalho de Souza / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-19T04:48:53Z (GMT). No. of bitstreams: 1
Kunigami_Guilherme_M.pdf: 3383647 bytes, checksum: 88687783446ea3564995daf2b1ecfd79 (MD5)
Previous issue date: 2011 / Resumo: Nesta dissertação, realizamos um estudo extensivo de uma classe de problemas envolvendo mapas de símbolos proporcionais, através de programação linear inteira. Mapas de símbolos proporcionais são uma ferramenta cartográfica para a representação de eventos associados 'a intensidade e localização geográfica. Exemplos clássicos desses tipos de mapas são ocorrências de terremotos e populações de cidades. Devido 'a proximidade e ao tamanho dos símbolos, podem haver sobreposições entre eles. Na ocorrência dessas sobreposições, a decisão sobre quais símbolos ficarão por cima de outros, pode afetar a visibilidade dos símbolos em um desenho. Os problemas envolvendo mapas de símbolos proporcionais dos quais tratamos são restritos ao uso de círculos opacos como símbolos e consistem em decidir a ordem em que estes serão dispostos em vista das sobreposições, de forma a maximizar métricas associadas à qualidade visual desses mapas. Tratam-se, portanto, de problemas de otimização combinatória. Em nosso trabalho, apresentamos modelos de programação linear inteira para resolução de dois desses problemas, um deles foi provado pertencer à classe NP-difícil e o outro tem complexidade ainda não conhecida. Obtivemos resultados teóricos de combinatória poliédrica acerca dos modelos, o que resultou em diversas desigualdades definidoras de facetas que foram incorporadas aos modelos. Desenvolvemos ainda técnicas de pré-processamento que decompuseram as instâncias de entrada em um grande número de componentes de menor tamanho. Essas técnicas permitiram resolver de maneira ótima, pela primeira vez, diversas instâncias criadas a partir de dados reais. Ademais, descrevemos um trabalho que aborda um desses problemas através de uma heurística GRASP, ao qual também contribuímos / Abstract: In this dissertation, we present an extensive study of a class of problems involving proportional symbol maps, through integer linear programming. Proportional symbol maps are a cartographic tool to represent events associated to specified values and geographical coordinates. Classic examples of these maps include representation of earthquakes and city populations. Due to the size and proximity of the symbols, there may be overlap among them. In such case, deciding which symbols will be placed above others may result in maps with different visibility information. The problems dealing with proportional symbol maps we address restrict symbols to be opaque disks and consist of deciding the order of their placement in view of overlaps, so as to maximize metrics related to the visual quality of such maps. Therefore, these amount essentially to combinatorial optimization problems. In our work, we designed integer linear programming models to solve two of these problems, one proven to be NP-hard and the other of complexity yet unknown. We obtained theoretical results concerning these models, through polyhedral combinatorics, which allowed us to include several facet defining inequalities into these models. We also developed preprocessing techniques that successfully broke down the input instances into a large number of smaller components. These techniques lead, for the first time, to optimal solutions of several test instances created from real-world data. Furthermore, we describe work on a heuristic approach to one of these problems using GRASP, to which we also contributed / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
|
137 |
Implementação do software MILC no estudo da QCD completa / Implementation of the MILC package in the study of full QCDLuz, Fernando Henrique e Paula da 12 March 2010 (has links)
A CromoDinâmica Quântica (QCD) é a teoria quântica de campos que descreve as interações fortes entre quarks, que são os constituintes fundamentais das partículas do núcleo atômico. Devido ao caráter peculiar destas interações, o estudo da QCD não pode ser realizado pelos métodos usuais em teorias quânticas de campos, baseados em expansões perturbativas. O estudo não-perturbativo da QCD a partir de primeiros princípios torna-se possível através da formulação de rede da teoria, que equivale a um modelo de mecânica estatística clássica, para o qual podem ser realizadas simulações numéricas através de métodos de Monte Carlo. A área de simulações numéricas da QCD representa uma das maiores aplicações atuais da computação de alto desempenho, sendo realizada nos principais centros computacionais do mundo. As grandes exigências do trabalho de pesquisa nesta área contribuíram inclusive para o desenvolvimento de novas arquiteturas computacionais. O uso de processamento paralelo é vital nessas simulações, principalmente nos casos em que está envolvida a simulação da chamada QCD completa, onde se consideram os efeitos dos quarks dinâmicos. Vários pacotes contendo implementações de algoritmos para o estudo da QCD começam a ser disponibilizados por grupos de pesquisa na área. Nosso foco neste trabalho é voltado para o pacote MILC. Além de fazer uma descrição detalhada da forma de utilização deste pacote, realizamos aqui um acompanhamento da evolução dos métodos empregados, desde o Método de Monte Carlo aplicado no algoritmo de Metropolis até a elaboração do algoritmo RHMC, introduzido recentemente. Fazemos uma comparação de e_ciência entre o RHMC e o algoritmo R, que foi o mais utilizado por décadas. / Quantum ChromoDinamics (QCD) is the quantum field theory that describes the strong interactions between quarks, which are the fundamental constituents of particles in the atomic nucleus. Due to the peculiar characteristic of these interactions, the study of QCD cannot be carried out by usual methods in quantum field theory, which are based on pertubative expansions. The non-pertubative study of QCD from first principles becomes possible through the lattice formulation of the theory, which is equivalent to a classical statistical mechanics model, which in turn can be carried out by numerical simulations using Monte Carlo methods. The field of numerical simulations of QCD is one of the main applications of high performance computing, and is perfomed in most major computational centers around the world. The demanding requirements needed in this field led also to the development of new computational architectures. The use of parallel processing is vital in these types of simulations, especially in cases that involve what is known as full QCD, where the effects of dynamic quarks are taken into account. Several packages with algorithms implemented for the study of QCD have been recently made available by research groups in this field. The focus of this work is the MILC package. Here we make a detailed description of how to use this package and a follow up of the used methods, from the Monte Carlo method applied in the Metropolis algorithm up to the development of the RHMC algorithm, recently introduced. Comparisons are made between the e_ciency of RHMC and the R algorithm, which was the most used in the past decades.
|
138 |
Metodologia e ferramentas para paralelização de laços perfeitamente aninhados com processamento heterogêneo. / Methodology and tools for parallelization of nested perfectly loops with heterogeneous processing.Luz, Cleber Silva Ferreira da 01 February 2018 (has links)
Aplicações podem apresentar laços perfeitamente aninhados que demandam um alto poder de processamento. Diversas aplicações científicas contêm laços aninhados em suas estruturas. Tais laços podem processar computações heterogêneas. Uma solução para reduzir o tempo de execução desta classe de aplicações é a paralelização destes laços. A heterogeneidade dos tempos de execução de computações presentes nas iterações de laços perfeitamente aninhados demanda uma paralelização adequada visando uma distribuição de carga homogênea entre os recursos computacionais para reduzir a ociosidade de tais recursos. Esta heterogeneidade implica em um número ideal de recursos computacionais a partir do qual, o seu aumento não impactaria no ganho de desempenho, uma vez que, o tempo mínimo possível é o tempo de execução da tarefa que consome o maior tempo de processamento. Neste trabalho é proposta uma metodologia e ferramentas para paralelização de laços perfeitamente aninhados sem dependência de dados e com processamento heterogêneo em sistemas paralelos e distribuídos. A implementação da metodologia proposta em aplicações melhora o desempenho da execução e reduz a ociosidade dos recursos de processamento. Na metodologia proposta, alguns procedimentos são apoiados por ferramentas desenvolvidas para auxiliá-los. O sistema de processamento poderá ser: um computador Multicore, um Cluster real ou virtual alocado na nuvem. Resultados experimentais são apresentados neste trabalho. Tais resultados mostram a viabilidade e eficiência da metodologia proposta. / Applications may have nested perfectly loops that require a high processing power. Various scientific applications contain nested loops in their structures. Such loops can process heterogeneous computations. A solution to reduce the execution time of this class of applications is the parallelization of these loops. The heterogeneity of the execution times of computations present in the iterations of nested perfectly loops demands an adequate parallelization aiming at a homogeneous load distribution among the computational resources to reduce the idleness of such resources. This heterogeneity implies an ideal number of computational resources which, its increase would not impact the performance gain, since the minimum possible time is the execution time of the task that consumes the longest processing time. In this work is proposed a methodology and tools for parallelization of loops perfectly nested with heterogeneous processing in parallel and distributed systems. The implementation of proposed methodology in application improves execution performance and reduce idles of the processing resources. In the methodology proposed, some procedures are supported by tools developed to assist them. The processing system can be: a computer multicore, a cluster real or virtual allocated in cloud. Experimental results are presented in this work. These results show the feasibility and efficiency of the proposed methodology.
|
139 |
Aumento da eficiência do cálculo da energia de van der Waals em algoritmos genéticos para predição de estruturas de proteínas / Enhance the Van der Waals energy efficiency calculi in genetic algorithms for protein structure predictionBonetti, Daniel Rodrigo Ferraz 31 March 2010 (has links)
As proteínas são moléculas presentes nos seres vivos e essenciais para a vida deles. Para entender a função de uma proteína, devese conhecer sua estrutura tridimensional (o posicionamento correto de todos os seus átomos no espaço). A partir da estrutura de uma proteína vital de um organismo causador de uma doença é possível desenvolver fármacos para o tratamento da doença. Para encontrar a estrutura de uma proteína, métodos biofísicos, como Cristalografia de Raio-X e Ressonância Nuclear Magnética têm sido empregados. No entanto, o uso desses métodos tem restrições práticas que impedem a determinação de várias estruturas de proteínas. Para contornar essas limitações, métodos computacionais para o problema de predição da estrutura da proteína (PSP, Protein Structure Prediction) têm sido investigados. Várias classes de métodos computacionais têm sido desenvolvidas para o problema de PSP. Entre elas, as abordagens ab initio são muito importantes, pois não utilizam nenhuma informação prévia de outras estruturas de proteínas para fazer o PSP, apenas a sequência de aminoácidos da proteína e o gráfico de Ramachandran são empregados. O PSP ab initio é um problema combinatorial que envolve relativamente grandes instâncias na prática, por exemplo, as proteínas em geral têm centenas ou milhares de variáveis para determinar. Para vencer esse entrave, metaheurísticas como os Algoritmos Genéticos (AGs) têm sido investigados. As soluções geradas por um AG são avaliadas pelo cálculo da energia potencial da proteína. Entre elas, o cálculo da interação da energia de van der Waals é custoso computacionalmente tornando o processo evolutivo do AG muito lento mesmo para proteínas pequenas. Este trabalho investiga técnicas para reduzir significativamente o tempo de execução desse cálculo. Basicamente, foram propostas modificações de técnicas de paralelização utilizando MPI e OpenMP para os algoritmos resultantes. Os resultados mostram que o cálculo pode ser 1.500 vezes mais rápido para proteínas gigantes quando aplicadas as técnicas investigadas neste trabalho / Proteins are molecules present in the living organism and essential for their life. To understand the function of a protein, its threedimensional structure (the correct positions of all its atoms in the space) should be known. From the structure of a vital protein of an organism that causes a human disease, it is possible to develop medicines for treatment of the disease. To find a protein structure, biophysical methods, as Crystallography of X-Ray and Magnetic Nuclear Resonance, have been employed. However, the use of those methods have practical restrictions that impede the determination of several protein structures. Aiming to overcome such limitation, computational methods for the problem of protein structure prediction (PSP) has been investigated. Several classes of computational methods have been developed for PSP. Among them, ab initio approaches are very important since they use no previous information from other protein structure, only the sequence of amino acids of the protein and the Ramachandran graph are employed. The ab initio PSP is a combinatorial problem that involves relatively large instances in practice, i. e. proteins in general have hundreds or thousands of variables to be determined. To deal with such problem, metaheuristics as Genetic Algorithms (GAs) have been investigated. The solutions generated by a GA are evaluated by the calculus of the potencial energies of the protein. Among them, the calculation of the interaction of van der Waals energy is computationally intense making the evolutionary process of a GA very slow even for non-large proteins. This work investigated techniques to significantly reduce the running time for that calculus. Basically, we proposed modifications parallelization of the resultant algorithm using MPI and OpenMP techniques. The results show that such calculus can be 1.500 times faster when applying the techniques investigated in this work for large proteins
|
140 |
Aumento da eficiência do cálculo da energia de van der Waals em algoritmos genéticos para predição de estruturas de proteínas / Enhance the Van der Waals energy efficiency calculi in genetic algorithms for protein structure predictionDaniel Rodrigo Ferraz Bonetti 31 March 2010 (has links)
As proteínas são moléculas presentes nos seres vivos e essenciais para a vida deles. Para entender a função de uma proteína, devese conhecer sua estrutura tridimensional (o posicionamento correto de todos os seus átomos no espaço). A partir da estrutura de uma proteína vital de um organismo causador de uma doença é possível desenvolver fármacos para o tratamento da doença. Para encontrar a estrutura de uma proteína, métodos biofísicos, como Cristalografia de Raio-X e Ressonância Nuclear Magnética têm sido empregados. No entanto, o uso desses métodos tem restrições práticas que impedem a determinação de várias estruturas de proteínas. Para contornar essas limitações, métodos computacionais para o problema de predição da estrutura da proteína (PSP, Protein Structure Prediction) têm sido investigados. Várias classes de métodos computacionais têm sido desenvolvidas para o problema de PSP. Entre elas, as abordagens ab initio são muito importantes, pois não utilizam nenhuma informação prévia de outras estruturas de proteínas para fazer o PSP, apenas a sequência de aminoácidos da proteína e o gráfico de Ramachandran são empregados. O PSP ab initio é um problema combinatorial que envolve relativamente grandes instâncias na prática, por exemplo, as proteínas em geral têm centenas ou milhares de variáveis para determinar. Para vencer esse entrave, metaheurísticas como os Algoritmos Genéticos (AGs) têm sido investigados. As soluções geradas por um AG são avaliadas pelo cálculo da energia potencial da proteína. Entre elas, o cálculo da interação da energia de van der Waals é custoso computacionalmente tornando o processo evolutivo do AG muito lento mesmo para proteínas pequenas. Este trabalho investiga técnicas para reduzir significativamente o tempo de execução desse cálculo. Basicamente, foram propostas modificações de técnicas de paralelização utilizando MPI e OpenMP para os algoritmos resultantes. Os resultados mostram que o cálculo pode ser 1.500 vezes mais rápido para proteínas gigantes quando aplicadas as técnicas investigadas neste trabalho / Proteins are molecules present in the living organism and essential for their life. To understand the function of a protein, its threedimensional structure (the correct positions of all its atoms in the space) should be known. From the structure of a vital protein of an organism that causes a human disease, it is possible to develop medicines for treatment of the disease. To find a protein structure, biophysical methods, as Crystallography of X-Ray and Magnetic Nuclear Resonance, have been employed. However, the use of those methods have practical restrictions that impede the determination of several protein structures. Aiming to overcome such limitation, computational methods for the problem of protein structure prediction (PSP) has been investigated. Several classes of computational methods have been developed for PSP. Among them, ab initio approaches are very important since they use no previous information from other protein structure, only the sequence of amino acids of the protein and the Ramachandran graph are employed. The ab initio PSP is a combinatorial problem that involves relatively large instances in practice, i. e. proteins in general have hundreds or thousands of variables to be determined. To deal with such problem, metaheuristics as Genetic Algorithms (GAs) have been investigated. The solutions generated by a GA are evaluated by the calculus of the potencial energies of the protein. Among them, the calculation of the interaction of van der Waals energy is computationally intense making the evolutionary process of a GA very slow even for non-large proteins. This work investigated techniques to significantly reduce the running time for that calculus. Basically, we proposed modifications parallelization of the resultant algorithm using MPI and OpenMP techniques. The results show that such calculus can be 1.500 times faster when applying the techniques investigated in this work for large proteins
|
Page generated in 0.0741 seconds