• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 2
  • 2
  • Tagged with
  • 65
  • 65
  • 65
  • 32
  • 29
  • 28
  • 15
  • 15
  • 14
  • 13
  • 12
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Uma técnica de decomposição a priori para geração paralela de malhas bidimensionais / A priori decomposition technique for parallel generation of two-dimensional meshes

Teixeira, Daniel Nascimento January 2014 (has links)
TEIXEIRA, Daniel Nascimento. Uma técnica de decomposição a priori para geração paralela de malhas bidimensionais. 2014. 94 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2014. / Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-06-15T19:57:36Z No. of bitstreams: 1 2014_dis_dnteixeira.pdf: 17919971 bytes, checksum: 092ad12b33cf64a31552e6a839a5a5bc (MD5) / Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-06-15T19:58:41Z (GMT) No. of bitstreams: 1 2014_dis_dnteixeira.pdf: 17919971 bytes, checksum: 092ad12b33cf64a31552e6a839a5a5bc (MD5) / Made available in DSpace on 2016-06-15T19:58:41Z (GMT). No. of bitstreams: 1 2014_dis_dnteixeira.pdf: 17919971 bytes, checksum: 092ad12b33cf64a31552e6a839a5a5bc (MD5) Previous issue date: 2014 / This work describes a technique of two-dimensional domain decomposition for parallel mesh generation. This technique works for both distributed and shared memory and has the freedom to use any data structure that manages rectangular regions parallel to the axes to decompose the domain given as input, such as a quaternary tree (quadtree) or a binary space decomposition (bsp), for example. Any process of mesh generation that respects the prerequisites established can be used in the subdomains created, for instance, Delaunay or Advancing Front, among others. This technique is called a priori because the mesh on the interface of the subdomains is generated prior to the their internal meshes. The load estimation for each sub-domain in this work is performed with the aid of a refined quadtree, whose level of refinement guides the creation of edges that are defined from the bounderies of only inner cells. This way of estimate load produces results that accurately represent the number of elements to be generated in each subdomain. That contributes to a good partitioning of the domain, making the mesh generation in parallel be significantly faster than the serial generation. Furthermore, the quality of the generated mesh in parallel is qualitatively equivalent to that generated serially within acceptable limits. / Este trabalho descreve uma técnica de decomposição de domínios bidimensionais para geração em paralelo de malhas. Esta técnica funciona tanto para memória distribuída quanto compartilhada, além de permitir que se utilize qualquer estrutura de dados que gere regiões quadrangulares paralelas aos eixos para decompor o domínio dado como entrada. Pode se utilizar por exemplo, uma árvore quaternária (quadtree) ou uma partição binária do espaço (bsp). Além disso, qualquer processo de geração de malha que respeite os pré-requisitos estabelecidos pode ser empregado nos subdomínios criados, como as técnicas de Delaunay ou Avanço de Fronteira, dentre outras. A técnica proposta é dita a priori porque a malha de interface entre os subdomínios é gerada antes das suas malhas internas. A estimativa de carga de processamento associada a cada subdomínio é feita nesse trabalho com a ajuda de uma quadtree refinada, cujo nível de refinamento orienta a criação das arestas que são definidas a partir da discretização das fronteiras das células internas. Essa maneira de estimar carga produz resultados que representam, com boa precisão, o número de elementos a serem gerados em cada subdomínio. Isso contribui para um bom particionamento do domínio, fazendo com que a geração de malha em paralelo seja significativamente mais rápida do que a geração serial. Além disso, a qualidade da malha gerada em paralelo é qualitativamente equivalente àquela gerada serialmente, dentro de limites aceitáveis.
52

Integração de bibliotecas científicas de propósito especial em uma plataforma de componentes paralelos / Integration of special purpose scientific libraries on a platform of parallel components

Ferreira, Davi Morais January 2010 (has links)
FERREIRA, Davi Morais. Integração de bibliotecas científicas de propósito especial em uma plataforma de componentes paralelos. 2010. 145 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2010. / Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-06-16T17:50:44Z No. of bitstreams: 1 2010_dis_dmf.pdf: 1977126 bytes, checksum: 8f6276f7e40d8f3dbdca5deb5a0a8447 (MD5) / Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-06-16T17:51:57Z (GMT) No. of bitstreams: 1 2010_dis_dmf.pdf: 1977126 bytes, checksum: 8f6276f7e40d8f3dbdca5deb5a0a8447 (MD5) / Made available in DSpace on 2016-06-16T17:51:57Z (GMT). No. of bitstreams: 1 2010_dis_dmf.pdf: 1977126 bytes, checksum: 8f6276f7e40d8f3dbdca5deb5a0a8447 (MD5) Previous issue date: 2010 / The contribution of traditional scienti c libraries shows to be consolidated in the construction of high-performance applications. However, such an artifact of development possesses some limitations in integration, productivity in large-scale applications, and exibility for changes in the context of the problem. On the other hand, the development technology based on components recently proposed a viable alternative for the architecture of High-Performance Computing (HPC) applications, which has provided a means to overcome these challenges. Thus we see that the scienti c libraries and programming orientated at components are complementary techniques in the improvement of the development process of modern HPC applications. Accordingly, this work aims to propose a systematic method for the integration of scienti c libraries on a platform of parallel components, HPE (Hash Programming Environment), to o er additional advantageous aspects for the use of components and scienti c libraries to developers of parallel programs that implement high-performance applications. The purpose of this work goes beyond the construction of a simple encapsulation of the library in a component; it aims to provide the bene ts in integration, productivity in large-scale applications, and the exibility for changes in the context of a problem in the use of scienti c libraries. As a way to illustrate and validate the method, we have incorporated the libraries of linear systems solvers to HPE, electing three signi cant representatives: PETSc, Hypre, e SuperLU. / A contribuição das tradicionais bibliotecas cientí cas mostra-se consolidada na construção de aplicações de alto desempenho. No entanto, tal artefato de desenvolvimento possui algumas limitações de integração, de produtividade em aplicações de larga escala e de exibilidade para mudanças no contexto do problema. Por outro lado, a tecnologia de desenvolvimento baseada em componentes, recentemente proposta como alternativa viável para a arquitetura de aplicações de Computação de Alto Desempenho (CAD), tem fornecido meios para superar esses desa os. Vemos assim, que as bibliotecas cientí cas e a programação orientada a componentes são técnicas complementares na melhoria do processo de desenvolvimento de aplicações modernas de CAD. Dessa forma, este trabalho tem por objetivo propor um método sistemático para integração de bibliotecas cientí cas sobre a plataforma de componentes paralelos HPE (Hash Programming Environment ), buscando oferecer os aspectos vantajosos complementares do uso de componentes e de bibliotecas cientí cas aos desenvolvedores de programas paralelos que implementam aplicações de alto desempenho. A proposta deste trabalho vai além da construção de um simples encapsulamento da biblioteca em um componente, visa proporcionar ao uso das bibliotecas cientí cas os benefícios de integração, de produtividade em aplicações de larga escala e da exibilidade para mudanças no contexto do problema. Como forma de exempli car e validar o método, temos incorporado bibliotecas de resolução de sistemas lineares ao HPE, elegendo três representantes significativos: PETSc, Hypre e SuperLU.
53

Um ambiente computacional de alto desempenho para cálculo de deslocamento usando correlação de imagens digitais. / A high-performance computing enviroment for displacement using digital image correlation.

Várady Filho, Christiano Augusto Ferrario 04 April 2016 (has links)
This work proposes a high performance computing environment using digital image correlation techniques to determine physical quantities associated with engineering problems. Software ar- chitecture supports this computing environment, integrating several advanced technologies for calculation of displacement and strain fields of structural elements from testing. The method- ology applies the study of concepts, formulations and techniques for image processing, digital image correlation, high performance computing and software architecture. The methodology also includes specific procedures in a single environment for the evaluation of physical quanti- ties. Among the main procedures used in the presented software architecture, one can cite the digital image correlation techniques known as Full-Field and Subset, non-linear optimization methods and two-dimensional interpolations. In addition, high performance computing strate- gies are included into the computing environment to achieve performance speed-ups on evalu- ating the displacement fields using digital image correlation. Comparisons with Scale Invariant Feature Transform and Q4-DIC are also evaluated. Following, the development of a computer prototype has the purpose of validating the presented high performance environment, allowing the calculation of physical quantities in structural elements through the correlation of digital images. Then, submission of case studies into the prototype validates data acquired from tech- nologies built into the prototype, including quantitative analysis of results and measurement of computational time. / Conselho Nacional de Desenvolvimento Científico e Tecnológico / O presente trabalho apresenta um ambiente computacional de alto desempenho que utiliza téc- nicas de correlação de imagens digitais para determinação de grandezas físicas associadas a problemas de engenharia. Sua arquitetura computacional integra diversas tecnologias avança- das para o cálculo dos campos de deslocamentos de elementos estruturais a partir de ensaios. A metodologia utilizada prevê o estudo de conceitos, formulações e técnicas de arquitetura de software, processamento de imagens, correlação de imagens digitais e computação de alto desempenho, além de incorporar procedimentos específicos em um ambiente único para a de- terminação de grandezas físicas. Dentre os principais procedimentos utilizados na arquitetura apresentada, pode-se citar as abordagens locais e globais de correlação de imagens digitais, mé- todos de otimização não-linear e interpolações bidimensionais. Também são incorporadas ao ambiente computacional estratégias de computação de alto desempenho para alcançar ganhos de performance na determinação dos campos de deslocamentos e deformações usando a corre- lação de imagens digitais. Uma comparação com o método Scale Invariant Feature Transform e com o método Q4-DIC de análise de imagens também são realizadas. Um protótipo compu- tacional é desenvolvido com o objetivo de validar o ambiente de alto desempenho apresentado, permitindo o monitoramento de elementos estruturais através da correlação de imagens digitais. Também são realizados estudos de casos que permitem a verificação de tecnologias incorpora- das ao protótipo apresentado, incluindo análises quantitativas de resultados e medição de tempo computacional.
54

Desenvolvimento de um simulador para espectrometria por fluorescência de raios X usando computação distribuída / Development of a X-ray fluorescence spectrometry simulator using distributed computing

Marcio Henrique dos Santos 30 March 2012 (has links)
Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro / A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP. / Radiation Physics is a branch of Physics that is present in various studying areas and relates to the concept of spectrometry. Among the numerous existing spectrometry techniques, there is the X-ray fluorescence spectrometry. It also has a range of variations which can emphasize a particular subset of techniques. The production of X-ray fluorescence enables (in some cases) the analysis of physical and chemical properties of a given sample, allowing the determination of its chemical constitution and also a range of applications. However, the experimental analysis may require a large workload, both in terms of physical apparatus and in relation to technical knowledge. Thus, the simulation comes into play as a viable path between theory and experiment. Through the Monte Carlo method, which uses the manipulation of random numbers, the simulation is a kind of alternative to the experimental analysis. It develops this role by a modeling process, within a secure environment and risk free. And it can count on high performance computing in order to optimize all the work through the distributed architecture. The aim of this paper is the development of a computational simulator for analysis and studying of X-ray fluorescence systems developed on a communication platform distributed natively, in order to generate optimal data. As results, has been proved the viability of the simulator implementation through the CHARM++ language, a language based on C++ which incorporate procedures to distributed processing, the value of the methodology to system modelling e its application to build a simulator for X-ray fluorescence spectrometry. The simulator was built with the ability to reproduce a eletromagnetic radiation source, complex samples and a set of detectors. The modelling of the detectors embody the ability to yield images based on recorded counts. To validate the simulator, the results were compared with the results provided by other known simulator: MCNP.
55

Uma metodologia para a determinação da precisão numérica necessária á implementação do algoritmo RTM

BARROS, Abner Corrêa 31 January 2014 (has links)
Submitted by Nayara Passos (nayara.passos@ufpe.br) on 2015-03-11T17:12:54Z No. of bitstreams: 2 TESE Abner Correa Barros.pdf: 14913537 bytes, checksum: 00c434893f2196bab70791b8218a2bbe (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T13:03:45Z (GMT) No. of bitstreams: 2 TESE Abner Correa Barros.pdf: 14913537 bytes, checksum: 00c434893f2196bab70791b8218a2bbe (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T13:03:45Z (GMT). No. of bitstreams: 2 TESE Abner Correa Barros.pdf: 14913537 bytes, checksum: 00c434893f2196bab70791b8218a2bbe (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014 / Cenpes, Petrobras, Finep. / Nestes últimos anos, com o início da prospecção de petróleo em regioões com litologias complexas, tem se observado um crescente interesse no uso do algoritmo Reverse Time Migration(RTM) como solução para o imageamento sísmico. Devido ao seu elevado custo computacional, o algoritmo RTM exige o uso de sistemas computacionais de alto desempenho, os quais demandam investimentos elevados em infraestrutura, o que normalmente representa também um aumento substancial no consumo de energia. Neste cenário, o desenvolvimento de coprocessadores aritméticos de alto desempenho, implementados por meio dos Field Programmable Gate Arrays(FPGAs), passou a ser considerado uma alternativa viável no objetivo de aumentar o a capacidade de processamento de sistemas computacionais já existentes, com impactos positivos tanto nos investimentos em infra-estrutura quanto no consumo de energia. Entretanto, o desenvolvimento destes coprocessadores normalmente exige um estudo prévio minucioso das características do algoritmo a ser implementado e do conjunto de dados a ser processado, a fim de determinar a precisão numérica mnima que deve ser empregada em sua implementação. O objetivo deste trabalho foi desenvolver uma metodologia que permita identificar a precisão numérica mínima necessária à implementação do algoritmo RTM, baseado nos fenômenos físicos envolvidos na propagação da onda sísmica e nas litologias prováveis da região a ser imageada. Para chegar a este objetivo foi desenvolvido um método analítico, capaz de predizer a atenuação esperada para as ondas sísmicas durante os processos de modelagem e migração presentes no algoritmo RTM. Esse método foi baseado em uma nova abordagem no tratamento da atenuação por espalhamento geométrico para modelos com múltiplas camadas, denominada de Raio Efetivo. Como estudo de caso de validação dessa metodologia, foram feitas predições e analisados os resultados de imageamento de diversos modelos sintéticos propostos por um especialista em geologia, os quais eram formados apenas por camadas horizontais, planas e paralelas. Além desses modelos mais simples, foi também utilizado um modelo reconhecidamente complexo, conhecido como modelo de marmousi. Os resultados obtidos em todos os estudos se mostraram dentro de uma margem de segurança de 1 bit de precisão.
56

Rastreamento de alvo móvel em mono-visão aplicado no sistema de navegação autônoma utilizando GPU / Tracking of target moving in monocular vision system applied to autonomous navigation using GPU

Vitor, Giovani Bernardes, 1985- 16 August 2018 (has links)
Orientador: Janito Vaqueiro Ferreira / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-16T19:38:32Z (GMT). No. of bitstreams: 1 Vitor_GiovaniBernardes_M.pdf: 6258094 bytes, checksum: fbd34947eb1efdce50b97b27f56c1920 (MD5) Previous issue date: 2010 / Resumo: O sistema de visão computacional é bastante útil em diversas aplicações de veículos autônomos, como em geração de mapas, desvio de obstáculos, tarefas de posicionamento e rastreamento de alvos. Além disso, a visão computacional pode proporcionar um ganho significativo na confiabilidade, versatilidade e precisão das tarefas robóticas, questões cruciais na maioria das aplicações reais. O presente trabalho tem como objetivo principal o desenvolvimento de uma metodologia de controle servo visual em veículos robóticos terrestres para a realização de rastreamento e perseguição de um alvo. O procedimento de rastreamento é baseado na correspondência da região alvo entre a seqüência de imagens, e a perseguição pela geração do movimento de navegação baseado nas informações da região alvo. Dentre os aspectos que contribuem para a solução do procedimento de rastreamento proposto, considera-se o uso das técnicas de processamento de imagens como filtro KNN, filtro Sobel, filtro HMIN e transformada Watershed que unidas proporcionam a robustez desejada para a solução. No entanto, esta não é uma técnica compatível com sistema de tempo real. Deste modo, tais algoritmos foram modelados para processamento paralelo em placas gráficas utilizando CUDA. Experimentos em ambientes reais foram analisados, apresentando diversos resultados para o procedimento de rastreamento, bem como validando a utilização das GPU's para acelerar o processamento do sistema de visão computacional / Abstract: The computer vision system is useful in several applications of autonomous vehicles, such as map generation, obstacle avoidance tasks, positioning tasks and target tracking. Furthermore, computer vision can provide a significant gain in reliability, versatility and accuracy of robotic tasks, which are important concerns in most applications. The present work aims at the development of a visual servo control method in ground robotic vehicles to perform tracking and follow of a target. The procedure for tracking is based on the correspondence between the target region sequence of images, and persecution by the generation of motion based navigation of information from target region. Among the aspects that contribute to the solution of the proposed tracking procedure, we consider the use of imaging techniques such as KNN filter, Sobel filter, HMIN filter and Watershed transform that together provide the desired robustness for the solution. However, this is not a technique compatible with real-time system. Thus, these algorithms were modeled for parallel processing on graphics cards using CUDA. Experiments in real environments were analyzed showed different results for the procedure for tracking and validating the use of GPU's to accelerate the processing of computer vision system / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
57

Paralelização OpenMP do gerador de modelos fotométrico-analíticos de trânsitos planetários ELLC

Mendonça, Raphael Alonso de 05 February 2018 (has links)
Submitted by Marta Toyoda (1144061@mackenzie.br) on 2018-03-09T21:55:15Z No. of bitstreams: 2 Raphael Alonso de Mendonca.pdf: 3718145 bytes, checksum: bddb4107820ad6d2c15010fadb45425c (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Paola Damato (repositorio@mackenzie.br) on 2018-04-04T11:45:47Z (GMT) No. of bitstreams: 2 Raphael Alonso de Mendonca.pdf: 3718145 bytes, checksum: bddb4107820ad6d2c15010fadb45425c (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-04-04T11:45:47Z (GMT). No. of bitstreams: 2 Raphael Alonso de Mendonca.pdf: 3718145 bytes, checksum: bddb4107820ad6d2c15010fadb45425c (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-02-05 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Since the discovery and con rmation of the rst exoplanet in the late 20th century the increasing improvement of methods of planetary detection and the techniques applied to detection and con rmation. make possible to discover several exopalets. One of the most used methods is the Planetary Transit Method, which works with photometric data, a process of observation of the luminous ux of star. The time series of observed uxes is an important object of data analysis called the light curve. Light curves (synthetic) can also be produced through analytical models of planetary transits. With the advent of new missions to study exoplanets such as TESS and PLATO, high-quality light curves and large volumes of data will be generated in the next years. Thus, the development of analytical models and data analysis that are capable of handling the complexity, quality and volume of data is of great interest to Astroinformatics, the interface between Astronomy, Astrophysics and Computation. Within this context, this dissertation proposes a parallel optimization, via the OpenMP architecture, of the photometric-analytical model generator of planetary transits ELLC, aiming at the treatment of future data from missions TESS and PLATO. This generator, in addition to containing complex parameters for planetary transits such as anisotropic limb darkening models , re ection e ects and stellar spots, is a free software source code and can be easily integrated with MCMC. Getting in loop of code that was parallelized, a speedup of 288.36 on a computer with i7 processor and 12 GB of memory and 452.04 on a computer with i5 processor and 16GB of memory and a speedup of 1,275 times in the total execution of the simulation code. This parallelization will be made available on a free software basis to the research community in planetary transits. / Desde o descobrimento e confirmação do primeiro exoplaneta no final do século 20 e a crescente melhoria dos métodos de detecção de planetas e das tecnologia aplicada a detecção e confirmação. Toranram possível o descobrimento de diversos exopalnetas, um dos métodos mais utilizados é o Método de Trânsitos Planetários, que trabalha com dados de fotometria, processo de observação do fluxo luminoso de estrela. A série temporal de fluxos observados configura um objeto importante de análise de dados chamado curva de luz. Curvas de luz (sintéticas) também podem ser produzidas através de modelos analíticos de trânsitos planetários. Com o advento de novas missões para estudo de exoplanetas como a TESS e a PLATO, curvas de luz de alta qualidade e grandes volumes de dados serão geradas nos próximos anos. Assim, o desenvolvimento de modelos analíticos e de análise de dados que sejam capazes de lidar com a complexidade, qualidade e volume de dados é de grande interesse da Astroinformática, área de interface entre Astronomia, Astrofísica e Computação. Dentro deste contexto, esta dissertação propõe uma otimização paralela, utilizando a implementação em C da arquitetura OpenMP presete no compilador em C do pyhon, do gerador de modelos fotométrico-analíticos de trânsitos planetários ELLC, visando ao tratamento de dados de futuras missões com a TESS e a PLATO. Este gerador, além de conter parâmetros complexos para trânsitos planetários como modelos de escurecimento de limbo anisotrópicos, efeitos de reflexão e manchas estelares, possui código-fonte em regime de software livre e pode ser integrado facilmente com esquemas de ajuste de parâmetros de trânsitos via MCMC. Obtendo, no laço do código que foi paralelizado, uma aceleração de 288,36 em um computador com processador i7 e 12 GB de memória e de 452,04 em um computador com processador i5 e 16GB de memória. e uma aceleração de 1,275 vezes na execução total da simulação código. Esta paralelização será disponibilizada em regime de software livre para a comunidade de pesquisa em trânsitos planetários.
58

Simulações numéricas 3D em ambiente paralelo de hipertermia com nanopartículas magnéticas

Reis, Ruy Freitas 05 November 2014 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-02-24T15:43:42Z No. of bitstreams: 1 ruyfreitasreis.pdf: 10496081 bytes, checksum: 05695a7e896bd684b83ab5850df95449 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-03-06T19:28:45Z (GMT) No. of bitstreams: 1 ruyfreitasreis.pdf: 10496081 bytes, checksum: 05695a7e896bd684b83ab5850df95449 (MD5) / Made available in DSpace on 2017-03-06T19:28:45Z (GMT). No. of bitstreams: 1 ruyfreitasreis.pdf: 10496081 bytes, checksum: 05695a7e896bd684b83ab5850df95449 (MD5) Previous issue date: 2014-11-05 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este estudo tem como objetivo a modelagem numérica do tratamento de tumores sólidos com hipertermia utilizando nanopartículas magnéticas, considerando o modelo tridimensional de biotransferência de calor proposto por Pennes (1948). Foram comparadas duas diferentes possibilidades de perfusão sanguínea, a primeira constante e, a segunda, dependente da temperatura. O tecido é modelado com as camadas de pele, gordura e músculo, além do tumor. Para encontrar a solução aproximada do modelo foi aplicado o método das diferenças finitas (MDF) em um meio heterogêneo. Devido aos diferentes parâmetros de perfusão, foram obtidos sistemas de equações lineares (perfusão constante) e não lineares (perfusão dependente da temperatura). No domínio do tempo foram utilizados dois esquemas numéricos explícitos, o primeiro utilizando o método clássico de Euler e o segundo um algoritmo do tipo preditor-corretor adaptado dos métodos de integração generalizada da família-alpha trapezoidal. Uma vez que a execução de um modelo tridimensional demanda um alto custo computacional, foram empregados dois esquemas de paralelização do método numérico, o primeiro baseado na API de programação paralela OpenMP e o segundo com a plataforma CUDA. Os resultados experimentais mostraram que a paralelização em OpenMP obteve aceleração de até 39 vezes comparada com a versão serial, e, além disto, a versão em CUDA também foi eficiente, obtendo um ganho de 242 vezes, também comparando-se com o tempo de execução sequencial. Assim, o resultado da execução é obtido cerca de duas vezes mais rápido do que o fenômeno biológico. / This work deals with the numerical modeling of solid tumor treatments with hyperthermia using magnetic nanoparticles considering a 3D bioheat transfer model proposed by Pennes(1948). Two different possibilities of blood perfusion were compared, the first assumes a constant value, and the second one a temperature-dependent function. The living tissue was modeled with skin, fat and muscle layers, in addition to the tumor. The model solution was approximated with the finite difference method (FDM) in an heterogeneous medium. Due to different blood perfusion parameters, a system of linear equations (constant perfusion), and a system of nonlinear equations (temperaturedependent perfusion) were obtained. To discretize the time domain, two explicit numerical strategies were used, the first one was using the classical Euler method, and the second one a predictor-corrector algorithm originated from the generalized trapezoidal alpha-family of time integration methods. Since the computational time required to solve a threedimensional model is large, two different parallel strategies were applied to the numerical method. The first one uses the OpenMP parallel programming API, and the second one the CUDA platform. The experimental results showed that the parallelization using OpenMP improves the performance up to 39 times faster than the sequential execution time, and the CUDA version was also efficient, yielding gains up to 242 times faster than the sequential execution time. Thus, this result ensures an execution time twice faster than the biological phenomenon.
59

Implementações sequencial e paralela de um novo algoritmo para a simulação de elementos e compostos magnéticos

Campos, Alessandra Matos 25 February 2011 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-03-03T19:15:39Z No. of bitstreams: 1 alessandramatoscampos.pdf: 1960550 bytes, checksum: 14e573eea1f29d2dacca4a586c4d7035 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-03-06T20:18:34Z (GMT) No. of bitstreams: 1 alessandramatoscampos.pdf: 1960550 bytes, checksum: 14e573eea1f29d2dacca4a586c4d7035 (MD5) / Made available in DSpace on 2017-03-06T20:18:34Z (GMT). No. of bitstreams: 1 alessandramatoscampos.pdf: 1960550 bytes, checksum: 14e573eea1f29d2dacca4a586c4d7035 (MD5) Previous issue date: 2011-02-25 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O fenômeno magnético é amplamente utilizado nos mais diversos dispositivos eletrônicos, de armazenamento de dados e de telecomunicações, dentre outros. O entendimento deste fenômeno é portanto de grande importância para dar suporte ao aperfeiçoamento e desenvolvimento de novas tecnologias. Uma das formas de melhorar a compreensão do fenômeno magnético é estudá-lo em escala atômica. Quando os átomos magnéticos se aproximam, interagem magneticamente, mesmo que submetidos a um campo magnético externo, e podem formar estruturas em escala nanométrica. Programas computacionais podem ser desenvolvidos com o objetivo de simular o comportamento de tais estruturas. Tais simuladores podem facilitar o estudo do magnetismo em escala nanométrica porque podem prover informações detalhadas sobre este fenômeno. Cientistas podem usar um simulador para criar e/ou modificar diferentes propriedades físicas de um sistema magnético; dados numéricos e visuais gerados pelo simulador podem ajudar na compreensão dos processos físicos associados com os fenômenos magnéticos. Entretanto, a execução de tais simulações é computacionalmente cara. A interação entre átomos ocorre de forma similar ao problema dos N corpos. Sua complexidade nos algoritmos tradicionais é O(N2), onde N é o número de spins, ou átomos, sendo simulados no sistema. Neste trabalho propomos um novo algoritmo capaz de reduzir substancialmente este custo computacional, o que permite que uma grande quantidade de spins possa ser simulada. Adicionalmente ferramentas e ambientes de computação paralela são empregados para que os custos em termos de tempo de computação possam ser ainda mais reduzidos. / The magnetic phenomena are widely used in many devices, such as electronic, data storage and telecommunications devices. The understanding of this phenomenon is therefore of great interest to support the improvement and development of new technologies. To better understand the magnetic phenomena, it is essential to study interactions at nano scale. When magnetic atoms are brought together they interact magnetically, even with an external magnetic field, and can form structures at nanoscale. Special design computer programs can be developed to simulate this interaction. Such simulators can facilitate the study of magnetism in nanometer scale because they can provide detailed information about this phenomenon. Scientists may use a simulator to create and/or modify different physical properties of a magnetic system; visual and numerical data generated by the simulator can help to understand the physical processes associated with the magnetic phenomenon. However, there is a natural high complexity in the numerical solution of physical models. The interaction between spins occurs in a similar way to the classical n-body problem. The complexity of this problem is O(N2), where N is the number of spins or atoms in the system. In this work we propose a new algorithm that can substantially reduce the computational cost, and allows the simulation of a large number of spins. Besides, tools and environments for high-performance computing are used so that the costs of computation time may be further reduced.
60

Método de lattice Boltzmann para simulação da eletrofisiologia cardíaca em paralelo usando GPU

Campos, Joventino de Oliveira 26 June 2015 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-03-06T20:24:42Z No. of bitstreams: 1 joventinodeoliveiracampos.pdf: 3604904 bytes, checksum: aca8053f097ddcb9d96ba51186838610 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-03-06T20:27:39Z (GMT) No. of bitstreams: 1 joventinodeoliveiracampos.pdf: 3604904 bytes, checksum: aca8053f097ddcb9d96ba51186838610 (MD5) / Made available in DSpace on 2017-03-06T20:27:39Z (GMT). No. of bitstreams: 1 joventinodeoliveiracampos.pdf: 3604904 bytes, checksum: aca8053f097ddcb9d96ba51186838610 (MD5) Previous issue date: 2015-06-26 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este trabalho apresenta o método de lattice Boltzmann (MLB) para simulações computacionais da atividade elétrica cardíaca usando o modelo monodomínio. Uma implementação otimizada do método de lattice Boltzmann é apresentada, a qual usa um modelo de colisão com múltiplos parâmetros de relaxação conhecido como multiple relaxation time (MRT), para considerar a anisotropia do tecido cardíaco. Com foco em simulações rápidas da dinâmica cardíaca, devido ao alto grau de paralelismo presente no MLB, uma implementação que executa em uma unidade de processamento gráfico (GPU) foi realizada e seu desempenho foi estudado através de domínios tridimensionais regulares e irregulares. Os resultados da implementação para simulações cardíacas mostraram fatores de aceleração tão altos quanto 500x para a simulação global e para o MLB um desempenho de 419 mega lattice update per second (MLUPS) foi alcançado. Com tempos de execução próximos ao tempo real em um único computador equipado com uma GPU moderna, estes resultados mostram que este trabalho é uma proposta promissora para aplicação em ambiente clínico. / This work presents the lattice Boltzmann method (LBM) for computational simulations of the cardiac electrical activity using monodomain model. An optimized implementation of the lattice Boltzmann method is presented which uses a collision model with multiple relaxation parameters known as multiple relaxation time (MRT) in order to consider the anisotropy of the cardiac tissue. With focus on fast simulations of cardiac dynamics, due to the high level of parallelism present in the LBM, a GPU parallelization was performed and its performance was studied under regular and irregular three-dimensional domains. The results of our optimized LBM GPU implementation for cardiac simulations shown acceleration factors as high as 500x for the overall simulation and for the LBM a performance of 419 mega lattice updates per second (MLUPS) was achieved. With near real time simulations in a single computer equipped with a modern GPU these results show that the proposed framework is a promising approach for application in a clinical workflow.

Page generated in 0.133 seconds