• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 245
  • 55
  • 3
  • Tagged with
  • 304
  • 304
  • 187
  • 175
  • 107
  • 86
  • 78
  • 76
  • 57
  • 56
  • 55
  • 40
  • 33
  • 32
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Implementação de Visualização de Dados Tridimensionais de Malhas Irregulares no Processador Cell Broadband Engine. / Irregular grid raycasting implementation on the cell broadband engine.

Guilherme Mota Cavalcanti de Albuquerque Cox 02 October 2009 (has links)
Direct volume rendering has become a popular technique for visualizing volumetric data from sources such as scientific simulations, analytic functions, and medical scanners, among others. Volume rendering algorithms, such as raycasting, can produce high-quality images, however, the use of raycasting has been limited due to its high demands on computational power and memory bandwidth. In this paper, we propose a new implementation of the raycasting algorithm that takes advantage of the highly parallel architecture of the Cell Broadband Engine processor, with 9 heterogeneous cores, in order to allow interactive raycasting of irregular datasets. All the computational power of the Cell BE processor, though, comes at the cost of a different programming model. Applications need to be rewritten in order to explore the full potential of the Cell processor, which requires using multithreading and vectorized code. In our approach, we tackle this problem by distributing ray computations using the visible faces, and vectorizing the lighting integral operations inside each core. Our experimental results show that we can obtain good speedups reducing the overall rendering time significantly. / A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.
42

Modelo para estimar performance de um Cluster Hadoop

Brito, José Benedito de Souza 09 July 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2014. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2014-12-02T12:56:55Z No. of bitstreams: 1 2014_JoseBeneditoSouzaBrito.pdf: 4169418 bytes, checksum: 0acba0fc24656f44b12166c01ba2dc3c (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2014-12-02T13:25:34Z (GMT) No. of bitstreams: 1 2014_JoseBeneditoSouzaBrito.pdf: 4169418 bytes, checksum: 0acba0fc24656f44b12166c01ba2dc3c (MD5) / Made available in DSpace on 2014-12-02T13:25:34Z (GMT). No. of bitstreams: 1 2014_JoseBeneditoSouzaBrito.pdf: 4169418 bytes, checksum: 0acba0fc24656f44b12166c01ba2dc3c (MD5) / O volume, a variedade e a velocidade dos dados apresenta um grande desa o para extrair informações úteis em tempo hábil, sem gerar grandes impactos nos demais processamentos existentes nas organizações, impulsionando a utilização de clusters para armazenamento e processamento, e a utilização de computação em nuvem. Este cenário é propício para o Hadoop, um framework open source escalável e e ciente, para a execução de cargas de trabalho sobre Big Data. Com o advento da computação em nuvem um cluster com o framework Hadoop pode ser alocado em minutos, todavia, garantir que o Hadoop tenha um desempenho satisfatório para realizar seus processamentos apresenta vários desa os, como as necessidades de ajustes das con gurações do Hadoop às cargas de trabalho, alocar um cluster apenas com os recursos necessários para realizar determinados processamentos e de nir os recursos necessários para realizar um processamento em um intervalo de tempo conhecido. Neste trabalho, foi proposta uma abordagem que busca otimizar o framework Hadoop para determinada carga de trabalho e estimar os recursos computacionais necessário para realizar um processamento em determinado intervalo de tempo. A abordagem proposta é baseada na coleta de informações, base de regras para ajustes de con gurações do Hadoop, de acordo com a carga de trabalho, e simulações. A simplicidade e leveza do modelo permite que a solução seja adotada como um facilitador para superar os desa os apresentados pelo Big Data, e facilitar a de nição inicial de um cluster para o Hadoop, mesmo por usuários com pouca experiência em TI. O modelo proposto trabalha com o MapReduce para de nir os principais parâmetros de con guração e determinar recursos computacionais dos hosts do cluster para atender aos requisitos desejados de tempo de execução para determinada carga de trabalho. _______________________________________________________________________________ ABSTRACT / The volume, variety and velocity of data presents a great challenge to extracting useful information in a timely manner, without causing impacts on other existing processes in organizations, promoting the use of clusters for storage and processing, and the use of cloud computing. This a good scenario for the Hadoop an open source framework scalable and e cient for running workloads on Big Data. With the advent of cloud computing one cluster with Hadoop framework can be allocated in minutes, however, ensure that the Hadoop has a good performance to accomplish their processing has several challenges, such as needs tweaking the settings of Hadoop for their workloads, allocate a cluster with the necessary resources to perform certain processes and de ne the resources required to perform processing in a known time interval. In this work, an approach that seeks to optimize the Hadoop for a given workload and estimate the computational resources required to realize a processing in a given time interval was proposed. The approach is based on collecting information, based rules for adjusting Hadoop settings for certain workload and simulations. The simplicity and lightness of the model allows the solution be adopted how a facilitator to overcome the challenges presented by Big Data, and facilitate the use of the Hadoop, even by users with little IT experience. The proposed model works with the MapReduce to de ne the main con guration parameters and determine the computational resources of nodes of cluster, to meet the desired runtime for a given workload requirements.
43

Projeto de pilares de concreto de alto desempenho / Design of high performance concrete columns

Eduardo Aurélio Barros Aguiar 25 April 2000 (has links)
O presente trabalho fornece uma visão geral sobre a aplicação, o dimensionamento e o detalhamento de pilares confeccionados com concreto de alto desempenho (CAD), cujo principal atributo analisado é a resistência do concreto à compressão. A ênfase do estudo é dada à aplicação do CAD em pilares de edifícios. São apresentadas as principais diferenças entre pilares de CAD e pilares confeccionados com concretos de baixa resistência (fck < 40 MPa), sendo abordados, com base em códigos vigentes e em resultados experimentais, os diagramas tensão-deformação mais indicados, as formas de consideração das não-linearidades física e geométrica, as excentricidades a serem consideradas no dimensionamento, as causas e a forma de prevenção do fenômeno da perda do cobrimento (característico de pilares de CAD), a importância e a forma de consideração do confinamento e algumas disposições construtivas necessárias para o bom desempenho do pilar. Procurou-se, sempre que possível, apresentar os aspectos que não necessitam de alterações, ou seja, que podem ser considerados da mesma forma para concretos de baixa e de alta resistência. Finaliza-se com a apresentação de alguns exemplos de dimensionamento de pilares de CAD, abordando os tópicos analisados ao longo do texto. / The present work provides an overview of use and design of columns made with high performance concrete (HPC), whose main analyzed attribute is the compression strength of the concrete. The emphasis of the study is given to the application of HPC in columns of buildings. The main differences are presented among columns of HPC and columns made with low strength concrete (fck < 40 MPa), being approached, on base in effective codes and in experimental results, the more suitable stress-strain diagrams, the forms of consideration of the physical and geometrical non-linearities, the eccentricities to be considered in the design, the causes and the form of prevention of the phenomenon of the spalling of the concrete cover (characteristic of HPC columns), the importance and the form of consideration of the confinement and some necessary constructive dispositions for the good performance of the column. It was sought, whenever possible, to present the aspects that don\'t need alterations, that is to say, that can be considered in the same way for low and high strength concretes. It concludes with the presentation of some examples of design of HPC columns, approaching the topics analyzed along the text.
44

Pilares de concreto de alto desempenho: fundamentos e experimentação / High performance concrete columns: principles and experimentation

Flávio Barboza de Lima 30 October 1997 (has links)
O uso de concreto de alto desempenho constitui tendência irreversível, devido às vantagens que apresenta em relação aos concretos de resistência usual, principalmente na execução de pilares de edifícios, pois as áreas das seções transversais podem ser reduzidas. Este trabalho trata da obtenção e do estudo teórico e experimental de pilares de concreto de alto desempenho, analisando o comportamento de modelos, solicitados à compressão centrada e flexão normal composta. Foram analisados pilares de seções transversais quadradas de 20cm x 20cm e retangulares de 15cm x 30cm e 12cm x 30cm, dimensões que representam pilares usuais em estruturas de edifícios. Na compressão centrada ficou caracterizado que o estado limite último foi atingido por ruptura da seção mais solicitada e comprovado que a ruptura ocorreu quando o núcleo, definido pelo perímetro considerado pelos eixos dos estribos, se rompeu. Nos ensaios de flexão normal composta os resultados mostraram que as hipóteses de distribuição de tensões, utilizadas para os concretos de resistências usuais, não devem ser consideradas para concreto de alta resistência. As forças normais experimentais e as teóricas, calculadas por um modelo proposto pelo Autor, ficaram iguais enquanto que, para os momentos fletores, os valores experimentais ficaram muito acima dos teóricos. / The use of high performance concrete is an irreversible tendency in structural design due to the advantages it presents, compared to the concrete of usual strength, these advantages can be seen mainly in the execution of buildings columns as the cross sections can be reduced. This thesis is about the theoretical and experimental study to obtain high performance concrete columns. The behaviour of models subjected to axial load and bending plus axial load was analysed. Columns with the square (20cm x 20cm) and rectangular (15cm x 30cm and 12cm x 30cm) cross sections were studied, because they are the usual buildings columns dimensions. As far as axial load is concerned, the ultimate state limit was reached when the mostly demanded section broke. It was proven that the rupture occurred when the core, defined by the perimeter considered by the axial stirrups, broke. The results of bending plus axial load tests have shown that the distribution of stress hypotheses used for concrete of usual strength must not be considered for high strength concrete. The experimental axial forces and the internal ones calculated by a given model were the same, whereas the experimental values for the internal moments were much higher.
45

Análise experimental de pilares de concreto de alto desempenho submetidos à compressão simples / Experimental analysis of high strength concrete columns (60 MPa) under axial compression

Marcos Vinícios Mendonça de Queiroga 30 March 1999 (has links)
O objetivo da pesquisa foi obter subsídios para o projeto de pilares de concreto de alta resistência, submetidos à compressão simples, com concreto de resistência média de 60 MPa. Este projeto faz parte de um plano mais amplo onde já se têm resultados experimentais que traduzem o comportamento de pilares moldados com concreto de resistência média à compressão de 80 MPa. Nestes constatou-se a participação isolada do núcleo de concreto definido pelo eixo da armadura transversal como seção resistente dos pilares. Na etapa experimental foram ensaiados pilares com seções transversais quadradas de 200 mm x 200 mm e retangulares de 150 mm x 300 mm. As alturas dos pilares correspondem a seis vezes a menor dimensão da seção transversal, portanto, 1200 mm e 900 mm, respectivamente. Nos modelos de seção quadrada, o valor médio das relações entre as forças últimas experimentais e as forças últimas teóricas, considerando a seção total de concreto, resultou igual a 0,82, indicando que a seção resistente não é a seção total. Por outro lado, a média das relações entre as forças últimas experimentais e as forças últimas teóricas, considerando apenas a área do núcleo limitada pelo eixo dos estribos, resultou igual a 1,21, o que mostra que a seção resistente pode ser considerada, no Estado Limite Último, como a seção do núcleo. / This research\'s aim is to obtain information for design of high strength concrete columns under concentrically loads with medium cylinder compressive strength of 60 MPa. This project belongs to a more extensive plan which already has experimental results that represent the behavior of columns performed with concrete with medium cylinder compressive strength of 80 MPa. In these models has been verified the independent participation of concrete core defined by the transversal reinforcement axis as resistant section near the ultimate load. In the experimental stage it was tested twelve columns with square (200 mm x 200 mm) and rectangular (150 mm x 300 mm) cross sections. The height of the columns corresponds to six times the smallest dimension of the cross section, 1,200 mm and 900 mm, respectively. The medium value of the ratios between the ultimate experimental force and the ultimate theoretical force, regarding the full concrete section, was 0.82, indicating that the resistant section is not the full section. On the other hand, the medium of ratios between the ultimate experimental force and the ultimate theoretical force, considering only the core area limited by the axis of the lateral reinforcement bars, was 1.21, what shows that the resistant section can be considered as the core section in the Ultimate Limit State.
46

Aplicação de conceitos reológicos na tecnologia dos concretos de alto desempenho / The application of rheological concepts on the high performance concretes technology

Alessandra Lorenzetti de Castro 29 January 2007 (has links)
Do ponto de vista reológico, o concreto fresco flui como um líquido. Sendo assim, o seu comportamento no estado fresco deve ser estudado a partir dos conceitos da reologia, ciência voltada para o estudo das deformações e escoamento de um fluido sob a influência de tensões. As estruturas bem planejadas, dependendo do processo adotado para sua confecção, são executadas em tempo muito pequeno após a mistura dos materiais que irão constituir os concretos. Assim, a trabalhabilidade do concreto é um parâmetro importante a ser estudado, tanto por facilitar o lançamento do material quanto pelas decisões relacionadas com a forma desse lançamento. Tradicionalmente, a trabalhabilidade do concreto está associada à sua consistência, expressa em termos de abatimento obtido no ensaio de tronco de cone, que, apesar de ser um método de ensaio bastante utilizado, não a quantifica totalmente. Isto porque o concreto se comporta como um fluido binghamiano, sendo, então, caracterizado por dois parâmetros reológicos: a tensão de escoamento e a viscosidade plástica. Assim, o presente trabalho determina alguns parâmetros de medida, a partir de conceitos reológicos, para a verificação do comportamento de alguns tipos de concreto de alto desempenho no estado fresco, com adição de sílica ativa. Para isso, foram usados tanto os métodos de ensaios tradicionais - ensaio de abatimento de tronco de cone e consistômetro de Ve-Be - quanto equipamentos mais modernos - reômetro. Uma modificação do ensaio de abatimento tradicional também foi usada como uma tentativa de simplificar a determinação dos parâmetros reológicos que caracterizam o comportamento dos concretos frescos. A capacidade dos concretos escoarem sob influência do seu peso próprio foi avaliada através do ensaio da caixa L. A identificação da natureza reológica dos concretos foi feita com o auxílio de um reômetro. A trabalhabilidade dos concretos foi avaliada a partir dos métodos de ensaio que medem os dois parâmetros reológicos e sua perda ao longo do tempo foi associada à evolução dos parâmetros medidos. Apesar de terem sido classificadas como misturas fluidas, nenhum concreto apresentou escoamento suficiente que o caracterizasse como um material auto-adensável, porém apresentou bom escoamento sob a energia de um vibrador. A natureza reológica dos concretos foi identificada como sendo realmente semelhante a um fluido binghamiano. A trabalhabilidade, bem como sua perda ao longo do tempo, foram associadas à evolução dos parâmetros reológicos: observou-se um aumento da tensão de escoamento (ou torque de escoamento), enquanto a viscosidade plástica (ou viscosidade de torque) permaneceu praticamente constante durante os 60 minutos em que o comportamento foi acompanhado. Conclui-se que para a trabalhabilidade dos CAD, há inúmeros outros fatores importantes a serem considerados no prosseguimento da pesquisa, os quais deverão levar em conta parâmetros associados à produção, ao transporte e ao lançamento do material. / From the rheological point of view, the fresh concrete flows as a liquid. In such case, its fresh behavior should be studied from the concepts of rheology, the science which concerns the study of deformation and flow of a fluid under stress influence. The well designed structures, depending on the process considered in their production, are performed in a very short time after the mixture of the materials that will constitute the concretes. Thus, the concrete workability is an important parameter to be studied, even for facilitating the material placement and for the decisions related with the method of this process. Traditionally, the concrete workability is associated to its consistency, expressed in terms of the slump value measured by the slump test that, in spite of being a quite used test, does not quantify it totally. It happens because the concrete behaves as a Bingham fluid, being described by two rheological parameters: the yield stress and the plastic viscosity. Thus, the present research determines some measure parameters from rheological concepts to verify the behavior of some types of fresh high performance concrete (with silica fume addition). For this, both traditional test methods - slump test and Vebe consistometer - and more recent equipments - rheometer - were used. A modification of the traditional slump test was also used as an attempt to simplify the determination of the rheological parameters that describe the fresh concretes behaviors. The capacity of the concretes flow under the influence of their own weight was evaluated by the L-box test. The identification of the concretes rheological behavior was made with a rheometer. The concretes workability was evaluated from test methods that measure the two rheological parameters and its loss over time was associated to the evolution of the measured parameters. In spite of being classified as fluid mixtures, none of the concretes presented enough flow to describe it as a self-compacting material; however they presented a good flow under vibration energy. The concrete rheological behavior was identified as being similar to a Bingham fluid. The workability, as its loss over time, was associated to the evolution of the rheological parameters: an increase of the yield stress (or flow resistance) was observed, while the plastic viscosity (or torque viscosity) stayed practically constant during the 60 minutes in which the behavior was followed. It is concluded that for the high performance concretes workability, there are other several important factors to be considered in the research pursuit, which should consider the parameters associated to the material\'s production, transport and placement.
47

Ambiente de alto desempenho com alta exatidão para a resolução de problemas

Holbig, Carlos Amaral January 2005 (has links)
Este trabalho visa a disponibilização de um ambiente de alto desempenho, do tipo cluster de computadores, com alta exatidão, obtida através da utilização da biblioteca C–XSC. A alta exatidão na solução de um problema é obtida através da realização de cálculos intermediários sem arredondamentos como se fossem em precisão infinita. Ao final do cálculo, o resultado deve ser representado na máquina. O resultado exato real e o resultado representado diferem apenas por um único arredondamento. Esses cálculos em alta exatidão devem estar disponíveis para algumas operações aritméticas básicas, em especial as que possibilitam a realização de somatório e de produto escalar. Com isso, deseja-se utilizar o alto desempenho através de um ambiente de cluster onde se tem vários nodos executando tarefas ou cálculos. A comunicação será realizada por troca de mensagens usando a biblioteca de comunicação MPI. Para se obter a alta exatidão neste tipo de ambiente, extensões ou adaptações nos programas paralelos tiveram que ser disponibilizadas para garantir que a qualidade do resultado final realizado em um cluster, onde vários nodos colaboram para o resultado final do cálculo, mantivesse a mesma qualidade do resultado que é obtido em uma única máquina (ou nodo) de um ambiente de alta exatidão. Para validar o ambiente proposto foram realizados testes básicos abordando o cálculo do produto escalar, a multiplicação entre matrizes, a implementação de solvers intervalares para matrizes densas e bandas e a implementação de alguns métodos numéricos para a resolução de sistemas de equações lineares com a característica da alta exatidão. Destes testes foram realizadas análises e comparações a respeito do desempenho e da exatidão obtidos com e sem o uso da biblioteca C–XSC, tanto em programas seqüenciais como em programas paralelos. Com a conseqüente implementação dessas rotinas e métodos será aberto um vasto campo de pesquisa no que se refere ao estudo de aplicações reais de grande porte que necessitem durante a sua resolução (ou em parte dela) da realização de operações aritméticas com uma exatidão melhor do que a obtida usualmente pelas ferramentas computacionais tradicionais.
48

Programação Paralela de Alto Nível e Eficiente sobre Arquiteturas Distribuídas

Heron de Carvalho Junior, Francisco January 2003 (has links)
Made available in DSpace on 2014-06-12T15:53:01Z (GMT). No. of bitstreams: 2 arquivo4840_1.pdf: 2733371 bytes, checksum: e244212f7a4deffc77acea2d00797916 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / Mudanças paradigmáticas tem sido observadas no contexto da computação de alto desempenho a partir da última década. A consolidação das arquiteturas distribuídas, bem como o avanço no estado-da-arte das tecnologias de processadores e interconexão em redes, culminou no aparecimento dos clusters, redes de convencionais de computadores capazes de rivalizar com supercomputadores em seu nicho de aplicações a um custo inferior em ordens de magnitude. Recentemente, com o avanço no estado-da-arte das tecnologias de interconexão de redes de longa distância, vislumbrou-se o uso da infra-estrutura destas para construção de supercomputadores de escala virtualmente infinita, conceito que ficou conhecido como grid computing. Pesquisas em todo o mundo visam viabilizar o uso destas arquiteturas para supercomputação, com resultados promissores. Clusters e Grids são hoje consideradas as tecnologias que ditarão o futuro da computação de alto desempenho. Sua maior implicação reside na miríade de novas aplicações para supercomputação, extrapolando os limites da computação meramente científica. Entretanto, estas tem se caracterizado por um maior nível de complexidade estrutural e escala, exigindo ferramentas de mais alto nível para o seu desenvolvimento. O paradigma de programação paralela designa os alicerces à implementação eficiente de aplicações sobre clusters e grids. Entretanto, a dificuldade inerente à construção de programas paralelos e a inexistência de ferramentas de alto nível que auxiliem a esta tarefa, principalmente voltadas a programas de larga escala, levaram a comunidade científica ao consenso da necessidade em investirem-se esforços no desenvolvimento de modelos avançados de programação paralela, ermitindo que programas serem formalmente validados e adaptados às modernas técnicas de engenharia modular de programas. O modelo # de programação paralela, produto desta tese de doutorado, surge como uma alternativa aos mecanismos eficientes convencionais de desenvolvimento de programas paralelos sobre arquiteturas distribuídas, tendo sido desenvolvido segundo um conjunto de premissas induzidas pelo contexto que se criou com o surgimento e disseminação das tecnologias associadas a cluster e grid computing. O modelo surge com s\'olidas fundações em modelos formais baseados em redes de Petri, permitindo a análise de propriedades e avaliação de desempenho de programas usando ferramentas pré-existentes adaptadas a esse disseminado formalismo. Implementa-se a linguagem Haskell#, a qual adere ao modelo #, usando Haskell para descrever computações. O uso de Haskell permite a ortogonalização transparente entre os meios de coordenação e computação de um programa #. Complementa ainda o arcabouço de análise formal de programas #, extendo-o no nível de computação, devido a existência de ferramental adequado ao tratamento formal de linguagens funcionais puras e não-estritas
49

Implementação de uma arquitetura para multiplicação de matrizes densas em sistemas reconfiguráveis de alto desempenho

Lucy Santos de Souza, Viviane 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T15:54:52Z (GMT). No. of bitstreams: 2 arquivo2015_1.pdf: 2391415 bytes, checksum: 09ab851c629f8ccc9ea982e2c53f53b3 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / A recente evolução na arquitetura dos dispositivos lógicos programáveis, como os FPGAs (Field Programmable Gate Array), associada à demanda por desempenho exigida em aplicações de computação científica, despertou a atenção de projetistas de supercomputadores que têm investido na criação de plataformas híbridas, associando processadores de propósito geral a co-processadores baseados em FPGAs, em busca de melhores níveis de aceleração. Uma arquitetura que incorpore um ou mais processadores de propósito geral e FPGAs num link de alta velocidade é chamada computador reconfigurável de alto desempenho. Este tipo de configuração requer, em geral, uma alta largura de banda entre o processador e o FPGA, necessário para que os ganhos com a execução em hardware superem o gargalo na comunicação. O sucesso dessas plataformas depende de características como: recursos presentes no FPGA, disponibilidade de memória na arquitetura, largura de banda e capacidade de escalabilidade das mesmas. Ao mesmo tempo, uma análise adequada do problema e um particionamento hardware/software eficiente, são necessários. Neste caso, processos com características de controle devem ser executados no processador de propósito geral e a computação intensiva deve ser executada em FPGA, onde podem ser exploradas características como paralelismo de execução e reuso de dados. Neste trabalho, são estudadas as principais características de alguns dos computadores reconfiguráveis de alto desempenho existentes. Além disso, como estudo de caso, é apresentada a análise e desenvolvimento de uma das importantes operações da computação científica: a multiplicação de matrizes, objetivando uma das plataformas estudadas, a plataforma RASC (Reconfigurable Application-Specific Computing), desenvolvida pela Silicon Graphics. A arquitetura proposta no estudo de caso visa, a partir da análise do problema e da avaliação dos recursos disponíveis na plataforma alvo, a obtenção de melhores resultados de desempenho quando comparado à execução em plataformas convencionais, baseadas em processadores de propósito geral. Para tanto, características como paralelismo e o reuso de dados são exploradas. A partir do projeto desenvolvido, é apresentado um modelo para avaliação de desempenho do multiplicador que pode ser aplicado às demais plataformas estudadas
50

Um cluster de PCs usando nós baseados em módulos aceleradores de hardware (FPGA) como co-processadores

Wanderley Pimentel Araujo, Rodrigo 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:58:17Z (GMT). No. of bitstreams: 2 arquivo3450_1.pdf: 2428220 bytes, checksum: 164a34bb1ebc71c885503d9ef049987d (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / A criação de novas soluções para aumentar o desempenho de aplicações está crescendo de importância, pois os processamentos convencionais estão se tornando obsoletos. Diferentes abordagens têm sido estudadas e usadas, porém vários problemas foram encontrados. Um exemplo é dos processadores com vários núcleos, que, apesar de dissipar pouca potência, apresentam velocidade de transmissão baixa e pequena largura de banda. Circuitos ASICs apresentam alto desempenho, baixa dissipação de potência, mas possuem um alto custo de engenharia. Na tentativa de conseguir mais altos níveis de aceleração, plataformas que associam o uso de cluster de computadores convencionais com FPGAs têm sido estudadas. Este tipo de plataforma requer o uso de barramentos de alto desempenho para minimizar o gargalo de comunicação entre PC e FPGA, e um comunicador eficiente entre os nós do sistema. Neste trabalho, são vistas as principais características de algumas arquiteturas que utilizam cluster de PCs. Com isto, é proposta uma arquitetura que utiliza FPGA como co&#8208;processador em cada nó do sistema, utilizando a interface MPI para comunicação entre os nós e um device driver, para Linux, que permite transferência em rajada dos dados, através do barramento PCIe. Como estudo de caso, usado para a validação da arquitetura, é implementado a multiplicação de matrizes densas, esta funcionalidade é baseada no nível três da biblioteca BLAS

Page generated in 0.2749 seconds