Spelling suggestions: "subject:"ppc"" "subject:"dppc""
121 |
Performance optimization of geophysics stencils on HPC architectures / Optimização de desempenho de estênceis geofísicos sobre arquiteturas HPCAbaunza, Víctor Eduardo Martínez January 2018 (has links)
A simulação de propagação de onda é uma ferramenta crucial na pesquisa de geofísica (para análise eficiente dos terremotos, mitigação de riscos e a exploração de petróleo e gáz). Devido à sua simplicidade e sua eficiência numérica, o método de diferenças finitas é uma das técnicas implementadas para resolver as equações da propagação das ondas. Estas aplicações são conhecidas como estênceis porque consistem num padrão que replica a mesma computação num domínio multidimensional de dados. A Computação de Alto Desempenho é requerida para solucionar este tipo de problemas, como consequência do grande número de pontos envolvidos nas simulações tridimensionais do subsolo. A optimização do desempenho dos estênceis é um desafio e depende do arquitetura usada. Neste contexto, focamos nosso trabalho em duas partes. Primeiro, desenvolvemos nossa pesquisa nas arquiteturas multicore; analisamos a implementação padrão em OpenMP dos modelos numéricos da transferência de calor (um estêncil Jacobi de 7 pontos), e o aplicativo Ondes3D (um simulador sísmico desenvolvido pela Bureau de Recherches Géologiques et Minières); usamos dois algoritmos conhecidos (nativo, e bloqueio espacial) para encontrar correlações entre os parâmetros da configuração de entrada, na execução, e o desempenho computacional; depois, propusemos um modelo baseado no Aprendizado de Máquina para avaliar, predizer e melhorar o desempenho dos modelos estênceis na arquitetura usada; também usamos um modelo de propagação da onda acústica fornecido pela empresa Petrobras; e predizemos o desempenho com uma alta precisão (até 99%) nas arquiteturas multicore. Segundo, orientamos nossa pesquisa nas arquiteturas heterogêneas, analisamos uma implementação padrão do modelo de propagação de ondas em CUDA, para encontrar os fatores que afetam o desempenho quando o número de aceleradores é aumentado; então, propusemos uma implementação baseada em tarefas para amelhorar o desempenho, de acordo com um conjunto de configuração no tempo de execução (algoritmo de escalonamento, tamanho e número de tarefas), e comparamos o desempenho obtido com as versões de só CPU ou só GPU e o impacto no desempenho das arquiteturas heterogêneas; nossos resultados demostram um speedup significativo (até 25) em comparação com a melhor implementação disponível para arquiteturas multicore. / Wave modeling is a crucial tool in geophysics, for efficient strong motion analysis, risk mitigation and oil & gas exploration. Due to its simplicity and numerical efficiency, the finite-difference method is one of the standard techniques implemented to solve the wave propagation equations. This kind of applications is known as stencils because they consist in a pattern that replicates the same computation on a multi-dimensional domain. High Performance Computing is required to solve this class of problems, as a consequence of a large number of grid points involved in three-dimensional simulations of the underground. The performance optimization of stencil computations is a challenge and strongly depends on the underlying architecture. In this context, this work was directed toward a twofold aim. Firstly, we have led our research on multicore architectures and we have analyzed the standard OpenMP implementation of numerical kernels from the 3D heat transfer model (a 7-point Jacobi stencil) and the Ondes3D code (a full-fledged application developed by the French Geological Survey). We have considered two well-known implementations (naïve, and space blocking) to find correlations between parameters from the input configuration at runtime and the computing performance; thus, we have proposed a Machine Learning-based approach to evaluate, to predict, and to improve the performance of these stencil models on the underlying architecture. We have also used an acoustic wave propagation model provided by the Petrobras company and we have predicted the performance with high accuracy on multicore architectures. Secondly, we have oriented our research on heterogeneous architectures, we have analyzed the standard implementation for seismic wave propagation model in CUDA, to find which factors affect the performance; then, we have proposed a task-based implementation to improve the performance, according to the runtime configuration set (scheduling algorithm, size, and number of tasks), and we have compared the performance obtained with the classical CPU or GPU only versions with the results obtained on heterogeneous architectures.
|
122 |
Energy consumption and performance of HPC architecture for Exascale / Consumo de energia e desempenho de arquiteturas PAD para ExascaleOliveira, Daniel Alfonso Gonçalves de January 2013 (has links)
Uma das principais preocupações para construir a próxima geração de sistemas PAD é o consumo de energia. Para quebrar a barreira de exascale a comunidade científica precisa investigar alternativas que possam lidar com o problema de consumo de energia. Sistemas PAD atuais não se preocupam com energia e já consomem GigaWatts. Requisitos de consumo de energia restringirão fortemente sistemas futuros. Nesse contexto processadores de alta potência abrem espaço para novas arquiteturas. Duas arquiteturas surgem no contexto de PAD. A primeira arquitetura são as unidades de processamento gráfico (GPU), GPUs possuem vários núcleos de processamento, suportando milhares de threads simultâneas, se adaptando bem a aplicações massivamente paralelas. Hoje alguns dos melhores sistemas PAD possuem GPUs que demonstram um alto desempenho por um baixo consumo de energia para várias aplicações paralelas. A segunda arquitetura são os processadores de baixo consumo, processadores ARM estão melhorando seu desempenho e mantendo o menor consumo de energia possível. Como exemplo desse ganho, projetos como Mont-Blanc apostam no uso de ARM para construir um sistema PAD energeticamente eficiente. Este trabalho visa verificar o potencial dessas arquiteturas emergentes. Avaliamos essas arquiteturas e comparamos com a arquitetura mais comum encontrada nos sistemas PAD atuais. O principal objetivo é analisar o consumo de energia e o desempenho dessas arquiteturas no contexto de sistemas PAD. Portanto, benchmarks heterogêneos foram executados em todas as arquiteturas. Os resultados mostram que a arquitetura de GPU foi a mais rápida e a melhor em termos de consumo de energia. GPU foi pelo menos 5 vezes mais rápida e consumiu 18 vezes menos energia considerando todos os benchmarks testados. Também observamos que processadores de alta potência foram mais rápidos e consumiram menos energia, para tarefas com uma carga de trabalho leve, do que comparado com processadores de baixo consumo. Entretanto, para tarefas com carga de trabalho leve processadores de baixo consumo apresentaram um consumo de energia melhor. Concluímos que sistemas heterogêneos combinando GPUs e processadores de baixo consumo podem ser uma solução interessante para alcançar um eficiência energética superior. Apesar de processadores de baixo consumo apresentarem um pior consumo de energia para cargas de trabalho pesadas. O consumo de energia extremamente baixo durante o processamento é inferior ao consumo ocioso das demais arquiteturas. Portanto, combinando processadores de baixo consumo para gerenciar GPUs pode resultar em uma eficiência energética superior a sistemas que combinam processadores de alta potência com GPUs. / One of the main concerns to build the new generation of High Performance Computing (HPC) systems is energy consumption. To break the exascale barrier, the scientific community needs to investigate alternatives that cope with energy consumption. Current HPC systems are power hungry and are already consuming Megawatts of energy. Future exascale systems will be strongly constrained by their energy consumption requirements. Therefore, general purpose high power processors could be replaced by new architectures in HPC design. Two architectures emerge in the HPC context. The first architecture uses Graphic Processing Units (GPU). GPUs have many processing cores, supporting simultaneous execution of thousands of threads, adapting well to massively parallel applications. Today, top ranked HPC systems feature many GPUs, which present high processing speed at low energy consumption budget with various parallel applications. The second architecture uses Low Power Processors, such as ARM processors. They are improving the performance, while still aiming to keep the power consumption as low as possible. As an example of this performance gain, projects like Mont-Blanc bet on ARM to build energy efficient HPC systems. This work aims to verify the potential of these emerging architectures. We evaluate these architectures and compare them to the current most common HPC architecture, high power processors such as Intel. The main goal is to analyze the energy consumption and performance of these architectures in the HPC context. Therefore, heterogeneous HPC benchmarks were executed in the architectures. The results show that the GPU architecture is the fastest and the best in terms of energy efficiency. GPUs were at least 5 times faster while consuming 18 times less energy for all tested benchmarks. We also observed that high power processors are faster than low power processors and consume less energy for heavy-weight workloads. However, for light-weight workloads, low power processors presented a better energy efficiency. We conclude that heterogeneous systems combining GPUs and low power processors can be an interesting solution to achieve greater energy efficiency, although low power processors presented a worse energy efficiency for HPC workloads. Their extremely low power consumption during the processing of an application is less than the idle power of the other architectures. Therefore, combining low power processors with GPUs could result in an overall energy efficiency greater than high power processors combined with GPUs.
|
123 |
Distributed Checkpointing with Docker Containers in High Performance ComputingBerg, Gustaf, Brattlöf, Magnus January 2017 (has links)
Container-virtualisering har blivit mer och mer använt efter att uppdateringar till cgroups och namespace-funktionerna släpptes i Linuxkärnan. Samtidigt så lider industrins högpresterande beräkningskluster av dyra licenskostnader som skulle kunna hanteras av virtualisering. I den här uppsatsen utformades experiment för att ta reda på om Dockers funktion checkpoint, som fortfarande är under utveckling, skulle kunna utnyttjas i industrins beräkningskluster. Genom att demonstrera detta koncept och dess möjligheter att pausa distribuerade containrar, som kör parallella processer inuti, användes den välkända NAS Parallel Benchmarken (NPB) fördelad över två test-maskiner. Sedan så pausades containrar i olika ordningar och Docker lyckas återuppta benchmarken utan problem både lokalt och distribuerat. Om man försiktigt överväger ordningen som man skriver ner containers till disk (checkpoint) så går det utan problem att återuppta benchmarken lokalt på samma maskin. Slutligen så visar vi även att distribuerade containrar kan återupptas på en annan maskin än där den startade med hög framgång. Dockers prestanda, möjligheter och flexibilitet lämpar sig i framtidens industriella högpresterande kluster där man mycket väl kan köra sina applikationer i containrar istället för att köra dom på det traditionella sättet, direkt på hårdvaran. Genom användning av Docker-containers kan man hantera problemet med dyra licenskostnader och prioriteringar. / Lightweight container virtualization has gained widespread adoption in recent years after updates to namespace and cgroups features in the Linux kernel. At the same time the Industrial High Performance community suffers from expensive licensing costs that could be managed with virtualization. To demonstrate that Docker could be used for suspending distributed containers with parallel processes, experiments were designed to find out if the experimental checkpoint feature is ready for this community. We run the well-known NAS Parallel Benchmark (NPB) inside containers spread over two systems under test to prove this concept. Then, pausing containers and unpausing them in different sequence orders we were able resume the benchmark. After that, we further demonstrate that if you carefully consider the order in which you Checkpoint/Restore containers, then the checkpoint feature is also able to resume the benchmark successfully. Finally, the concept of restoring distributed containers, running the benchmark, on a different system from where it started was proven to be working with a high success rate. Our tests demonstrate the performance, possibilities and flexibilities of Dockers future in the industrial HPC community. This might very well tip the community over to running their simulations and virtual engineering-applications inside containers instead of running them on native hardware.
|
124 |
Energy consumption and performance of HPC architecture for Exascale / Consumo de energia e desempenho de arquiteturas PAD para ExascaleOliveira, Daniel Alfonso Gonçalves de January 2013 (has links)
Uma das principais preocupações para construir a próxima geração de sistemas PAD é o consumo de energia. Para quebrar a barreira de exascale a comunidade científica precisa investigar alternativas que possam lidar com o problema de consumo de energia. Sistemas PAD atuais não se preocupam com energia e já consomem GigaWatts. Requisitos de consumo de energia restringirão fortemente sistemas futuros. Nesse contexto processadores de alta potência abrem espaço para novas arquiteturas. Duas arquiteturas surgem no contexto de PAD. A primeira arquitetura são as unidades de processamento gráfico (GPU), GPUs possuem vários núcleos de processamento, suportando milhares de threads simultâneas, se adaptando bem a aplicações massivamente paralelas. Hoje alguns dos melhores sistemas PAD possuem GPUs que demonstram um alto desempenho por um baixo consumo de energia para várias aplicações paralelas. A segunda arquitetura são os processadores de baixo consumo, processadores ARM estão melhorando seu desempenho e mantendo o menor consumo de energia possível. Como exemplo desse ganho, projetos como Mont-Blanc apostam no uso de ARM para construir um sistema PAD energeticamente eficiente. Este trabalho visa verificar o potencial dessas arquiteturas emergentes. Avaliamos essas arquiteturas e comparamos com a arquitetura mais comum encontrada nos sistemas PAD atuais. O principal objetivo é analisar o consumo de energia e o desempenho dessas arquiteturas no contexto de sistemas PAD. Portanto, benchmarks heterogêneos foram executados em todas as arquiteturas. Os resultados mostram que a arquitetura de GPU foi a mais rápida e a melhor em termos de consumo de energia. GPU foi pelo menos 5 vezes mais rápida e consumiu 18 vezes menos energia considerando todos os benchmarks testados. Também observamos que processadores de alta potência foram mais rápidos e consumiram menos energia, para tarefas com uma carga de trabalho leve, do que comparado com processadores de baixo consumo. Entretanto, para tarefas com carga de trabalho leve processadores de baixo consumo apresentaram um consumo de energia melhor. Concluímos que sistemas heterogêneos combinando GPUs e processadores de baixo consumo podem ser uma solução interessante para alcançar um eficiência energética superior. Apesar de processadores de baixo consumo apresentarem um pior consumo de energia para cargas de trabalho pesadas. O consumo de energia extremamente baixo durante o processamento é inferior ao consumo ocioso das demais arquiteturas. Portanto, combinando processadores de baixo consumo para gerenciar GPUs pode resultar em uma eficiência energética superior a sistemas que combinam processadores de alta potência com GPUs. / One of the main concerns to build the new generation of High Performance Computing (HPC) systems is energy consumption. To break the exascale barrier, the scientific community needs to investigate alternatives that cope with energy consumption. Current HPC systems are power hungry and are already consuming Megawatts of energy. Future exascale systems will be strongly constrained by their energy consumption requirements. Therefore, general purpose high power processors could be replaced by new architectures in HPC design. Two architectures emerge in the HPC context. The first architecture uses Graphic Processing Units (GPU). GPUs have many processing cores, supporting simultaneous execution of thousands of threads, adapting well to massively parallel applications. Today, top ranked HPC systems feature many GPUs, which present high processing speed at low energy consumption budget with various parallel applications. The second architecture uses Low Power Processors, such as ARM processors. They are improving the performance, while still aiming to keep the power consumption as low as possible. As an example of this performance gain, projects like Mont-Blanc bet on ARM to build energy efficient HPC systems. This work aims to verify the potential of these emerging architectures. We evaluate these architectures and compare them to the current most common HPC architecture, high power processors such as Intel. The main goal is to analyze the energy consumption and performance of these architectures in the HPC context. Therefore, heterogeneous HPC benchmarks were executed in the architectures. The results show that the GPU architecture is the fastest and the best in terms of energy efficiency. GPUs were at least 5 times faster while consuming 18 times less energy for all tested benchmarks. We also observed that high power processors are faster than low power processors and consume less energy for heavy-weight workloads. However, for light-weight workloads, low power processors presented a better energy efficiency. We conclude that heterogeneous systems combining GPUs and low power processors can be an interesting solution to achieve greater energy efficiency, although low power processors presented a worse energy efficiency for HPC workloads. Their extremely low power consumption during the processing of an application is less than the idle power of the other architectures. Therefore, combining low power processors with GPUs could result in an overall energy efficiency greater than high power processors combined with GPUs.
|
125 |
Análise experimental de aduelas pré-moldadas em concreto de alto desempenho para passarelas estaiadas / Theoretical and experimental analysis of precast barrel staves in high performance concreteRodrigo Vieira da Conceição 19 March 2008 (has links)
Embora a utilização do concreto de alto desempenho (CAD) para a fabricação de elementos pré-moldados seja frequentemente usado na construção civil, o presente trabalho apresenta um estudo do emprego de microconcreto em aduelas tubulares de pequenas espessuras protendidas dentro de critérios fabris, com materiais regionais, a fim de repassar para a iniciativa privada os resultados colhidos das análises já elaboradas. As aduelas servirão para compor o tabuleiro de passarelas estaiadas, com a intenção de projetar uma estrutura que, além de harmônica aos olhos e arrojada, também seja econômica, pois se aplicando a protensão nas aduelas que formam o tabuleiro, pode-se explorar uma das características que os concretos de alto desempenho e resistência têm de melhor, que é a resistência à compressão (> 80MPa). Os materiais utilizados na dosagem do microconcreto para a confecção dos elementos em escala real, foram os seguintes: CP V ARI RS, sílica de ferro-silício em substituição volumétrica ao cimento em 10%, três tipos de areias de cava da região para o melhor empacotamento das partículas reduzindo os vazios, pedrisco basáltico com dimensão máxima de 9,5 mm em consonância com as características geométricas do elemento estrutural e da armadura e um superplastificante para atingir a consistência desejada. Levaram-se em conta na produção desse trabalho os recentes desenvolvidos havidos na reologia dos concretos frescos, ação da carbonatação e ação de cloretos. A consistência do concreto foi um fator importante para a determinação do traço, pois o concreto foi lançado nos moldes a uma altura de 2,40 m, permanecendo coeso. A concretagem foi realizada através de betonadas consecutivas para o total preenchimento do molde, onde em todas as betonadas foram realizadas a mesma seqüência de mistura pré-estabelecida. Foram moldadas duas aduelas em escala real, as quais foram estudadas seguindo a simulação do processo de montagem e uso da passarela, a fim de se analisar as solicitações atuantes e as formas de ruína das aduelas acopladas. As resistências mecânicas dos corpos-de-prova foram analisadas nas idades de 1, 3, 7, 28, 63 e 91 dias, cujos resultados de resistência à compressão simples, compressão diametral e o módulo de elasticidade atingiram ao previsto no projeto. O acabamento superficial, o tempo de lançamento, adensamento, desforma, cura e o transporte foram adequados para o reaproveitamento dos moldes. Com os resultados obtidos das análises realizadas com os dois módulos do tabuleiro, verificou-se a possibilidade de construir passarelas com elementos tubulares de pequena espessura protendidos com barras de Dywidag pelo sistema de protensão proposto. Verificou-se também uma pequena amplitude das deformações e deslocamentos das aduelas no processo de montagem e uso da passarela, assim como no transporte das aduelas. Não foram observadas a formação de quaisquer tipos de fissuras durante todo o processo envolvido, quais sejam, desmoldagem, estocagem, transporte, lançamento e utilização simulada. / Although the use of high performance concrete (HPC) for precast elements manufacture is frequently used in civil construction, this work presents a study of the utilization of microconcrete in prestressed small thicknesses tubular barrel stave, in manufacturing criteria, with regional materials, in order to repass to private initiative the already elaborated analyses results. Barrel stave will serve to compose cable-stayed footbridge deck, with the intent to project a structure that, beyond pleasant and bold, must be also economic, therefore applying prestress in barrel stave to form the deck, it\'s possible to explored the most important high performance and strength concrete characteristics, the compressive strength (> 80MPa). The used materials to design a microconcrete for the elements confection in real scale, are the following: CP V ARI RS, ferrosilicon silica fume in 10% volumetric substitution to the cement, three types of regional sands for optimum particles packing to reduce the emptinesses, 9,5 mm basaltic grave in accord with the geometric characteristics of the structural element and reinforcement, and superplasticizer additives to reach the desired consistency. Recent researches about fresh concrete rheology, carbonation and chloride action had been taken in account in the production of this work. The consistency was an important factor for concrete design, therefore the concrete would be was launched in 2,40 m height molds, remaining united. The molding was carried through consecutive load concrete mixer operation for the total fulfilling of the mold, where in all load of a concrete mixer had been carried through the same sequence of pre-established mixture. Two were molded barrel stave full scale, which were studied in the simulation of process of assembly and use of footbridge in order to examine the requests engaged in the forms of ruin from barrel stave coupled. The mechanical strength of the samples had been analyzed in ages of 1, 3, 7, 28, 63 and 91 days, whose results of simple compressive strength, diametrical compression and the modulus of elasticity had reached to the foreseen in project. The superficial finishing, the time of launching, compacting, desmoulding, cure and the transport had been adjusted for molds reuse. With the results of analyses conducted with two modules of deck, there was the possibility of building footbridges with tubular elements of small thickness prestressed with bars of Dywidag the system protention proposed. There was also a small extent of deformation and displacement of barrel stave in process of assembly and use of footbridge as well as the transport of barrel stave. Not been observed the formation of any types of cracks during all the involved process, which are, desmoulding, storage, transport, launching and simulated use.
|
126 |
Ladrilhos e revestimentos hidráulicos de alto desempenho / High performance hydraulic tiles and coveringsThiago Catoia 08 May 2007 (has links)
Os ladrilhos hidráulicos são revestimentos produzidos utilizando aglomerante hidráulico, cuja tecnologia de produção não acompanhou a grande evolução tecnológica dos concretos, as disponibilidades de novos materiais e técnicas de utilização ocorrentes nos últimos anos, sendo assim esses revestimentos perderam espaço e competitividade no mercado pela característica artesanal de sua produção. O trabalho teve como objetivo desenvolver uma argamassa para produção de ladrilhos hidráulicos utilizando a tecnologia utilizada na produção de concretos de alto desempenho. Os agregados foram selecionados e compostos utilizando diferentes técnicas de empacotamento de partículas, essas técnicas foram implementadas experimentalmente e seus resultados foram analisados e comparados através da medida de massa unitária no estado compactado seco. Os aglomerantes foram selecionados de forma a atender a utilização de pigmentos claros e escuros necessários para a produção de ladrilhos hidráulicos decorativos, assim foram elaboradas duas diferentes composições de aglomerantes, a primeira com cimento Portland branco estrutural e metacaulinita branca, e a segunda com cimento Portland de alta resistência inicial resistente a sulfatos e sílica ativa de ferro-silício. Diferentes aditivos superplastificantes foram testados, sendo a medida de compatibilidade com os aglomerantes e a determinação dos teores ideais a serem utilizados com cada tipo de aglomerantes realizadas através da medida de consistência em mesa cadente. A avaliação das argamassas desenvolvidas para produção dos ladrilhos hidráulicos foi realizada através dos ensaios de compressão axial simples, tração na compressão diametral, e determinação do módulo de elasticidade. Os ladrilhos hidráulicos foram produzidos em fôrmas previamente elaboradas e moldados com auxílio de vibração, após desmoldagem e cura foram avaliados através dos ensaios de módulo de flexão, desgaste por abrasão, absorção de água, retração por secagem, ação química, e determinação das variações de dimensões em diferentes tempos de cura. Após elaboração, produção e avaliação dos ladrilhos hidráulicos, também foram realizados alguns testes práticos, e avaliados os custos dos materiais para produção desses revestimentos, como parte de um estudo para implementação da produção desses elementos em escala industrial. Os ladrilhos hidráulicos desenvolvidos apresentaram alto desempenho nas características avaliadas, com resistência à compressão axial simples de até 143 MPa e absorção de água próxima a 1%, também apresentando viabilidade de produção. / The hydraulic tiles are coverings produced by using hydraulic binders, whose production technology has not follow the great technological evolution of the concretes, the availabilities of new materials and the usual techniques in recent years, thus they have lost space and competition in the market due to their handicraft characteristic of production. This work had the objective to develop a mortar for production of hydraulic tiles using high performance concrete production technology. The aggregates were selected and proportioned using different techniques of particle packing, these techniques were implemented experimentally and their results were analyzed and compared through the measurement of the unit weight by rodding. The binders were selected to be used with clear and dark pigment necessity for production of decorative hydraulic tiles, thus two different mixture proportions of binders were elaborated, the first with structural white Portland cement and white metakaulin, and the second with high initial strength Portland cement resistant to sulphate and ferrosilicon silica fume. Different superplasticizer additives were tested, being the measure of compatibility with the binders and the determination of ideal proportions to be used with each type of binders measured in flow table consistency test. The evaluation of mortars developed for hydraulic tiles production was carried out by simple axial compression test, cylinder splitting test, and elastic modulus determination test. The hydraulic tiles were produced in a previously elaborated mould and molded by vibration, after dismoulding and cure were evaluated by flexural modulus test, wear by abrasion test, water absorption test, drying shrinkage test, chemical action test, and determination of the dimensions variations in different times of cure. After hydraulic tiles elaboration, production and evaluation, also were made some practical tests, and evaluated the material costs for production of these coverings, as part of an implementation study for production of these elements in industrial scale. The developed hydraulic tiles showed high performance in the evaluated characteristics, with simple axial compression strength until 143 MPa and water absorption about 1%, also showed production viability.
|
127 |
Energy consumption and performance of HPC architecture for Exascale / Consumo de energia e desempenho de arquiteturas PAD para ExascaleOliveira, Daniel Alfonso Gonçalves de January 2013 (has links)
Uma das principais preocupações para construir a próxima geração de sistemas PAD é o consumo de energia. Para quebrar a barreira de exascale a comunidade científica precisa investigar alternativas que possam lidar com o problema de consumo de energia. Sistemas PAD atuais não se preocupam com energia e já consomem GigaWatts. Requisitos de consumo de energia restringirão fortemente sistemas futuros. Nesse contexto processadores de alta potência abrem espaço para novas arquiteturas. Duas arquiteturas surgem no contexto de PAD. A primeira arquitetura são as unidades de processamento gráfico (GPU), GPUs possuem vários núcleos de processamento, suportando milhares de threads simultâneas, se adaptando bem a aplicações massivamente paralelas. Hoje alguns dos melhores sistemas PAD possuem GPUs que demonstram um alto desempenho por um baixo consumo de energia para várias aplicações paralelas. A segunda arquitetura são os processadores de baixo consumo, processadores ARM estão melhorando seu desempenho e mantendo o menor consumo de energia possível. Como exemplo desse ganho, projetos como Mont-Blanc apostam no uso de ARM para construir um sistema PAD energeticamente eficiente. Este trabalho visa verificar o potencial dessas arquiteturas emergentes. Avaliamos essas arquiteturas e comparamos com a arquitetura mais comum encontrada nos sistemas PAD atuais. O principal objetivo é analisar o consumo de energia e o desempenho dessas arquiteturas no contexto de sistemas PAD. Portanto, benchmarks heterogêneos foram executados em todas as arquiteturas. Os resultados mostram que a arquitetura de GPU foi a mais rápida e a melhor em termos de consumo de energia. GPU foi pelo menos 5 vezes mais rápida e consumiu 18 vezes menos energia considerando todos os benchmarks testados. Também observamos que processadores de alta potência foram mais rápidos e consumiram menos energia, para tarefas com uma carga de trabalho leve, do que comparado com processadores de baixo consumo. Entretanto, para tarefas com carga de trabalho leve processadores de baixo consumo apresentaram um consumo de energia melhor. Concluímos que sistemas heterogêneos combinando GPUs e processadores de baixo consumo podem ser uma solução interessante para alcançar um eficiência energética superior. Apesar de processadores de baixo consumo apresentarem um pior consumo de energia para cargas de trabalho pesadas. O consumo de energia extremamente baixo durante o processamento é inferior ao consumo ocioso das demais arquiteturas. Portanto, combinando processadores de baixo consumo para gerenciar GPUs pode resultar em uma eficiência energética superior a sistemas que combinam processadores de alta potência com GPUs. / One of the main concerns to build the new generation of High Performance Computing (HPC) systems is energy consumption. To break the exascale barrier, the scientific community needs to investigate alternatives that cope with energy consumption. Current HPC systems are power hungry and are already consuming Megawatts of energy. Future exascale systems will be strongly constrained by their energy consumption requirements. Therefore, general purpose high power processors could be replaced by new architectures in HPC design. Two architectures emerge in the HPC context. The first architecture uses Graphic Processing Units (GPU). GPUs have many processing cores, supporting simultaneous execution of thousands of threads, adapting well to massively parallel applications. Today, top ranked HPC systems feature many GPUs, which present high processing speed at low energy consumption budget with various parallel applications. The second architecture uses Low Power Processors, such as ARM processors. They are improving the performance, while still aiming to keep the power consumption as low as possible. As an example of this performance gain, projects like Mont-Blanc bet on ARM to build energy efficient HPC systems. This work aims to verify the potential of these emerging architectures. We evaluate these architectures and compare them to the current most common HPC architecture, high power processors such as Intel. The main goal is to analyze the energy consumption and performance of these architectures in the HPC context. Therefore, heterogeneous HPC benchmarks were executed in the architectures. The results show that the GPU architecture is the fastest and the best in terms of energy efficiency. GPUs were at least 5 times faster while consuming 18 times less energy for all tested benchmarks. We also observed that high power processors are faster than low power processors and consume less energy for heavy-weight workloads. However, for light-weight workloads, low power processors presented a better energy efficiency. We conclude that heterogeneous systems combining GPUs and low power processors can be an interesting solution to achieve greater energy efficiency, although low power processors presented a worse energy efficiency for HPC workloads. Their extremely low power consumption during the processing of an application is less than the idle power of the other architectures. Therefore, combining low power processors with GPUs could result in an overall energy efficiency greater than high power processors combined with GPUs.
|
128 |
Influência do tipo e do tempo de duração de cura nas propriedades mecânicas de concretos de alto desempenho (CAD) produzidos em períodos quente (t>25°C) e de baixa umidade relativa do ar (h<50%) / Influence of the type and time duration of curing in mechanical properties of the high performance concrete (hpc) produced in hot period (t>25ºc) and of low relative humidity the air (h<50%).BESERRA, Simone Ataíde 07 June 2005 (has links)
Made available in DSpace on 2014-07-29T15:03:41Z (GMT). No. of bitstreams: 1
Dissertacao Simone Ataide Beserra.pdf: 2438283 bytes, checksum: abbcdf2cacf8c82fb112904e30a3c176 (MD5)
Previous issue date: 2005-06-07 / In the case of conventional concrete, small constructive defects, variations of mix proportion or even inadequate curings can not compromise significantly the material. No
longer HPC demands a severity in the control since its dosage until the execution, therefore any imperfection can bring serious damages to the material or the structure. Amongst the relative aspects most important to the total quality of any concrete it is the curing, that becomes basic when is about HPC. The curing of the high performance concrete constitutes in a controversial subject in the technician area as well as the type and duration of it, therefore the necessity of a deeper refined study on this subject. This research verifies the influence of the type and time of duration of curing in the mechanical properties of the HPC (compressive strength, flexion tensile strength and module of deformation), produced in Goiânia in hot period (t>25ºC) and of low relative humidity of air (h<50%) situation this considered critical for NBR 14931/2003 and predominant in the months of May the September in this region. In the experimental study were produced HPC of target compressive strength 60, 80 and 100MPa, from the Furnas Mix Proportion Method, using cement CP II-F-32, silica fume, polycarboxylate based superplasticizer, natural sand and crushed stones nº 0 of the granulite. 14 cures of different type and times of duration had been applied: curing with permanence of 1, 3, 7, 14, and 28 days inside of the humid chamber; curing with aspersion of water during 1, 3, 7, 14 and 28 days; chemical curing based on paraffin and chemical curing based on chloride rubber; cure for aspersion of water during 7 days and later sealing of the part with membrane of curing based on chloride rubber and air curing. For concretes of target compressive strength to the 28 days of 60 MPa and 80 MPa, the best type of curing was "saw humid" (curing in humid chamber and curing with aspersion of water) and the best time of duration humid was 7 days. For the one of 100 MPa the best type of curing also was "saw humid", however the duration time was 14 days. According to the chemical curing, some times the results had been even though less than to the one of reference (air curing). Among the two types of used chemical curing, difference in the results of compressive strength was not verified, despite the chemical membrane based on paraffin has an inferior cost to the chloride rubber base. / No caso de concreto convencional, pequenos defeitos construtivos, variações de dosagem ou mesmo curas inadequadas podem não comprometer significativamente o
material. Já no CAD exige-se um rigor no controle desde sua dosagem até a execução, pois qualquer falha pode trazer sérios prejuízos ao material ou a estrutura. Dentre os aspectos
mais importantes relativos à qualidade total de qualquer concreto está a cura, o que se torna fundamental quando se trata de CAD. A cura do concreto de alto desempenho constitui assunto polêmico no meio técnico assim como o tipo e duração desta, por isso a necessidade de um estudo mais apurado sobre este tema.
Esta pesquisa verifica a influência do tipo e tempo de duração de cura nas propriedades mecânicas do CAD (resistência à compressão, resistência à tração na flexão e módulo de deformação), produzidos em Goiânia em período quente (t>25ºC) e de baixa umidade relativa do ar (h<50%), situação esta considerada crítica pela norma NBR 14931 (ABNT, 2003) e predominante nos meses de maio a setembro na região. No estudo experimental foram produzidos CAD de resistência à compressão estimada 60, 80 e 100MPa, a partir do Método de Dosagem de Furnas, utilizando cimento CP II-F-32, sílica ativa, superplastificante à base de éter carboxilato, areia natural e brita 0 de granulito. Foram aplicados 14 curas de diferentes tipos e tempos de duração: cura com permanência
de 1, 3, 7, 14, e 28 dias dentro da câmara úmida; cura através de aspersão de água durante 1, 3, 7, 14 e 28 dias; cura química com membrana à base de parafina e à base de borracha clorada; cura através de aspersão de água durante 7 dias e depois selagem da peça com membrana de cura à base de borracha clorada e cura ao ar. Para os concretos de resistência estimada aos 28 dias de 60 MPa e de 80 MPa, o
melhor tipo de cura foi via úmida (cura em câmara úmida e cura através de aspersão de água) e o melhor tempo de duração foi 7 dias. Para o de 100 MPa o melhor tipo de cura também foi via úmida , porém o tempo de duração foi 14 dias.
Quanto à cura química, algumas vezes os resultados foram até mesmo inferiores ao de referência (cura ao ar). Dentre os dois tipos de curas químicas utilizados não verificouse diferença nos resultados de resistência à compressão, salientando-se que a membrana química à base de parafina tem custo inferior à base de borracha clorada.
|
129 |
Concretos e pastas de elevado desempenho: contribuição aos estudos de reparos estruturais e ligações entre concretos novo e velho, com tratamento da zona de interface. / High-performance concrete and pastes: contribution to the studies of structural repairs and new-to-old concretes bonding, with interfacial zone treatment.Samir Costa Fagury 28 March 2002 (has links)
A ligação entre concretos com cimento Portland de diferentes idades, composições e resistências é um dos problemas da tecnologia dos concretos estruturais. A continuidade desta ligação é prejudicada por uma diversidade de fatores que implicam desde a retomada de uma concretagem (junta fria) até a recuperação de estruturas de concreto deterioradas. Sob esse ponto de vista apresenta−se neste trabalho uma análise do comportamento de um sistema de reparos aplicados à recuperação de estruturas, ligações concretos velhos x concretos novos (caso das ampliações) e continuidades de concretagens. Um dos pontos mais frágeis de uma estrutura é a zona de interface, tanto dos materiais que a compõe quanto da transição entre os diferentes concretos. Utilizou−se como substrato corpos−de−prova prismáticos executados com concretos (fck=15MPa, 18MPa, 21MPa, 25MPa, 30MPa, 40MPa e 50MPa), que após ruptura completa através de ensaios de tração na flexão foi posteriormente executada ligação com concretos de reparo, e corpos−de−prova cilíndricos de concretos convencionais apresentando ninhos de concretagem. Com a finalidade de melhorar a zona de transição citada, utilizou−se como sistema de reparo, concretos de elevado desempenho executados com cimento Portland CP V ARI RS − NBR 5733⁄NBR 5737 − ABNT, agregados: miúdo de origem quartzosa, e graúdo de Dmáx ≤ 6,3 mm de origem basáltica, adições de sílica ativa (Fe−Si) de 5%, 10% e 15% e aditivo superplastificante de pega normal em teores de 1,5%, 1,8% e 2,0%, após prévio tratamento, através de desbaste superficial e imprimação com pastas de cimento de elevado desempenho. A eficácia da ligação é percebida principalmente pelo fato de que em resultados de ensaios de tração na flexão do corpo−de−prova prismático recuperado a ruptura ocorreu, em quase 100% dos casos na região do concreto velho. Em ensaios de compressão axial com corpos−de−prova cilíndricos com ninhos de concretagem recuperados, percebeu−se através do modo de ruptura, que as transferências de tensões ocorreram normalmente através do sistema de reparo, sem que houvesse desvio de tensões, além de um acréscimo de resistência em alguns casos. / The bonding among Portland cement concrete of different ages, compositions and resistances is one of the technological problems of structural concretes. The continuity of this connection is harmed by a several factors from the re−starting of a casting (cold joint) to the recovery of deteriorated concrete structures. From this point of view this paper presents an analysis of the behavior of a repair system applied to the recovery of structures, new−to−old concrete bonding (amplification cases) and casting continuities. One of the most fragile points of a concrete structure is the interface zone, of both materials that compose it and the transition among the different concretes. Prismatic specimens executed with concretes (fck=15MPa, 18MPa, 21MPa, 25 MPa, 30 MPa, 40 MPa and 50 MPa), were used as substratum after a previous complete rupture through a flexural strength test for a further connection, with repair concrete as a bond link, and cylindrical specimens of conventional concretes presenting intentionally \"holes\". High−performance concretes with Portland cement CP V ARI RS (NBR 5733⁄NBR 5737 − ABNT), small quartz aggregates, basaltic coarse aggregates with Dmáx ≤ 6,3mm, silica fume (Fe−Si) additions of 5%, 10% and 15%, and normal setting superplasticizer with contents of 1,5%, 1,8% and 2,0% were used as repair system to improve the transition zone mentioned. Such materials were used after the specimens had been treated superficially and primed with High−performance Portland cement paste. The effectiveness of the connection is noticed mainly by the fact that in results of the flexural strength test of recovered prismatic specimens, the rupture occurred in almost 100% of the cases in the area of the old concrete. In axial compression tests with cylindrical specimens presenting recovered \"holes\", the rupture way demonstrated that the transfers of tensions usually occurred through the repair system, with no tension deviation, and there was a resistance increase in some cases.
|
130 |
Supercomputing over Cloud using the Quicksort algorithmMattamadugu, Lakshmi Narashima Seshendra, Pathan, Ashfaq Abdullah Khan January 2012 (has links)
Context: Cloud Computing has advanced in recent years. It is catching people’s attention as a commodious resource of computational power. Slowly, Cloud is bringing new possibilities for a scientific community to build High Performance Computing platforms. Despite the wide benefits the Cloud offers, the question on everyone’s mind is “Whether the Cloud is a feasible platform for HPC applications”. This thesis evaluates the performance of the Amazon Cloud using a sorting benchmark. Objectives: 1. To investigate all the previous work on HPC that has been ported to the Cloud environment in various fields. Also, the problems and challenges are assessed relevant to HPC associated with the Cloud. 2. A study is done on how to implement parallel Quicksort efficiently to obtain good Speedup. 3. A parallel Quicksort is developed and its performance is measured using ‘Speedup’ by deploying in the Cloud. Methods: Two different research methods were used to carry out the research. They are Systematic Literature Review (SLR) and a Quantitative methodology. Research papers from academic databases namely IEEE Xplore, Inspec, ACM Digital Library and Springerlink were chosen for conducting SLR. Results: From the systematic review undertaken, 12 HPC applications, 9 problems and 5 challenges in the Cloud were identified. Efficient way to implement the parallel Quicksort on the Cloud has been identified. From the experiment results, a low Speedup is obtained in a Cloud environment. Conclusions: Many HPC applications which were deployed in the Cloud so far were identified along with problems and challenges. Message Passing interface (MPI) is chosen as the efficient method to develop and implement the parallel Quicksort in the Cloud. From the experiment results, we believe that the Cloud is not a suitable platform for HPC applications.
|
Page generated in 0.068 seconds