• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 2
  • 2
  • Tagged with
  • 65
  • 65
  • 65
  • 32
  • 29
  • 28
  • 15
  • 15
  • 14
  • 13
  • 12
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Certificação de componentes em uma plataforma de nuvens computacionais para serviços de computação de alto desempenho. / Certification of components in a cloud-based platform for high performance computing services.

Dantas, Allberson Bruno de Oliveira January 2017 (has links)
DANTAS, Allberson Bruno de Oliveira. Certificação de componentes em uma plataforma de nuvens computacionais para serviços de computação de alto desempenho. 2017. 214 f. Tese (Doutorado em Ciência da Computação)-Universidade Federal do Ceará, Fortaleza, 2017. / Submitted by Gláucia Helena da Silveira Mota (glaucia@lia.ufc.br) on 2017-10-23T17:57:00Z No. of bitstreams: 1 2017_tese_abodantas.pdf: 3345763 bytes, checksum: 7d9c19651fdf5919fcc10ab432a72eeb (MD5) / Approved for entry into archive by Jairo Viana (jairo@ufc.br) on 2017-11-03T16:48:46Z (GMT) No. of bitstreams: 1 2017_tese_abodantas.pdf: 3345763 bytes, checksum: 7d9c19651fdf5919fcc10ab432a72eeb (MD5) / Made available in DSpace on 2017-11-03T16:48:46Z (GMT). No. of bitstreams: 1 2017_tese_abodantas.pdf: 3345763 bytes, checksum: 7d9c19651fdf5919fcc10ab432a72eeb (MD5) Previous issue date: 2017 / The development of correct and safe High Performance Computing (HPC) applications is a challenge for developers, since such applications generally use parallelism and run on heterogeneous parallel computing platforms. The Doctoral Thesis proposed in this document is aimed at presenting an architecture of a component certification mechanism for cloud computing platforms of high performance computing services. In particular, this mechanism is proposed within the context of the HPC Shelf platform, allowing the construction of certified components for functional and non-functional properties, which can be used to compose applications for expert users. Two particular certifier components are proposed using the certification mechanism introduced in this Thesis: SWC2 (Scientific Workflow Certifier Component) e C4 (Computation Component Certifier Component). SWC2 components are used to verify formal properties of workflows in HPC Shelf. In turn, C4 components are employed to verify formal properties on computation components. There are still tactical components, which expose the services of software formal verification infrastructures and can be orchestrated, by certifiers, by means of the TCOL (Tactical Component Orchestration Language) language, also proposed in this work. It is expected to contribute to the state-of-the-art in the following points: in cloud computing, by providing the first cloud infrastructure focused on software formal verification using exclusively high performance computing techniques; in component-oriented platforms, by providing nondisruptive components that can certify others in a reflexive way; enabling the creation of the so-called parallel certification systems, which are formed by the orchestration of provers to verify formal properties; in scientific workflows, by extracting the main verifiable patterns in these workflows; and in high performance computing applications, by providing a study on which software formal verification tools are able to verify their properties. / O desenvolvimento de aplicações de Computação de Alto Desempenho (CAD) corretas e seguras é um desafio para desenvolvedores, uma vez que tais aplicações geralmente utilizam paralelismo e executam em plataformas heterogêneas de computação paralela. A Tese de Doutorado proposta neste documento dispõe-se a apresentar a arquitetura de um mecanismo de certificação de componentes para plataformas de nuvens computacionais de serviços de computação de alto desempenho. Em particular, esse mecanismo é proposto no contexto da plataforma HPC Shelf, permitindo a construção de componentes certificados quanto a propriedades funcionais e não funcionais, os quais podem ser utilizados para compor aplicações para usuários especialistas. Dois componentes certificadores particulares são propostos utilizando o mecanismo de certificação introduzido na Tese: SWC2 (Scientific Workflow Certifier Component) e C4 (Computation Component Certifier Component). Componentes SWC2 são utilizados para verificar propriedades formais em workflows na HPC Shelf. Já os componentes C4 são empregados para verificar propriedades formais em componentes de computação. Existem ainda componentes táticos, que expõem serviços de infraestruturas de verificação formal de software e podem ser orquestrados, por certificadores, através da linguagem TCOL (Tactical Component Orchestration Language), também proposta nesse trabalho. Espera-se contribuir com o estado da arte nos seguintes pontos: em nuvens computacionais, fornecendo a primeira infraestrutura em nuvem voltada à verificação formal de software utilizando exclusivamente técnicas de CAD; em plataformas orientadas a componentes, provendo componentes não disruptivos que podem certificar outros de forma reflexiva; possibilitando a criação dos chamados sistemas de certificação paralela, os quais são formados por orquestrações de provadores para verificar propriedades formais; em workflows científicos, extraindo os principais padrões verificáveis desses workflows; e em aplicações de CAD, fornecendo um estudo sobre quais ferramentas de verificação formal de software se aplicam na verificação de suas propriedades.
2

"Modelagem Paralela em C+CUDA de Sistema Neural de Visão Estereoscópica".

CARVALHO, C. A. 31 August 2009 (has links)
Made available in DSpace on 2016-08-29T15:33:09Z (GMT). No. of bitstreams: 1 tese_2809_.pdf: 2366315 bytes, checksum: 58149b82c1db73f2e15308dca84634dc (MD5) Previous issue date: 2009-08-31 / "Os sistemas biológicos que viabilizam os sentidos dos seres vivos, especialmente dos seres humanos, tem sido objeto de estudo desde a antiguidade. O advento da computação, a partir do século XX, propiciou ferramentas para que tais sistemas pudessem ser simulados, desde que compreendidos. Vários pesquisadores tem trabalhado no sentido de elaborar modelos cada vez mais próximos dos sistemas naturais, e sua reprodução em ambientes naturais ou computacionais simulados permite a verificação de sua eficácia. A visão, um dos mais poderosos sentidos humanos, é um dos mais investigados devido, principalmente, ao grande número de aplicações de sistemas de visão artificial. Sua modelagem tem avançado com velocidade, mas sua eficiência esbarra, muitas vezes, na disponibilidade de recursos computacionais para o processamento, uma vez que o cérebro possui bilhões de neurônios envolvidos na viabilização do sentido da visão. Neste trabalho foram investigados mecanismos de paralelização do código de modelo matemático-computacional, desenvolvido na UFES em trabalho anterior, da arquitetura neural humana envolvida com a percepção da profundidade (reconstrução do ambiente 3D externo internamente ao computador) por meio da visão estéreo. Durante a investigação, foi identificada a oportunidade do uso de C+CUDA (Compute Unified Device Architecture) para o desenvolvimento de versão paralela do modelo original de percepção da profundidade por meio da visão estéreo. A nova versão C+CUDA do modelo roda em GPUs (Graphics Processing Units) e, no ambiente de desenvolvimento utilizado, alcançou desempenho 57,4 vezes superior à versão seqüencial original. Speedups desta magnitude demonstram os benefícios da computação paralela e de alto desempenho e a importância que a nova tecnologia de GPUs tem no cenário atual com o aumento de desempenho obtido, a aplicação que rodava em 16,9 segundos (uma reconstrução 3D) passou a rodar em 0,27 segundos, o que viabiliza aplicações de tempo real em robótica, por exemplo."
3

Middleware para coordenar tolerância a falhas e elasticidade em clusters de alto desempenho com produtores e consumidores baseados em filas de mensagens

Teixeira, Eduardo Henrique Ferreira Mendes 07 July 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Departamento de Ciência da Computação, Programa de Pós-Graduação em Computação Aplicada, 2014. / Submitted by Ana Cristina Barbosa da Silva (annabds@hotmail.com) on 2014-12-09T17:05:06Z No. of bitstreams: 1 2014_EduardoHenriqueFerreiraMendesTeixeira.pdf: 2232673 bytes, checksum: aff74f93e1003d1ade958b064f26c6b3 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-12-15T13:56:38Z (GMT) No. of bitstreams: 1 2014_EduardoHenriqueFerreiraMendesTeixeira.pdf: 2232673 bytes, checksum: aff74f93e1003d1ade958b064f26c6b3 (MD5) / Made available in DSpace on 2014-12-15T13:56:38Z (GMT). No. of bitstreams: 1 2014_EduardoHenriqueFerreiraMendesTeixeira.pdf: 2232673 bytes, checksum: aff74f93e1003d1ade958b064f26c6b3 (MD5) / Este trabalho propôs e avaliou um middleware com suporte à tolerância a falhas e à elasticidade em um cluster de alto desempenho. Para isso, foi construída uma arquitetura elástica para se adaptar dinamicamente ao crescimento da fila de requisições, para que as mensagens não se acumulem, e tolerante a falhas para que eventuais paradas do sistema, por queda ou falha dos serviços, não impactem na operacionalidade do cluster. Assim sendo, o middleware desenvolvido foi capaz de diminuir o número de servidores necessários para processar as filas de mensagens, liberando recursos da infraestrutura do cluster para uso como failover do sistema distribuído ou em outras aplicações. Consequentemente, a qualidade dos serviços prestados melhorou, devido a diminuição dos tempos de atualização do sistema por conta de manutenções evolutivas e corretivas. ______________________________________________________________________________ ABSTRACT / This work proposed and evaluated a middleware with support for fault tolerance and elasticity in a high performance cluster. For this purpose, it was constructed an elastic architecture to dynamically adapt to growth in the request queue, so that messages do not accumulate. Also the architeture provides fault-tolerance to system outages, in the cases of failure of service, so these failures do not impact on the operation of the cluster. The middleware developed was able to decrease the number of servers needed to process the message queue, freeing infrastructure resources of the cluster for use as a failover of the distributed system or in other applications. Consequently, the quality of service has improved due to shortened time to update the system on behalf of progressive and corrective maintenance.
4

Estratégia distribuída híbrida em cluster multicore heterogêneo para alinhamento múltiplo de sequencias biológicas com o dialign-tx

Macedo, Emerson de Araújo 25 October 2010 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2010. / Submitted by samara castro (sammy_roberta7@hotmail.com) on 2011-01-18T17:40:29Z No. of bitstreams: 1 2010_EmersondeAraujoMacedo.pdf: 1706327 bytes, checksum: 1c50b4ee04f9e253ff36c9dad8d53b03 (MD5) / Approved for entry into archive by Luanna Maia(luanna@bce.unb.br) on 2011-01-19T12:13:59Z (GMT) No. of bitstreams: 1 2010_EmersondeAraujoMacedo.pdf: 1706327 bytes, checksum: 1c50b4ee04f9e253ff36c9dad8d53b03 (MD5) / Made available in DSpace on 2011-01-19T12:13:59Z (GMT). No. of bitstreams: 1 2010_EmersondeAraujoMacedo.pdf: 1706327 bytes, checksum: 1c50b4ee04f9e253ff36c9dad8d53b03 (MD5) / O Alinhamento Múltiplo de Sequências (AMS) é um problema importante em Bioinformática, permitindo a interpretação de árvores filogenéticas, a identificação de domínios e padrões conservados e a predição de estruturas secundárias. Como o AMS é um problema NP-Difícil, heurísticas são utilizadas. O programa DIALIGN-TX implementa uma heurística iterativa para calcular o AMS em três fases. A fase 1 calcula todas as comparações par a par das sequências de entrada, exigindo a maior parcela do tempo de execução para o cálculo do AMS. Esta fase possui grande potencial para execução em paralelo, pois as comparações par a par são independentes entre si. Os clusters multicore heterogêneos surgem da expansão gradual de ambientes compostos por clusters multicore homogêneos. Para explorar as características multicore e heterogênea desse sistema em cluster, é intuitivo que o emprego de um modelo de programação híbrido com trocas de mensagens e memória compartilhada seja mais apropriado, bem como de uma estratégia de alocação de tarefas que permita lidar com as diferentes capacidades de processamento de seus nós. A presente dissertação propõe e avalia um estratégia distribuída híbrida para que a ferramenta DIALIGN-TX seja executada num cluster multicore heterogêneo. A estratégia proposta foi implementada em um cluster multicore heterogêneo com três nós com capacidades de processamento e velocidades de clock diferentes. Foi utilizado um modelo híbrido de programação com troca de mensagens para a comunicação entre os nós e memória compartilhada para comunicação entre os cores de um mesmo nó. Foram implementadas três novas estratégias de alocação de tarefas, chamadas Hybrid Fixed (HFixed), Hybrid Self-Scheduling (HSS) e Hybrid Weighted Factoring (HWF). Os resultados obtidos mostraram que a solução proposta consegue reduzir de maneira bastante significativa o tempo de execução da fase 1 do AMS do DIALIGN-TX. Além disso, mostraram que a escolha de uma política de alocação de tarefas adequada é de fundamental importância para o desempenho da solução. __________________________________________________________________________________________ ABSTRACT / The Multiple Sequence Alignment (MSA) is an important problem in Bioinformatics, allowing interpretation of phylogenetic trees, identification of domains and conserved motifs and prediction of secondary structures. As the MSA is an NP-Hard problem, heuristics are used. The DIALIGN-TX program implements an iterative heuristic to calculate the MSA in three phases. Phase 1 calculates all pairwise comparisons of the input sequences, requiring the largest portion of execution time for the calculation of MSA. This phase has great potential for parallel execution, since its pairwise comparisons are independent from each other. The heterogeneous multicore clusters arise from the gradual expansion of environments composed of homogeneous multicore clusters. To explore the multicore and heterogenous characteristics of that cluster system, it is intuitive that the use of a hybrid programming model with message passing and shared memory is more appropriate, as well as a task allocation strategy for addressing the different computation powers in its nodes. This dissertation proposes and evaluates a hybrid distributed strategy that allows DIALIGN-TX to be executed in a heterogeneous multicore cluster. The proposed strategy was implemented in a heterogeneous multicore cluster with three nodes with diferent processing capabilities and clock speeds. A hybrid programming model with message passing for communication among nodes and shared memory for communication among cores of the same node was used. Moreover, three new strategies for task allocation were implemented: Hybrid Fixed (HFixed), Hybrid Self-Scheduling (HSS) and Hybrid Weighted Factoring (HWF). The results showed that the proposed solution can reduce quite significantly the execution time of the first phase of the MSA of DIALIGN-TX. Furthermore, they also showed that choosing an appropriate task allocation centeringpolicy has fundamental importance for the performance of the solution.
5

Desenvolvimento de uma plataforma com uma arquitetura escalável para multiplicação de matrizes densas em sistemas reconfiguráveis de alto desempenho

Holanda Tavares Charamba Dutra, Bruno 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T16:01:18Z (GMT). No. of bitstreams: 2 arquivo7574_1.pdf: 3964838 bytes, checksum: 9d67d7eca014312def012c15ef291b50 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / O surgimento de novas gerações de FPGAs (Field Program Gate Array) de larga escala, com uma maior densidade de elementos lógicos e de memória interna, motivou a comunidade científica e a indústria a investir no desenvolvimento de plataformas reconfiguráveis de alto desempenho que utilizam FPGAs como co-processadores. Com os microprocessadores atuais atingindo seus limites de freqüência de operação e tendo o desempenho limitado pela baixa largura de banda no acesso a memória, os dispositivos lógicos programáveis, como os FPGAs, surgem como uma alternativa para o processamento de aplicações que requerem alto desempenho, uma vez que possuem uma grande quantidade de pinos que podem ser conectados a interfaces de memória externas além de possibilitar a exploração do paralelismo inerente das implementações em linguagens de descrição de hardware. Além do ganho de desempenho possível, os FPGAs dissipam uma quantidade potência bastante inferior comparada aos processadores de propósito geral produzindo uma relação desempenho por potência dissipada muito mais favorável quando comparado aos microprocessadores. Dentre as várias aplicações que exigem computação de alto desempenho a comunidade científica tem concentrado esforços para acelerar funções da biblioteca BLAS (Basic Linear Algebra Subprogram) que consiste em uma biblioteca open-source de operações básicas de álgebra linear. Uma das operações mais importantes desta biblioteca é multiplicação de matrizes que está presente em aplicações de diferentes áreas. Neste trabalho foi desenvolvida uma plataforma de alto de desempenho que utiliza um FPGA como co-processador para multiplicação de matrizes densas. A plataforma foi desenvolvida de forma a ser escalável podendo processar matrizes de diferentes tamanhos. Além disso, outra característica importante da plataforma é o fato de ter sido desenvolvida com o intuito de abstrair todos os detalhes de hardware para o usuário. O desempenho da plataforma foi comparado com implementações otimizadas do algoritmo de multiplicação de matrizes executando em um processador de propósito geral
6

Desenvolvimento de uma plataforma reconfigurável para modelagem 2D, em sísmica, utilizando FPGAS

ROCHA, Rodrigo Camarotti Ferreira da 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T16:01:24Z (GMT). No. of bitstreams: 2 arquivo8463_1.pdf: 12319126 bytes, checksum: b5a8c52d8e0b6baad317795923ed8e8d (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / A exploração sísmica é uma técnica exploratória, que tem como objetivos localizar depósitos de minerais, hidrocarbonetos (ex: petróleo e gás natural), e sítios arqueológicos, capturando informações geológicas do ambiente que comporta estes elementos. A maioria das companhias de petróleo apoia‐se na interpretação sísmica para definir os lugares de exploração dos poços. Os métodos sísmicos utilizados na exploração sísmica têm como objetivo gerar uma imagem do terreno que se tem interesse. Esses métodos geralmente requerem sistemas com alto poder computacional, devido à quantidade massiva de dados e de computações necessária para a resolução dos mesmos. A Migração Reversa no Tempo (Reverse Time Migration ‐ RTM) é um método sísmico que resolve a equação de onda assumindo que seus campos de pressão podem se propagar da fonte de ondas sísmicas para os hidrofones, estágio denominado de modelagem, e dos hidrofones para a fonte de ondas sísmicas, o que é definido como migração. O RTM consegue gerar boas imagens em terrenos bastante complexos, porém seu custo computacional é bastante elevado. Sua utilização vem aumentando nos últimos anos, devido a grande melhora no desempenho das CPUs e o surgimento de ambientes de computação paralela, como clusters, GPU, e FPGA. Esta dissertação irá explorar a possibilidade de utilização de FPGAs para realizar a aceleração do problema de modelagem sísmica em 2D, primeiro passo computacional do método RTM. Para realizar essa exploração foi desenvolvida uma plataforma reconfigurável baseada em FPGA que utiliza uma plataforma da GiDEL, denominada PROCe‐III. O sistema a ser apresentado como proposta adota um modelo co‐design, tendo a unidade de software representada por uma CPU e, um FPGA, representando o componente de hardware, como um coprocessador
7

Estudo de casos com aplicações científicas de alto desempenho em agregados de computadores multi-core

Silva Filho, Luiz Carlos Pinto January 2008 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2012-10-23T18:35:15Z (GMT). No. of bitstreams: 1 255525.pdf: 4153224 bytes, checksum: 0da857a4e789da15dbeca83bb199a295 (MD5) / Este trabalho de disserta»c~ao concentra seu esfor»co no estudo emp¶³rico de tr^es casos com ambientes de cluster distintos e homog^eneos, sendo que dois deles s~ao ambientes operacionais de empresas. Tais agregados s~ao compostos por computadores multiprocessados com processadores mono-core e multi-core (dual-core e quad-core), interconectados por redes Gigabit Ethernet, e outro ambiente interconectado por uma rede Myrinet. O primeiro estudo de caso foi realizado em um ambiente experimental como um exerc¶³cio emp¶³rico sobre a rela»c~ao entre tecnologias de rede de interconex~ao e carac- ter¶³sticas inerentes a aplica»c~oes paralelas. Com isso, pretendeu-se entrar em contato com a realidade da computa»c~ao paralela por meio de arquiteturas paralelas distribu¶³das como os agregados de computadores. Al¶em disso, pode-se conhecer e analisar as diferen»cas em desempenho oferecido por sistemas de comunica»c~ao distintos, como a tecnologia de rede Myrinet face µa tecnologia Ethernet, diante de aplica»c~oes de granularidades distintas, bem como compreender as m¶etricas comumente adotadas em avalia»c~oes de desempenho. Dentre as contribui»c~oes do trabalho de pesquisa e experimenta»c~ao desenvolvido est¶a a redu»c~ao do tempo de execu»c~ao de aplica»c~oes cient¶³¯cas grand challenge, como a modelagem num¶erica de previs~ao meteorol¶ogica. Sendo assim, busca-se como resultado a otimiza»c~ao de desempenho do ambiente de cluster em compara»c~ao µa sua condi»c~ao anterior, sem nenhuma especializa»c~ao µa aplica»c~ao em foco. Nesse sentido, dois estudos de casos foram realizados em agregados de computadores pertencentes a organiza»c~oes, em uma aproxima»c~ao com a realidade da computa»c~ao de alto desempenho em ambientes de produ»c~ao. Com a realiza»c~ao deste estudo emp¶³rico como um todo, pode-se contrastar na pr¶atica os pontos estudados durante a revis~ao bibliogr¶a¯ca. Foi poss¶³vel compreender melhor as vantagens e desvantangens envolvidas nesses ambientes enquanto sistemas paralelos distribu¶³dos, com o foco voltado µa modelagem de sistemas de alto desempenho em ambientes de produ»c~ao. Durante o processo de otimiza»c~ao do desempenho, entrou-se em contato com os mecanismos de intera»c~ao entre processos e os modelos de programa»c~ao paralela envolvidos ao mesmo tempo em que investigou-se o impacto da tend^encia atual no que diz respeito a processadores multi-core, bem como os fatores redutores do desempenho (que resultam em overhead). En¯m, o conhecimento adquirido com os estudos de casos possibilita uma melhor compreens~ao do processo e dos fatores envolvidos na implementa»c~ao de ambientes de cluster adequados a cada aplica»c~ao paralela com demanda por alto desempenho, a ¯m de aproveitar melhor os recursos agregados. Al¶em disso, a import^ancia deste trabalho transcende µa ci^encia da computa»c~ao como disciplina acad^emica, pois a empresa parceira ganha em capacidade e qualidade na previs~ao meteorol¶ogica do tempo, seja para prevenir o impacto de desastres naturais ou para auxiliar na produ»c~ao agr¶³cola, e tamb¶em em potencial de pesquisa no ^ambito daquela ¶area de atua»c~ao. This dissertation concentrates its e®ort on the empirical study of three cases with distinct and homogeneous cluster con¯gurations, two of them operational environments at organizations. Theses clusters are equipped with multiprocessor computers, including multiple single-core and multi-core processors (dual-core and quad-core), interconnected by Gigabit Ethernet networks, and one environment interconnected with a Myrinet device. The ¯rst case study was performed on an experimental environment as an empiri-cal exercise about the relationship between interconnect technologies and characteristics inherent to parallel applications, in order to get in touch with the reality of parallel computing through parallel distributed architectures such as a cluster. Furthermore, we could acknowledge and analyze the di®erences in performance o®ered by di®erent communication systems, opposing Myrinet and Ethernet networking technologies before applications of di®erent granularity, as well as understand common metrics adopted for performance assessments. One of the contributions of this empirical and research work is to reduce the wall clock (or elapsed) time of grand challenge scienti¯c applications, such as numerical weather prediction models. Therefore, it should result in a better performance of the cluster environment compared to its previous condition, with no adaptation for the running application. Based on that, two case studies were conducted on operational clusters belonging to organizations in order to interact with the reality of high performance computing in production environments. Performing this empirical study as a whole confronts the knowledge obtained throughout the literature review putting them into practice. Moreover, we could accomplish a better understanding of the trade-o®s involved in cluster environments as distributed parallel systems for production environments from the point of view of an architectural designer. During this optimization process, we could understand the mechanisms for pro-cesses interaction and parallel programming models as well as the factors for overhead growth and performance reduction. Finally, the knowledge acquired with these case studies allow us to better comprehend the process and the factors involved in the implementation and adaptation of cluster en vironments to a speci¯c high performance application, in order to better employ the aggregated computing resources. Furthermore, the importance of this work transcends computer sciences as an academic subject, because the partner organization gains capacity and quality for predicting weather conditions, either to prevent us from the impact of natural disasters or to enhance agricultural production, as well as gains in research potential within that speci¯c area.
8

Adaptação e avaliação de triagem virtual em arquiteturas paralelas híbridas

Jesus, Éverton Mendonça de 22 November 2016 (has links)
Submitted by Mayara Nascimento (mayara.nascimento@ufba.br) on 2017-05-31T11:34:12Z No. of bitstreams: 1 dissertacao-everton-mendonca Copy.pdf: 756322 bytes, checksum: 010382d1618c37e3db7570c6c156e7fa (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-06-02T14:02:16Z (GMT) No. of bitstreams: 1 dissertacao-everton-mendonca Copy.pdf: 756322 bytes, checksum: 010382d1618c37e3db7570c6c156e7fa (MD5) / Made available in DSpace on 2017-06-02T14:02:16Z (GMT). No. of bitstreams: 1 dissertacao-everton-mendonca Copy.pdf: 756322 bytes, checksum: 010382d1618c37e3db7570c6c156e7fa (MD5) / A Triagem Virtual é uma metodologia computacional de busca de novos fármacos que verifica a interação entre moléculas (ligantes) e alvos macromoleculares. Este trabalho Objetivou a adaptação de uma ferramenta de Triagem Virtual para arquiteturas paralelas com GPUs e multicore e avaliação dos seus resultados, buscando com isso aumentar o desempenho da triagem, reduzindo seu tempo de execução e, consequentemente, permitindo a escalabilidade do número de moléculas envolvidas no processo. A ferramenta escolhida Para este propósito foi o Autodock devido a sua ampla adoção dentre os pesquisadores de novos fármacos que utilizam a Triagem Virtual. Três implementações foram criadas abordando diferentes técnicas de paralelismo. A primeira foi uma versão multicore onde foi utilizado OpenMP, a segunda foi uma implementação em GPUs utilizando CUDA e porém, foi criada uma implementação híbrida utilizando a versão multicore e a versão para GPUs em conjunto. Em todas as abordagens foram alcançados bons resultados em relação ao tempo de execução total, porém a versão híbrida foi a que obteve os melhores resultados. A versão multicore alcançou speedups, ou ganhos de desempenho, da ordem de 10 vezes. A versão para GPUs alcançou speedups da ordem de 28 vezes e a híbrida de 85 vezes. Com estes resultados foi possível determinar que o uso de plataformas de execução paralelas podem, efetivamente, melhorar o desempenho Triagem Virtual.
9

Um arcabouço para a construção de aplicações baseadas em componentes sobre uma plataforma de nuvem computacional para serviços de computação de alto desempenho / A framework for building component-based applications on a cloud computing platform for high performance computing services

Silva, Jefferson de Carvalho January 2016 (has links)
SILVA, Jefferson de Carvalho. Um arcabouço para a construção de aplicações baseadas em componentes sobre uma plataforma de nuvem computacional para serviços de computação de alto desempenho. 2016. 189 f. Tese (Doutorado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2016. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-20T13:23:12Z No. of bitstreams: 1 2016_tese_jcsilva.pdf: 4498142 bytes, checksum: 52ad7d9692df71a47320a253bdd0b4e3 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-25T12:42:06Z (GMT) No. of bitstreams: 1 2016_tese_jcsilva.pdf: 4498142 bytes, checksum: 52ad7d9692df71a47320a253bdd0b4e3 (MD5) / Made available in DSpace on 2016-07-25T12:42:06Z (GMT). No. of bitstreams: 1 2016_tese_jcsilva.pdf: 4498142 bytes, checksum: 52ad7d9692df71a47320a253bdd0b4e3 (MD5) Previous issue date: 2016 / Developing High Performance Computing applications (HPC), which optimally access the available computing resources in a higher level of abstraction, is a challenge for many scientists. To address this problem, we present a proposal of a component computing cloud called HPC Shelf, where HPC applications perform and SAFe framework, a front-end aimed to create applications in HPC Shelf and the author's main contribution. SAFe is based on Scientific Workflows Management Systems (SWMS) projects and it allows the specification of computational solutions formed by components to solve problems specified by the expert user through a high level interface. For that purpose, it implements SAFeSWL, an architectural and orchestration description language for describing scientific worflows. Compared with other SWMS alternatives, besides rid expert users from concerns about the construction of parallel and efficient computational solutions from the components offered by the cloud, SAFe integrates itself to a system of contextual contracts which is aligned to a system of dynamic discovery (resolution) of components. In addition, SAFeSWL allows explicit control of life cycle stages (resolution, deployment, instantiation and execution) of components through embedded operators, aimed at optimizing the use of cloud resources and minimize the overall execution cost of computational solutions (workflows). Montage and Map/Reduce are the case studies that have been applied for demonstration, evaluation and validation of the particular features of SAFe in building HPC applications aimed to the HPC Shelf platform. / Desenvolver aplicações de Computação de Alto Desempenho (CAD), que acessem os recursos computacionais disponíveis de forma otimizada e em um nível maior de abstração, é um desafio para cientistas de diversos domínios. Esta Tese apresenta a proposta de uma nuvem de componentes chamada HPC Shelf, pano de fundo onde as aplicações CAD executam, e o arcabouço SAFe, Front-End para criação de aplicações na HPC Shelf e contribuição principal do autor. O SAFe toma como base o projeto de sistemas gerenciadores de workflows científicos (SGWC), permitindo a implementação de soluções computacionais baseadas em componentes para resolver os problemas especificados por meio de uma interface de nível de abstração mais alto. Para isso, foi desenvolvido o SAFeSWL, uma linguagem de descrição arquitetural e orquestração de worflows científicos. Comparado com outros SGWC, além de livrar usuários finais de preocupações em relação à construção de soluções computacionais paralelas e eficientes a partir dos componentes oferecidos pela nuvem, o SAFe faz uso de um sistema de contratos contextuais integrado a um sistema de descoberta (resolução) dinâmica de componentes. A linguagem SAFeSWL permite o controle explícito das etapas do ciclo de vida de um componente em execução (resolução, implantação, instanciação e execução), através de operadores embutidos, a fim de otimizar o uso dos recursos da nuvem e minimizar os custos de sua utilização. Montage e Map/Reduce constituem os estudos de caso aplicados para demonstração e avaliação das propriedades originais do SAFe e do SAFeSWL na construção de aplicações de CAD.
10

Reconfiguração elástica de componentes paralelos em nuvens de serviços de Computação de Alto Desempenho / Elastic reconfiguration of parallel components in clouds of High Performance Computing services

Alencar, João Marcelo Uchôa de January 2017 (has links)
ALENCAR, João Marcelo Uchôa de. Reconfiguração elástica de componentes paralelos em nuvens de serviços de Computação de Alto Desempenho. 2017. 134 f. Tese (Doutorado em Ciência da Computação)-Universidade Federal do Ceará, Fortaleza, 2017. / Submitted by Jonatas Martins (jonatasmartins@lia.ufc.br) on 2017-09-20T19:48:38Z No. of bitstreams: 1 2017_tese_jmualencar.pdf: 2927371 bytes, checksum: 31dbca226eba1a11536c49993d0056f5 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2017-09-21T12:29:09Z (GMT) No. of bitstreams: 1 2017_tese_jmualencar.pdf: 2927371 bytes, checksum: 31dbca226eba1a11536c49993d0056f5 (MD5) / Made available in DSpace on 2017-09-21T12:29:09Z (GMT). No. of bitstreams: 1 2017_tese_jmualencar.pdf: 2927371 bytes, checksum: 31dbca226eba1a11536c49993d0056f5 (MD5) Previous issue date: 2017 / Researchers willing to run scientific applications have a vast choice of computing infrastructures such as supercomputers and clouds. Since these infrastructures are of shared nature, it is usual to face variability in the state of resources during the execution of a parallel program. End users and developers should have the capability to adapt and control execution to ensure compliance with quality of service requirements. In the particular case of clouds, the reconfiguration is enabled by the concept of elasticity. In this Thesis, we present an architecture for a framework that allows the stakeholders to define policies and mechanisms of control at runtime for the elasticity of components of parallel systems, changing the set of allocated resources. We use the HPC Shelf cloud of components as the execution environment. This cyberinfrastructure presents a contextual contract system that allows the proper description and allocation of components and virtual platforms, defining the optimized match according to the characteristics of the parallel programs and the resources available on the platforms. Contextual contracts also allow the definition of quality of service contracts according to researchers' priorities and requirements. The resulting HPC Shelf environment with elastic reconfiguration control expands the options for the stakeholders, ensuring that the runtime respects the component service quality contract in the face of incomplete information and fluctuations in the environment. / Os pesquisadores que desejam executar aplicações científicas possuem uma vasta opção de infraestruturas computacionais como supercomputadores e nuvens. Essas infraestruturas são de natureza compartilhada, é norma existirem mudanças no estado dos recursos durante a execução de um programa paralelo. É importante que os usuários finais e os desenvolvedores tenham meios de adaptar e controlar a execução para garantir o cumprimento de requisitos de qualidade de serviço. No caso específico das nuvens, a reconfiguração é habilitada pelo conceito de elasticidade. Nesta Tese, apresentamos uma arquitetura para um arcabouço que permita aos atores envolvidos definir políticas e mecanismos de controle em tempo de execução para a elasticidade de componentes de sistemas paralelos, alterando o conjunto de recursos alocados. Utilizamos como ambiente de execução a nuvem de componentes HPC Shelf. Esse ambiente apresenta um sistema de contratos contextuais que permite a descrição e alocação adequada de componentes e plataformas virtuais, definindo a combinação otimizada de acordo com as características dos programas paralelos e os recursos disponíveis nas plataformas. Os contratos contextuais também permitem a definição de contratos de qualidade de serviço de acordo com prioridades e requisitos dos pesquisadores. Dessa forma, o ambiente resultante da HPC Shelf com controle de reconfiguração elástica amplia as opções dos atores envolvidos, garantindo que o contrato de qualidade de serviços dos componentes seja respeitado diante de informações incompletas e de mudanças no ambiente.

Page generated in 0.1197 seconds