• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 76
  • 14
  • 8
  • 7
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 230
  • 230
  • 67
  • 51
  • 50
  • 41
  • 38
  • 36
  • 35
  • 34
  • 31
  • 28
  • 23
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

[en] GRIDFS: SERVER FOR GRIDS AND HETEROGENEOUS DISTRIBUTED ENVIRONMENTS / [pt] GRIDFS: UM SERVIDOR DE ARQUIVOS PARA GRADES E AMBIENTES DISTRIBUÍDOS HETEROGÊNEOS

MARCELO NERY DOS SANTOS 30 October 2006 (has links)
[pt] A computação em grade permite o uso de recursos computacionais distribuídos em várias redes para a execução de tarefas que requerem um alto poder computacional. Uma infra-estrutura para grades pode ser utilizada para auxiliar na execução dessas tarefas e pode coordenar o controle das atividades envolvidas na execução, como a disponibilização dos arquivos de dados para as tarefas em execução nos nós da grade. O GridFS é um sistema para o compartilhamento de arquivos em grades e ambientes distribuídos heterogêneos. Ao disponibilizar um servidor em diversas máquinas, é possível construir uma federação integrando os diversos sistemas de arquivos locais e abrindo possibilidades de armazenamento na ordem de terabytes. O sistema proposto foi modelado e desenvolvido levando em consideração diversos aspectos como escalabilidade, interoperabilidade e desempenho. O GridFS agrega algumas características dos sistemas de compartilhamento de arquivos atualmente em uso pela comunidade, isto é, o sistema oferece uma API para acesso remoto aos dados, disponibiliza a opção de cópia de arquivos entre diferentes servidores e fornece algumas funções especiais para os ambientes de computação em grade, como uma estimativa do tempo de transferência entre os diversos nós. Além de definir as características e os aspectos de implementação do sistema, esta dissertação apresenta alguns resultados experimentais para a transferência de arquivos na rede e, como forma de avaliação, discutimos a integração do GridFS ao emph {framework} CSBase, utilizado no desenvolvimento de sistemas para computação em grade. / [en] Grid computing allows the use of distributed networks resources for tasks requiring a high processing power. A Grid infra-structure may help in the execution of these tasks and is able to coordinate their related activities, possibly regarding the provision of data files for the tasks executing in the grid nodes. GridFS is a system that enables data sharing in grid and heterogeneous distributed environments. By deploying servers over several nodes, it is possible to build a federated system integrating all local file systems and leveraging possibilities for tera-scale sized data storage. The proposed system was modeled and developed considering several aspects such as scalability, interoperability and performance. GridFS combines some characteristics from diverse file management systems, that is, GridFS provides an API for remote data access, copy operations allowing file transfers between servers, and some special features for grid environments. Apart from defining system characteristics and implementation aspects, this dissertation shows some experimental results about the service scalability and performance, and, as an evaluation, discusses the integration of GridFS with CSBase, a framework used to develop systems for grid computing.
152

WSPE : um ambiente de programação peer-to-peer para a computação em grade / WSPE : a peer-to-peer programming environment for grid computing

Rosinha, Rômulo Bandeira January 2007 (has links)
Um ambiente de programação é uma ferramenta de software resultante da associa ção de um modelo de programação a um sistema de execução. O objetivo de um ambiente de programação é simpli car o desenvolvimento e a execução de aplicações em uma determinada infra-estrutura computacional. Uma infra-estrutura de Computa ção em Grade apresenta características peculiares que tornam pouco e cientes ambientes de programação existentes para infra-estruturas mais tradicionais, como máquinas maciçamente paralelas ou clusters de computadores. Este trabalho apresenta o WSPE, um ambiente de programação peer-to-peer para Computação em Grade. O WSPE oferece suporte para aplicações grid-unaware que seguem o modelo de programação de tarefas paralelas. A interface de programação WSPE é de nida através de anotações da linguagem Java. O sistema de execu- ção segue um modelo peer-to-peer totalmente descentralizado com o propósito de obter robustez e escalabilidade. Embora um sistema de execução necessite abordar diversos aspectos para se tornar completo, a concepção do sistema de execução WSPE aborda aspectos de desempenho, portabilidade, escalabilidade e adaptabilidade. Para tanto foram desenvolvidos ou adaptados mecanismos para as funções de escalonamento, de construção da rede de sobreposição e de suporte ao paralelismo adaptativo. O mecanismo de escalonamento empregado pelo sistema de execução WSPE é baseado na idéia de roubo de trabalho e utiliza uma nova estratégia que resulta em uma e ciência até cinco vezes superior quando comparada com uma estrat égia mais tradicional. Experimentos realizados com um protótipo do WSPE e também por simulação demonstram a viabilidade do ambiente de programação proposto. / A programming environment is a software tool resulting from the association of a programming model to a runtime system. The goal of a programming environment is to simplify application development and execution on a given computational infrastructure. A Grid Computing infrastructure presents peculiar characteristics that make less e cient existing programming environments designed for more traditional infrastructures, such as massively parallel machines or clusters of computers. This work presents WSPE, a peer-to-peer programming environment for Grid Computing. WSPE provides support for grid-unaware applications following the task parallelism programming model. WSPE programming interface is de ned using annotations from the Java language. The runtime system follows a fully decentralized peer-to-peer model. Although several aspects must be considered in order for a runtime system to become complete, WSPE runtime system's conception considers only performance, portability, scalability and adaptability. For this purpose, mechanisms have been developed or adapted to handle scheduling, overlay network building and adaptive parallelism support functions. The scheduling mechanism employed by WSPE's runtime system is based on the idea of work stealing and uses a new strategy resulting on four times higher e ciency when compared to a more traditional strategy. Conducted experiments with WSPE's prototype and also using a simulation tool demonstrate the proposed programming environment feasibility.
153

Uma arquitetura baseada em políticas para o provimento de QoS utilizando princípios de Autonomic Computing / A policy-based architecture for QoS provisioning using autonomic computing principles

Franco, Theo Ferreira January 2008 (has links)
Sistemas corporativos modernos cada vez mais dependentes da rede e a integração de serviços entorno do modelo TCP/IP elevam a exigência de Qualidade de Serviço da infraestrutura de TI. Neste cenário, o dinamismo das redes atuais em conjunto com os novos requisitos de QoS exigem que a infra-estrutura de TI seja mais autônoma e confiável. Para tratar esta questão, o modelo de Gerenciamento de Redes Baseado em Políticas, proposto pelo IETF, vem se consolidando como uma abordagem para controlar o comportamento da rede através do controle das configurações dos seus dispositivos. Porém, o foco deste modelo é o gerenciamento de políticas internas a um domínio administrativo. Esta característica faz com que o modelo possua algumas limitações, tais como a incapacidade de estabelecer qualquer tipo de coordenação entre diferentes PDPs e a impossibilidade de reagir a eventos externos. Visando agregar autonomia ao modelo de gerenciamento baseado em políticas, este trabalho propõe uma arquitetura em camadas que empregue os conceitos de Autonomic Computing relacionados a: i) adaptação dinâmica dos recursos gerenciados em resposta às mudanças no ambiente, ii) integração com sistemas de gerenciamento de outros domínios através do recebimento de notificações destes, iii) capacidade de planejar ações de gerenciamento e iv) promoção de ações de gerenciamento que envolvam mais de um domínio administrativo, estabelecendo uma espécie de coordenação entre PDPs. Para a implementação destes conceitos, a arquitetura prevê o uso de uma camada peerto- peer (P2P) sobre a plataforma de políticas. Desta forma, a partir de uma notificação recebida, a camada P2P planeja ações visando adaptar o comportamento da rede aos eventos ocorridos na infra-estrutura de TI. As ações planejadas traduzem-se em inclusões ou remoções de políticas da plataforma de políticas responsável por gerenciar a configuração dos dispositivos de rede. Para notificações que envolvam recursos de mais de um domínio administrativo, os peers de gerenciamento agem de forma coordenada para implantar as devidas ações em cada domínio. A arquitetura proposta foi projetada com foco em prover QoS em uma rede com suporte à DiffServ, embora acredite-se que a sua estrutura seja genérica o bastante para ser aplicada a outros contextos. Como estudo de caso, foi analisado o emprego da arquitetura em resposta a eventos gerados por uma grade computacional. Foi elaborado ainda um protótipo da arquitetura utilizando o Globus Toolkit 4 como fonte de eventos. / Modern corporative systems becoming more dependent of the network and the integration of services around the TCP/IP model increase the requirement of Quality of Service (QoS) of the IT infrastructure. In this scene, the dynamism of current networks together with the new requirements of QoS demands a more autonomous and reliable IT infrastructure. To address this issue, the model of Police Based Network Management, proposed by IETF, has been consolidated as an approach to control the behavior of the network through the control of the configurations of its devices. However, the focus of this model is the management of the policies internal to an administrative domain. This feature brings some limitations to the model, such as the incapacity to establish any kind of coordination between different PDPs and the impossibility to react to external events. Aiming at to add autonomy to the model of Policy Based Network Management, this work proposes a layered architecture based on the concepts of Autonomic Computing related to: i) the dynamic adaptation of the managed resources in response to changes in the environment, ii) integration with management systems of other domains through the reception of notifications of these systems, iii) ability of planning the management actions and iv) execution of multi-domain management actions, establishing a kind of coordination between PDPs. To implement these concepts, the architecture was designed with a peer-to-peer layer above the policy platform. Thus, from a received notification, the P2P layer plans actions aiming to adapt the network behavior in response to the events occurred in the IT infrastructure. The planned actions are, actually, inclusions or removals of policies in the policy platform responsible for the management of the network devices configuration. For notifications related with resources of more than one administrative domain, the management peers act in a coordinated way in order to establish the suitable actions in each domain. The proposed architecture was designed with focus in providing QoS in a network with support to DiffServ, although we believe that its structure is generic enough to be applied to other contexts. As case study, it was analyzed the use of the architecture in response to events generated by a computational grid. Additionally, a prototype of the architecture was build making use of Globus Toolkit 4 as an event source.
154

Agendamento e reserva futura de caminhos ópticos em ambientes de lambda grid por meio de otimização por colônia de formigas

Tinini, Rodrigo Izidoro January 2014 (has links)
Orientador: Prof. Dr. Gustavo Sousa Pavani / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Ciência da Computação, 2014. / Por conta da grande demanda por computação de alto desempenho, maiores taxas de envio de dados e disponibilidade de recursos de um ambiente de computação em grade, este trabalho apresenta um estudo realizado sobre o uso de redes ópticas que operam com Multiplexação por Divisão de Comprimento de Onda (Wavelength Division Multiplexing (WDM)) no suporte a grades computacionais, cujo ambiente é chamado de lambda grid. Assim, é proposto neste trabalho uma nova arquitetura de lambda grid capaz de ampliar a disponibilidade de seus recursos computacionais e de rede, por meio da inserc~ao de um suporte a reserva futura destes recursos, ampliando a disponibilidade da grade a tempos futuros e não apenas a tempos correntes de operação. Para o gerenciamento desse ambiente, foi proposto o uso de um algoritmo baseado em Otimização por Colônia de Formigas (Ant Colony Optimization (ACO)) integrado ao plano de controle Generalized Multi-Protocol Label Switching (GMPLS), o qual é capaz de gerenciar dinamicamente e de forma conjunta os recursos de processamento e de rede, alem de prover os mecanismos de agendamento e de reserva futura desses recursos. A arquitetura proposta, juntamente com os demais algoritmos desenvolvidos, foi testada e validada por meio de simulações. Os resultados das simulações permitiram a avaliação do desempenho da nova arquitetura e da necessidade de se incorporar o agendamento conjunto com reserva futuras na execução da ação da probabilidade de bloqueio. / Due to the increasing demand of high-performance computing, higher data transport rates and the availability of the resources on a grid computing environment, this work presents a study of the use of Wavelength Division Multiplexing (WDM) optical networks on the support of grid computing, whose environment is known as lambda grid. It is proposed in this work a new architecture of lambda grid which is capable of increasing the availability of its network and computing resources by the use of an advance reservation approach, which makes the grid able to other its resources in future times of operation and not only in the current time. For the management of this environment, it was proposed the use of an Ant Colony Optimization (ACO) based algorithm integrated to the Generalized Multi-Protocol Label Switching (GMPLS) control plane, which is capable to dynamically manage the server and network resources, in addition to provide the co-scheduling and advance reservation of those resources. The proposed architecture and algorithms were tested and evaluated by means of simulations. The obtained results allowed the evaluation of the performance of the new architecture and the need to incorporate the co-scheduling of server and optical network resources in their advance reservation in order to minimize the blocking probability.
155

TUXUR - UM FRAMEWORK PARA DIVISÃO DINÂMICA DE TAREFAS MALEÁVEIS EM GRADE COMPUTACIONAL / TUXUR - A FRAMEWORK FOR DYNAMIC DIVISION OF MALLEABLE TASKS IN GRID COMPUTING

Wiest, Roberto 23 May 2014 (has links)
Grid computing, like other technologies of the Information Technology, was created and developed in the mid 90 in the academic scope. The idea of this technology is to use computer resources without worrying about acquisition new resources and physical location. The focus of computational grids is associated with the execution of applications that demand high computing power or adapt to distributed environments. This makes the environment dynamic and heterogeneous, characteristics that make resource management, scheduling and fault tolerance a great challenge. Grid applications are usually programmed through a framework of grid computing. In this work we present TUXUR, designed to manage the execution of tasks in computing grids. Theis framework is specialized in malleable tasks that allow being divided into independent subtasks of known size. The framework dynamically adjusts the size of the subtasks within the resources made available by grid. The main objective of this adjustment is to try to maximize the use of available computational power, balancing the workload of the components of the grid, according to the capacity of each one. The results of the evaluation show that this goal was achieved, maximizing resource utilization and decreasing the final execution time. / Grades de computadores, como outras tecnologias de Tecnologia da Informação, foi criada e desenvolveu-se em meados dos anos 90 no âmbito acadêmico. A ideia desta tecnologia é utilizar os recursos de computadores, sem se preocupar com a aquisição de novos recursos e localização física. O foco das grades computacionais está associado à execução de aplicações que demandam alto poder computacional ou se adaptam a ambientes distribuídos. Isto torna o ambiente dinâmico e heterogêneo, características que fazem a gerência de recursos, escalonamento e tolerância a falhas um grande desafio. Aplicações de grades são geralmente programadas através de um framework de computação em grade. Neste trabalho apresentamos o TUXUR, projetado para gerenciar a execução de tarefas em grades computacionais. O framework é especializado em tarefas maleáveis, que permitem ser divididas em subtarefas independentes de tamanho conhecido. O framework ajusta dinamicamente o tamanho das subtarefas de acordo com os recursos disponibilizados pela grade. O principal objetivo deste ajuste é tentar maximizar a utilização do poder computacional disponibilizado, equilibrando a carga de trabalho entre os componentes da grade, de acordo com a capacidade de cada um. Os resultados encontrados na avaliação evidenciam que esse objetivo foi alcançado, aproveitando ao máximo a utilização dos recursos e diminuindo o tempo final de execução.
156

WSPE : um ambiente de programação peer-to-peer para a computação em grade / WSPE : a peer-to-peer programming environment for grid computing

Rosinha, Rômulo Bandeira January 2007 (has links)
Um ambiente de programação é uma ferramenta de software resultante da associa ção de um modelo de programação a um sistema de execução. O objetivo de um ambiente de programação é simpli car o desenvolvimento e a execução de aplicações em uma determinada infra-estrutura computacional. Uma infra-estrutura de Computa ção em Grade apresenta características peculiares que tornam pouco e cientes ambientes de programação existentes para infra-estruturas mais tradicionais, como máquinas maciçamente paralelas ou clusters de computadores. Este trabalho apresenta o WSPE, um ambiente de programação peer-to-peer para Computação em Grade. O WSPE oferece suporte para aplicações grid-unaware que seguem o modelo de programação de tarefas paralelas. A interface de programação WSPE é de nida através de anotações da linguagem Java. O sistema de execu- ção segue um modelo peer-to-peer totalmente descentralizado com o propósito de obter robustez e escalabilidade. Embora um sistema de execução necessite abordar diversos aspectos para se tornar completo, a concepção do sistema de execução WSPE aborda aspectos de desempenho, portabilidade, escalabilidade e adaptabilidade. Para tanto foram desenvolvidos ou adaptados mecanismos para as funções de escalonamento, de construção da rede de sobreposição e de suporte ao paralelismo adaptativo. O mecanismo de escalonamento empregado pelo sistema de execução WSPE é baseado na idéia de roubo de trabalho e utiliza uma nova estratégia que resulta em uma e ciência até cinco vezes superior quando comparada com uma estrat égia mais tradicional. Experimentos realizados com um protótipo do WSPE e também por simulação demonstram a viabilidade do ambiente de programação proposto. / A programming environment is a software tool resulting from the association of a programming model to a runtime system. The goal of a programming environment is to simplify application development and execution on a given computational infrastructure. A Grid Computing infrastructure presents peculiar characteristics that make less e cient existing programming environments designed for more traditional infrastructures, such as massively parallel machines or clusters of computers. This work presents WSPE, a peer-to-peer programming environment for Grid Computing. WSPE provides support for grid-unaware applications following the task parallelism programming model. WSPE programming interface is de ned using annotations from the Java language. The runtime system follows a fully decentralized peer-to-peer model. Although several aspects must be considered in order for a runtime system to become complete, WSPE runtime system's conception considers only performance, portability, scalability and adaptability. For this purpose, mechanisms have been developed or adapted to handle scheduling, overlay network building and adaptive parallelism support functions. The scheduling mechanism employed by WSPE's runtime system is based on the idea of work stealing and uses a new strategy resulting on four times higher e ciency when compared to a more traditional strategy. Conducted experiments with WSPE's prototype and also using a simulation tool demonstrate the proposed programming environment feasibility.
157

Uma arquitetura baseada em políticas para o provimento de QoS utilizando princípios de Autonomic Computing / A policy-based architecture for QoS provisioning using autonomic computing principles

Franco, Theo Ferreira January 2008 (has links)
Sistemas corporativos modernos cada vez mais dependentes da rede e a integração de serviços entorno do modelo TCP/IP elevam a exigência de Qualidade de Serviço da infraestrutura de TI. Neste cenário, o dinamismo das redes atuais em conjunto com os novos requisitos de QoS exigem que a infra-estrutura de TI seja mais autônoma e confiável. Para tratar esta questão, o modelo de Gerenciamento de Redes Baseado em Políticas, proposto pelo IETF, vem se consolidando como uma abordagem para controlar o comportamento da rede através do controle das configurações dos seus dispositivos. Porém, o foco deste modelo é o gerenciamento de políticas internas a um domínio administrativo. Esta característica faz com que o modelo possua algumas limitações, tais como a incapacidade de estabelecer qualquer tipo de coordenação entre diferentes PDPs e a impossibilidade de reagir a eventos externos. Visando agregar autonomia ao modelo de gerenciamento baseado em políticas, este trabalho propõe uma arquitetura em camadas que empregue os conceitos de Autonomic Computing relacionados a: i) adaptação dinâmica dos recursos gerenciados em resposta às mudanças no ambiente, ii) integração com sistemas de gerenciamento de outros domínios através do recebimento de notificações destes, iii) capacidade de planejar ações de gerenciamento e iv) promoção de ações de gerenciamento que envolvam mais de um domínio administrativo, estabelecendo uma espécie de coordenação entre PDPs. Para a implementação destes conceitos, a arquitetura prevê o uso de uma camada peerto- peer (P2P) sobre a plataforma de políticas. Desta forma, a partir de uma notificação recebida, a camada P2P planeja ações visando adaptar o comportamento da rede aos eventos ocorridos na infra-estrutura de TI. As ações planejadas traduzem-se em inclusões ou remoções de políticas da plataforma de políticas responsável por gerenciar a configuração dos dispositivos de rede. Para notificações que envolvam recursos de mais de um domínio administrativo, os peers de gerenciamento agem de forma coordenada para implantar as devidas ações em cada domínio. A arquitetura proposta foi projetada com foco em prover QoS em uma rede com suporte à DiffServ, embora acredite-se que a sua estrutura seja genérica o bastante para ser aplicada a outros contextos. Como estudo de caso, foi analisado o emprego da arquitetura em resposta a eventos gerados por uma grade computacional. Foi elaborado ainda um protótipo da arquitetura utilizando o Globus Toolkit 4 como fonte de eventos. / Modern corporative systems becoming more dependent of the network and the integration of services around the TCP/IP model increase the requirement of Quality of Service (QoS) of the IT infrastructure. In this scene, the dynamism of current networks together with the new requirements of QoS demands a more autonomous and reliable IT infrastructure. To address this issue, the model of Police Based Network Management, proposed by IETF, has been consolidated as an approach to control the behavior of the network through the control of the configurations of its devices. However, the focus of this model is the management of the policies internal to an administrative domain. This feature brings some limitations to the model, such as the incapacity to establish any kind of coordination between different PDPs and the impossibility to react to external events. Aiming at to add autonomy to the model of Policy Based Network Management, this work proposes a layered architecture based on the concepts of Autonomic Computing related to: i) the dynamic adaptation of the managed resources in response to changes in the environment, ii) integration with management systems of other domains through the reception of notifications of these systems, iii) ability of planning the management actions and iv) execution of multi-domain management actions, establishing a kind of coordination between PDPs. To implement these concepts, the architecture was designed with a peer-to-peer layer above the policy platform. Thus, from a received notification, the P2P layer plans actions aiming to adapt the network behavior in response to the events occurred in the IT infrastructure. The planned actions are, actually, inclusions or removals of policies in the policy platform responsible for the management of the network devices configuration. For notifications related with resources of more than one administrative domain, the management peers act in a coordinated way in order to establish the suitable actions in each domain. The proposed architecture was designed with focus in providing QoS in a network with support to DiffServ, although we believe that its structure is generic enough to be applied to other contexts. As case study, it was analyzed the use of the architecture in response to events generated by a computational grid. Additionally, a prototype of the architecture was build making use of Globus Toolkit 4 as an event source.
158

Méthodes et outils pour des expériences difficiles sur Grid 5000 : un cas d'utilisation sur une simulation hybride en électromagnétisme / Methods and tools for challenging experiments on Grid’5000 : a use case on electromagnetic hybrid simulation

Ruiz, Cristian 15 December 2014 (has links)
Dans le domaine des systèmes distribués et du calcul haute performance, la validation expérimentale est de plus en plus utilisée par rapport aux approches analytiques. En effet, celles-ci sont de moins en moins réalisables à cause de la complexité grandissante de ces systèmes à la fois au niveau logiciel et matériel. Les chercheurs doivent donc faire face à de nombreux challenges lors de la réalisation de leurs expériences rendant le processus coûteux en ressource et en temps. Bien que de larges plateformes parallèles et technologies de virtualisation existent, les expérimentations sont, pour la plupart du temps, limitées en taille. La difficulté de passer une expérimentation à l'échelle représente un des grands facteurs limitant. Le niveau technique nécessaire pour mettre en place un environnement expérimentale approprié ne cesse d'augmenter pour suivre les évolutions des outils logiciels et matériels de plus en plus complexes. Par conséquent, les chercheurs sont tentés d'utiliser des méthodes ad-hoc pour présenter des résultats plus rapidement et pouvoir publier. Il devient alors difficile d'obtenir des informations sur ces expérimentations et encore plus de les reproduire.Une palette d'outils ont été proposés pour traiter cette complexité lors des expérimentations. Ces outils sont motivés par le besoin de fournir et d'encourager des méthodes expérimentales plus construites. Cependant, ces outils se concentrent principalement sur des scénarios très simple n'utilisant par exemple qu'un seul noeud ou client/serveur. Dans le contexte des systèmes distribués et du calcul haute performance, l'objectif de cette thèse est de faciliter la création d'expériences, de leur contrôle, répétition et archivage.Dans cette thèse nous proposons deux outils pour mener des expérimentations nécessitant une pile logicielle complexe ainsi qu'un grand nombre de ressources matérielles. Le premier outil est Expo. Il permet de contrôler efficacement la partie dynamique d'une expérimentation, c'est à dire l'enchaînement des tests expérimentaux, la surveillance des taches et la collecte des résultats. Expo dispose d'un langage de description qui permet de mettre en place une expérience dans un contexte distribué avec nettement moins de difficultés. Contrairement aux autres approches, des tests de passage à l'échelle et scénarios d'usage sont présentés afin de démontrer les avantages de notre approche. Le second outil est appelé Kameleon. Il traite les aspects statiques d'une expérience, c'est à dire la pile logicielle et sa configuration. Kameleon est un logiciel qui permet de décrire et contrôler toutes les étapes de construction d'un environnement logiciel destiné aux expérimentations. La principale contribution de Kamelon est de faciliter la construction d'environnements logiciels complexes ainsi que de garantir de futur reconstructions. / In the field of Distributed Systems and High Performance Computing experimental validation is heavily used against an analytic approach which is not feasible any more due to the complexity of those systems in terms of software and hardware.Therefore, researchers have to face many challenges when conducting their experiments, making the process costly and time consuming. Although world scale platforms exist and virtualization technologies enable to multiplex hardware, experiments are most of the time limited in size given the difficulty to perform them at large scale.The level of technical skills required for setting up an appropriate experimental environment is risen with the always increasing complexity of software stacks and hardware nowadays. This in turn provokes that researchers in the pressure to publish and present their results use ad hoc methodologies.Hence, experiments are difficult to track and preserve, preventing future reproduction. A variety of tools have been proposed to address this complexity at experimenting. They were motivated by the need to provide and encourage a sounder experimental process, however, those tools primary addressed much simpler scenarios such as single machine or client/server. In the context of Distributed Systems and High Performance Computing, the objective of this thesis is to make complex experiments, easier to perform, to control, to repeat and to archive. In this thesis we propose two tools for conducting experiments that demand a complex software stack and large scale. The first tool is Expo that enable to efficiently control the dynamic part of an experiment which means all the experiment workflow, monitoring of tasks, and collection of results.Expo features a description language that makes the set up of an experiment withdistributed systems less painful. Comparison against other approaches, scalability tests anduse cases are shown in this thesis which demonstrate the advantage of our approach.The second tool is called Kamelon which addresses the static part of an experiment,meaning the software stack and its configuration.Kameleon is a software appliance builderthat enables to describe and control all the process ofconstruction of a software stack for experimentation.The main contribution of Kameleon is to make easy the setup of complex software stacks andguarantee its post reconstruction.
159

SLOT: uma ferramenta dinâmica para escalonamento global de aplicações em grades computacionais

Rios, Ricardo Araújo 19 May 2008 (has links)
Made available in DSpace on 2016-06-02T19:05:34Z (GMT). No. of bitstreams: 1 2082.pdf: 3574461 bytes, checksum: e92a97c5bb512846ce12d22f63592a23 (MD5) Previous issue date: 2008-05-19 / Financiadora de Estudos e Projetos / The constant improvement in performance that computers and interconnection networks present has favored the use of distributed computational resources, and given rise to Grid Computing. This new approach uses heterogeneous and geographically distributed resources to resolve problems with high computational costs. The execution of applications in this environment is generally achieved with scheduling mechanisms that manipulate the task set and its interdependences, mapping the tasks on to the resources. However, existing schedulers generate the schedule of each application individually, not evaluating the impact on the execution of previously scheduled applications. In this sense, this work presents a global scheduling tool for the tasks submitted to the Grid, and also presents a scheduling algorithm that allocates tasks between previously scheduled slots of time. The use of the proposed tool and algorithm permit a reduction in the amount of time processors remain idle and therefore a more efficient execution of the applications. / A melhoria constante de desempenho que os computadores e as redes de interconexão vêm apresentando favoreceu o uso de recursos computacionais distribuídos, dando origem à Computação em Grade. Esta nova abordagem utiliza recursos heterogêneos e geograficamente distribuídos, a fim de resolver problemas de grande custo computacional. A execução de aplicações neste ambiente geralmente é realizada por meio de mecanismos de escalonamento que manipulam os conjuntos de tarefas e suas interdependências, mapeando-as de forma eficiente nos recursos. Contudo, os escalonadores existentes atualmente realizam o escalonamento de cada aplicação individualmente, deixando de avaliar o impacto na execução de aplicações previamente escalonadas. Neste sentido, este trabalho apresenta uma ferramenta de escalonamento global das tarefas submetidas para a Grade e apresenta ainda um algoritmo de escalonamento que aloca as tarefas em fatias de tempo livre entre tarefas previamente escalonadas. A utilização da ferramenta e do algoritmo propostos permite a redução dos períodos de tempo ociosos nos processadores e a execução das aplicações de forma mais eficiente quando comparado com algoritmos tradicionais.
160

SISTEMA DISTRIBUÍDO PARA ALOCAÇÃO DE RECURSOS BASEADA EM NECESSIDADES / Distributed System for Alocation of Resource Based on Necessities

Possani, Cleverton Marlon 01 November 2006 (has links)
Fundação de Apoio a Tecnologia e Ciência / Distributed architectures systems possesses an ample processing power when its resources work through cooperation, forming virtual organizations. The exploitation of idle geographically distributed resource is one of the objectives of the grid computation. In these environments, users application need a certan amount of resources to fill their execution necessities. At the same time, to find these resources, its necessary a way of expressing them. This work presents the development of an archetype to provide abilities of alocation resource to users application. Using for that informations about resources description and necessities. This necessities determine what kind of resource can be used in order to the application be executed with the help of the grid computation. A simulation environment was developed in order to evaluate the performance and to find some archetype critic points. / Arquiteturas de sistemas distribuídos possuem um amplo poder de processamento quando seus recursos trabalham através de cooperação, formando organizações virtuais. O aproveitamento de recursos ociosos geograficamente distribuídos é um dos objetivos das grades computacionais. Nestes ambientes, aplicações de usuários necessitam de uma determinada quantidade de recursos para suprir suas necessidades de execução. Ao mesmo tempo, para localizar estes recursos, é necessário uma forma de expressá-los. Este trabalho apresenta o desenvolvimento de um protótipo para prover habilidades de alocação de recursos a aplicações de usuários, utilizando para isso informações sobre descrição de recursos e necessidades. Estas necessidades determinam quais recursos poderão ser utilizados para que a aplicação seja executada com auxílio da grade computacional. Um ambiente de simulação foi desenvolvido para avaliar a performance e descobrir alguns pontos críticos do protótipo.

Page generated in 0.0924 seconds