• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 263
  • 48
  • 14
  • 12
  • 10
  • 10
  • 10
  • 9
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 331
  • 331
  • 331
  • 211
  • 209
  • 52
  • 50
  • 49
  • 48
  • 43
  • 43
  • 42
  • 42
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Unveiling the interplay between timeliness and scalability in cloud monitoring systems / Desvelando a relação mútua entre escalabilidade e oportunidade em sistemas de monitoramento de nuvens computacionais

Rodrigues, Guilherme da Cunha January 2016 (has links)
Computação em nuvem é uma solução adequada para profissionais, empresas, centros de pesquisa e instituições que necessitam de acesso a recursos computacionais sob demanda. Atualmente, nuvens computacionais confiam no gerenciamento de sua estrutura para fornecer recursos computacionais com qualidade de serviço adequada as expectativas de seus clientes, tal qualidade de serviço é estabelecida através de acordos de nível de serviço. Nesse contexto, o monitoramento é uma função crítica de gerenciamento para se prover tal qualidade de serviço. Requisitos de monitoramento em nuvens computacionais são propriedades que um sistema de monitoramento de nuvem precisa reunir para executar suas funções de modo adequado e atualmente existem diversos requisitos definidos pela literatura, tais como: oportunidade, elasticidade e escalabilidade. Entretanto, tais requisitos geralmente possuem influência mútua entre eles, que pode ser positiva ou negativa, e isso impossibilita o desenvolvimento de soluções de monitoramento completas. Dado o cenario descrito acima, essa tese tem como objetivo investigar a influência mútua entre escalabilidade e oportunidade. Especificamente, essa tese propõe um modelo matemático para estimar a influência mútua entre tais requisitos de monitoramento. A metodologia utilizada por essa tese para construir tal modelo matemático baseia-se em parâmetros de monitoramento tais como: topologia de monitoramento, quantidade de dados de monitoramento e frequencia de amostragem. Além destes, a largura de banda de rede e o tempo de resposta também são importantes métricas do modelo matemático. A avaliação dos resultados obtidos foi realizada através da comparação entre os resultados do modelo matemático e de uma simulação. As maiores contribuições dessa tese são divididas em dois eixos, estes são denominados: Básico e Chave. As contribuições do eixo básico são: (i) a discussão a respeito da estrutura de monitoramento de nuvem e introdução do conceito de foco de monitoramento (ii) o exame do conceito de requisito de monitoramento e a proposição do conceito de abilidade de monitoramento (iii) a análise dos desafios e tendências a respeito de monitoramento de nuvens computacionais. As contribuições do eixo chave são: (i) a discussão a respeito de oportunidade e escalabilidade incluindo métodos para lidar com a mútua influência entre tais requisitos e a relação desses requisitos com parâmetros de monitoramento (ii) a identificação dos parâmetros de monitoramento que são essenciais na relação entre oportunidade e escalabilidade (iii) a proposição de um modelo matemático baseado em parâmetros de monitoramento que visa estimar a relação mútua entre oportunidade e escalabilidade. / Cloud computing is a suitable solution for professionals, companies, research centres, and institutions that need to have access to computational resources on demand. Nowadays, clouds have to rely on proper management of its structure to provide such computational resources with adequate quality of service, which is established by Service Level Agreements (SLAs), to customers. In this context, cloud monitoring is a critical management function to achieve it. Cloud monitoring requirements are properties that a cloud monitoring system need to meet to perform its functions properly, and currently there are several of them such as timeliness, elasticity and scalability. However, such requirements usually have mutual influence, which is either positive or negative, among themselves, and it has prevented the development of complete cloud monitoring solutions. From the above, this thesis investigates the mutual influence between timeliness and scalability. This thesis proposes a mathematical model to estimate such mutual influence to enhance cloud monitoring systems. The methodology used in this thesis is based on monitoring parameters such as monitoring topologies, the amount of monitoring data, and frequency sampling. Besides, it considers as important metrics network bandwidth and response time. Finally, the evaluation is based on a comparison of the mathematical model results and outcomes obtained via simulation. The main contributions of this thesis are divided into two axes, namely, basic and key. Basic contributions of this thesis are: (i) it discusses the cloud monitoring structure and introduced the concept of cloud monitoring focus (ii) it examines the concept of cloud monitoring requirement and proposed to divide them into two groups defined as cloud monitoring requirements and cloud monitoring abilities (iii) it analysed challenges and trends in cloud monitoring pointing research gaps that include the mutual influence between cloud monitoring requirements which is core to the key contributions. The key contributions of this thesis are: (i) it presents a discussion of timeliness and scalability that include: the methods currently used to cope with the mutual influence between them, and the relation between such requirements and monitoring parameters (ii) it identifies the monitoring parameters that are essential in the relation between timeliness and scalability (iii) it proposes a mathematical model based on monitoring parameters to estimate the mutual influence between timeliness and scalability.
142

Performance modeling of MapReduce applications for the cloud / Modelagem de desempenho de aplicações mapreduce para a núvem

Izurieta, Iván Carrera January 2014 (has links)
Nos últimos anos, Cloud Computing tem se tornado uma tecnologia importante que possibilitou executar aplicações sem a necessidade de implementar uma infraestrutura física com a vantagem de reduzir os custos ao usuário cobrando somente pelos recursos computacionais utilizados pela aplicação. O desafio com a implementação de aplicações distribuídas em ambientes de Cloud Computing é o planejamento da infraestrutura de máquinas virtuais visando otimizar o tempo de execução e o custo da implementação. Assim mesmo, nos últimos anos temos visto como a quantidade de dados produzida pelas aplicações cresceu mais que nunca. Estes dados contêm informação valiosa que deve ser obtida utilizando ferramentas como MapReduce. MapReduce é um importante framework para análise de grandes quantidades de dados desde que foi proposto pela Google, e disponibilizado Open Source pela Apache com a sua implementação Hadoop. O objetivo deste trabalho é apresentar que é possível predizer o tempo de execução de uma aplicação distribuída, a saber, uma aplicação MapReduce, na infraestrutura de Cloud Computing, utilizando um modelo matemático baseado em especificações teóricas. Após medir o tempo levado na execução da aplicação e variando os parámetros indicados no modelo matemático, e, após utilizar uma técnica de regressão linear, o objetivo é atingido encontrando um modelo do tempo de execução que foi posteriormente aplicado para predizer o tempo de execução de aplicações MapReduce com resultados satisfatórios. Os experimentos foram realizados em diferentes configurações: a saber, executando diferentes aplicações MapReduce em clusters privados e públicos, bem como em infraestruturas de Cloud comercial, e variando o número de nós que compõem o cluster, e o tamanho do workload dado à aplicação. Os experimentos mostraram uma clara relação com o modelo teórico, indicando que o modelo é, de fato, capaz de predizer o tempo de execução de aplicações MapReduce. O modelo desenvolvido é genérico, o que quer dizer que utiliza abstrações teóricas para a capacidade computacional do ambiente e o custo computacional da aplicação MapReduce. Motiva-se a desenvolver trabalhos futuros para estender esta abordagem para atingir outro tipo de aplicações distribuídas, e também incluir o modelo matemático deste trabalho dentro de serviços na núvem que ofereçam plataformas MapReduce, a fim de ajudar os usuários a planejar suas implementações. / In the last years, Cloud Computing has become a key technology that made possible running applications without needing to deploy a physical infrastructure with the advantage of lowering costs to the user by charging only for the computational resources used by the application. The challenge with deploying distributed applications in Cloud Computing environments is that the virtual machine infrastructure should be planned in a way that is time and cost-effective. Also, in the last years we have seen how the amount of data produced by applications has grown bigger than ever. This data contains valuable information that has to be extracted using tools like MapReduce. MapReduce is an important framework to analyze large amounts of data since it was proposed by Google, and made open source by Apache with its Hadoop implementation. The goal of this work is to show that the execution time of a distributed application, namely, a MapReduce application, in a Cloud computing environment, can be predicted using a mathematical model based on theoretical specifications. This prediction is made to help the users of the Cloud Computing environment to plan their deployments, i.e., quantify the number of virtual machines and its characteristics in order to have a lesser cost and/or time. After measuring the application execution time and varying parameters stated in the mathematical model, and after that, using a linear regression technique, the goal is achieved finding a model of the execution time which was then applied to predict the execution time of MapReduce applications with satisfying results. The experiments were conducted in several configurations: namely, private and public clusters, as well as commercial cloud infrastructures, running different MapReduce applications, and varying the number of nodes composing the cluster, as well as the amount of workload given to the application. Experiments showed a clear relation with the theoretical model, revealing that the model is in fact able to predict the execution time of MapReduce applications. The developed model is generic, meaning that it uses theoretical abstractions for the computing capacity of the environment and the computing cost of the MapReduce application. Further work in extending this approach to fit other types of distributed applications is encouraged, as well as including this mathematical model into Cloud services offering MapReduce platforms, in order to aid users plan their deployments.
143

Provisão de computação voluntária e intensiva de dados para suporte de aplicações científicas

Gutierrez, Felipe Oliveira 17 February 2014 (has links)
Submitted by Santos Davilene (davilenes@ufba.br) on 2016-05-25T12:39:19Z No. of bitstreams: 1 FelipeOliveiraGutierrez-Dissertacao.pdf: 2956268 bytes, checksum: f8c8c623dba24c46d9d9ec40663d86dc (MD5) / Made available in DSpace on 2016-05-25T12:39:19Z (GMT). No. of bitstreams: 1 FelipeOliveiraGutierrez-Dissertacao.pdf: 2956268 bytes, checksum: f8c8c623dba24c46d9d9ec40663d86dc (MD5) / O projeto mc2 (Minha Cloud Científica), no qual se insere a presente proposta, objetiva prover uma plataforma de suporte `a execução de aplicações cient´ıficas em recursos computacionais de diferentes paradigmas: agregados, redes par-a-par, redes voluntárias e sistemas de larga escala. Neste escopo, este trabalho aborda a inclusão de recursos de computação voluntária e de processamento intensivo de dados na plataforma mc2, juntamente com a análise de métricas de desempenho para alguns estudos de casos. Nestas análises foram obtidos resultados satisfatórios para os dois módulos do mc2 citados. Através deles foi possível avaliar a facilidade que os cientistas de diversas áreas podem obter usufruindo da plataforma e o ganho em desempenho quando necessitam de grandes volumes de processamento.
144

Uso de mecanismos de elasticidade como solução de tolerância a falhas para ambiente de computação em nuvem

Divino, Kleber da Silva January 2014 (has links)
Orientador: Prof. Dr. Carlos Kamienski / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Engenharia da Informação, 2014. / Cada vez mais as empresas optam por utilizar serviços baseados em computação em nuvem, tanto serviços fornecidos por terceiros como a criação de sua própria infraestrutura de nuvem privada. Nesse contexto, cada vez mais essas empresas dependem de aplicações que são executadas nesses tipos de ambiente. Devido a essa dependência, as soluções baseadas em computação em nuvem devem fornecer soluções de alta disponibilidade, que não comprometerão o fornecimento do serviço em caso de falhas. Em um ambiente de computação em nuvem, todas as aplicações devem possuir um nível mínimo de disponibilidade, porém devido ao modelo de cobrança de serviços de computação em nuvem, um cliente pode necessitar que algumas aplicações possuam um maior nível de confiabilidade, onde em caso de falha o cliente não tenha nenhum período de indisponibilidade. Assim, existem mecanismos de tolerância a falhas com técnicas já consolidadas, que podem ser utilizados também em ambientes de computação em nuvem, porém também existe o conceito de elasticidade que em situações especificas dispensa o uso de mecanismo de proteção para determinados componentes do ambiente, podendo o próprio mecanismo de elasticidade realizar de um mecanismo de tolerância a falhas. Este trabalho tem como principais contribuições a possibilidade de compreender a ocorrência de falhas em um ambiente de elasticidade, possibilitando entender quais as melhores formas de lidar com falhas nesse tipo de ambiente e também conhecer quais as consequências da ocorrência de falhas. / More and more companies choose to use services based in Cloud Computing, either provided by a third party or by its own private cloud infrastructure. In this context, companies are increasing their dependence in applications running in this kind of environment. Consequently, solutions based on Cloud Computing must deliver high availability, not compromising the services in case of failure. In a Cloud Computing environment, all applications must have high availability standard levels, although due to pricing models, a client may require that some applications have greater level of reliability, therefore, in case of failure, the cloud services would still be available. There are consolidated fault tolerance mechanisms with already established techniques that can be used in a cloud computing environment. However, there is also the elasticity concept, which, in a specific situation, eliminates the use of a protection mechanism for some environment components, making the proper elasticity mechanism the one to provide the fault tolerance protection. This paper main contribution is the understanding of failures occurrence in elasticity environment, which lead us to understand the best way to deal with these failures, and also allows us to recognize the consequences generated due to these failures.
145

SQLToKeyNoSQL

Schreiner, Geomar André January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016. / Made available in DSpace on 2016-09-20T04:42:01Z (GMT). No. of bitstreams: 1 339451.pdf: 2281831 bytes, checksum: 129da9c13a181f4ca28c9822b6e994ca (MD5) Previous issue date: 2016 / Diversas aplicações atualmente produzem e manipulam um grande volume de dados, denominados Big Data. Bancos de dados tradicionais, em particular, os Bancos de Dados Relacionais (BDRs), não são adequados ao gerenciamento de Big Data. Devido a isso, novos modelos de dados têm sido propostos para manipular grandes massas de dados, enfatizando a escalabilidade e a disponibilidade. A maioria destes modelos de dados pertence a uma nova categoria de gerenciadores de dados denominados BDs NoSQL. Entretanto, BDs NoSQL não são compatíveis, em geral, com o padrão SQL e desenvolvedores que utilizam BDRs necessitam aprender novos modelos de dados e interfaces de acesso para produzirem aplicações baseadas em Big Data. Para lidar com esta problemática, abordagens têm sido propostas para o suporte da interoperabilidade entre BDRs e BDs NoSQL. Poucas destas abordagens tem a habilidade de suportar mais que um BD alvo, sendo a maioria restrita a um BD NoSQL. Neste contexto, este trabalho propõe uma abordagem para acesso via SQL para dados armazenados em um SGBD NoSQL baseado em Chave de acesso (chave-valor, orientado a documentos ou orientado a colunas). Para isso, é proposto um modelo canônico hierárquico intermediário para o qual é traduzido o modelo Relacional. Este modelo hierárquico pode ser traduzido para modelos de dados NoSQL orientado a colunas, orientado a documentos ou chave-valor. A tradução das instruções SQL é feita para um conjunto intermediário de métodos baseado na API REST, que são traduzidos para a linguagem de acesso dos BDs NoSQL. Além disso, a abordagem possibilita o processamento de junções que não são suportadas pelos BDs NoSQL. Experimentos demostram que a solução proposta é promissora, possuindo um overhead não proibitivo e sendo competitiva com ferramentas existentes.<br> / Abstract : A lot of applications produce and manipulate today a large volume of data, the so-called Big Data. Traditional databases, like relational databases (RDB), are not suitable to Big Data management. In order to deal with this problem, a new category of DB has been proposed, been most of them called NoSQL DB. NoSQL DB have different data models, as well as different access methods which are not usually compatible with the RDB SQL standard. In this context, approaches have been proposed for providing mapping of RDB schemata and operations to equivalent ones in NoSQL DB to deal with large relational data sets in the cloud, focusing on scalability and availability. However, these approaches map relational DB only to a single NoSQL data model and, sometimes, to a specific NoSQL DB product. This work presents SQLToKeyNoSQL, a layer able to translate, in a transparent way, RDB schemata as well as SQL instructions to equivalent schemata and access methods for key-oriented NoSQL DB, i.e., databases based on document-oriented, key-value and column-oriented data models. We propose a hierarchical data model that abstracts the key-oriented NoSQL data models, and use it as an intermediate data model for mapping the relational data model to these NoSQL data models. Besides, we propose the translation of a subset of SQL instructions to an intermediate set of access methods based on the REST API, which are further translated, in a simple way, to the access methods of the key-oriented NoSQL DB. Our solution also supports join queries, which is not a NoSQL DB capability. An experimental evaluation demonstrates that our approach is promising, since the introduced overhead with our layer is not prohibitive.
146

Uma plataforma robusta para gerência de recursos em nuvens IaaS / Uma plataforma robusta para gerência de recursos em redes IaaS

Heimovski, Gustavo Bassil January 2016 (has links)
Orientador : Prof. Dr. Elias P. Duarte Jr. / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 11/03/2016 / Inclui referências : f. 39-44 / Título no termo de aprovação: Uma plataforma robusta para gerência de recursos em redes IaaS / Resumo: Neste trabalho e descrita uma plataforma robusta para gerência de recursos em nuvens IaaS (Infrastructure as a Service). A plataforma e construída sobre o Aurora Cloud Manager, que e um gerenciador de nuvem IaaS que apresenta recursos de programabilidade. Originalmente, o Aurora não prove nenhum mecanismo de replicação, assim falhas do gerenciador representam uma vulnerabilidade importante. Neste contexto, e proposta uma solução de replicação do Aurora, mais especificamente do próprio gerenciador da nuvem. A solução proposta contempla tanto cenários em que ha um unico datacenter com duas ou mais instâncias replicadas do Aurora, quanto cenários em que ha dois ou mais datacenters, cada um com recursos próprios. Nos dois cenários, cada instancia do Aurora tem acesso a todos os recursos da nuvem. Em caso de falha afetando uma das instancias do Aurora, outra instancia do gerenciador tem a capacidade de gerenciar seus recursos da nuvem. A replicação do Aurora envolve tanto a replicação do banco de dados relacional utilizado para armazenar as informações de gerenciamento, quanto a sincronização de diretórios para a replicação das imagens das maquinas virtuais e os programas de otimização e deployment de recursos. A principal contribuição deste trabalho e oferecer, no próprio gerenciador de nuvem, a feature de alta disponibilidade do próprio gerenciador, com a opção de ativação da replicação em sua interface e monitoramento das outras instâncias replicadas. Diante da literatura pesquisada neste trabalho, não conhecemos nenhum gerenciador que possua, integrado nele mesmo, esta opcao de alta disponibilidade. Neste sentido, acreditamos que esta e uma contribuição inédita. Foram realizados experimentos para a medição do tempo necessário para que uma nova instancia do Aurora seja integrada a um cluster de Auroras ja existente; medição da latência de replicação de dados. A latência de replicação foi medida tanto em um datacenter quanto em dois datacenters remotos; e, por último, a medição do tempo de detecção e recuperação de falhas, com o intuito de analisar a disponibilidade do sistema. Os resultados mostraram que o gerenciador se tornou robusto e capaz de ser executado com múltiplas instancias replicadas. / Abstract: This work describes a robust cloud platform that allows resources to be accessed and managed even if the corresponding cloud manager itself has failed. The platform is built on the Aurora Cloud Manager, which is an IaaS (Infrastructure as a Service) cloud manager that enable flexible resource management through programmability. In this thesis we present an approach to replicate Aurora on several instances, thus the cloud manager itself is replicated and does not represent a vulnerability. The proposed replication strategy involves both scenarios in which there is a single datacenter with two or more replicated instances of Aurora, and scenarios in which there are two or more datacenters, each with its own resources. In both scenarios, each Aurora instance has access to all cloud resources. In case of failure affecting one of the instances of the Aurora, another instance allows the management of the corresponding cloud resources. The proposed replication strategy involves both replicating the relational database used to store management information, and synchronizing directories used to keep virtual machine images and cloud-optimization and cloud-deployment programs. The activation of replication and monitoring of the multiple Aurora instances is proposed as a service that can be easily triggered from the Aurora interface. This is the main contribution of this work, as we are not aware of any other existing cloud manager described in the literature that has such high-availability feature integrated in itself. The experiments were performed to measure the time required for a new instance of Aurora to be integrated into a cluster of existing Auroras, the data replication latency in a single datacenter and in two remote datacenters, and the fault detection and fault recovery time, in order to evaluate the system availability. The results confirm the effectiveness and robustness of the proposed system.
147

Tolerância a falha em um ambiente de computação em nuvem open source

Martins, Henrique Pachioni [UNESP] 17 November 2014 (has links) (PDF)
Made available in DSpace on 2015-09-17T15:24:33Z (GMT). No. of bitstreams: 0 Previous issue date: 2014-11-17. Added 1 bitstream(s) on 2015-09-17T15:47:39Z : No. of bitstreams: 1 000843909.pdf: 1725983 bytes, checksum: 8961a0361aee44adf0fec9bb5ca5f808 (MD5) / A computação em nuvem é um conjunto de recursos e serviços oferecidos através da internet, entregues a partir de centros de dados localizados em todo o mundo. Com o rápido crescimento na área de computação em nuvem, aumenta a preocupação com a necessidade de serviços oferecidos e um grande desafio é implementar um ambiente tolerante a falhas. As principais questões de tolerância a falhas na computação em nuvem são a detecção e recuperação de falhas. Para combater esses problemas, muitas técnicas de tolerância a falhas são projetadas para reduzi-las. Gestores pagos oferecem esse tipo de suporte, mas os gestores open source não fornecem elementos que permitam tolerar falhas e deixam os usuários vulneráveis as falhas de um ambiente de tecnologia. O objetivo desse trabalho é desenvolver um mecanismo tolerante a falhas no OpenStack. Foi criado um mecanismo de redundância nas máquinas virtuais instanciadas nos nodes da nuvem, se um node apresentar uma falha transiente ou intermitente, a máquina virtual estará armazenada em um local seguro, aguardando que o node retorne de uma falha. O mecanismo desenvolvido é viável e eficiente, pois após um node se recuperar de uma falha, a máquina virtual não é perdida, voltando a ficar ativa para o usuário / Cloud computing is a set of features and services offered over the internet, delivered from data centers located around the world. With the rapid growth in cloud computing, increases the concern about the need for services offered and a major challenge is to implement a faulttolerant environment. The main issues of fault tolerance in cloud computing are the fault detection and recovery. To combat these problems, many fault tolerance techniques are designed to reduce them. Paid managers offer this kind of support, but the open source managers do not provide evidence to tolerate failures and leave users vulnerable failures of a technology environment. The aim of this work is to develop a tolerant mechanism to failures in OpenStack. It was created a redundancy mechanism in virtual machines instantiated in cloud nodes, if a node present a transient or intermittent failure, the virtual machine will be stored in a safe place, waiting for the return of a node failure. The mechanism developed is feasible and efficient because after a node to recover from a failure, the virtual machine is not lost, getting back to the active user
148

Algoritmo de escalonamento de instância de máquina virtual na computação em nuvem

Bachiega, Naylor Garcia [UNESP] 19 May 2014 (has links) (PDF)
Made available in DSpace on 2014-11-10T11:09:41Z (GMT). No. of bitstreams: 0 Previous issue date: 2014-05-19Bitstream added on 2014-11-10T11:58:47Z : No. of bitstreams: 1 000790282.pdf: 1551632 bytes, checksum: 1c51e3c52479631d4efb320e548d592b (MD5) / Na tentativa de reduzir custos aproveitando de maneira eficiente recursos computacionais, novas tecnologias e arquiteturas desenvolvidas estão conquistando grande aceitação do mercado. Uma dessas tecnologias é a Computação em Nuvem, que tenta resolver problemas como consumo energético e alocação de espaço físico em centros de dados ou grandes empresas. A nuvem é um ambiente compartilhado por diversos clientes e permite um crescimento elástico, onde novos recursos como hardware ou software, podem ser contratados ou vendidos a qualquer momento. Nesse modelo, os clientes pagam por recursos que utilizam e não por toda a arquitetura envolvida. Sendo assim, é importante determinar de forma eficiente como esses recursos são distribuídos na nuvem. Portanto, esse trabalho teve como objetivo desenvolver um algoritmo de escalonamento para nuvem que determinasse de maneira eficiente a distribuição de recursos dentro da arquitetura. Para alcançar esse objetivo, foram realizados experimentos com gestores de nuvem open-source, detectando a deficiência dos algoritmos atuais. O algoritmo desenvolvido foi comparado com o algoritmo atual do gestor OpenStack Essex, um gestor de nuvem open-source. Os resultados experimentais demonstraram que o novo algoritmo conseguiu determinar as máquinas menos sobrecarregadas da nuvem, conseguindo desse modo, distribuir a carga de processamento dentro do ambiente privado / In an attempt to reduce costs by taking advantage of efficient computing resources, new technologies and architectures developed are gaining wide acceptance in the market. One such technology is cloud computing, which tries to solve problems like energy consumption and allocation of space in data centers or large companies. The cloud is an environment shared by multiple clients and enables elastic growth, where new features such as hardware or software, can be hired or sold at any time. In this model, customers pay for the resources they use and not for all the architecture involved. Therefore, it is important to determine how efficiently those resources are distributed in the cloud. Therefore, this study aimed to develop a scheduling algorithm for cloud efficiently determine the distribution of resources within the architecture. To achieve this goal, experiments were conducted with managers of open-source cloud, detecting the deficiency of current algorithms. This algorithm was compared with the algorithm of the OpenStack Essex manager, a manager of open-source cloud. The experimental results show that the new algorithm could determine the machines less the cloud overloaded, achieving thereby distribute the processing load within the private environment
149

Análise de desempenho de interfaces de rede virtualizadas com NAPI / Performance analysis of virtualized network interfaces with NAPI

Eduardo Hideo Kuroda 26 November 2013 (has links)
Em ambientes virtualizados, como nuvens computacionais, a capacidade efetiva de transmissão de dados via rede tende a ser inferior à de ambientes não virtualizados quando aplicações que fazem uso intensivo da rede são executadas. Uma das principais causas para essa diferença na capacidade de transmissão é a arquitetura da virtualização de rede, que adiciona passos para o sistema operacional transmitir e receber um pacote. Esses passos adicionais acarretam em maior utilização de memória e de processamento. Em ambientes virtualizados com o sistema operacional GNU/Linux, a New Application Programming Interface (NAPI) é utilizada para reduzir os impactos negativos da virtualização por meio de agregação de interrupções. Nesta dissertação de mestrado, são estudados mecanismos que modificam a configuração da NAPI. Experimentos mostram que esses mecanismos afetam o desempenho de máquinas virtuais e tem consequências diretas nas aplicações que fazem uso intensivo de rede e que são executadas em ambientes com os softwares de virtualização Xen, VMware e VirtualBox. / In virtualized environments, such as cloud computing, the effective capacity of data transmission via network cards tends to be lower than that in non-virtualized environments, when network intensive applications are executed. A major cause for this difference in the transmission capacity is the architecture of network virtualization, which adds some steps to be performed by the system when packets are transmitted or received. These additional steps cause more memory and processing usage. In virtualized environments with the GNU/Linux operating system, the New Application Programming Interface (NAPI) is used to reduce the negative impacts of virtualization through interrupt coalescence. In this dissertation, mechanisms that modify the configuration of NAPI are studied. Experiments show that these mechanisms affect the performance of virtual machines and have direct effects in applications that make intensive use of the network in environments with Xen, VMware and VirtualBox.
150

Análise da aplicabilidade das regras de ouro ao tuning de sistemas gerenciadores de bancos de dados relacionais em ambientes de computação em nuvem

Bini, Tarcizio Alexandre January 2014 (has links)
Orientador : Prof. Dr. Marcos Sfair Sunye / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 07/03/2014 / Inclui referências / Resumo: A computação em nuvem oferece um ambiente bastante propício para o provimento de serviços de TI. A virtualização, tecnologia que compõe sua base possibilita simular sobre um computador físico, uma ou mais estações de trabalho chamadas máquinas virtuais, que permitem maior exibilidade e melhor racionalização de sua infraestrutura. A incorporação de sistemas legados aos ambientes em nuvem como forma de contenção de custo é uma demanda frequente e altamente relevante. Para isso, é comum o emprego do modelo multi-inquilino do tipo shared-hardware, no qual o sistema gerenciador de banco de dados e o sistema legado ficam hospedados em máquinas virtuais que competem, junto às demais, por recursos computacionais. Neste ambiente, é vital o emprego de estratégias de tuning que objetivam melhorias no desempenho do banco de dados. Porém, os sistemas gerenciadores de banco de dados relacionais não foram inicialmente projetados para serem executados em ambientes shared-hardware. Consequentemente, seus parâmetros de configuração, comumente alvos de regras de tuning, não consideram o fato de que os recursos disponíveis variam ao longo do tempo, devido ao provisionamento dinâmico comum em ambientes elásticos. Esta tese propõe um método de avaliação que, por meio da simulação de cargas de trabalho de acesso a disco oriundas de máquinas virtuais concorrentes, demonstra a inadequação do emprego das regras de tuning, conhecidas como regras-de-ouro, encontradas na literatura e/ou recomendadas por experts. Nossos resultados apontam para a definição de novas regras-de-ouro, específicas para ambientes virtualizados, além de viabilizar a criação de um modelo para o tuning automático de sistemas gerenciadores de banco de dados relacionais em ambientes de computação em nuvem. Palavras-Chave: sistema gerenciador de banco de dados relacional, virtualização, tuning, sistema legados, computação em nuvem / Abstract: Cloud computing currently o_ers a very propitious environment for IT service provision. The virtualization, technology that compose their base enables to simulate in a physical computer one or more workstations called virtual machines that allow greater exibility and better use of its infrastructure. The incorporation of legacy systems to the cloud environments as a means of cost containment is a frequent and highly relevant demand. Therefore, it is common the use the multi-tenant model of shared-hardware type on which the database and legacy system are hosted on virtual machines that compete, with others, for computational resources. In this environment it is vital the use of tuning strategies that aim to improve the performance of the database. However, the relational database management systems were not initially designed to execute on shared-hardware environments. Consequently, its con_guration parameters, commonly targets of tuning rules, do not consider the fact that the available resources vary over time due to the common dynamic provisioning that is common in elastic environments. This thesis proposes an evaluation methodology that, simulates I/O workloads from concurrent virtual machines and demonstrates the inadequacy of the use of tuning rules, known as rules-ofthumb, found in literature and/or recommended by experts. Our results point to the new rules-of-thumb, speci_c to virtualized environments while also make feasible the creation of a model for automatic tuning of database in cloud computing environments. Keywords: relational database management system, virtualization, tuning, legacy systems, cloud computing.

Page generated in 0.0552 seconds