• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • Tagged with
  • 7
  • 7
  • 7
  • 7
  • 7
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Um ServiÃo para FlexibilizaÃÃo da TarifaÃÃo em Nuvens de Infraestrutura / A Service for Easing Charging Infrastructure in Clouds

Nayane Ponte Viana 25 October 2013 (has links)
FundaÃÃo de Amparo à Pesquisa do Estado do Cearà / A computaÃÃo em nuvem surgiu em 2006 com a ideia de transformar a computaÃÃo em um serviÃo utilitÃrio. Esse novo paradigma à baseado em vÃrias tecnologias que vieram amadurecendo ao longo dos tempos, como o sistema distribuÃdo, a computaÃÃo em grade e a virtualizaÃÃo. AlÃm disso, a computaÃÃo em nuvem tem suas caracterÃsticas peculiares, como a customizaÃÃo, a elasticidade e o pagamento por uso do serviÃo. Portanto, por ser um paradigma novo, a nuvem possui muitas questÃes em aberto que precisam ser amadurecidas, como a seguranÃa, a disponibilidade e a tarifaÃÃo. A tarifaÃÃo à uma das principais caracterÃsticas da computaÃÃo em nuvem. Nesse paradigma, o cliente paga pelo que utiliza, modelo conhecido como pey per use. Para isso, à preciso realizar o monitoramento do uso dos recursos a fim de tarifar de acordo com sua utilizaÃÃo. As provedoras de nuvem disponibilizam diferentes tipos de serviÃos aos seus usuÃrios, os principais sÃo:(i) Software como ServiÃo, (ii) Plataforma como ServiÃos e (iii) Infraestrutura como ServiÃo (hardware). No caso dos serviÃos disponibilizados por nuvens de infraestrutura,à necessÃrio medir o uso dos recursos de hardware na nuvem. PorÃm, muitos trabalhos acadÃmicos mostram que o modelo de tarifaÃÃo das provedoras de nuvem nÃo levam em consideraÃÃo requisitos importantes para o cÃlculo da fatura do cliente. Baseado nisso, este trabalho tem por objetivo melhorar a flexibilidade da tarifaÃÃo em nuvens de infraestrutura. Para isso, ele propÃe uma arquitetura e um serviÃo de tarifaÃÃo, o aCCountS (Cloud aCCounting Service) e uma linguagem de domÃnio especÃfico (DSL) para definiÃÃo de polÃticas de tarifaÃÃo em nuvens, chamada de aCCountS-DSL. Inicialmente, foi realizado um estudo na academia e na indÃstria a fim de coletar e classificar os requisitos para flexibilizar a cobranÃa de serviÃos na computaÃÃo em nuvem e criar um novo modelo de tarifaÃÃo. A partir desses estudos foram definidos (i) a linguagem de tarifaÃÃo proposta, os requisitos que sÃo suportados pela linguagem, em seguida a (ii) a arquitetura do serviÃo e a descriÃÃo de suas partes fundamentais e entÃo, (iii) o serviÃo de tarifaÃÃo proposto. Por fim, esse trabalho descreve as avaliaÃÃes experimentais realizadas para testar a corretude do serviÃo e da linguagem propostos. Para isso, foram feitos testes reais a partir da implantaÃÃo do serviÃo em nuvens comerciais com o objetivo de testar o aCCountS e a aCCountS-DSL. / Cloud computing has emerged in 2006 with the idea to make the utility computing service. This new paradigm is based on several mature technologies that have come to the right time, such as grid computing, distributed systems and virtualization. However, cloud computing has its peculiar features, like customization, elasticity and pay-per-use service and, moreover, to be a new paradigm, has many open questions that needs to be mature, such as security, availability and charging. The pricing is a key feature of cloud computing. In this approach the customer pay for your use, model known as pey per use. Then, perform the monitoring of the resources use is needed in order to pricing. In cloud services infrastructure case, monitoring the hardware resources use is necessary. However, many academic studies show that the form of charging by cloud providers do not take into account important requirements for the customers invoice calculation. Based on this, this work aims to improve the flexibility of charging for infrastructure clouds. For this, an academic and industry study was made to collect and sort the requirements for flexible charging services in cloud computing. Thus, an architecture and service charges, the aCCountS (a Cloud Accounting Service) and a domain specific language (DSL) for defining pricing policies in clouds, called Accounts-DSL, was proposed. In this study are defined: (i) the service architecture and the description of its key parts, (ii) the accounting service proposed and how it was developed, and (iii) the charging language and its requirements and grammar. Finally, the experimental evaluation performed to test the correctness of the service and the language proposed are described. For this, real test was made with the service deployment in commercial clouds in order to test the aCCountS and aCCountS-DSL features.
2

Uma Abordagem para a Modelagem de Desempenho e de Elasticidade para Bancos de Dados em Nuvem / A performance modeling and elasticity approach for cloud nosql databases

Victor Aguiar Evangelista de Farias 22 January 2016 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / A computaÃÃo em nuvem à um paradigma de computaÃÃo emergente e bem sucedido que oferece serviÃos por demanda. Com o crescimento exponencial da quantidade de dados utilizados pelas aplicaÃÃes atuais, os bancos de dados NoSQL, que sÃo sistemas inerentemente distribuÃdos, tÃm sido usados para gerenciar dados na Nuvem. Nesse cenÃrio, à fundamental que os provedores de serviÃos em nuvem garantam a Qualidade de ServiÃo (QoS) por meio do cumprimento do contrato Service Level Agreement (SLA) enquanto reduz os custos operacionais relacionados a overprovisioning e underprovisioning. Mecanismos de QoS podem se beneficiar fortemente de modelos de desempenho preditivos que estimam o desempenho para uma dada configuraÃÃo do sistema NoSQL e da carga de trabalho. Com isso, estratÃgias de elasticidade podem aproveitar esses modelos preditivos para fornecer meios de adicionar e remover recursos computacionais de forma mais confiÃvel. Este trabalho apresenta uma abordagem para modelagem de desempenho genÃrica para banco de dados NoSQL em termos de mÃtricas de desempenho baseadas no SLA capaz de capturar o efeitos nÃo-lineares causados pelo aspectos de concorrÃncia e distribuiÃÃo. Adicionalmente, à apresentado um mecanismo de elasticidade para adicionar e remover nÃs sistema NoSQL baseado em modelos de desempenho. Resultados de avaliaÃÃo experimental confirmam que a modelagem de desempenho estima as mÃtricas de forma acurada para vÃrios cenÃrios de carga de trabalho e configuraÃÃes do sistema. Por fim, a nossa estratÃgia de elasticidade à capaz de garantir a QoS enquanto utiliza os recursos de forma eficiente. / Cloud computing is a successful, emerging paradigm that supports on-demand services. With the exponential growth of data generated by present applications, NoSQL databases which are inherently distributed systems have been used to manage data in the cloud. In this scenario, it is fundamental for cloud providers to guarantee Quality of Service (QoS) by satisfying tho Service Level Agreement (SLA) contract while reducing the operational costs related to both overprovisioning and underprovisioning. Thus QoS mechanisms can greatly benefit from a predictive model that estimates SLA-based performance metrics for a given cluster and workload configuration. Therewith, elastic provisioning strategies can benefit from these predictive models to provide a reliable mechanism to add and remove resources reliably. In this work, we present a generic performance modeling for NoSQL databases in terms of SLA-based metrics capable of capturing non-linear effects caused by concurrency and distribution aspects. Moreover we present a elastic provisioning mechanism based on performance models. Results of experimental evaluation confirm that our performance modeling can accurately estimate the performance under a wide range of workload configurations and also that our elastic provisioning approach can ensure QoS while using resources efficiently.
3

FOLE: A Conceptual Framework for Elasticity Performance Analysis in Cloud Computing Environments / FOLE: Um Framework Conceitual para AvaliaÃÃo de Desempenho da Elasticidade em Ambientes de ComputaÃÃo em Nuvem

Emanuel Ferreira Coutinho 03 November 2014 (has links)
Currently, many customers and providers are using resources of Cloud Computing environments,such as processing and storage, for their applications and services. Through ease of use, based on the pay per use model, it is natural that the number of users and their workloads also grow. As a result, providers should expand their resources and maintain the agreed level of quality for customers, otherwise breaks the Service Level Agreement (SLA) and the resulting penalties. With the increase in computational resources usage, a key feature of Cloud Computing has become quite attractive: the elasticity. Elasticity can be defined as how a computational cloud adapts to variations in its workload through resources provisioning and deprovisioning. Due to limited availability of information regarding configuration of the experiments, in general is not trivial to implement elasticity concepts, much less apply them in cloud environments. Furthermore, the way of measuring cloud elasticity is not obvious, and there is not yet a standard for this task. Moreover, its evaluation could be performed in different ways due to many technologies and strategies for providing cloud elasticity. A common aspect of elasticity performance analysis is the use of environmental resources, such as CPU and memory, and even without a specific metric, to allow an indirectly assess of elasticity. In this context, this work proposes FOLE, a conceptual framework for conducting performance analysis of elasticity in Cloud Computing environments in a systematic, flexible and reproducible way. To support the framework, we proposed a set of specific metrics for elasticity and metrics for its indirect measurement. For the measurement of elasticity in Cloud Computing, we proposed metrics based on concepts of Physics, such as strain and stress, and Microeconomics, such as Price Elasticity of Demand. Additionally, we also proposed metrics based on resources allocation and deallocation operation times, and used resources, to support the measurement of elasticity. For verification and validation of the proposal, we performed two experiments, one in a private cloud and other in a hybrid cloud, using microbenchmarks and a classic scientific application, through a designed infrastructure based on concepts of Autonomic Computing. Through these experiments, FOLE had validated their activities, allowing the systematization of a elasticity performance analysis. The results show it is possible to assess the elasticity of a Cloud Computing environment using specific metrics based on other areas of knowledge, and also complemented by metrics related to time and resources operations satisfactorily. / Atualmente muitos clientes e provedores estÃo utilizando recursos de ambientes de ComputaÃÃo em Nuvem, tais como processamento e armazenamento, para suas aplicaÃÃes e serviÃos. Devido à facilidade de utilizaÃÃo, baseada no modelo de pagamento por uso, à natural que a quantidade de usuÃrios e suas respectivas cargas de trabalho tambÃm cresÃam. Como consequÃncia, os provedores devem ampliar seus recursos e manter o nÃvel de qualidade acordado com os clientes, sob pena de quebras do Service Level Agreement (SLA) e consequentes multas. Com o aumento na utilizaÃÃo de recursos computacionais, uma das caracterÃsticas principais da ComputaÃÃo em Nuvem tem se tornado bastante atrativa: a elasticidade. A elasticidade pode ser definida como o quanto uma nuvem computacional se adapta a variaÃÃes na sua carga de trabalho atravÃs do provisionamento e desprovisionamento de recursos. Devido à pouca disponibilidade de informaÃÃo em relaÃÃo à configuraÃÃo dos experimentos, em geral nÃo à trivial implementar conceitos de elasticidade, muito menos aplicÃ-los em ambientes de nuvens computacionais. AlÃm disso, a maneira de se medir a elasticidade nÃo à tÃo Ãbvia, e bastante variada, nÃo havendo ainda uma padronizaÃÃo para esta tarefa, e sua avaliaÃÃo pode ser executada de diferentes maneiras devido Ãs diversas tecnologias e estratÃgias para o provimento da elasticidade. Um aspecto comum na avaliaÃÃo de desempenho da elasticidade à a utilizaÃÃo de recursos do ambiente, como CPU e memÃria, e mesmo sem ter uma mÃtrica especÃfica para a elasticidade, à possÃvel se obter uma avaliaÃÃo indireta. Nesse contexto, este trabalho propÃe o FOLE, um framework conceitual para a realizaÃÃo de anÃlise de desempenho da elasticidade em nuvens computacionais de maneira sistemÃtica, flexÃvel e reproduzÃvel. Para apoiar o framework, mÃtricas especÃficas para a elasticidade e mÃtricas para sua mediÃÃo indireta foram propostas. Para a mediÃÃo da elasticidade em ComputaÃÃo em Nuvem, propomos mÃtricas baseadas em conceitos da FÃsica, como tensÃo e estresse, e da Microeconomia, como Elasticidade do PreÃo da Demanda. Adicionalmente, mÃtricas baseadas em tempos de operaÃÃes de alocaÃÃo e desalocaÃÃo de recursos, e na utilizaÃÃo desses recursos foram propostas para apoiar a mediÃÃo da elasticidade. Para verificaÃÃo e validaÃÃo da proposta, dois estudos de caso foram realizados, um em uma nuvem privada e outro em uma nuvem hÃbrida, com experimentos projetados utilizando microbenchmarks e uma aplicaÃÃo cientÃfica clÃssica, executados sobre uma infraestrutura baseada em conceitos de ComputaÃÃo AutonÃmica. Por meio desses experimentos, o FOLE foi validado em suas atividades, permitindo a sistematizaÃÃo de uma anÃlise de desempenho da elasticidade. Os resultados mostram que à possÃvel avaliar a elasticidade de um ambiente de ComputaÃÃo em Nuvem por meio de mÃtricas especÃficas baseadas em conceitos de outras Ãreas de conhecimento, e tambÃm complementada por mÃtricas relacionadas a tempos de operaÃÃes e recursos de maneira satisfatÃria.
4

GeDaNIC: um framework para gerenciamento de banco de dados em nuvem baseado nas interaÃÃes entre consultas / GeDaNIC: a framework for database management cloud data based on interactions between queries

Manoel Mariano Siqueira Junior 30 November 2012 (has links)
FundaÃÃo Cearense de Apoio ao Desenvolvimento Cientifico e TecnolÃgico / ComputaÃÃo em nuvem à uma tendÃncia recente de tecnologia cujo objetivo à proporcionar serviÃos de Tecnologia da InformaÃÃo (TI) sob demanda e com pagamento baseado no uso. Um dos principais serviÃos disponibilizados por uma plataforma de computaÃÃo em nuvem consiste no serviÃo de gerenciamento de dados, ou simplesmente, serviÃo de dados. Este serviÃo assume a responsabilidade pela instalaÃÃo, configuraÃÃo e manutenÃÃo dos sistemas de banco de dados, bem como pelo acesso eficiente aos dados armazenados. Este trabalho apresenta um framework, denominado GeDaNIC, para o gerenciamento de sistemas de banco de dados em nuvem. O framework proposto tem por objetivo fornecer a infraestrutura de software necessÃria para a disponibilizaÃÃo de serviÃos de dados em ambientes de computaÃÃo em nuvem. Neste sentido, o mecanismo concebido busca solucionar alguns problemas ainda em aberto no contexto de sistemas de banco de dados em nuvem, tais como: despacho, escalonamento de consultas e provisionamento de recursos. A abordagem concebida estende os trabalhos anteriores adicionando importantes caracterÃsticas, como: o suporte Ãs cargas de trabalho imprevistas e a utilizaÃÃo de informaÃÃes sobre as interaÃÃes entre consultas. O suporte Ãs cargas de trabalhos sazonais està relacionado a uma das principais propriedades da computaÃÃo em nuvem: a elasticidade rÃpida. Jà as interaÃÃes entre consultas podem proporcionar impactos significativos no desempenho dos sistemas de banco de dados. Por este motivo, o GeDaNIC utiliza informaÃÃes sobre essas interaÃÃes com a finalidade de reduzir o tempo de execuÃÃo das cargas de trabalho submetidas ao serviÃo de dados e, consequentemente, aumentar o lucro do provedor deste serviÃo. Para isso, trÃs novas abordagens para modelar e mensurar as interaÃÃes entre instÃncias e tipos de consultas sÃo propostas. Com o objetivo de demonstrar a eficiÃncia do framework proposto uma avaliaÃÃo experimental usando o benchmark TPC-H sobre o PostgreSQL foi realizada. Os resultados apontam que a soluÃÃo concebida tem potencial para aumentar o lucro do provedor do serviÃo de dados em nuvem. / Cloud computing is a recent trend of technology aimed at providing services for Information Technology (IT) and demand-based payment in use. One of the main services provided by a computing platform cloud is the service data management, or simply data service. This service accepts responsibility for the installation, configuration and maintenance of database systems, as well as for efficient access to stored data. This work presents a framework, called GeDaNIC, for managing database systems cloud data. The proposed framework aims to provide software infrastructure required for the provision of data services in computing environments cloud. Accordingly, the search system designed to solve some problems still in the context of open systems database in the cloud, such as dispatch, scheduling appointments and resource provisioning. The approach extends the designed Previous work by adding important features such as: support to unforeseen workloads and use of information about the interactions between queries. The supporting seasonal workloads is related to one of the main properties of computing Cloud: rapid elasticity. Already interactions between queries can provide impacts significant performance of database systems. For this reason, the GeDaNIC uses information about these interactions in order to reduce the execution time of workloads submitted to the data service and thereby increase the profit of provider of this service. For this, three new approaches to model and measure the interactions between instances and types of queries are proposed. In order to demonstrate the efficiency of the proposed framework for experimental evaluation using the TPC-H on PostgreSQL was performed. The results show that the designed solution has the potential to increase the profit of the service provider cloud data.
5

Abordagem para Qualidade de ServiÃo em Banco de Dados Multi-Inquilinos em Nuvem / Approach for Quality of Service to Multi-Tenant Databases in the Cloud

Leonardo Oliveira Moreira 25 July 2014 (has links)
FundaÃÃo de Amparo à Pesquisa do Estado do Cearà / A computaÃÃo em nuvens à um paradigma bem consolidado de utilizaÃÃo de recursos computacionais, segundo o qual infraestrutura de hardware, software e plataformas para o desenvolvimento de novas aplicaÃÃes sÃo oferecidos como serviÃos disponÃveis remotamente e em escala global. Os usuÃrios de nuvens computacionais abrem mÃo de uma infraestrutura computacional prÃpria para dispÃ-la mediante serviÃos oferecidos por provedores de nuvem, delegando aspectos de Qualidade de ServiÃo (QoS) e assumindo custos proporcionais à quantidade de recursos que utilizam modelo de pagamento baseado no uso. Essas garantias de QoS sÃo definidas entre o provedor do serviÃo e o usuÃrio, e expressas por meio de Acordo de NÃvel de ServiÃo (SLA), o qual consiste de contratos que especificam um nÃvel de qualidade a ser atendido, e penalidades em caso de falha. A maioria das aplicaÃÃes em nuvem à orientada a dados e, por conta disso, Sistemas Gerenciadores de Banco de Dados (SGBDs) sÃo candidatos potenciais para a implantaÃÃo em nuvem. SGBDs em nuvem devem tratar uma grande quantidade de aplicaÃÃes ou inquilinos. Os modelos de multi-inquilinatos sÃo utilizados para consolidar vÃrios inquilinos dentro de um sà SGBD, favorecendo o compartilhamento eficaz de recursos, alÃm de gerenciar uma grande quantidade de inquilinos com padrÃes de carga de trabalho irregulares. Por outro lado, os provedores em nuvem devem reduzir os custos operacionais, garantindo a qualidade. Para muitas aplicaÃÃes, o maior tempo gasto no processamento das requisiÃÃes està relacionado ao tempo de execuÃÃo do SGBD. Portanto, torna-se importante que um modelo de qualidade seja aplicado ao SGBD para seu desempenho. TÃcnicas de provisionamento dinÃmico sÃo voltadas para o tratamento de cargas de trabalho irregulares, para que violaÃÃes de SLA sejam evitadas. Sendo assim, uma estratÃgia para ajustar a nuvem no momento em que se prevà um comportamento que pode violar o SLA de um dado inquilino (banco de dados) deve ser considerada. As tÃcnicas de alocaÃÃo sÃo usadas no intuito de aproveitar os recursos do ambiente em detrimento ao provisionamento. Com base nos sistemas de monitoramento e de modelos de otimizaÃÃo, as tÃcnicas de alocaÃÃo decidem onde serà o melhor local para receber um dado inquilino. Para realizar a transferÃncia do inquilino de forma eficiente, tÃcnicas de Live Migration sÃo adotadas para ter o mÃnimo de interrupÃÃo do serviÃo. Acredita-se que a combinaÃÃo destas trÃs tÃcnicas podem contribuir para o desenvolvimento de um soluÃÃo robusta de QoS para bancos de dados em nuvem, minimizando violaÃÃes de SLA. Ante tais desafios, esta tese apresenta uma abordagem, denominada PMDB, para melhorar QoS em SGBDs multi-inquilinos em nuvem. A abordagem tem como objetivo reduzir o nÃmero de violaÃÃes de SLA e aproveitar os recursos à disposiÃÃo por meio de tÃcnicas que realizam prediÃÃo de carga de trabalho, alocaÃÃo e migraÃÃo de inquilinos quando necessitam de recursos com maior capacidade. Para isso, uma arquitetura foi proposta e um protÃtipo implementado com tais tÃcnicas, alÃm de estratÃgias de monitoramento e QoS voltada para aplicaÃÃes de banco de dados em nuvem. Ademais, alguns experimentos orientados a desempenho foram especificados para mostrar a eficiÃncia da abordagem a fim de alcanÃar o objetivo em foco. / Cloud computing is a well-established paradigm of computing resources usage, whereby hardware infrastructure, software and platforms for the development of new applications are offered as services available remotely and globally. Cloud computing users give up their own infrastructure to dispose of it through the services offered by cloud providers, to which they delegate aspects of Quality of Service (QoS) and assume costs proportional to the amount of resources they use, which is based on a payment model. These QoS guarantees are established between the service provider and the user, and are expressed through Service Level Agreements (SLA). This agreement consists of contracts that specify a level of quality that must be met, and penalties in case of failure. The majority of cloud applications are data-driven, and thus Database Management Systems (DBMSs) are potential candidates for cloud deployment. Cloud DBMS should treat a wide range of applications or tenants. Multi-tenant models have been used to consolidate multiple tenants within a single DBMS, favoring the efficient sharing of resources, and to manage a large number of tenants with irregular workload patterns. On the other hand, cloud providers must be able to reduce operational costs while keeping quality levels as agreed. To many applications, the longer time spent in processing requests is related to the DBMS runtime. Therefore, it becomes important to apply a quality model to obtain DBMS performance. Dynamic provisioning techniques are geared to treat irregular workloads so that SLA violations are avoided. Therefore, it is necessary to adopt a strategy to adjust the cloud at the time a behavior that may violate the SLA of a given tenant (database) is predicted. The allocation techniques are applied in order to utilize the resources of the environment to the dentriment of provisioning. Based on both the monitoring and the optimization models systems, the allocation techniques will decide the best place to assign a given tenant to. In order to efficiently perform the transfer of the tenant, minimal service interruption, Live Migration techniques are adopted. It is believed that the combination of these three techniques may contribute to the development of a robust QoS solution to cloud databases which minimizes SLA violations. Faced with these challenges, this thesis proposes an approach, called PMDB, to improve DBMS QoS in multi-tenant cloud. The approach aims to reduce the number of SLA violations and take advantage the resources that are available using techniques that perform workload prediction, allocation and migration of tenants when greater capacity resources are needed. An architecture was then proposed and a prototype implementing such techniques was developed, besides monitoring strategies and QoS oriented database applications in the cloud. Some performance oriented experiments were then specified to show the effectiveness of our approach.
6

A Petri net decision model for cloud services adoption / Um Modelo de decisÃo para adoÃÃo de serviÃos em nuvem usando redes de Petri

Maristella Ribas 24 September 2015 (has links)
Cloud services are now widely used, especially in Infrastructure as a Service (IaaS), with big players offering several purchasing options, and expanding almost daily the range of offered services. Cost reduction is a major factor promoting cloud services adoption. However, qualitative factors need to be evaluated as well, making the decision process of cloud services adoption a non-trivial task for managers. In this work, we propose a Petri net-based multi-criteria decision-making (MCDM) framework, in order to evaluate a cloud service in relation to a similar on-premises offer. The evaluation of both options considers cost and qualitative issues in a novel and simple method that incorporates best practices from academy and IT specialists. Furthermore, the use of Petri net models allows powerful extensions to perform deeper analysis of specific factors as needed. The framework can be helpful for IT managers to decide between the two options, and can be used for any type of cloud service (IaaS, SaaS, PaaS). Since cost is one of the most important factors promoting cloud adoption, we proceed with a deeper analysis of one important cost factor. We propose a Petri net to model cost savings using public clouds spot Instances purchasing option. Through extensive simulations in several scenarios we conclude that spot Instances can be a very interesting option for savings in auto scaling process, even in simple business applications using only a few servers. Exploring different purchasing options for cloud services can make the difference in the decision making process. / Atualmente, os serviÃos em nuvem sÃo amplamente utilizados, principalmente em infraestrutura como serviÃo (IaaS), com grandes fornecedores oferecendo vÃrias opÃÃes de compra e expandindo quase diariamente a gama de serviÃos oferecidos. A reduÃÃo de custos à o principal fator que promove a adoÃÃo de serviÃos em nuvem. No entanto, à preciso avaliar tambÃm fatores qualitativos, o que torna o processo de decisÃo de adoÃÃo de serviÃos em nuvem uma tarefa pouco trivial para os gestores. Este trabalho propÃe um modelo para tomada de decisÃo multicritÃrio (MDMC) utilizando redes de Petri para avaliar um serviÃo de nuvem comparado com um serviÃo disponibilizado localmente (on-premises), nas dependÃncias do usuÃrio. A avaliaÃÃo das duas opÃÃes considera questÃes qualitativas e de custo atravÃs de um mÃtodo novo e simples, que incorpora as melhores prÃticas de especialistas da academia e de tecnologia da informaÃÃo (TI). AlÃm disso, o uso de redes de Petri permite extensÃes poderosas para realizar anÃlises mais profundas de fatores especÃficos, conforme a necessidade de cada cenÃrio. O modelo pode ser Ãtil para apoiar gestores de TI na decisÃo entre as duas opÃÃes e pode ser usado para qualquer tipo de serviÃo de nuvem (IaaS, SaaS, PaaS). Como o custo à um dos fatores mais importantes para a adoÃÃo da nuvem, procedemos a uma anÃlise mais profunda de um fator de custo importante. à apresentada uma extensÃo ao modelo, tambÃm construÃdo com redes de Petri, para simular economias de custo usando uma determinada opÃÃo de compra de serviÃos em nuvens pÃblicas, as instÃncias spot. AtravÃs de extensas simulaÃÃes em vÃrios cenÃrios, o trabalho conclui que a utilizaÃÃo de instÃncias spot pode gerar uma grande economia no processo de escalonamento automÃtico, mesmo em aplicaÃÃes relativamente simples, utilizando apenas alguns servidores. Explorar diferentes opÃÃes de compra para os serviÃos em nuvem faz uma enorme diferenÃa nos custos e pode ter grande influÃncia no processo de tomada de decisÃo.
7

FairCPU: Uma Arquitetura para Provisionamento de MÃquinas Virtuais Utilizando CaracterÃsticas de Processamento / FairCPU: An Architecture for Provisioning Virtual Machines Using Processing Features

Paulo Antonio Leal Rego 02 March 2012 (has links)
FundaÃÃo Cearense de Apoio ao Desenvolvimento Cientifico e TecnolÃgico / O escalonamento de recursos à um processo chave para a plataforma de ComputaÃÃo em Nuvem, que geralmente utiliza mÃquinas virtuais (MVs) como unidades de escalonamento. O uso de tÃcnicas de virtualizaÃÃo fornece grande flexibilidade com a habilidade de instanciar vÃrias MVs em uma mesma mÃquina fÃsica (MF), modificar a capacidade das MVs e migrÃ-las entre as MFs. As tÃcnicas de consolidaÃÃo e alocaÃÃo dinÃmica de MVs tÃm tratado o impacto da sua utilizaÃÃo como uma medida independente de localizaÃÃo. à geralmente aceito que o desempenho de uma MV serà o mesmo, independentemente da MF em que ela à alocada. Esta à uma suposiÃÃo razoÃvel para um ambiente homogÃneo, onde as MFs sÃo idÃnticas e as MVs estÃo executando o mesmo sistema operacional e aplicativos. No entanto, em um ambiente de ComputaÃÃo em Nuvem, espera-se compartilhar um conjunto composto por recursos heterogÃneos, onde as MFs podem variar em termos de capacidades de seus recursos e afinidades de dados. O objetivo principal deste trabalho à apresentar uma arquitetura que possibilite a padronizaÃÃo da representaÃÃo do poder de processamento das MFs e MVs, em funÃÃo de Unidades de Processamento (UPs), apoiando-se na limitaÃÃo do uso da CPU para prover isolamento de desempenho e manter a capacidade de processamento das MVs independente da MF subjacente. Este trabalho busca suprir a necessidade de uma soluÃÃo que considere a heterogeneidade das MFs presentes na infraestrutura da Nuvem e apresenta polÃticas de escalonamento baseadas na utilizaÃÃo das UPs. A arquitetura proposta, chamada FairCPU, foi implementada para trabalhar com os hipervisores KVM e Xen, e foi incorporada a uma nuvem privada, construÃda com o middleware OpenNebula, onde diversos experimentos foram realizados para avaliar a soluÃÃo proposta. Os resultados comprovam a eficiÃncia da arquitetura FairCPU em utilizar as UPs para reduzir a variabilidade no desempenho das MVs, bem como para prover uma nova maneira de representar e gerenciar o poder de processamento das MVs e MFs da infraestrutura. / Resource scheduling is a key process for cloud computing platform, which generally uses virtual machines (VMs) as scheduling units. The use of virtualization techniques provides great flexibility with the ability to instantiate multiple VMs on one physical machine (PM), migrate them between the PMs and dynamically scale VMâs resources. The techniques of consolidation and dynamic allocation of VMs have addressed the impact of its use as an independent measure of location. It is generally accepted that the performance of a VM will be the same regardless of which PM it is allocated. This assumption is reasonable for a homogeneous environment where the PMs are identical and the VMs are running the same operating system and applications. Nevertheless, in a cloud computing environment, we expect that a set of heterogeneous resources will be shared, where PMs will face changes both in terms of their resource capacities and as also in data affinities. The main objective of this work is to propose an architecture to standardize the representation of the processing power by using processing units (PUs). Adding to that, the limitation of CPU usage is used to provide performance isolation and maintain the VMâs processing power at the same level regardless the underlying PM. The proposed solution considers the PMs heterogeneity present in the cloud infrastructure and provides scheduling policies based on PUs. The proposed architecture is called FairCPU and was implemented to work with KVM and Xen hypervisors. As study case, it was incorporated into a private cloud, built with the middleware OpenNebula, where several experiments were conducted. The results prove the efficiency of FairCPU architecture to use PUs to reduce VMsâ performance variability, as well as to provide a new way to represent and manage the processing power of the infrastructureâs physical and virtual machines.

Page generated in 0.0811 seconds