Spelling suggestions: "subject:"computação em devem"" "subject:"computação em vivem""
1 |
Uma abordagem para a avaliação de topologias de aplicações em nuvem baseada em TOSCA / An Approach for Evaluating Cloud Application Topologies Based on TOSCA (Inglês)Pereira, Tiago Rolim 31 October 2016 (has links)
Made available in DSpace on 2019-03-30T00:01:47Z (GMT). No. of bitstreams: 0
Previous issue date: 2016-10-31 / Provisioning cloud applications usually is a complex task as it involves the deployment and configuration of several components (e.g., load balancer, application server, database) and cloud services (computing, storage, CDN, etc.) also known as application blueprints or topologies. The Topology and Orchestration Specification for Cloud Applications (TOSCA) is a recent standard that has focused on standardizing the way cloud applications are structured and managed to favor interoperability. In this work we describe an approach that facilitates the evaluation of different application topologies by enabling cloud users to easily provision and evaluate different TOSCA topology options based on performance and cost metrics. We show the technical feasibility of the approach based on a case study with the WordPress blogging application where various topologies were automatically provisioned and evaluated in order to gain insights into the best (w.r.t.performance) options.
Key-words: Cloud Computing. Provisioning. Topology Evaluation. TOSCA. / Provisionamento de aplicações em nuvem geralmente é uma tarefa complexa, uma vez que envolve a implantação e configuração de vários componentes (ex: balanceador de carga, servidor de aplicações, banco de dados) e serviços de nuvem (computação, armazenamento, CDN, etc.), também conhecido como blueprints ou topologias. Topology and Orchestration Specification for Cloud Applications (TOSCA) é um padrão recente que tem se concentrado em padronizar a forma com que as aplicações em nuvem são estruturadas e gerenciadas para favorecer interoperabilidade. Neste trabalho descrevemos uma abordagem que facilita a avaliação de diferentes topologias de aplicações, permitindo que os usuários de nuvem facilmente provisionem e avaliem diferentes opções de topologias TOSCA baseado em métricas de desempenho e de custo. Nós mostramos a viabilidade técnica da abordagem com base em um estudo de caso com a aplicação de blog WordPress onde várias topologias foram provisionadas automaticamente e avaliadas, a fim de obter informações sobre as melhores opções.
Palavras-chaves: Computação em Nuvem. Provisionamento. Avaliação de Topologias . TOSCA.
|
2 |
A user-centered and autonomic multi-cloud architecture for high performance computing applicationsLeite, Alessandro Ferreira 02 December 2014 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2014. / Submitted by Ana Cristina Barbosa da Silva (annabds@hotmail.com) on 2015-05-25T14:38:06Z
No. of bitstreams: 1
2014_AlessandroFerreiraLeite.pdf: 9950238 bytes, checksum: 5899f0fba30e3075ce700c4440d984f9 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2015-05-25T15:49:14Z (GMT) No. of bitstreams: 1
2014_AlessandroFerreiraLeite.pdf: 9950238 bytes, checksum: 5899f0fba30e3075ce700c4440d984f9 (MD5) / Made available in DSpace on 2015-05-25T15:49:14Z (GMT). No. of bitstreams: 1
2014_AlessandroFerreiraLeite.pdf: 9950238 bytes, checksum: 5899f0fba30e3075ce700c4440d984f9 (MD5) / A computação em nuvem tem sido considerada como uma opção para executar aplicações de alto desempenho. Entretanto, enquanto as plataformas de alto desempenho tradicionais como grid e supercomputadores oferecem um ambiente estável quanto à falha, desempenho e número de recursos, a computação em nuvem oferece recursos sob demanda, geralmente com desempenho imprevisível à baixo custo financeiro. Além disso, em ambiente de nuvem, as falhas fazem parte da sua normal operação. No entanto, as nuvens podem ser combinadas, criando uma federação, para superar os limites de uma nuvem muitas vezes com um baixo custo para os usuários. A federação de nuvens pode ajudar tanto os provedores quanto os usuários das nuvens a atingirem diferentes objetivos tais como: reduzir o tempo de execução de uma aplicação, reduzir o custo financeiro, aumentar a disponibilidade do ambiente, reduzir o consumo de energia, entre outros. Por isso, a federação de nuvens pode ser uma solução elegante para evitar o sub-provisionamento de recursos ajudando os provedores a reduzirem os custos operacionais e a reduzir o número de recursos ativos, que outrora ficariam ociosos consumindo energia, por exemplo. No entanto, a federação de nuvens aumenta as opções de recursos disponíveis para os usuários, requerendo, em muito dos casos, conhecimento em administração de sistemas ou em computação em nuvem, bem como um tempo considerável para aprender sobre as opções disponíveis. Neste contexto, surgem algumas questões, tais como: (a) qual dentre os recursos disponíveis é apropriado para uma determinada aplicação? (b) como os usuários podem executar suas aplicações na nuvem e obter um desempenho e um custo financeiro aceitável, sem ter que modificá-las para atender as restrições do ambiente de nuvem? (c) como os usuários não especialistas em nuvem podem maximizar o uso da nuvem, sem ficar dependente de um provedor? (d) como os provedores podem utilizar a federação para reduzir o consumo de energia dos datacenters e ao mesmo tempo atender os acordos de níveis de serviços? A partir destas questões, este trabalho apresenta uma solução para consolidação de aplicações em nuvem federalizadas considerando os acordos de serviços. Nossa solução utiliza um sistema multi-agente para negociar a migração das máquinas virtuais entres as nuvens. Simulações mostram que nossa abordagem pode reduzir em até 46% o consumo de energia e atender os requisitos de qualidade. Nós também desenvolvemos e avaliamos uma solução para executar uma aplicação de bioinformática em nuvens federalizadas, a custo zero. Nesse caso, utilizando a federação, conseguimos diminuir o tempo de execução da aplicação em 22,55%, considerando o seu tempo de execução na melhor nuvem. Além disso, este trabalho apresenta uma arquitetura chamada Excalibur, que possibilita escalar a execução de aplicações comuns em nuvem. Excalibur conseguiu escalar automaticamente a execução de um conjunto de aplicações de bioinformática em até 11 máquinas virtuais, reduzindo o tempo de execução em 63% e o custo financeiro em 84% quando comparado com uma configuração definida pelos usuários. Por fim, este trabalho apresenta um método baseado em linha de produto de software para lidar com as variabilidades dos serviços oferecidos por nuvens de infraestrutura (IaaS), e um sistema que utiliza deste processo para configurar o ambiente e para lidar com falhas de forma automática. O nosso método utiliza modelo de feature estendido com atributos para descrever os recursos e para selecioná-los com base nos objetivos dos usuários. Experimentos realizados com dois provedores diferentes mostraram que utilizando o nosso processo, os usuários podem executar as suas aplicações em um ambiente de nuvem federalizada, sem conhecer as variabilidades e limitações das nuvens. _______________________________________________________________________________________ ABSTRACT / Cloud computing has been seen as an option to execute high performance computing (HPC) applications. While traditional HPC platforms such as grid and supercomputers offer a stable environment in terms of failures, performance, and number of resources, cloud computing offers on-demand resources generally with unpredictable performance at low financial cost. Furthermore, in cloud environment, failures are part of its normal operation. To overcome the limits of a single cloud, clouds can be combined, forming a cloud federation often with minimal additional costs for the users. A cloud federation can help both cloud providers and cloud users to achieve their goals such as to reduce the execution time, to achieve minimum cost, to increase availability, to reduce power consumption, among others. Hence, cloud federation can be an elegant solution to avoid over provisioning, thus reducing the operational costs in an average load situation, and removing resources that would otherwise remain idle and wasting power consumption, for instance. However, cloud federation increases the range of resources available for the users. As a result, cloud or system administration skills may be demanded from the users, as well as a considerable time to learn about the available options. In this context, some questions arise such as: (a) which cloud resource is appropriate for a given application? (b) how can the users execute their HPC applications with acceptable performance and financial costs, without needing to re-engineer the applications to fit clouds’ constraints? (c) how can non-cloud specialists maximize the features of the clouds, without being tied to a cloud provider? and (d) how can the cloud providers use the federation to reduce power consumption of the clouds, while still being able to give service-level agreement (SLA) guarantees to the users? Motivated by these questions, this thesis presents a SLA-aware application consolidation solution for cloud federation. Using a multi-agent system (MAS) to negotiate virtual machine (VM) migrations between the clouds, simulation results show that our approach could reduce up to 46% of the power consumption, while trying to meet performance requirements. Using the federation, we developed and evaluated an approach to execute a huge bioinformatics application at zero-cost. Moreover, we could decrease the execution time in 22.55% over the best single cloud execution. In addition, this thesis presents a cloud architecture called Excalibur to auto-scale cloud-unaware application. Executing a genomics workflow, Excalibur could seamlessly scale the applications up to 11 virtual machines, reducing the execution time by 63% and the cost by 84% when compared to a user’s configuration. Finally, this thesis presents a software product line engineering (SPLE) method to handle the commonality and variability of infrastructure-as-a-service (IaaS) clouds, and an autonomic multi-cloud architecture that uses this method to configure and to deal with failures autonomously. The SPLE method uses extended feature model (EFM) with attributes to describe the resources and to select them based on the users’ objectives. Experiments realized with two different cloud providers show that using the proposed method, the users could execute their application on a federated cloud environment, without needing to know the variability and constraints of the clouds. _______________________________________________________________________________________ RÉSUMÉ / Le cloud computing a été considéré comme une option pour exécuter des applications de calcul haute performance (HPC). Bien que les plateformes traditionnelles de calcul haute performance telles que les grilles et les supercalculateurs offrent un environnement stable du point de vue des défaillances, des performances, et de la taille des ressources, le cloud computing offre des ressources à la demande, généralement avec des performances imprévisibles mais à des coûts financiers abordables. En outre, dans un environnement de cloud, les défaillances sont perçues comme étant ordinaires. Pour surmonter les limites d’un cloud individuel, plusieurs clouds peuvent être combinés pour former une fédération de clouds, souvent avec des coûts supplémentaires légers pour les utilisateurs. Une fédération de clouds peut aider autant les fournisseurs que les utilisateurs à atteindre leurs objectifs tels la réduction du temps d’exécution, la minimisation des coûts, l’augmentation de la disponibilité, la réduction de la consummation d’énergie, pour ne citer que ceux-là. Ainsi, la fédération de clouds peut être une solution élégante pour éviter le sur-approvisionnement, réduisant ainsi les coûts d’exploitation en situation de charge moyenne, et en supprimant des ressources qui, autrement, resteraient inutilisées et gaspilleraient ainsi de énergie. Cependant, la fédération de clouds élargit la gamme des ressources disponibles. En conséquence, pour les utilisateurs, des compétences en cloud computing ou en administration système sont nécessaires, ainsi qu’un temps d’apprentissage considérable pour maîtrises les options disponibles. Dans ce contexte, certaines questions se posent : (a) Quelle ressource du cloud est appropriée pour une application donnée ? (b) Comment les utilisateurs peuvent-ils exécuter leurs applications HPC avec un rendement acceptable et des coûts financiers abordables, sans avoir à reconfigurer les applications pour répondre aux norms et contraintes du cloud ? (c) Comment les non-spécialistes du cloud peuvent-ils maximiser l’usage des caractéristiques du cloud, sans être liés au fournisseur du cloud ? et (d) Comment les fournisseurs de cloud peuvent-ils exploiter la fédération pour réduire la consommation électrique, tout en étant en mesure de fournir un service garantissant les normes de qualité préétablies ? À partir de ces questions, la presente thèse propose une solution de consolidation d’applications pour la fédération de clouds qui garantit le respect des normes de qualité de service. On utilise un système multi-agents (SMA) pour négocier la migration des machines virtuelles entre les clouds. Les résultats de simulations montrent que notre approche pourrait réduire jusqu’à 46% la consommation totale d’énergie, tout en respectant les exigencies de performance. En nous basant sur la fédération de clouds, nous avons développé et évalué une approche pour exécuter une énorme application de bioinformatique à coût zéro. En outre, nous avons pu réduire le temps d’exécution de 22,55% par rapport à la meilleure exécution dans un cloud individuel. Cette thèse présente aussi une architecture de cloud baptisée « Excalibur » qui permet l’adaptation automatique des applications standards pour le cloud. Dans l’exécution d’une chaîne de traitements de la génomique, Excalibur a pu parfaitement mettre à l’échelle les applications sur jusqu’à 11 machines virtuelles, ce qui a réduit le temps d’exécution de 63% et le coût de 84% par rapport à la configuration de l’utilisateur. Enfin, cette thèse présente un processus d’ingénierie des lignes de produits (PLE) pour gérer la variabilité de l’infrastructure à la demande du cloud, et une architecture multi-cloud autonome qui utilise ce processus pour configurer et faire face aux défaillances de manière indépendante. Le processus PLE utilise le modele étendu de fonction (EFM) avec des attributs pour décrire les ressources et les sélectionner en fonction dês objectifs de l’utilisateur. Les expériences réalisées avec deux fournisseurs de cloud différents montrent qu’em utilisant le modèle proposé, les utilisateurs peuvent exécuter leurs applications dans un environnement de clouds fédérés, sans avoir besoin de connaître les variabilités et contraintes du cloud.
|
3 |
Cloud detours : uma abordagem para adaptação automática e não intrusiva de aplicações para ambientes de computação em nuvem / Cloud Detours: A Non-intrusive Approach for Automatic Software Adaptation to Cloud Environments (Inglês)Vasconcelos, Michel Araujo 21 December 2015 (has links)
Made available in DSpace on 2019-03-30T00:01:56Z (GMT). No. of bitstreams: 0
Previous issue date: 2015-12-21 / A major challenge regarding the migration of legacy (on-premise) applications to the cloud is the need to change the application's source code in order to comply with possible environment restrictions imposed by the target cloud platform as well as to take better advantage from inherit cloudcomputing benefits, such as resource elasticity and high scalability. When performed manually, those changes are error-prone and may require a great effort from application developers. This work presents a novel approach to support organizations in automatically adapting their existing software applications to the cloud environment. The approach is based on the specification, implementation and reuse of non-intrusive cloud-driven code transformations, called cloud detours, which enable the automatic replacement of local services used by an application with similar or functionally related services available in the cloud. To illustrate the feasibility of the proposed approach, an initial set of cloud detours has been implemented for Java and Python using aspectorientedprogramming and a generic cloud API, which was then used to seamlessly adapt an existing file-based Java application to store application data in a cloud-based storage service.
Keywords: Aspect-oriented software engineering. Software maintenance.Software reuse.
CloudComputing. / Um dos grandes desafios associados à migração de aplicações para a nuvem é a necessidade de realizar mudanças em seu código fonte visando torná-lo compatível ou melhor adaptado a este novo ambiente. Tais mudanças, se feitas manualmente, tendem a demandar um esforço considerável por parte dos desenvolvedores da aplicação, além de poder introduzir novos erros de implementação. Este trabalho apresenta uma nova abordagem para a adaptação automática de aplicações para a nuvem. A abordagem proposta tem como base a especificação, implementação e reutilização de um conjunto de transformações de código não intrusivas, denominadas clouddetours, as quais permitem substituir automaticamente, sem a necessidade alterações diretas no código fonte, um ou mais serviços requeridos pela aplicação (por exemplo, serviços de armazenamento de arquivos ou de banco de dados) por serviços similares disponíveis na nuvem. Resultados preliminares, obtidos a partir da adaptação de uma aplicação Java existente para utilizar um serviço de armazenamento de uma nuvem pública, ilustram a efetividade da abordagem.
Palavras-chave:CloudComputing. Orientação a Aspectos. Engenharia de Software. Migração para Nuvem. Reuso.
|
4 |
Uma abordagem de migração para arquitetura microservices a partir de aplicações monolíticas em produção / An Approach for Migration to the Microservices architecture from Monolithic Applications in Production (Inglês)Carvalho, Luis Heustakio Lima 15 December 2017 (has links)
Made available in DSpace on 2019-03-30T00:08:37Z (GMT). No. of bitstreams: 0
Previous issue date: 2017-12-15 / The recent Microservices paradigm is gaining a lot of attention from industry and academia and is transforming the way to develop software. With the goal of improving productivity of development teams, this paradigm transforms the way to modularize software in a collection of small independent distributed programs, called Microservices that used to be located into a single program unit, called Monolith. This paradigm changes the way to build software as the old monolith´s modules can be developed, deployed, monitored and scaled in an independent fashion improving productivity and modularization, however bringing some challenges such as a more automated deployment management and the use of various databases. Some reference Microservices implementations are already in production in the market such as Amazon and Netflix software and are showing the benefits of the paradigm. This work proposes an approach for the migration of Monolith applications for the Microservices paradigm addressing the whole software development lifecycle. The approach defines the processes involved in this task that are based on the best practices of the current state of the art. Moreover, the approach focuses on supporting applications that are already under production without affecting its current development and the clients of the software. A real Case Study was conducted in a software development company that applied the proposed approach and enabled migrating the architecture of a commercial application from Monolith to Microservices without affecting its use by clients and achieving benefits such as improved modularization, as well as reduced build and deployment times.
Keywords: Architecture, Monolithic, Microservices, Migration, Process, Production / O recente paradigma de Microservices vem ganhando bastante atenção do mercado e comunidade acadêmica e transformando a maneira de se desenvolver software. Com o objetivo de aumentar a produtividade das equipes de desenvolvimento, este paradigma transforma a maneira de se modularizar o software através da distribuição de um conjunto de pequenos programas independentes, chamados Microservices, que antes eram localizados dentro de uma única unidade de implantação, chamado Monolítico. Este paradigma muda a maneira de se construir software, pois os antigos módulos do monolítico podem ser construídos, implantados, monitorados e escalados de forma independente trazendo mais produtividade e desacoplamento, mas também impactando em uma série de desafios como uma gestão mais automatizada da implantação e a utilização de várias bases de dados. Algumas implementações referências baseadas em Microservices já estão em pleno funcionamento no mercado como os sistemas da Amazon e Netflix e demonstrando os benefícios do paradigma. Este trabalho propõe uma abordagem para migração de aplicações monolíticas para o padrão Microservices que contempla todas as atividades do ciclo de desenvolvimento de software. A Abordagem define os processos envolvidos nesta tarefa que são baseados nas melhores práticas sugeridas pelo atual estado da arte. Além disso, a abordagem proposta foca-se em dar suporte à migração de aplicações que já estão em produção sem afetar o desenvolvimento da mesma e os clientes que já utilizam o software. Um estudo de caso real foi desenvolvido em uma empresa de software cuja utilização da abordagem proposta conseguiu migrar a arquitetura monolítica de uma aplicação comercial sem afetar seu uso por parte dos clientes e atingindo benefícios como melhor modularização, redução do tempo de construção (build) e implantação.
Palavras-chave: Arquitetura, Monolítica, Microserviços, Migração, Processo, Produção
|
5 |
NaturalCloud : um framework para integração de rede de sensores na nuvem / NaturalCloud: A framework for integration of Sensor Networks in Cloud (Inglês)Leitão, Leonardo Moura 06 September 2012 (has links)
Made available in DSpace on 2019-03-29T23:33:24Z (GMT). No. of bitstreams: 0
Previous issue date: 2012-09-06 / Cloud computing is a computing paradigm that facilitates the development of applications that require the processing and storage of large volumes of data. Wireless Sensor Network (WSN) applications normally have to handle data obtained from thousands (or even millions) of sensors that are spread geographically. Due to these factors, recently, some works have pointed out that clouds are an ideal environment for WSN applications. However, even though there are some works that already deal with the integration of clouds and WSNs there is not yet an approach that simplifies the task of developing applications that utilize cloud services and interact with WSN. This work presents the NaturalCloud approach which provides a framework that hides the details of integration of WSN with Clouds and thus facilitates the developer's tasks. A case study based on a real scenario faced by a company that develops and manages networks of radar speed was deployed in Amazon's Cloud in order to demonstrate the ability of the framework to support large volumes of data. Keywords: Cloud Computing, Sensor Network, Framework / A computação em nuvem é um paradigma computacional que facilita o desenvolvimento de aplicações com grandes necessidades de processamento e armazenamento de dados. Aplicações de redes de sensores normalmente precisam ser capazes de tratar dados obtidos de milhares (ou até mesmo milhões) de sensores espalhados geograficamente. Devido a esses fatores, recentemente, alguns trabalhos vêm apontando que nuvens computacionais são um ambiente ideal para aplicações que manipulam dados sensoriais. No entanto, apesar de já existirem alguns trabalhos que lidam com a integração de sensor/nuvens, ainda não existe uma abordagem que simplifique a tarefa de desenvolver aplicações que utilizam serviços de nuvens e interagem com dados de redes de sensores. Este trabalho apresenta a abordagem NaturalCloud que fornece um framework que esconde os detalhes de integração de sensor/nuvem e facilita a tarefa dos desenvolvedores. Uma aplicação de estudo de caso baseada em um cenário real enfrentado por uma empresa que desenvolve e administra redes de radares eletrônicos foi implantada na nuvem da Amazon com o objetivo de demonstrar a capacidade que o framework tem para atender grandes volumes de dados. Palavras-chave:
Computação em nuvem, Rede de sensores, Framework
|
6 |
Trex cloud framework : uma abordagem para a automação da implantação de sistemas web JEE em ambientes de computação em nuvem / TREX Cloud Framework: An Approach for Deployment Automation of Web JEE Aplications in Cloud Computing Environments (Inglês)Lima Júnior, Roberto Ribeiro Costa 22 October 2012 (has links)
Made available in DSpace on 2019-03-29T23:33:36Z (GMT). No. of bitstreams: 0
Previous issue date: 2012-10-22 / Cloud computing is a recent paradigm that is transforming the way software is developed, managed and scaled. Based on a flexible pay per use pricing model cloud providers offer a range of virtualized resources (e.g., computing, storage, networks, frameworks, applications) as a service that can be flexibly scaled to adjust to varying workloads. As Cloud computing becomes mainstream in software development many organizations are now considering to migrate their applications to the cloud. However, the task of deploying Java Enterprise Edition (JEE) applications in infrastructure-as-a-service (IaaS) clouds is generally daunting due to a number of manual steps necessary to configure all application components as a set of virtual machine images. This work presents a tool, TRexCloud, which supports the task of deploying a fully functional JEE application in IaaS clouds with a few clicks. An empirical study shows how TRexCloud enables users, independently of their level of expertise, to quickly deploy a complete JEE application in the Amazon cloud much faster than other deployment approaches commonly used. / A computação em nuvem é um paradigma recente que está transformando a forma como software é desenvolvido, gerenciado e escalado. Baseado em um modelo de precificação em que se paga pelo uso, provedores de nuvem oferecem recursos virtualizados (ex: computação, armazenamento, redes, frameworks, aplicações) como um serviço que pode ser facilmente ajustado para variadas cargas de trabalhos. À medida que a computação em nuvem torna-se um modelo popular para o desenvolvimento de software, muitas organizações estão considerando migrar suas aplicações para nuvens. No entanto, a tarefa de implantar aplicações do tipo Enterpise Java EE em nuvens de infra-estrutura (IaaS) é geralmente uma tarefa árdua devido a um grande número de procedimentos manuais que precisam ser realizados para configurar todos os componentes da aplicação como um conjunto de máquinas virtuais. Este trabalho apresenta a ferramenta TREXCLOUD que provê suporte para a tarefa de implantar aplicações Enterprise Java EE completamente funcionais em apenas poucos cliques. Um estudo empírico mostra como TREXCLOUD possibilita que usuários, independentemente do seu nível de experiência, consigam rapidamente implantar uma aplicação JavaEE completamente funcional na nuvem da Amazon de forma muito mais rápida do que usando duas outras abordagens de implantação populares.
|
7 |
Um modelo de custo para comercialização de software como serviço da nuvem / A Cost Model to Software-as-a-Service Commercialization in the Cloud (Inglês)Camara, Alessandro Chagas 29 December 2015 (has links)
Made available in DSpace on 2019-03-29T23:52:56Z (GMT). No. of bitstreams: 0
Previous issue date: 2015-12-29 / The competition among software vendors is rapidly increasing and crossing geographical borders, due to technologies such as cloud computing. In this scenario, companies that commercialize legacy software following a tradicional commercialization model are in clear disadvantage when compared to companies which commercialize their software applications as services in the cloud. For reasons of competitiveness and business survival, those companies too might need to consider migrating their software commercialization model to the cloud. This can be a problem since, most of the times, migrating a legacy software application to the cloud implies a high up-front investment from the part of the software vendor. Moreover, migration of the software commercialization model can be done according to multiple strategies, with each one leading to a different financial result. This work proposes a cost model that allows the analysis of the financial impact of different cloud migration strategies, in comparison with the traditional software commercialization strategy. That analysis takes into account the financial impact to both software vendors and their clients. As part of the work, a tool was also developed to automate and support the use of the proposed model.
Keywords: software commercialization; cloud computing; software-as-a-service / A concorrência entre empresas desenvolvedoras de software é cada vez maior e sem fronteiras geográficas, graças a tecnologias como computação em nuvem. Nesse cenário, empresas que comercializam softwares legados, utilizando modelos tradicionais de comercialização, estão em desvantagem quando comparadas a empresas que comercializam seus aplicativos como serviço na nuvem. Por uma questão de competitividade e sobrevivência a longo prazo, essas empresas também podem ter que migrar seus modelos de comercialização de software para nuvem. Isso pode ser um problema porque, na maioria das vezes, migrar uma aplicação legada para um ambiente de nuvem implica em alto investimento para a empresa desenvolvedora da aplicação. Além disso, a migração do modelo de comercialização pode seguir diversas estratégias, cada uma apresentando um resultado financeiro diferente. Este trabalho propõe um modelo de custo que permite a análise do impacto financeiro de diferentes estratégias de migração de software para a nuvem, comparadas com a estratégia de comercialização adotada tradicionalmente. Essa análise leva em consideração o impacto financeiro tanto para o desenvolvedor do software quanto para seus clientes. Como parte do trabalho, também foi desenvolvida uma ferramenta que automatiza e dá suporte à utilização do modelo proposto.
Palavras-chave: comercialização de software; computação em nuvem; software como serviço
|
8 |
Novas soluções para o planejamento de capacidade de aplicações em nuvens de infraestrutra-como-serviçoCunha, Matheus Ciriaco Cerqueira 23 February 2017 (has links)
Made available in DSpace on 2019-03-29T23:56:49Z (GMT). No. of bitstreams: 0
Previous issue date: 2017-02-23 / One of the main challenges faced by users of infrastructure-as-a-service (IaaS) clouds
is to correctly plan the resource capacity required for their applications¿ needs. This
thesis proposes a new approach to support application capacity planning in IaaS clouds,
called performance inference. This new approach is based on the definition of a capacity
relation between different resource configurations offered by a cloud provider which enables to predict (or ¿infer¿), with a high level of accuracy, the expected performance of an application for certain resource configurations. The prediction is made based upon the observed performance for other resource configurations within the same provider. The
approach significantly reduces the total number of configurations effectively tested in the cloud, resulting in lower costs and time for the capacity planning process.
The performance inference approach has been evaluated empirically, as a solution to support capacity planning of two open source applications of distinct domains (WordPress
and TeraSort), which were systematically tested in a public IaaS cloud (Amazon EC2),
considering different resource configurations and different demand levels. The results obtained show that the approach achieves both high efficiency and high accuracy, being
a promising alternative to an exhaustive capacity planning process as well as to other
related solutions recently proposed in the literature.
Key-words: Cloud Computing. Capacity Planning. Performance Inference. / Um dos principais desafios enfrentados pelos usuários de nuvens que oferecem infraestruturacomo-serviço (IaaS) é planejar adequadamente a capacidade dos recursos da nuvem necessários às suas aplicações. Esta tese propõe uma nova abordagem para apoiar o planejamento da capacidade de aplicações em nuvens IaaS, denominada inferência de desempenho. A nova abordagem tem como premissa a definição de uma relação de capacidade
entre as diferentes configurações de recursos oferecidas por um provedor de nuvem, com a
qual é possível prever (ou ¿inferir¿), com alto grau de precisão, o desempenho esperado de
uma aplicação para determinadas configurações de recursos. A predição é realizada com
base no desempenho observado para outras configurações de recursos do mesmo provedor.
Dessa forma, a abordagem consegue reduzir, de forma significativa, o número total de
configurações que precisam ser de fato testadas na nuvem,implicando em menores custo
e tempo para o processo de planejamento.
A abordagem de inferência de desempenho foi avaliada empiricamente, como solução para
apoiar o planejamento da capacidade de duas aplicações de código aberto de domínios distintos (WordPress e TeraSort), as quais foram sistematicamente testadas em uma nuvem
IaaS pública (Amazon EC2), considerando diferentes configurações de máquinas virtuais
e diferentes níveis de demanda. Os resultados obtidos mostram que a nova abordagem
consegue oferecer ao mesmo tempo alta eficiência e alta acurácia, sendo uma promissora
alternativa ao planejamento de capacidade realizado de forma exaustiva bem como
a outras soluções relacionadas recentemente propostas na literatura.
Palavras-chaves: Computação em Nuvem. Planejamento de Capacidade. Inferência de
Desempenho.
|
9 |
Arquitetura e sistema de monitoramento para computação em nuvem privadaChaves, Shirlei Aparecida de 25 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2012-10-25T03:47:11Z (GMT). No. of bitstreams: 1
287315.pdf: 2205010 bytes, checksum: 2435ae1db3362e6ef90c21cb91db411a (MD5) / A computação em nuvem, como todo novo paradigma tecnológico, apresenta diversos desafios: consolidação de definição e bases conceituais; estabelecimento de consenso sobre aplicações e benefícios; gerenciamento, entre outros. Este trabalho visou a apresentação desse paradigma, focando-se na atividade gerencial de monitoramento. Apresenta-se uma revisão sobre o estado da arte do conceito computação em nuvem, discussão de seus principais modelos de implantação e entrega de serviços, esforços de padronização, questões de gerenciamento e principalmente, monitoramento. Discute-se uma proposta de arquitetura de monitoramento para computação em nuvem que contempla o modelo de implantação de nuvem privada e o modelo de entrega de serviços conhecido como IaaS (Infrastructure as a Service ou Infraestrutura como Serviço). Contempla-se o modelo de nuvem privada e IaaS porque se considera que essa é a combinação que fornece maior controle para a organização que adota o uso da computação em nuvem, assim como também fornece os benefícios de maior aproveitamento do parque tecnológico instalado. Considerou-se também que o modelo de serviço IaaS é um modelo importante a ser estudado e contextualizado, pois pode trazer grandes benefícios às pequenas e médias empresas, laboratórios de pesquisa e organizações governamentais, educacionais, sem fins lucrativos e outras, pois, além de melhorar o aproveitamento do parque tecnológico instalado, pode facilitar atividades acadêmicas, manutenção de software e até postergar aquisição de novos equipamentos. Para teste e validação da arquitetura proposta desenvolve-se um protótipo denominado PCMONS (Private Cloud MONitoring Systems), o qual é programado em módulos e utiliza as linguagens de programação Python, Perl e Linux Shell Scripting. O
protótipo inicial foca no monitoramento de máquinas virtuais, dando suporte à plataforma de software para computação em nuvem Eucalyptus e a ferramenta de monitoramento Nagios. Para teste geral da arquitetura e protótipo, implanta-se um ambiente de computação em nuvem privada no Laboratório de Redes e Gerência (LRG) do Departamento de Informática e Estatística (INE) da Universidade Federal de Santa Catarina (UFSC). Apresentam-se os resultados obtidos através de um estudo de caso, o qual considera um possível cenário de uso para uma nuvem privada, com monitoramento realizado pelo PCMONS. / Cloud computing, like any new technological paradigm, presents many challenges: consolidating the definition and conceptual basis, establishing consensus on applications and benefits, management, among others. This work introduces this paradigm, focusing on one of the management activities: monitoring. It presents a review on the stateof- the-art in cloud computing concepts, discuss their main deployment and service delivery models, standardization efforts, management issues and, mainly, monitoring. It also presents and discusses a proposal of an architecture for monitoring cloud computing, which encompasses the private cloud deployment model and the service delivery model known as IaaS (Infrastructure as a Service). Private clouds and IaaS are focused because we consider that this is the combination that provides most control to the organization that adopts the use of cloud computing, and also provides the benefits of increasing the use of installed technological infrastructure. It was also felt that the IaaS service model is an important model to be studied and contextualized, because it can bring great benefits to small and medium enterprises, research laboratories and governmental, educational and nonprofit organizations, and others, because, besides the potential better use of the installed technological infrastructure, it can facilitate academic activities, software maintenance and even to postpone purchase of new equipment. To test and validate the proposed architecture, it is developed a prototype called PCMONS (Private Cloud MONitoring Systems), which is programmed into modules and uses the Python, Perl and Linux Shell Scripting languages. The initial prototype focuses on the monitoring of virtual machines, supporting the Eucalyptus software platform for cloud computing and the monitoring tool Nagios. To test the general architecture and prototype, it is deployed a private cloud computing environment in the Network and Management Laboratory (LRG), Department of Informatics and Statistics (INE), Federal University of Santa Catarina (UFSC). The results obtained are presented through a case study, which considers a possible usage scenario for a private cloud, with monitoring conducted by PCMONS.
|
10 |
Uma Abordagem para alocação de máquinas virtuais em ambientes de computação em nuvem verdeWerner, Jorge 25 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2011 / Made available in DSpace on 2012-10-25T20:12:53Z (GMT). No. of bitstreams: 1
292399.pdf: 9539638 bytes, checksum: 14964d0969534d73400db901fa615c47 (MD5) / Este trabalho propõe uma solução para o controle integrado de computação e os elementos do ambiente em nuvens verdes. A abordagem funciona com base em modelos de organização que regulam o comportamento dos componentes autônomos (agentes), que veêm os elementos ambientais como prestadores de serviços, por exemplo, servidores de processamento, carga de serviço de distribuição, processador de tarefa, serviço de redução de temperatura, entre outros. Argumenta-se que esta arquitetura pode suportar até 70\% em relação a otimização energética dos centros de dados que utilizam um modelo de uma infraestrutura por aplicação e até 40\% de otimização em relação a modelos de computação baseados em nuvem. O desafio é oferecer uma solução integrada de gestão do sistema que controla e regula as configurações internas, em resposta à flutuação dinâmica das variáveis externas proporcionando um sistema de informação escalável, flexível e de qualidade. Entende-se assim que a idéia para resolver as questões deva passar por uma estratégia para alocação dinâmica de máquinas virtuais em ambientes de computação em nuvem, a qual se baseia na migração da carga de trabalho de um servidor físico para outro e na realocação de recursos conforme a demanda por capacidade de processamento possa variar, avaliando o cenário de alocação das máquinas virtuais ao término (isto é, on line) da execução de cada tarefa, com o intuito de identificar um hospedeiro ocioso ou subutilizado. O trabalho introduz um modelo de gestão do sistema, e um modelo de alocação e distribuição de máquinas virtuais, analisando o comportamento do sistema, são descritos os princípios de funcionamento, e por fim é apresentado um cenário de caso de uso.
|
Page generated in 0.062 seconds