• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 263
  • 48
  • 14
  • 12
  • 10
  • 10
  • 10
  • 9
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 331
  • 331
  • 331
  • 211
  • 209
  • 52
  • 50
  • 49
  • 48
  • 43
  • 43
  • 42
  • 42
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Um framework para testes de software na nuvem

Oliveira, Gustavo Sávio de 29 August 2012 (has links)
Submitted by Viviane Lima da Cunha (viviane@biblioteca.ufpb.br) on 2016-02-05T13:53:20Z No. of bitstreams: 1 arquivototal.pdf: 3017391 bytes, checksum: 2d9df98f6995f20b319fb2801efa114d (MD5) / Made available in DSpace on 2016-02-05T13:53:20Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 3017391 bytes, checksum: 2d9df98f6995f20b319fb2801efa114d (MD5) Previous issue date: 2012-08-29 / Conselho Nacional de Pesquisa e Desenvolvimento Científico e Tecnológico - CNPq / Cloud Computing infrastructures can be used to make the testing process more efficient and effective, resulting from lower costs of acquisition of infrastructure to the flexibility of using only the resources actually required to perform the tests. However, exploiting such infrastructures to assist in the testing process requires automation and setup procedures not always available. In this context, we identified the lack of tools that effectively automate the entire process and make a cloud computing infrastructure part of the development and testing environment. This work presents a solution that distributes and coordinates the parallel execution of automated software testing in distributed and heterogeneous environments. This solution, called CloudTesting, provides the necessary support to developers to perform unit tests in the cloud. Experiments performed with CloudTesting in a cloud computing infrastructure showed reductions of more than 20 hours of execution time spent of a condensed set of unit tests. / Infraestruturas de computação em nuvens podem ser utilizadas para tornar o processo de testes mais eficiente e eficaz, obtendo desde redução dos custos de aquisição de infraestrutura à flexibilidade em se utilizar apenas os recursos realmente necessários para efetuar os testes. Entretanto, explorar tais infraestruturas para auxiliar no processo de testes requer procedimentos de configuração e automatização nem sempre disponíveis. Neste contexto, identificamos a ausência de ferramental que efetivamente automatizasse todo o processo e tornasse uma infraestrutura de computação em nuvem parte integrante do ambiente de desenvolvimento e testes. Este trabalho objetiva apresentar uma solução que distribui e coordena a execução paralela de testes automáticos de software em ambientes distribuídos e heterogêneos. Tal solução, denominada CloudTesting fornece ao desenvolvedor o suporte necessário para executar testes de unidade de software na nuvem. Experimentos realizados com o CloudTesting em uma infraestrutura de computação na nuvem demonstraram reduções de mais de 20 horas no tempo gasto de execução de um conjunto sintético de testes de unidade.
152

StackAct: avaliação de desempenho em uma nuvem IaaS multicamadas / StackAct: performance evaluation in an IaaS cloud multilayer

Bruschi, Gustavo Cesar [UNESP] 01 June 2016 (has links)
Submitted by GUSTAVO CESAR BRUSCHI null (gustavo@bruschi.net) on 2016-06-30T22:02:25Z No. of bitstreams: 1 Dissertacao_GustavoBruschi_FINAL(CORRIGIDO)_v2.pdf: 2377456 bytes, checksum: 41a5c87825aeb7131a629aee63fc450d (MD5) / Rejected by Ana Paula Grisoto (grisotoana@reitoria.unesp.br), reason: Solicitamos que realize uma nova submissão seguindo a orientação abaixo: O arquivo submetido está sem a ficha catalográfica. A versão submetida por você é considerada a versão final da dissertação/tese, portanto não poderá ocorrer qualquer alteração em seu conteúdo após a aprovação. Corrija esta informação e realize uma nova submissão contendo o arquivo correto. Agradecemos a compreensão. on 2016-07-04T18:38:19Z (GMT) / Submitted by GUSTAVO CESAR BRUSCHI null (gustavo@bruschi.net) on 2016-07-05T13:38:34Z No. of bitstreams: 2 Dissertacao_GustavoBruschi_FINAL(CORRIGIDO)_v2.pdf: 2377456 bytes, checksum: 41a5c87825aeb7131a629aee63fc450d (MD5) Dissertacao_GustavoBruschi_FINAL(CORRIGIDO)_v2.pdf: 2402200 bytes, checksum: 7d077bcd92c83a83ef1a9502d794312d (MD5) / Approved for entry into archive by Ana Paula Grisoto (grisotoana@reitoria.unesp.br) on 2016-07-07T16:26:49Z (GMT) No. of bitstreams: 1 bruschi_gc_me_sjrp.pdf: 2402200 bytes, checksum: 7d077bcd92c83a83ef1a9502d794312d (MD5) / Made available in DSpace on 2016-07-07T16:26:49Z (GMT). No. of bitstreams: 1 bruschi_gc_me_sjrp.pdf: 2402200 bytes, checksum: 7d077bcd92c83a83ef1a9502d794312d (MD5) Previous issue date: 2016-06-01 / A Computação em Nuvem tornou-se sinônimo de qualidade e eficiência em investimento na área de Tecnologia de Informação, criando novos desafios para o processamento e integração de dados. O desempenho da solução adotada é um ponto chave para o sucesso de uma solução em Nuvem, assim como a maneira como as máquinas virtuais realizam a leitura e gravação no armazenamento, podem ser determinantes para uma melhor utilização desta solução. Este trabalho apresenta o StackAct, um mecanismo que permite realizar o monitoramento e obter dados, em uma Nuvem IaaS, relativos ao consumo de recursos computacionais de uma solução em três camadas utilizando orquestrador Apache CloudStack com hypervisor XenServer e armazenamento dos dados no sistema Openfiler. Foram realizados testes de desempenho utilizando três diferentes tipos de perfil de instâncias em uma nuvem computacional privada, possibilitando mensurar os consumos de CPU, E/S e Memória nas três camadas envolvidas, com diferentes tipos de ofertas de serviços. Os testes resultaram em um comparativo entre cada item analisado para cada camada individual, onde foi possível detectar uma pequena variação entre as diferentes configurações de testes devido a forma como a camada do hypervisor enfileira as requisições realizadas pela camada do orquestrador. Já no comparativo realizado entre as camadas, foi possível constatar o alto consumo de disco na camada de armazenamento de dados, em especial E/S de gravação de dados, que levaram a realização de outros testes utilizando disco de estado sólido na camada de armazenamento, tendo um grande impacto no desempenho da solução como um todo. Foi detectado também um alto consumo de memória na camada hypervisor, que é justificada pela alocação do próprio hypervisor além das VMs que estão sendo criadas e utilizadas no processo. / Cloud Computing has become synonymous of quality, efficiency, and return of investment in Information Technology, creating new challenges for processing and data integrations. The performance of the adopted solution is a key to the success of a solution on Cloud, as well as the way that virtual machines use reading and writing to storage, which can be decisive for a better use of this solution. This work presents the StackAct, a mechanism that allows for monitoring and obtaining data on the consumption of computing resources of a solution in three layers using orchestrator IaaS Apache CloudStack with XenServer hypervisor and storage of data on the NAS OpenFiler system. Based on this mechanism, performance tests were conducted using three different instances of a private cloud. CPU, I/O, and memory usages in the three layers involved were measured with different types of loads. The tests resulted in a comparison between each item analyzed for each individual layer, and it was possible to detect a slight variation between the different configurations of tests because of the way that the hypervisor layer queues the requests made by the orchestrator layer. In the comparison made between the layers, it was possible to high consumption of disk in the data storage layer, in particular I/O data recording, which led to other tests using solid state disk in the storage layer, having an high impact on the performance of the solution as a whole. It was also detected high memory in the hypervisor layer, which is justified by the allocation of the hypervisor itself beyond the VMs being created and used in the process.
153

Metodologia para avaliação da qualidade de experiência - QoE - de serviços em nuvem

Costa, Frederico Guilherme Irigoyen da January 2015 (has links)
Made available in DSpace on 2015-10-21T01:03:29Z (GMT). No. of bitstreams: 1 000475812-Texto+Completo-0.pdf: 4314638 bytes, checksum: fb1587a0f639a8965c12db32e911236a (MD5) Previous issue date: 2015 / In the information age, cloud computing has been touted as a revolutionary concept, since it enhances the quality of communication in a flexible environment, being highly cost-effective. Cloud services demand is supplied by an increasing number of cloud service providers (CSPs). This scenario has consolidated an environment of competition and pressure on prices, in which the perception of the user of the provided services has been gaining attention. In this competitive environment, the quality of experience (QoE) became a key factor not only in selecting cloud service providers, but also in defining the way of deployment services. In this context, this thesis proposes a methodology to evaluate the user quality of experience in cloud services, with focus on web applications, using the MOS (Mean Opinion Score), in a user-centered approach. The methodology estimates the QoE considering network, client application and server aspects. Moreover, it allows adjusting the user expectation according to the evaluation context. The proposed methodology has been applied to the development of the QoE Estimated Platform (PEQN). The implemented platform considers three cloud service providers, located in Brazil, Europe and USA. Several case studies, applied to different contexts of evaluation have been conducted. Case studies allow assessing different client application and server deployments, considering three server geographical locations. The results show significant variability in the MOS within the observed period, not only in the evaluated contexts but also in the assessed cases. Estimated QoE varies significantly even when the network parameters (latency, download rate, packet loss, etc. ) remain stable. This result highlights the importance of QoE assessment by applying a methodology that is able to capture the performance variations not only regarding the network but also regarding the CSPs application and hardware. Finally, recommendations are presented, based on extensive literature research, methodology developed and obtained results, which could help on selecting the most suitable cloud providers. / Na era da informação, a computação em nuvem é apontada como um conceito revolucionário, uma vez que aumenta significativamente a relação custo-benefício em um ambiente de maior qualidade e flexibilidade. A demanda por serviços em nuvem é suprida por uma quantidade cada vez maior de cloud service providers (CSPs). Este cenário tem consolidado um ambiente de competição e pressão por preços, no qual a percepção do usuário sobre os serviços prestados vem ganhando destaque. Neste ambiente competitivo, a qualidade de experiência dos usuários (QoE) tornou-se fator chave não somente na escolha de provedores de serviços em nuvem, mas também na definição da forma de implementação dos serviços. Neste contexto, esta dissertação propõe uma metodologia para avaliação da qualidade da experiência de usuários de serviços em nuvem, com foco em aplicações web, através do MOS (Mean Opinion Score), em uma abordagem centrada no usuário. A metodologia leva em consideração aspectos de rede, de aplicação cliente e de aplicação servidor para a estimativa da QoE, além de permitir o ajuste do MOS de acordo com o contexto de avaliação, levando em conta a expectativa do usuário.A metodologia proposta foi aplicada ao desenvolvimento da plataforma para estimativa da QoE (PEQN – Plataforma de Estimativa de QoE de Serviços em Nuvem), considerando-se três provedores de serviços de nuvem, localizados no Brasil, Europa e EUA. Diversos estudos de caso, aplicados a diferentes contextos de avaliação, foram conduzidos. Os estudos de caso permitem avaliar diferentes implementações de aplicação cliente e de aplicação servidor, considerando-se as três localizações geográficas dos servidores. Os resultados demonstram significativa variabilidade no MOS dentro do período observado, tanto dentro do contexto de avaliação, como dentro dos casos avaliados. A QoE varia significativamente, mesmo quando os parâmetros de rede (latência, taxa de download, perda de pacotes, etc. ) permanecem estáveis. Este resultado ressalta a importância da avaliação do QoE através da aplicação de uma metodologia que seja capaz de capturar as variações de desempenho não somente da rede, mas também das aplicações e do hardware dos CSPs. Por fim, são apresentadas recomendações a serem utilizadas na escolha de provedores de nuvem, baseadas na pesquisa bibliográfica, na metodologia desenvolvida e nos resultados obtidos.
154

StackAct : avaliação de desempenho em uma nuvem IaaS multicamadas /

Bruschi, Gustavo Cesar. January 2016 (has links)
Orientador: Roberta Spolon / Banca: José Remo Ferreira Brega / Banca: Hélio Crestana Guardia / Resumo: A Computação em Nuvem tornou-se sinônimo de qualidade e eficiência em investimento na área de Tecnologia de Informação, criando novos desafios para o processamento e integração de dados. O desempenho da solução adotada é um ponto chave para o sucesso de uma solução em Nuvem, assim como a maneira como as máquinas virtuais realizam a leitura e gravação no armazenamento, podem ser determinantes para uma melhor utilização desta solução. Este trabalho apresenta o StackAct, um mecanismo que permite realizar o monitoramento e obter dados, em uma Nuvem IaaS, relativos ao consumo de recursos computacionais de uma solução em três camadas utilizando orquestrador Apache CloudStack com hypervisor XenServer e armazenamento dos dados no sistema Openfiler. Foram realizados testes de desempenho utilizando três diferentes tipos de perfil de instâncias em uma nuvem computacional privada, possibilitando mensurar os consumos de CPU, E/S e Memória nas três camadas envolvidas, com diferentes tipos de ofertas de serviços. Os testes resultaram em um comparativo entre cada item analisado para cada camada individual, onde foi possível detectar uma pequena variação entre as diferentes configurações de testes devido a forma como a camada do hypervisor enfileira as requisições realizadas pela camada do orquestrador. Já no comparativo realizado entre as camadas, foi possível constatar o alto consumo de disco na camada de armazenamento de dados, em especial E/S de gravação de dados, que levaram a realização de outros testes utilizando disco de estado sólido na camada de armazenamento, tendo um grande impacto no desempenho da solução como um todo. Foi detectado também um alto consumo de memória na camada hypervisor, que é justificada pela alocação do próprio hypervisor além das VMs que estão sendo criadas e utilizadas no processo / Abstract:Cloud Computing has become synonymous of quality, efficiency, and return of investment in Information Technology, creating new challenges for processing and data integrations. The performance of the adopted solution is a key to the success of a solution on Cloud, as well as the way that virtual machines use reading and writing to storage, which can be decisive for a better use of this solution. This work presents the StackAct, a mechanism that allows for monitoring and obtaining data on the consumption of computing resources of a solution in three layers using orchestrator IaaS Apache CloudStack with XenServer hypervisor and storage of data on the NAS OpenFiler system. Based on this mechanism, performance tests were conducted using three different instances of a private cloud. CPU, I/O, and memory usages in the three layers involved were measured with different types of loads. The tests resulted in a comparison between each item analyzed for each individual layer, and it was possible to detect a slight variation between the different configurations of tests because of the way that the hypervisor layer queues the requests made by the orchestrator layer. In the comparison made between the layers, it was possible to high consumption of disk in the data storage layer, in particular I/O data recording, which led to other tests using solid state disk in the storage layer, having an high impact on the performance of the solution as a whole. It was also detected high memory in the hypervisor layer, which is justified by the allocation of the hypervisor itself beyond the VMs being created and used in the process / Mestre
155

Algoritmo de escalonamento de instância de máquina virtual na computação em nuvem /

Bachiega, Naylor Garcia. January 2014 (has links)
Orientador: Roberta Spolon / Banca: Antonio Carlos Sementille / Banca: Luís Carlos Trevelin / Resumo: Na tentativa de reduzir custos aproveitando de maneira eficiente recursos computacionais, novas tecnologias e arquiteturas desenvolvidas estão conquistando grande aceitação do mercado. Uma dessas tecnologias é a Computação em Nuvem, que tenta resolver problemas como consumo energético e alocação de espaço físico em centros de dados ou grandes empresas. A nuvem é um ambiente compartilhado por diversos clientes e permite um crescimento elástico, onde novos recursos como hardware ou software, podem ser contratados ou vendidos a qualquer momento. Nesse modelo, os clientes pagam por recursos que utilizam e não por toda a arquitetura envolvida. Sendo assim, é importante determinar de forma eficiente como esses recursos são distribuídos na nuvem. Portanto, esse trabalho teve como objetivo desenvolver um algoritmo de escalonamento para nuvem que determinasse de maneira eficiente a distribuição de recursos dentro da arquitetura. Para alcançar esse objetivo, foram realizados experimentos com gestores de nuvem open-source, detectando a deficiência dos algoritmos atuais. O algoritmo desenvolvido foi comparado com o algoritmo atual do gestor OpenStack Essex, um gestor de nuvem open-source. Os resultados experimentais demonstraram que o novo algoritmo conseguiu determinar as máquinas menos sobrecarregadas da nuvem, conseguindo desse modo, distribuir a carga de processamento dentro do ambiente privado / Abstract: In an attempt to reduce costs by taking advantage of efficient computing resources, new technologies and architectures developed are gaining wide acceptance in the market. One such technology is cloud computing, which tries to solve problems like energy consumption and allocation of space in data centers or large companies. The cloud is an environment shared by multiple clients and enables elastic growth, where new features such as hardware or software, can be hired or sold at any time. In this model, customers pay for the resources they use and not for all the architecture involved. Therefore, it is important to determine how efficiently those resources are distributed in the cloud. Therefore, this study aimed to develop a scheduling algorithm for cloud efficiently determine the distribution of resources within the architecture. To achieve this goal, experiments were conducted with managers of open-source cloud, detecting the deficiency of current algorithms. This algorithm was compared with the algorithm of the OpenStack Essex manager, a manager of open-source cloud. The experimental results show that the new algorithm could determine the machines less the cloud overloaded, achieving thereby distribute the processing load within the private environment / Mestre
156

Abordagem icônica para modelagem e simulação de ambientes de computação em nuvem ? /

Silva, Diogo Tavares da. January 2015 (has links)
Orientador: Aleardo Manacero Junior / Coorientador: Renata Spolon Lobato / Banca: Norian Marragheto / Banca: Ricardo Menotti / Resumo: O uso de computação em nuvem tem se tornado cada vez mais popular nos últimos anos, impulsionado por fatores como portabilidade de aplicações e a tendência de redução nos investimentos em estrutura física de TI. Neste contexto, a avaliação de desempenho de sistemas de computação em nuvem é útil tanto para clientes, que precisam encontrar a melhor configuração de recursos para sua aplicação, quanto para provedores de serviço, que precisam estudar políticas mais eficientes de escalonamento e alocação de recursos e máquinas virtuais. Apesar de mais preciso, o uso de benchmarking não é a alternativa mais indicada para avaliar esses sistemas, uma vez que é caro usar o sistema apenas para medições de desempenho. Isso faz da simulação uma alternativa mais interessante, pois possui menor custo de implementação e maior facilidade de reconfiguração de parâmetros e reprodutibilidade de experimentos. Infelizmente, os simuladores de computação em nuvem conhecidos possuem problemas relativos a usabilidade e capacidade de modelagem. Este trabalho apresenta o desenvolvimento de uma abordagem icônica para modelagem e simulação de computação em nuvem no iSPD. A escolha do iSPD como base do projeto se justifica pois ele é um simulador que busca prover facilidade de uso, oferecendo uma interface icônica para a modelagem de sistemas. Resultados obtidos com a simulação de computação em nuvem mostram o sucesso do projeto, pois o simulador consegue representar corretamente execuções em nuvens reais, com custos de modelagem e execução bastante baixos / Abstract: The use of Cloud Computing is becoming increasingly more popular, driven by application's portability and the trend of reduction of investments in IT's physical infrastructure. These developments create scenarios where it is hard to know if the use of such environments is efficient or not. In this context, evaluate the performance of cloud computing systems is useful both for clients, that need to find the best resource configuration for their applications, as well as for providers, who need to evaluate which scheduling and resource and virtual machine allocation policies are more efficient. Although more accurate, the use of benchmarking is not an adequate option for this evaluation since it is expensive to use the system just for performance measuring. This makes simulation the most attractive option because it has a lower deployment cost and it is easier to reconfigure model parameters and reproduce the measurements in a system's model. Unfortunately, the known cloud computing simulators have issues related to their usability and modeling capability. This work presents the development of an iconic approach for modeling and simulation of cloud computing with the iSPD. The choice for iSPD as foundation for this project is justified because it is a simulator aimed to be user-friendly, offering an iconic interface to systems' modeling. Results achieved with cloud computing simulation show success, since the simulator was able to correctly mimic executions in a real cloud, with a reasonably low cost for modeling and execution / Mestre
157

Performance modeling of MapReduce applications for the cloud / Modelagem de desempenho de aplicações mapreduce para a núvem

Izurieta, Iván Carrera January 2014 (has links)
Nos últimos anos, Cloud Computing tem se tornado uma tecnologia importante que possibilitou executar aplicações sem a necessidade de implementar uma infraestrutura física com a vantagem de reduzir os custos ao usuário cobrando somente pelos recursos computacionais utilizados pela aplicação. O desafio com a implementação de aplicações distribuídas em ambientes de Cloud Computing é o planejamento da infraestrutura de máquinas virtuais visando otimizar o tempo de execução e o custo da implementação. Assim mesmo, nos últimos anos temos visto como a quantidade de dados produzida pelas aplicações cresceu mais que nunca. Estes dados contêm informação valiosa que deve ser obtida utilizando ferramentas como MapReduce. MapReduce é um importante framework para análise de grandes quantidades de dados desde que foi proposto pela Google, e disponibilizado Open Source pela Apache com a sua implementação Hadoop. O objetivo deste trabalho é apresentar que é possível predizer o tempo de execução de uma aplicação distribuída, a saber, uma aplicação MapReduce, na infraestrutura de Cloud Computing, utilizando um modelo matemático baseado em especificações teóricas. Após medir o tempo levado na execução da aplicação e variando os parámetros indicados no modelo matemático, e, após utilizar uma técnica de regressão linear, o objetivo é atingido encontrando um modelo do tempo de execução que foi posteriormente aplicado para predizer o tempo de execução de aplicações MapReduce com resultados satisfatórios. Os experimentos foram realizados em diferentes configurações: a saber, executando diferentes aplicações MapReduce em clusters privados e públicos, bem como em infraestruturas de Cloud comercial, e variando o número de nós que compõem o cluster, e o tamanho do workload dado à aplicação. Os experimentos mostraram uma clara relação com o modelo teórico, indicando que o modelo é, de fato, capaz de predizer o tempo de execução de aplicações MapReduce. O modelo desenvolvido é genérico, o que quer dizer que utiliza abstrações teóricas para a capacidade computacional do ambiente e o custo computacional da aplicação MapReduce. Motiva-se a desenvolver trabalhos futuros para estender esta abordagem para atingir outro tipo de aplicações distribuídas, e também incluir o modelo matemático deste trabalho dentro de serviços na núvem que ofereçam plataformas MapReduce, a fim de ajudar os usuários a planejar suas implementações. / In the last years, Cloud Computing has become a key technology that made possible running applications without needing to deploy a physical infrastructure with the advantage of lowering costs to the user by charging only for the computational resources used by the application. The challenge with deploying distributed applications in Cloud Computing environments is that the virtual machine infrastructure should be planned in a way that is time and cost-effective. Also, in the last years we have seen how the amount of data produced by applications has grown bigger than ever. This data contains valuable information that has to be extracted using tools like MapReduce. MapReduce is an important framework to analyze large amounts of data since it was proposed by Google, and made open source by Apache with its Hadoop implementation. The goal of this work is to show that the execution time of a distributed application, namely, a MapReduce application, in a Cloud computing environment, can be predicted using a mathematical model based on theoretical specifications. This prediction is made to help the users of the Cloud Computing environment to plan their deployments, i.e., quantify the number of virtual machines and its characteristics in order to have a lesser cost and/or time. After measuring the application execution time and varying parameters stated in the mathematical model, and after that, using a linear regression technique, the goal is achieved finding a model of the execution time which was then applied to predict the execution time of MapReduce applications with satisfying results. The experiments were conducted in several configurations: namely, private and public clusters, as well as commercial cloud infrastructures, running different MapReduce applications, and varying the number of nodes composing the cluster, as well as the amount of workload given to the application. Experiments showed a clear relation with the theoretical model, revealing that the model is in fact able to predict the execution time of MapReduce applications. The developed model is generic, meaning that it uses theoretical abstractions for the computing capacity of the environment and the computing cost of the MapReduce application. Further work in extending this approach to fit other types of distributed applications is encouraged, as well as including this mathematical model into Cloud services offering MapReduce platforms, in order to aid users plan their deployments.
158

Flexible and integrated resource management for IaaS cloud environments based on programmability / Gerenciamento de recursos flexível e integrado para ambientes de nuvem iaas baseado em programabilidade

Wickboldt, Juliano Araújo January 2015 (has links)
Nuvens de infraestrutura como serviço (IaaS) estão se tornando um ambiente habitual para execução de aplicações modernas da Internet. Muitas plataformas de gerenciamento de nuvem estão disponíveis para aquele que deseja construir uma nuvem de IaaS privada ou pública (e.g., OpenStack, Eucalyptus, OpenNebula). Um aspecto comum do projeto de plataformas atuais diz respeito ao seu modelo de controle caixa-preta. Em geral, as plataformas de gerenciamento de nuvem são distribuídas com um conjunto de estratégias de alocação de recursos embutida em seu núcleo. Dessa forma, os administradores de nuvem têm poucas oportunidades de influenciar a maneira como os recursos são realmente gerenciados (e.g., posicionamento de máquinas virtuais ou seleção caminho de enlaces virtuais). Os administradores poderiam se beneficiar de personalizações em estratégias de gerenciamento de recursos, por exemplo, para atingir os objetivos específicos de cada ambiente ou a fim de permitir a alocação de recursos orientada à aplicação. Além disso, as preocupações acerca do gerenciamento de recursos em nuvens se dividem geralmente em computação, armazenamento e redes. Idealmente, essas três preocupações deveriam ser abordadas no mesmo nível de importância por implementações de plataformas. No entanto, ao contrário do gerenciamento de computação e armazenamento, que têm sido amplamente estudados, o gerenciamento de redes em ambientes de nuvem ainda é bastante incipiente. A falta de flexibilidade e suporte desequilibrado para o gerenciamento de recursos dificulta a adoção de nuvens como um ambiente de execução viável para muitas aplicações modernas da Internet com requisitos rigorosos de elasticidade e qualidade do serviço. Nesta tese, um novo conceito de plataforma de gerenciamento de nuvem é introduzido onde o gerenciamento de recursos flexível é obtido pela adição de programabilidade no núcleo da plataforma. Além disso, uma API simplificada e orientada a objetos é introduzida a fim de permitir que os administradores escrevam e executem programas de gerenciamento de recursos para lidar com todos os tipos de recursos a partir de um único ponto. Uma plataforma é apresentada como uma prova de conceito, incluindo um conjunto de adaptadores para lidar com tecnologias de virtualização e de redes modernas, como redes definidas por software com OpenFlow, Open vSwitches e Libvirt. Dois estudos de caso foram realizados a fim de avaliar a utilização de programas de gerenciamento de recursos para implantação e otimização de aplicações através de uma rede emulada usando contêineres de virtualização Linux e Open vSwitches operando sob o protocolo OpenFlow. Os resultados mostram a viabilidade da abordagem proposta e como os programas de implantação e otimização são capazes de alcançar diferentes objetivos definidos pelo administrador. / Infrastructure as a Service (IaaS) clouds are becoming an increasingly common way to deploy modern Internet applications. Many cloud management platforms are available for users that want to build a private or public IaaS cloud (e.g., OpenStack, Eucalyptus, OpenNebula). A common design aspect of current platforms is their black-box-like controlling nature. In general, cloud management platforms ship with one or a set of resource allocation strategies hard-coded into their core. Thus, cloud administrators have few opportunities to influence how resources are actually managed (e.g., virtual machine placement or virtual link path selection). Administrators could benefit from customizations in resource management strategies, for example, to achieve environment specific objectives or to enable application-oriented resource allocation. Furthermore, resource management concerns in clouds are generally divided into computing, storage, and networking. Ideally, these three concerns should be addressed at the same level of importance by platform implementations. However, as opposed to computing and storage management, which have been extensively investigated, network management in cloud environments is rather incipient. The lack of flexibility and unbalanced support for resource management hinders the adoption of clouds as a viable execution environment for many modern Internet applications with strict requirements for elasticity or Quality of Service. In this thesis, a new concept of cloud management platform is introduced where resource management is made flexible by the addition of programmability to the core of the platform. Moreover, a simplified object-oriented API is introduced to enable administrators to write and run resource management programs to handle all kinds of resources from a single point. An implementation is presented as a proof of concept, including a set of drivers to deal with modern virtualization and networking technologies, such as software-defined networking with OpenFlow, Open vSwitches, and Libvirt. Two case studies are conducted to evaluate the use of resource management programs for the deployment and optimization of applications over an emulated network using Linux virtualization containers and Open vSwitches running the OpenFlow protocol. Results show the feasibility of the proposed approach and how deployment and optimization programs are able to achieve different objectives defined by the administrator.
159

Heuristic approaches for network problems / Abordagens heuristicas para problemas em redes

Stefanello, Fernando January 2015 (has links)
Em nosso mundo altamente conectado, novas tecnologias provêm contínuas mudanças na velocidade e eficiência das redes de telecomunicações e de transporte. Muitas dessas tecnologias são originárias de pesquisas em problemas de otimização em redes aplicadas a diferentes áreas. Nesta tese, investigamos três problemas de otimização combinatória que podem ser abordados como estruturas de redes. Primeiramente, são abordados problemas de engenharia de tráfego em redes de transporte. O objetivo principal é investigar os efeitos de alterar o custo de um subconjunto de arcos da rede, considerando que os clientes desta rede agem com um comportamento bem definido. O objetivo é controlar o fluxo na rede de modo a obter uma melhor distribuição do fluxo, minimizando o congestionamento ou maximizando o fluxo em um subconjunto de arestas. No primeiro problema considerase instalar um número fixo de postos de pedágios e definir os valores das tarifas para minimizar o tempo médio de viagem dos usuários. No segundo problema abordado, o objetivo é definir os valores das tarifas para maximizar a receita arrecadada nos arcos com pedágios. Em ambos os problemas, os usuários escolhem as rotas com base nos caminhos de menor custo da origem para o destino. Em redes de telecomunicações, um problema de alocação sujeito às condições da rede é considerado. O objetivo é alocar um conjunto de recursos, minimizando o custo de comunicação. Uma aplicação de computação em nuvem é considerada, onde os recursos são máquinas virtuais que devem ser alocadas em um conjunto de centros de dados. Condições da rede como largura de banda e latência são consideradas de modo a garantir a qualidade dos serviços. Para todos estes problemas, os modelos matemáticos são apresentados e avaliados usando um solver comercial de propósito geral como um método exato. Além disso, abordagens heurísticas são propostas, incluindo uma classe de algoritmo genético de chaves aleatórias viciadas (BRKGA). Resultados experimentais demonstram o bom desempenho das abordagens heurísticas propostas, mostrando que o BRKGA é uma ferramenta eficiente para resolver diferentes tipos de problemas de otimização combinatória, especialmente sobre estruturas de rede. / In our highly connected world, new technologies provide continuous changes in the speed and efficiency of telecommunication and transportation networks. Many of these technologies come from research on network optimization problems with applications in different areas. In this thesis, we investigate three combinatorial optimization problems that arise from optimization on networks. First, traffic engineering problems in transportation networks are addressed. The main objective is to investigate the effects of changing the cost of some links in the network regarding some well-defined user behavior. The goal is to control the flow in the network and seek a better flow distribution over the network and then minimize the traffic congestion or maximize the flow on a subset of links over network conditions. The first problem considered is to install a fixed number of tollbooths and define the values of tariffs to minimize the average user travel time. The second problem considered is to define the values of tariffs to maximize the revenue collected in the tolled arcs. In both problems, users choose the routes based on the least cost paths from source to destination. From telecommunication networks, a placement problem subjected to network conditions is considered. The main objective is to place a set of resources minimizing the communication cost. An application from cloud computing is considered, where the resources are virtual machines that should be placed in a set of data centers. Network conditions, such as bandwidth and latency, are considered in order to ensure the service quality. For all these problems, mathematical models are presented and evaluated using a general-purpose commercial solver as an exact method. Furthermore, new heuristics approaches are proposed, including some based on biased random-key genetic algorithm (BRKGA). Experimental results demonstrate the good performance of the proposed heuristic approaches, showing that BRKGA is an efficient tool for solving different kinds of combinatorial optimization problems, especially over network structures.
160

Unveiling the interplay between timeliness and scalability in cloud monitoring systems / Desvelando a relação mútua entre escalabilidade e oportunidade em sistemas de monitoramento de nuvens computacionais

Rodrigues, Guilherme da Cunha January 2016 (has links)
Computação em nuvem é uma solução adequada para profissionais, empresas, centros de pesquisa e instituições que necessitam de acesso a recursos computacionais sob demanda. Atualmente, nuvens computacionais confiam no gerenciamento de sua estrutura para fornecer recursos computacionais com qualidade de serviço adequada as expectativas de seus clientes, tal qualidade de serviço é estabelecida através de acordos de nível de serviço. Nesse contexto, o monitoramento é uma função crítica de gerenciamento para se prover tal qualidade de serviço. Requisitos de monitoramento em nuvens computacionais são propriedades que um sistema de monitoramento de nuvem precisa reunir para executar suas funções de modo adequado e atualmente existem diversos requisitos definidos pela literatura, tais como: oportunidade, elasticidade e escalabilidade. Entretanto, tais requisitos geralmente possuem influência mútua entre eles, que pode ser positiva ou negativa, e isso impossibilita o desenvolvimento de soluções de monitoramento completas. Dado o cenario descrito acima, essa tese tem como objetivo investigar a influência mútua entre escalabilidade e oportunidade. Especificamente, essa tese propõe um modelo matemático para estimar a influência mútua entre tais requisitos de monitoramento. A metodologia utilizada por essa tese para construir tal modelo matemático baseia-se em parâmetros de monitoramento tais como: topologia de monitoramento, quantidade de dados de monitoramento e frequencia de amostragem. Além destes, a largura de banda de rede e o tempo de resposta também são importantes métricas do modelo matemático. A avaliação dos resultados obtidos foi realizada através da comparação entre os resultados do modelo matemático e de uma simulação. As maiores contribuições dessa tese são divididas em dois eixos, estes são denominados: Básico e Chave. As contribuições do eixo básico são: (i) a discussão a respeito da estrutura de monitoramento de nuvem e introdução do conceito de foco de monitoramento (ii) o exame do conceito de requisito de monitoramento e a proposição do conceito de abilidade de monitoramento (iii) a análise dos desafios e tendências a respeito de monitoramento de nuvens computacionais. As contribuições do eixo chave são: (i) a discussão a respeito de oportunidade e escalabilidade incluindo métodos para lidar com a mútua influência entre tais requisitos e a relação desses requisitos com parâmetros de monitoramento (ii) a identificação dos parâmetros de monitoramento que são essenciais na relação entre oportunidade e escalabilidade (iii) a proposição de um modelo matemático baseado em parâmetros de monitoramento que visa estimar a relação mútua entre oportunidade e escalabilidade. / Cloud computing is a suitable solution for professionals, companies, research centres, and institutions that need to have access to computational resources on demand. Nowadays, clouds have to rely on proper management of its structure to provide such computational resources with adequate quality of service, which is established by Service Level Agreements (SLAs), to customers. In this context, cloud monitoring is a critical management function to achieve it. Cloud monitoring requirements are properties that a cloud monitoring system need to meet to perform its functions properly, and currently there are several of them such as timeliness, elasticity and scalability. However, such requirements usually have mutual influence, which is either positive or negative, among themselves, and it has prevented the development of complete cloud monitoring solutions. From the above, this thesis investigates the mutual influence between timeliness and scalability. This thesis proposes a mathematical model to estimate such mutual influence to enhance cloud monitoring systems. The methodology used in this thesis is based on monitoring parameters such as monitoring topologies, the amount of monitoring data, and frequency sampling. Besides, it considers as important metrics network bandwidth and response time. Finally, the evaluation is based on a comparison of the mathematical model results and outcomes obtained via simulation. The main contributions of this thesis are divided into two axes, namely, basic and key. Basic contributions of this thesis are: (i) it discusses the cloud monitoring structure and introduced the concept of cloud monitoring focus (ii) it examines the concept of cloud monitoring requirement and proposed to divide them into two groups defined as cloud monitoring requirements and cloud monitoring abilities (iii) it analysed challenges and trends in cloud monitoring pointing research gaps that include the mutual influence between cloud monitoring requirements which is core to the key contributions. The key contributions of this thesis are: (i) it presents a discussion of timeliness and scalability that include: the methods currently used to cope with the mutual influence between them, and the relation between such requirements and monitoring parameters (ii) it identifies the monitoring parameters that are essential in the relation between timeliness and scalability (iii) it proposes a mathematical model based on monitoring parameters to estimate the mutual influence between timeliness and scalability.

Page generated in 0.0925 seconds