• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 1
  • 1
  • Tagged with
  • 12
  • 12
  • 12
  • 9
  • 8
  • 8
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Conciliando satisfação e paridade para promover reciprocidade em federações de provedores de computação na nuvem.

FALCÃO, Eduardo de Lucena. 11 September 2018 (has links)
Submitted by Emanuel Varela Cardoso (emanuel.varela@ufcg.edu.br) on 2018-09-11T20:15:52Z No. of bitstreams: 1 EDUARDO DE LUCENA FALCÃO – TESE (PPGCC) 2018.pdf: 1866534 bytes, checksum: df5c1f1f8a93b43bb91c35f1cc373e17 (MD5) / Made available in DSpace on 2018-09-11T20:15:52Z (GMT). No. of bitstreams: 1 EDUARDO DE LUCENA FALCÃO – TESE (PPGCC) 2018.pdf: 1866534 bytes, checksum: df5c1f1f8a93b43bb91c35f1cc373e17 (MD5) Previous issue date: 2018-04-24 / Capes / Provedores privados de computação na nuvem poderiam obter considerável benefício mútuo ao operar suas infraestruturas de forma federada. Tal operação permite que a demanda excedente de um provedor possa ser atendida por outros provedores que estejam experimentando uma baixa demanda naquele mesmo instante. Sob uma ótica de mercado, federações com arquitetura descentralizada têm como principal desafio a promoção de cooperação entre indivíduos egoístas e racionais em um cenário que não dispõe de uma autoridade central e confiável. Este trabalho se concentra em arquiteturas de mercado descentralizado, baseadas em mecanismos de reciprocidade, para suporte a federações P2P (Peer-to-Peer) de provedores de computação na nuvem. Nos mecanismos de reciprocidade, um indivíduo utiliza o histórico de comportamentos de cooperação dos demais indivíduos para doar seus recursos aos que forem mais recíprocos. A maioria dessas estratégias se atém à priorização dos participantes (a quem devo doar?) de acordo com métricas tais como reputação ou grau de reciprocidade. Essa estratégia é suficiente para promover cooperação e assegurar aos participantes cooperativos os melhores níveis possíveis de satisfação (percentual de requisições atendidas). Porém, em cenários com baixa contenção de recursos, a priorização por si só não é suficiente para evitar o aproveitamento por parte de indivíduos não-cooperativos e garantir paridade (percentual de recursos retribuídos). Neste sentido, este trabalho propõe que mecanismos de reciprocidade, especialmente aqueles baseados em reciprocidade direta, sejam estendidos com um laço de controle retroalimentado que regula a quantidade de recursos que cada nuvem deveria ofertar à federação. Quando cada participante cooperativo controla de maneira individual a quantidade de recursos ofertada à federação, tem-se como resultado um controle indireto da contenção de recursos, que por sua vez é mantida em um patamar que assegura aos participantes cooperativos níveis adequados de satisfação e paridade. Por fim, é apresentada uma investigação acerca da utilização de uma forma mais limitada de reciprocidade indireta, a reciprocidade transitiva, que pode ser utilizada conjuntamente com mecanismos de reciprocidade direta, para evitar impasses gerados pela assimetria de tempo/interesses, aquecendo a economia da federação e consequentemente provendo maiores níveis de paridade e satisfação aos nós cooperativos. / Private cloud providers could obtain considerable benefits from operating their infrastructures within a federation. Such operation allows a provider’s exceeding demand to be met by other providers experimenting a resource underutilization on the same moment. From a market perspective, federations with decentralized architecture have as main challenge the promotion of cooperation among rational selfish individuals in a context with no central trusted authorities. This work focuses in decentralized market architectures, based on reciprocity mechanisms, to support P2P (Peer-to-Peer) federations of cloud providers. In reciprocity mechanisms, an individual uses the history of behaviors of other individuals, reflecting their cooperation levels, in order to prioritize the provision of resource to those shown to be the most reciprocative. Most of these strategies are restricted to the prioritization of participants (to whom should I donate?) according to metrics such as reputation or degree of reciprocity. This strategy is sufficient to promote cooperation and assure cooperative participants the best possible levels of satisfaction (percentage of requests met). However, in low resource contention scenarios, prioritization alone is not sufficient to avoid resource provision to non-cooperative individuals and thus to guarantee fairness (percentage of resources reciprocated). In this sense, this work proposes that mechanisms of reciprocity, especially those based on direct reciprocity, be extended with a feedback control loop that regulates the amount of resources that each cloud should offer to the federation. When each cooperative participant controls individually the amount of resources offered to the federation, there is an indirect control of resource contention, which in turn is kept at a level that ensures cooperative participants adequate levels of satisfaction and fairness. Finally, an investigation on the use of a more limited form of indirect reciprocity is presented, the transitive reciprocity, which can be used in conjunction with direct reciprocity mechanisms to avoid deadlocks generated by time/interest asymmetry, moving the federation’s economy and consequently assuring higher levels of fairness and satisfaction to cooperative nodes.
2

Provisionamento automático de recursos como um serviço de IaaS.

MORAIS, Fábio Jorge Almeida. 30 April 2018 (has links)
Submitted by Lucienne Costa (lucienneferreira@ufcg.edu.br) on 2018-04-30T19:01:14Z No. of bitstreams: 1 FÁBIO JORGE ALMEIDA MORAIS – TESE (PPGCC) 2017.pdf: 3034209 bytes, checksum: 9738969168558e8931ce426f6da55132 (MD5) / Made available in DSpace on 2018-04-30T19:01:14Z (GMT). No. of bitstreams: 1 FÁBIO JORGE ALMEIDA MORAIS – TESE (PPGCC) 2017.pdf: 3034209 bytes, checksum: 9738969168558e8931ce426f6da55132 (MD5) Previous issue date: 2017-08 / O modelo de IaaS proporcionado pelo paradigma de Computação na Nuvem tem como principais características a provisão sob demanda de recursos e a tarifação do uso de recursos a partir de um modelo pay-as-you-go, que permitem que o custo de utilização do serviço seja proporcional à quantidade e ao tempo de uso dos recursos. Essas características possibilitam a criação de infraestruturas virtuais elásticas, que podem ser dinamicamente modificadas, em termos da capacidade de recursos, a fim de acomodar as demandas da aplicação que nela executa. Tal elasticidade é principalmente explorada para o provisionamento de aplicações horizontalmente escaláveis, que possuem demandas variáveis no tempo e executam por longos períodos. Idealmente, para aplicações desse tipo, a capacidade da infraestrutura de execução pode ser automaticamente provisionada com base nas demandas da aplicação, de forma a assegurar a QoS da aplicação e ao mesmo tempo minimizar os custos de execução em termos dos recursos adquiridos. Esse cenário de provisionamento automático pode ser expandido para o desenvolvimento de um serviço de provisionamento automático de recursos em IaaS. Desta forma, o responsável pela aplicação pode contratar um serviço que assuma a responsabilidade de dinâmica e eficientemente provisionar a sua aplicação durante a execução desta. No entanto, por questões de privacidade e principalmente generalidade em termos das aplicações provisionadas, espera-se que um serviço desse tipo opere com informações não específicas da aplicação, tais como utilização de CPU, memória, etc., ou seja, de forma não intrusiva. Este trabalho visa investigar a tese sobre a viabilidade de construção de um serviço de provisionamento automático e não intrusivo para diferentes aplicações horizontalmente escaláveis em um ambiente de IaaS. Tal serviço deve ser capaz de manter a QoS da aplicação provisionada em níveis aceitáveis e, havendo variação de carga de trabalho, minimizar os custos de sua execução. Em geral, as atuais soluções de provisionamento automático fazem uso de abordagens de provisionamento que operam de forma reativa ou proativa. Desta forma, o principal objetivo desse trabalho consiste em analisar como soluções de provisionamento, reativas e proativas, podem ser empregadas na construção de um serviço de provisionamento em IaaS, destacando eficiências e limitações destas abordagens e apontando diretrizes para a criação desse serviço. / The IaaS model, provided by the Cloud Computing paradigm, is defined by two main features: the on-demand provision of resources; and the pay-as-you-go pricing model, that allows application providers to pay proportionally to the quantity and time of use of the acquired resources. These features are used to build elastic virtual infrastructures, which can have its resources capacity dynamically modified to accommodate demands’ fluctuations of the running application. Such elasticity is mainly exploited for running horizontally scalable applications, that executes over a long period of time and have time-varying workloads. Ideally, for such applications, the capacity of the execution infrastructure can be automatically provisioned based on the application demands, to ensure the application QoS and at the same time minimize the execution costs, in terms of the acquired resources. This provisioning context can be expanded to conceive a scenario of auto scaling as a service in IaaS. In this way, the application owner can contract a service that assumes the responsibility of dynamically and efficiently provisioning the application during its execution. However, due to privacy and mainly generality issues in terms of the provisioned applications, this service needs to operate with non-application-specific information, such as CPU utilization, memory, etc., i.e., in a non-intrusive way. This work aims to investigate the thesis on the construction feasibility of a non-intrusive auto scaling service for different horizontally scalable applications in an IaaS environment. Such service must be able to keep the QoS of the provisioned application at acceptable levels and, if there are workload variations, minimize the execution costs. In general, current provisioning solutions use provisioning approaches that operate in a reactive or proactive manner. Thus, the main objective of this work is to analyze how reactive and proactive auto scaling solutions can be used to basis an auto scaling service in IaaS, describing the efficiencies and limitations of these approaches and pointing out guidelines for the service construction.
3

Gerência de nuvens computacionais considerando diferentes classes de serviço.

CARVALHO, Marcus Williams Aquino de. 14 May 2018 (has links)
Submitted by Kilvya Braga (kilvyabraga@hotmail.com) on 2018-05-14T15:01:18Z No. of bitstreams: 1 MARCUS WILLIAMS AQUINO DE CARVALHO - TESE (PPGCC) 2016.pdf: 10840288 bytes, checksum: bdef4d600686d848e1ea9af110714f34 (MD5) / Made available in DSpace on 2018-05-14T15:01:18Z (GMT). No. of bitstreams: 1 MARCUS WILLIAMS AQUINO DE CARVALHO - TESE (PPGCC) 2016.pdf: 10840288 bytes, checksum: bdef4d600686d848e1ea9af110714f34 (MD5) Previous issue date: 2016-03-01 / O modelo de nuvens computacionais de infraestrutura como serviço (IaaS, na sigla em inglês) vem crescendo significativamente nos últimos anos. Este aumento em sua adoção trouxe uma grande diversidade de perfis de usuários, com diferentes tipos de aplicação, requisitos e orçamentos. Para satisfazer essas necessidades diversas,provedores deIas podem oferecer múltiplas classes de serviço, com diferentes preços e objetivos de nível de serviço (SLOs,na sigla em inglês)definidos para elas. Porém, gerenciar nuvens considerando múltiplas classes não é trivial, pois decisões de gerência de recursos podem gerar impactos diferentes dependendo de como cada classe é afetada. Além disso, a elasticidade da demanda e as incertezas da oferta de recursos típicas deste ambiente tornam ainda mais difícil o cumprimento dos diferentes SLOs mantendo uma alta utilização e um baixo custo. Nesta tese, investigou-se a hipótese de que quando provedores de nuvem deIaaS realizam uma gerência de recursos adequada, oferecendo múltiplas classes de serviço e cumprindo suas metas de qualidade de serviço(QoS,na sigla em inglês),eles obtêm uma alta utilização de seus recursos e aumentam a sua receita. Verificou-se que esta hipótese é verdadeira para os diversos cenários de nuvem avaliados neste trabalho,para os quais foram demonstradas grandes vantagens de se oferecer múltiplas classes de serviço na nuvem. Porém, observou-se que para ter esses benefícios é necessário realizar uma gerência de recursos eficiente,de tal forma que as garantias de QoS para as diferentes classes sejam definidas adequadamente e cumpridas pelo provedor. Desta forma, nesta tese também mostrou-se como provedores de IaaS podem realizar uma gerência de recursos adequada para múltiplas classes de serviço. Para isto, foram propostos e avaliados nesta tese: (1) um método baseado em predição para planejar a capacidade e as garantias de QoS de uma nova classe introduzida em uma nuvem de IaaS existente, com base na capacidade excedente da nuvem; (2) um modelo de controle de admissão baseado em predição,que permite ao provedor oferecer diferentes classes de serviço e cumprir SLOs de disponibilidade de VM para elas; e (3) um modelo analítico de planejamento de capacidade da nuvem que estima métricas de QoS para cada classe oferecida em diferentes cenários, e que busca encontrar a capacidade mínima necessária para cumprir as metas de taxa de admissão e disponibilidade de VM definidas para cada classe. / Infrastructure as a Service (IaaS) is a cloud computing model that has been growing significantly in recent years. This increasingly adoption attracted users with different types of applications, requirements and budget to the cloud. To satisfy different users’s needs, IaaS providers can offer multiple service classes with different pricing and Service Level Objectives (SLOs) defined for them. However, managing such clouds considering multiple service classes is nottrivial, becauseres our cemanagement decisions may have different consequences depending on howeach classisaffected. Moreover, the demand elasticity and uncertain resource availability typically seen in cloudenvironments turns evenmore difficult for providers to fulfill different SLOs while having a high utilization and low infrastructure costs. In this thesis, we investigate the hypothesis that when IaaS cloud providers make an adequate resource management, offering multiple service classes and fulfilling their Quality of Service (QoS) guarantees, they achieve a high resource utilization and increase their revenue. We demonstrate that this hypothesis is true for the many different scenarios evaluated in this work,which shows great advantages on offering multiple service classes in the cloud. However, we also observe that cloud providers need an efficient resource management in order to have these benefits, in a way they can define and fulfill adequate SLOs for different classes. Thus, we also show in this thesis how IaaS providers can make adequate resource management decisions for multiple service classes, by proposing and evaluating: (1) a predictive method to planthe capacityand QoS guarantees of anew service class introducedin an existing IaaS cloud, based on unused resources; (2) a prediction-based admission control model that allows the provider to offer multiple classes and fulfill VM availability SLOs for them; and (3) a capacity planning analytical model that estimates QoS metrics for eachclass indifferents cenarios, and aimstofindthem in imumres ource capacity required to fulfill VM availability and admission rate SLOs for eachclass.
4

Otimizando a utilização de ambientes de nuvem PaaS usando uma abordagem preditiva.

TRUTA, Ítalo Henrique Costa. 24 May 2018 (has links)
Submitted by Maria Medeiros (maria.dilva1@ufcg.edu.br) on 2018-05-24T13:02:21Z No. of bitstreams: 1 ÍTALO HENRIQUE COSTA TRUTA - DISSERTAÇÃO (PPGCC) 2016.pdf: 1851862 bytes, checksum: 077c5179782b3aa8aa14351d49baee9e (MD5) / Made available in DSpace on 2018-05-24T13:02:21Z (GMT). No. of bitstreams: 1 ÍTALO HENRIQUE COSTA TRUTA - DISSERTAÇÃO (PPGCC) 2016.pdf: 1851862 bytes, checksum: 077c5179782b3aa8aa14351d49baee9e (MD5) Previous issue date: 2016 / Seguindo a tendência de diversas áreas da computação, o processamento de Big Data também foi movido para a nuvem, devido à flexibilidade e facilidade que o modelo de computação na nuvem oferece, especialmente no modelo PaaS, onde os usuários podem executar suas aplicações Big Data de maneira mais fácil e barata. Centros computacionais de nuvem necessitam fazer um gerenciamento adequado de recursos para fazer melhor aproveitamento do aparato disponível, bem como minimizar custo operacional, já que grande parte dos recursos disponíveis passam a maior parte do tempo ociosos. Muito dessa ociosidade se deve ao sistema de cotas, que considera alocação estática de recursos, ao invés de observar se os recursos estão sendo, de fato, utilizados. O trabalho apresentado nesta dissertação propõe uma solução para melhor gerenciamento de recursos em nuvens voltadas para processamento de dados com o modelo PaaS. Esse procedimento é feito por meio de abordagens preditivas tanto a nível operacional, estimando a carga dos servidores que compõem a nuvem em instantes futuros com base na utilização real no momento e em dados históricos, e a nível de aplicação, estimando a duração de tarefas de processamento em lote usando um agrupamento baseado em dados de aplicações previamente executadas. Com estes dados, a abordagem proposta é capaz de tomar decisões não-triviais na medida em que o usuário submete aplicações para execução, tais como acelerar a tarefa, caso haja recursos sobrando no momento, adiá-la, caso não haja recursos no momento mas tenha previsão de que haverá em um curto prazo, ou rejeitá-la, caso não haja recursos no momento da chegada, nem previsão de haver nas próximas janelas de execução. Fazendo uso dessa abordagem, em comparação com o caso usual, controlado pelo sistema de cotas estáticas de recurso, obtivemos um acréscimo médio de mais de 10% dos recursos da nuvem, com um acréscimo no custo operacional de apenas 1%, considerando a não-proporcionalidade de energia, também avaliada nos nossos experimentos. Além disso, houve um aumento de 20% na taxa de requisições de tarefas processadas com sucesso, o que acarretou em um acréscimo no faturamento líıquido entre 10 e 20%. / Following the trend of many computing areas, Big Data processing has also been moved to the cloud, due to the flexibility and easiness the cloud model provides, specially in the PaaS model, where users can run their Big Data applications in an even easier and cheaper way. Cloud computing data centers need to have proper resource management in order to make best usage of available capabilities and minimize operational cost, as a large portion of the computational resources is idle most of the time. This idleness is mostly caused by the quota management system, which only considers static resource allocation, instead of looking whether the resources are indeed used. In this work, we propose a solution to better manage the resources in PaaS cloud environments, focused on data processing. This management is made through predictive approaches, both in operational level, forecasting the workload of cloud servers in next time windows (based on the current utilization and historical data), and at application level, estimating the makespan of batch data processing applications with a clustering algorithm based on previously executed jobs characteristics. With those data, the proposed solution is able to take a set of non-trivial decisions, such as accelerating the job if more resources than requested are available, postponing the job when resources are only available in next time windows,or rejecting it, when there are not enough resources at the moment, neither in next windows. With this approach, when compared to the usual case, regulated by static resource quotas, we obtained a 10% increase of average CPU and RAM utilization across the cloud, with an operation cost increase of only 1%, considering the non-proportionality of power consuming, also observed in our experiments. Besides that, the system also showed a 20% increase in the average success fully processed jobs, occasioning a profit i ncrement between 10% and 20%.
5

Upper: uma ferramenta para escolha de servidor e estimação de gatilhos de escalabilidade de banco de dados relacionais na plataforma Amazon AWS

RODRIGUES JUNIOR, Paulo Lins 09 December 2013 (has links)
Submitted by Irene Nascimento (irene.kessia@ufpe.br) on 2016-07-21T16:43:15Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Upper.pdf: 1291176 bytes, checksum: 335e26f2c99d96f05a40fca5acb1fed1 (MD5) / Made available in DSpace on 2016-07-21T16:43:15Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Upper.pdf: 1291176 bytes, checksum: 335e26f2c99d96f05a40fca5acb1fed1 (MD5) Previous issue date: 2013-12-09 / A escalabilidade de uma aplicação é de vital importância para o sucesso de um negócio, sendo considerado um dos atributos mais importantes das aplicações atualmente. Diversas aplicações atualmente são voltadas diretamente a dados, o que torna o banco de dados uma camada crítica em toda estrutura do sistema. Entre os tipos de bancos de dados existentes, destacam-se os bancos de dados relacionais por fornecerem sobretudo um nível de consistência adequado a maioria destas aplicações. A projeção de infraestrutura e de gatilhos de escalabilidade são tarefas complexas até mesmo para profissionais experientes, e erros nestas tarefas podem representar perdas significativas de negócio. A plataforma de computação em nuvem, em particular o modelo de infraestrutura como serviço se torna vantajosa por proporcionar um baixo investimento inicial e modelos de escala conforme demanda. Para se usufruir das vantagens oferecidas pela plataforma, os administradores de sistema ainda tem a difícil tarefa de definir o servidor adequado assim como estimar o momento certo de escalar atendendo as necessidades da aplicação e garantindo eficiência na alocação de recursos. Este trabalho propõe um ambiente de simulação para auxílio na definição do servidor adequado e dos gatilhos de escalabilidade do servidor de banco de dados na Amazon Web Services, plataforma líder de serviços de computação em nuvem. A principal contribuição desta ferramenta, chamada Upper, é facilitar o trabalho do administrador de sistema, possibilitando-o executar a tarefa de estimativa de forma mais rápida e precisa. / The scalability of an application is of vital importance to the success of a business, being considered one of the most important attributes of current applications. Many applications are now directly targeting to data, which makes the database a critical layer throughout the system structure. Among the types of existing databases, highlight the relational databases primarily for providing an appropriate level of consistency needed for most of these applications. The projection of infrastructure and scalability triggers is complex even for senior professionals, and errors in these tasks can result in significant business losses. The platform of cloud computing, in particular the model of infrastructure as a service becomes advantageous for providing a low initial investment and models of scale on demand. To benefit from the advantages offered by the platform, system administrators still have the difficult task of defining the appropriate server as well as estimating the right time to scale ensuring the performance needs of the application and efficiency in resource allocation. This paper proposes a simulation environment to aid in defining the appropriate server and scalability triggers of the database server on Amazon Web Services, a leading platform for cloud computing services. The main contribution of this tool, called Upper, is to facilitate the work of system administrator, providing him means to perform the task of estimation faster and more accurately.
6

Estratégias para o suporte a ambientes de execução confiável em sistemas de computação na nuvem.

SAMPAIO, Lília Rodrigues. 06 September 2018 (has links)
Submitted by Emanuel Varela Cardoso (emanuel.varela@ufcg.edu.br) on 2018-09-06T19:50:33Z No. of bitstreams: 1 LÍLIA RODRIGUES SAMPAIO – DISSERTAÇÃO (PPGCC) 2018.pdf: 2337190 bytes, checksum: bfef42889bed89a3860b61f38016b02d (MD5) / Made available in DSpace on 2018-09-06T19:50:33Z (GMT). No. of bitstreams: 1 LÍLIA RODRIGUES SAMPAIO – DISSERTAÇÃO (PPGCC) 2018.pdf: 2337190 bytes, checksum: bfef42889bed89a3860b61f38016b02d (MD5) Previous issue date: 2018-02-15 / Capes / O alto poder computacional oferecido por provedores de nuvem, aliado às suas características de flexibilidade, eficiência e custo reduzido, têm levado cada vez mais usuários a utilizar recursos em nuvem para implantação de aplicações. Como consequência, uma grande quantidade de dados de diversas aplicações críticas, e de alta demanda de processamento, passam a trafegar livremente pela nuvem. Considerando isso, especialmente para aplicações que lidam com dados sensíveis, como sistemas bancários, medidores inteligentes de energia, entre outros, é de grande importância assegurar a integridade e confidencialidade de tais dados. Assim, é cada vez mais frequente que usuários de recursos de uma nuvem exijam garantias de que suas aplicações estão executando em um ambiente de execução confiável. Abordagens tradicionais, como criptografia de dados em repouso e em comunicação, combinadas com políticas rígidas de controle de acesso têm sido usadas com algum êxito, mas ainda têm permitido sérios ataques. No entanto, mais recentemente,Trusted Execution Environments(TEE) têm prometido garantias de integridade e confidencialidade de dados e códigos ao carregá-los e executálos em áreas seguras e isoladas do processador da máquina. Assim, para dar suporte a implementações de TEE, tecnologias de segurança em hardware podem ser utilizadas, como ARM Trustzone e Intel SGX. No contexto deste trabalho, usamos Intel SGX, que se propõe a garantir confidencialidade e integridade de dados e aplicações executadas dentro de áreas protegidas de memória, denominadas enclaves. Assim, o código é protegido até de software com acesso privilegiado, como o próprio sistema operacional, hipervisores, entre outros. Diversos recursos da nuvem podem fazer uso de tais tecnologias de segurança, entre eles máquinas virtuais e contêineres. Neste estudo, propomos estratégias para o suporte de TEE em ambientes de nuvem, integrando Intel SGX e OpenStack, uma plataforma de nuvem de código berto amplamente conhecida e utilizada por grandes empresas. Apresentamos uma nova bordagem no processo de provisionamento e escalonamento de máquinas virtuais e contêineres numa nuvem OpenStack segura, que considera aspectos essenciais para o SGX, como a quantidade de memória segura sendo utilizada, oEnclave Page Cache(EPC). Porfim, validamos esta nuvem com uma aplicação que exige processamento de dados sensíveis. / The high level of computing power offered by cloud providers, together with theflexibility, efficiency and reduced cost they also offer, have increased the number of users wanting to deploy their applications on the cloud. As a consequence, a big amount of data from many critical and high performance applications start to traffic on the cloud. Considering this, specially for applications that deal with sensitive data, such as bank transactions, smart metering, and others, is very important to assure data integrity and confidentiality. Thus, it is increasingly common that users of cloud resources demand guarantees that their applications are running on trusted execution environments. Traditional approaches, such as data cryptography, combined with strict access control policies have been used with a level of success, but still allowing serious attacks. However, more recently, Trusted Execution Environments (TEE) are promising guarantees of data and code integrity and confidentiality by loading and executing them in isolated secure areas of the machine’s processor. This way, to support TEE implementations, hardware technologies such as ARM TrustZone and Intel SGX can be used. In the context of this research, we use Intel SGX, which proposes integrity and confidentiality guarantees for data and applications executed inside protected memory areas called enclaves. Thus, the code is protected even from high privileged software, such as the operational system, hypervisors and others. Many cloud resources can use such security technologies, like virtual machines and containers. In this research, we propose strategies to support TEE in cloud environments, integrating Intel SGX and OpenStack, an open-source cloud platform widely known and used by many big companies. We present a new approach in the provisioning and scheduling of instances in a secure OpenStack cloud, considering essential aspects to SGX such as the amount of secure memory being used, the Enclave Page Cache (EPC). Finally, we validated this cloud by deploying an application that requires processing of sensitive data.
7

Melhorando o processamento de dados com Hadoop na nuvem através do uso transparente de instancias oportunistas com qualidade de serviço.

NÓBREGA, Telles Mota Vidal. 09 May 2018 (has links)
Submitted by Emanuel Varela Cardoso (emanuel.varela@ufcg.edu.br) on 2018-05-09T20:35:48Z No. of bitstreams: 1 TELLES MOTA VIDAL NÓBREGA – DISSERTAÇÃO (PPGEEI) 2016.pdf: 2737490 bytes, checksum: 8a7c4bfc097eaba99e275e3406c16149 (MD5) / Made available in DSpace on 2018-05-09T20:35:48Z (GMT). No. of bitstreams: 1 TELLES MOTA VIDAL NÓBREGA – DISSERTAÇÃO (PPGEEI) 2016.pdf: 2737490 bytes, checksum: 8a7c4bfc097eaba99e275e3406c16149 (MD5) Previous issue date: 2016-08-12 / Nuvens computacionais oferecem para usuários a facilidade de aquisição de recursos por meio da internet de forma rápida, barata e segura. Entretanto, grande parte das nuvens se mantém ociosa devido à reserva de recursos. Visando a aumentar a utilização da nuvem, provedores de nuvem criaram um modelo de instâncias que reusam recursos ociosos, conhecidas como instâncias oportunistas. Essas instâncias são mais baratas que as instâncias de recursos dedicados, porém voláteis, podendo ser preemptadas do usuário a qualquer momento, o que as torna inadequadas para alguns tipos de aplicação. Processamento de dados, seguindo a tendência de outras aplicações, tem sido migrado para nuvem e pode ser beneficiado por instâncias oportunistas, devido à sua natureza tolerante à falha, resultando na criação de clusters a um custo menor comparado à instâncias com recursos dedicados.Este trabalho propõe a utilização dos recursos ociosos para a criação de um outro modelo de instâncias oportunistas. Esse modelo visa a criação de instâncias oportunistas com qualidade de serviço, que são instâncias criadas baseadas em uma predição do estado da nuvem. A predição é realizada a partir de dados históricos de utilização de recursos como CPU e memória RAM e assim diminuindo o risco de perder instâncias antes do fim do processamento. Ainda com a existência do preditor, o risco de perda de uma máquina existe e para esse caso propomos a utilização de migração viva, movendo a máquina virtual de servidor, evitando assim a destruição da mesma. Com nossa abordagem, utilizando apenas duas instâncias oportunistas durante os experimentos, obtivemos uma diminuição no tempo de processamento de dados de 10% em um cluster com 2 workers e 1 master. Além disso, ao utilizar a migração, temos uma melhora de aproximadamente 70% no tempo de processamento em comparação com os casos onde uma instância é perdida. / Cloud computing offers the users the ease of resources acquisition through the Internet in a fast, cheap and safe manner. However, these clouds have a lot of idle resources due to resource reservation. Aiming to increase resources usage, cloud providers have created an instance model that uses these idle resources, known as opportunistic instances. These instances are cheaper than the dedicated resources instances, but are volatile and can be destroyed at any time, which makes them unsuitable for some types of application. Data processing, following the trend of other applications, have been migrated to the cloud and can be benefited by the use opportunistic instances, due to its fault tolerant nature, resulting in the creation of clusters at a lower cost compared to instances with dedicated resources. In this work, we propose the use of idle resources to create another model of opportunistic instances. This model aims to create opportunistic instances with quality of service, which are created instances based on a prediction of the state of the cloud. The prediction is made from historical data of resource usage such as CPU and RAM, thus reducing the risk of losing instances before the end of the processing. Even with the existence of a predictor, the risk of losing a machine still exists, and for this case we propose the use of live migration, moving the virtual machine to a different server, thus avoiding the its destruction. With our approach, using only two opportunistic instances during the experiments, we found a decrease in 10% in the data processing time in a cluster with 2 workers and 1 master. Furthermore, when using the migration, we have an improvement of approximately 70% in processing time compared with the case where one instance is lost.
8

Uma plataforma para computação sensível a contexto baseada em tecnologias web e armazenamento distribuído de ontologias

Buttenbender, Paulo Cesar 11 March 2013 (has links)
Submitted by Fabricia Fialho Reginato (fabriciar) on 2015-07-31T00:41:21Z No. of bitstreams: 1 PauloButtenbender.pdf: 8406961 bytes, checksum: b941b0205ef79f65fae52d594c271fe6 (MD5) / Made available in DSpace on 2015-07-31T00:41:21Z (GMT). No. of bitstreams: 1 PauloButtenbender.pdf: 8406961 bytes, checksum: b941b0205ef79f65fae52d594c271fe6 (MD5) Previous issue date: 2013 / Nenhuma / A internet das coisas tem por objetivo utilizar a infraestrutura existente da internet para conectar sistemas, pessoas e objetos, permitindo um monitoramento e interação contínua. Essa visão está diretamente relacionada aos trabalhos já existentes na área de computação pervasiva. Uma característica comum aos trabalhos de computação pervasiva é que as suas respectivas plataformas são fechadas e exclusivas a um trabalho ou uma instituição e, portanto a aplicação dos conceitos de computação pervasiva exige dos autores uma construção do software de uma forma específica para o domínio de conhecimento onde será aplicado, o que acarreta em pouca ou nenhuma forma de compartilhamento das informações obtidas. Este trabalho tem como objetivo prover uma plataforma para melhorar a comunicação entre ambientes inteligentes e pessoas, utilizando dispositivos móveis como meio de interação e possibilitando a exposição de contextos pela internet para dispositivos inteligentes externos ao ambiente inteligente utilizando a infraestrutura existente de computação na nuvem e a capacidade de compartilhamento de conhecimento através de ontologias. / The main objective of the internet of things is to use the existing internet infrastructure to connect systems, people and objects, allowing constant interaction and monitoring. This vision is directly related to existing research within pervasive computing. A common characteristic among pervasive computing research papers is that usually their respective platforms are closed and build exclusively to a specific objective or for a given institution, and therefore applying pervasive computing concepts usually demand from the authors to develop the software constrained to the knowledge domain where pervasive computing is going to be applied, which incur in few or none ways of sharing information with other projects. The objective of this research is to provide a common platform to enhance the communication between intelligent environments and people, using mobile devices as a way of interaction, allowing user contexts to be exposed in the Internet to intelligent devices which are not contained within the intelligent environment where the user is actually located by using existing cloud computing infrastructure and web standards ontology to share knowledge.
9

UMA ARQUITETURA PARA A UTILIZAÇÃO DE COMPUTAÇÃO NAS NUVENS NOS AMBIENTES DE COMPUTAÇÃO PERVASIVA / AN ARCHITECTURE FOR THE USE OF CLOUD COMPUTING IN PERVASIVE COMPUTING ENVIRONMENTS

Pereira, Henrique Gabriel Gularte 22 March 2012 (has links)
The modern world can be characterized by the quick proliferation of mobile devices and by the intense use of computers on our daily lives. Both pervasive computing and cloud computing have appeared as very promissing trends, but for pervasive computing to reach mainstream, many paradigm changes are needed on the current computing environments. Some of the problems found in pervasive camputing are not from a technical order, but due to a lack of standards and models to allow devices to interoperate and the problems related to the creation of low cost computing environments. Pervasive environments are marked by having sudden and frequent changes, making it necessary to think of a way to manage context information. This work aims at showing a solution that will allow the creation of pervasive computing environments using resources available in the cloud computing paradigm and taking in consideration requisites like the ability of mixing heterogenous computing devices running on the least possible amount of resources and using ontologies for context information representation and management. In this context, an architecture for the development of pervasive computing environments, an study case in a residencial cenario and an analysis of the results obtained with the proposed architecture are presented. / O mundo atual é caracterizado pela rápida proliferação de dispositivos móveis e pelo intenso uso de computadores no nosso cotidiano. Tanto a computação pervasiva quanto a computação em nuvem têm surgido como uma tendência muito promissora. Porém, para que a computação pervasiva se consolide são necessárias algumas mudanças de paradigma nos ambientes atuais da computação. Boa parte dos problemas encontrados hoje em dia na computação pervasiva não são de ordem técnica, mas sim a falta de padrões e modelos para permitir a interoperabilidade entre os dispositivos e a criação de ambientes computacionais de baixo custo. Os ambientes de computação pervasiva são caracterizados por mudanças rápidas e frequentes, sendo necessária a existência de alguma maneira para gerenciar essa informação de contexto. Essa dissertação visa apresentar uma solução para permitir a criação de ambientes de computação pervasiva utilizando serviços disponíveis no paradigma da computação em nuvem levando em consideração requisitos como a capacidade de trabalhar com dispositivos computacionais heterogêneos consumindo o mínimo possível de recursos e utilizando ontologias para a representação de informação de contexto. Nesse contexto, são apresentadas uma proposta de arquitetura para ambientes pervasivos, um estudo de caso em um cenário residencial e apresentados resultados e conclusões sobre a arquitetura proposta. Os resultados alcançados no estudo de caso permitiram a implementação de um ambiente pervasivo utilizando recursos computacionais disponíveis na nuvem e atingind os objetivos propostos no trabalho.
10

Heurísticas para balanceamento de carga de máquinas em infraestruturas de nuvem.

FERREIRA, Iury Gregory Melo. 30 August 2018 (has links)
Submitted by Lucienne Costa (lucienneferreira@ufcg.edu.br) on 2018-08-30T18:21:31Z No. of bitstreams: 1 IURY GREGORY MELO FERREIRA – DISSERTAÇÃO (PPGCC) 2017.pdf: 3496497 bytes, checksum: b497c83bd5c1b1ab2be30ab67272f5cd (MD5) / Made available in DSpace on 2018-08-30T18:21:31Z (GMT). No. of bitstreams: 1 IURY GREGORY MELO FERREIRA – DISSERTAÇÃO (PPGCC) 2017.pdf: 3496497 bytes, checksum: b497c83bd5c1b1ab2be30ab67272f5cd (MD5) Previous issue date: 2017-12-18 / Em ambientes de Computação na Nuvem, principalmente os que utilizam o modelo de infraestrutura como um serviço, a característica de elasticidade no provisionamento de recursos traz consigo a necessidade de gerenciar os recursos físicos de forma apropriada para preservar a qualidade de serviço aos seus usuários, e o bom desempenho da infraestrutura. Este trabalho propõe heurísticas que são capazes de auxiliar no balanceamento de carga dos servidores em uma infraestrutura de nuvem, propondo migrações para diminuir a sobrecarga nos servidores que foram identificados como sobrecarregados,visto que, como passar do tempo há uma variação natural na quantidade de recursos em uso. Esta variação é uma consequência da remoção ou adição de aplicações, ou até mesmo de tentativas de melhoramento do desempenho das aplicações através do provisionamento vertical. Uma ferramenta foi implementada para fazer uso dos algoritmos das heurísticas e assim auxiliar nos experimentos para a validação das mesmas. As métricas utilizadas vem diretamente de servidores heterogêneos da nuvem OpenStack do Laboratório de Sistemas Distribuídos. Os resultados obtidos mostram que além da diminuição no consumo de CPU dos servidores dos quais que estavam sobrecarregados, também é possível melhorar o desempenho destes servidores em alguns casos. / In CloudComputingenvironments,especiallythoseusingtheinfrastructureasaservice model, theelasticitycharacteristicinresourceprovisioningcomeswiththeneedtomanage resources sothequalityofservicecancontinuetobeguaranteedtousersandalsoto maintain agoodperformanceoftheinfrastructure.Thisworkproposesheuristicsthat are abletoassistintheloadbalancingoftheserversinaCloudinfrastructure,proposing migrations toreducetheoverheadintheserversthatwereidentifiedasoverloaded,since with thepassageoftimethereisanaturalvariationintheamountofresourcesinuse.This variationinaconsequenceofremovaloradditionofapplicationsandevenoftheusageof verticalscalingtoimproveapplication’sperformance.Atoolwasimplementedtomake use oftheheuristicalgorithmsandthustoaidintheexperimentsandtheirvalidation,the metrics usedcomedirectlyfromheterogeneousserversoftheOpenStackCloudofthe DistributedSystemsLaboratory.TheresultsshowthatinadditiontothedecreaseinCPU consumption ofserversthatwereoverloaded,itisalsopossibletoimprovetheperformance of theseserversinsomecases.

Page generated in 0.5311 seconds