Spelling suggestions: "subject:"computação em devem."" "subject:"computação em vivem.""
51 |
Gerenciamento de identidades como um serviço para ambientes de computação em nuvemAnselmo Junior, Ari Silveira 25 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2011 / Made available in DSpace on 2012-10-25T19:13:44Z (GMT). No. of bitstreams: 1
293412.pdf: 1384315 bytes, checksum: a7945f6f11bb6f3690624175f07cb56d (MD5) / O gerenciamento de identidades digitais esteve presente nos últimos anos como um grande problema para os usuários e um desafio intrínseco para pesquisadores. A dificuldade em gerenciar um grande número de identidades, a baixa usabilidade e o alto custo de armazenamento e manutenção dos sistemas de autenticação levou a análise e construção das mais variadas soluções para o gerenciamento do ciclo de vida das identidades digitais.
Computação em nuvem surgiu como um novo paradigma que visa prover acesso a recursos computacionais de maneira dinâmica e escalável. Como conseqüência, novos desafios de segurança emergiram, deixando evidente a necessidade de novas soluções. Em um ambiente onde potencialmente várias organizações compartilham os mesmos recursos computacionais, é de vital importância estabelecer fronteiras e limites para o acesso a dados e serviços, mas a preocupação com a privacidade das informações de identificação compartilhadas na nuvem vem se mostrando um grande entrave na ampla adoção do ambiente.
Com as organizações migrando para arquiteturas orientadas a serviço na nuvem, os componentes responsáveis pelo gerenciamento de identidade devem ser separados das aplicações, disponíveis por padrão, e oferecidos também como um serviço nesta arquitetura. Desta maneira é possível fácil reuso, economia de recursos e diminuição de pontos de falha.
Este trabalho propõe uma arquitetura de gerenciamento de identidades como serviço para o ambiente de computação em nuvem, centrado no usuário de forma a tratar os problemas intrínsecos deste ambiente. Para isto é utilizado um modelo centralizado entre provedores de serviço hospedados na mesma nuvem e uma federação de identidades entre nuvens, com controle do usuário sobre as informações de identificação pessoais compartilhadas com os provedores de serviço. A arquitetura proposta é apoiada em padrões existentes e amplamente adotados para o gerenciamento de identidades. / The management of digital identities has been present in recent years as a major problem for users and an intrinsic challenge for researchers. The difficulty in managing a large number of identities, low usability and high cost of storage and maintenance of authentication systems has led to the analysis and construction of several solutions for managing the lifecycle of digital identities. Cloud computing has emerged as a new paradigm that aims to provide access to computational resources in a dynamic and scalable way. As a result, new security challenges have emerged, leaving a clear need for new solutions. In an environment where potentially multiple organizations share the same computing resources, it is vitally to set boundaries and limits on data and services access, but concern for privacy of identifiable information shared in the cloud is proving a major obstacle in the wide adoption of the cloud environment. With organizations moving to service oriented architectures in the cloud, components responsible for identity management should be separated from the applications, available by default, and also offered as a service in this architecture. Providing easily reuse, saving resources and reducing points of failure.
This paper proposes a architecture of identity management as a service for cloud computing environment in a user-centered way for addressing the problems inherent in this environment. In order to achieve this goal is used a centralized model between service providers in the same cloud and a identity federation between clouds. The model is supported by existing and widely adopted standards for identity management.
|
52 |
Avaliação de desempenho de virtualizações OpenVZ e KVM em nuvens computacionais usando Hadoop MapReduce / Performance analysis of KVM and OpenVZ virtualizations on cloud computing using Hadoop MapReduceVasconcelos, Pedro Roger Magalhães 05 June 2015 (has links)
VASCONCELOS, P. R. M. Avaliação de Desempenho de Virtualizações OpenVZ e KVM em Nuvens Computacionais usando Hadoop MapReduce. 2015. 59f. - Dissertação (Mestrado em Engenharia Elétrica e da Computação). Universidade Federal do Ceará, Programa de Pós-Graduação em Engenharia Elétrica e da Computação (Sobral-CE) / Submitted by Ana Márcia Sousa (marciasousa@ufc.br) on 2017-01-31T12:03:56Z
No. of bitstreams: 1
2015_dis_prmvasconcelos.pdf: 887927 bytes, checksum: 24478781417951f390514fb33717ac71 (MD5) / Approved for entry into archive by Ana Márcia Sousa (marciasousa@ufc.br) on 2017-01-31T12:07:02Z (GMT) No. of bitstreams: 1
2015_dis_prmvasconcelos.pdf: 887927 bytes, checksum: 24478781417951f390514fb33717ac71 (MD5) / Made available in DSpace on 2017-01-31T12:07:02Z (GMT). No. of bitstreams: 1
2015_dis_prmvasconcelos.pdf: 887927 bytes, checksum: 24478781417951f390514fb33717ac71 (MD5)
Previous issue date: 2015-06-05 / Cloud computing provides access to a set of resources such as virtual machines, storage and network as services. In this context, virtualization has been used as a platform for resource-intensive applications, like Hadoop. The motivations of this use are the following features: server consolidation, scalability and better resources usage. OpenVZ and KVM are very popular and widely used virtualization platforms with distinct virtualization modes: container-based and full-virtualization, respectively. In this work, a set of benchmarks were conducted to measure the performance of Hadoop clusters deployed on OpenNebula private clouds with KVM and OpenVZ as virtualization platforms. The results show that the cluster hosted in the cloud with OpenVZ performs better than KVM in most tests, reaching a lower CPU virtualization overhead, higher disk I/O reading and memory throughput. The cluster hosted in the cloud using KVM, in turn, present better rates only in specifics tests of disk writing. The performance of network virtualization is very close to native in both clusters. / A Computação em nuvem permite acesso a um conjunto de recursos como máquinas virtuais, armazenamento e rede como serviços. Nesse contexto, a virtualização tem sido usada como uma plataforma para aplicações que fazem uso intensivo de recursos como, por exemplo, o Hadoop. As motivações desse uso são as seguintes características: consolidação de servidores, escalabilidade e melhor uso dos recursos físicos. OpenVZ e KVM são plataformas de virtualização amplamente utilizadas com modos de virtualização distintos: virtualização de sistemas operacionais e virtualização completa, respectivamente. Neste trabalho foi realizada uma série de experimentos para avaliar o desempenho de clusters Hadoop instalados em nuvens privadas OpenNebula utilizando OpenVZ e KVM como plataformas de virtualização. Os resultados mostraram que o cluster hospedado na nuvem com OpenVZ apresentou um melhor desempenho na maioria dos testes realizados com menor sobrecarga de virtualização de CPU e maior vazão de leitura de arquivos em disco e memória. O cluster hospedado na nuvem com KVM, por sua vez, apresentou taxas superiores apenas em testes específicos de escrita de dados em disco. O desempenho da virtualização de rede foi muito próximo do nativo em ambos os clusters.
|
53 |
BACOS: uma estratégia de balanceamento de carga para sistemas de armazenamento de objetos em nuvem / BACOS: a load balancing strategy for cloud object storagePaula, Manoel Rui Pessoa de January 2017 (has links)
PAULA, Manoel Rui Pessoa de. BACOS: uma estratégia de balanceamento de carga para sistemas de
armazenamento de objetos em nuvem. 2017. 111 f. Dissertação (Mestrado em Ciência da Computação)-Universidade Federal do Ceará, Fortaleza, 2017. / Submitted by Jonatas Martins (jonatasmartins@lia.ufc.br) on 2017-08-17T12:47:21Z
No. of bitstreams: 1
2017_dis_mrppaula.pdf: 2325443 bytes, checksum: b0f9bd10cf71530e7248472e5e011c6f (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2017-08-17T13:59:07Z (GMT) No. of bitstreams: 1
2017_dis_mrppaula.pdf: 2325443 bytes, checksum: b0f9bd10cf71530e7248472e5e011c6f (MD5) / Made available in DSpace on 2017-08-17T13:59:07Z (GMT). No. of bitstreams: 1
2017_dis_mrppaula.pdf: 2325443 bytes, checksum: b0f9bd10cf71530e7248472e5e011c6f (MD5)
Previous issue date: 2017 / Cloud computing is an emerging and efficient computing model for processing and storing large amounts of data. Cloud storage service providers use heterogeneous storage devices as a way to extend the resources of a storage system by considering the best tradeoff between maintenance and performance costs. Cloud object storage systems emerge as scalable solutions and efficient data managers using heterogeneous devices, in terms of storage capacity and performance. In the cloud, as the workload changes, dynamic matching between load and storage device capabilities is needed to improve resource utilization and optimize the overall performance of an object storage system. Thus, load balancing techniques are crucial for redistributing the workload among processing and storage nodes to avoid underloading or overloading. Most conventional load balancing strategies in cloud storage systems are only aware of the storage capacity of
storage devices or make assumptions about them being homogeneous, resulting in degradation of the storage system. To address these limitations, this work presents a non-intrusive load balancing strategy called BACOS that takes advantage of storage devices with heterogeneous performance in a cloud storage system. The results of the experimental evaluation confirm that BACOS can improve the performance of an object storage system in terms of response time, throughput and success rate of read/write requests in scenarios that vary the workload. / Computação em nuvem é um modelo de computação emergente e eficiente para processar e armazenar grandes quantidades de dados. Provedores de serviços de armazenamento em nuvem utilizam dispositivos de armazenamento heterogêneos como forma de ampliar recursos de infraestrutura de um sistema de armazenamento considerando a melhor compensação entre os gastos de manutenção e desempenho. Os sistemas de armazenamento de objetos em nuvem surgem como soluções escaláveis e eficientes para gerenciar dados usando dispositivos heterogêneos, no que diz respeito à capacidade de armazenamento e ao desempenho. Na nuvem, uma vez que a carga de trabalho muda dinamicamente, a atribuição dinâmica da carga de trabalho para as capacidades dos dispositivos de armazenamento é feita para melhorar a utilização dos recursos e otimizar o desempenho geral de um sistema de armazenamento de objetos. Assim, as técnicas de balanceamento de carga são cruciais para redistribuir a carga de trabalho entre os nós de processamento e armazenamento para evitar subutilização ou sobrecarga de recursos. A maioria das estratégias convencionais de balanceamento de carga em sistemas de armazenamento em nuvem priorizam
o espaço de armazenamento ao invés do desempenho dos dispositivos de armazenamento ou fazem suposições sobre os dispositivos serem homogêneos, resultando na degradação do desempenho do sistema de armazenamento. Para atender essas limitações, este trabalho apresenta uma estratégia de balanceamento de carga não intrusiva denominada BACOS. A estratégia BACOS tira proveito da heterogeneidade dos dispositivos de armazenamento pertencente a um sistema de armazenamento de objetos na nuvem com o intuito de melhorar o desempenho geral do sistema. Os resultados da avaliação experimental confirmam que a estratégia BACOS consegue melhorar o desempenho de um sistema de armazenamento de objetos em termos de tempo de resposta, vazão e taxa de sucesso de requisições do tipo leitura/escrita em cenários variando a carga de trabalho.
|
54 |
Um modelo para avaliação dinâmica de risco utilizando ontologiaMarinho, Roberto January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014. / Made available in DSpace on 2015-03-18T21:04:56Z (GMT). No. of bitstreams: 1
332301.pdf: 1429721 bytes, checksum: 9940245dc8074c7e69cc3b8f776ce720 (MD5)
Previous issue date: 2014 / Em computação, o controle de acesso é motivado pela necessidade de divulgar o acesso à informação, recursos e serviços somente para entidades autorizadas. Dentre os modelos de controle de acesso atuais, o RAdAC destaca-se por possibilitar um controle dinâmico e situacional na avaliação do acesso, baseando-se no risco de acesso para aceitar ou negar requisições. Neste contexto, o presente trabalho tem como objetivo oferecer um modelo para avaliação dinâmica de risco a partir do modelo RAdAC, amparando-se no uso de ontologia para realização do cálculo de risco. Na proposta apresentada, a composição do risco total relacionado a uma requisição de acesso é composta pelos riscos de contexto, riscos considerando confidencialidade, integridade e disponibilidade das ações, e do risco considerando o histórico do sujeito.A partir do mapeamento das diversas variáveis envolvidas no cálculo de risco de contexto em sentenças de uma ontologia, o modelo busca inferir dinamicamente o risco de contexto no acesso a um determinado dado, baseando-se nos fatores de risco disponíveis e seus determinados pesos.<br> / Abstract : In computing, access control is motivated by the need to promote access to information, resources and services only to authorized entities. Among the existing access control models, RAdAC stands out by allowing a dynamic and situational control in the evaluation of access, relying on the risk assessment to accept or deny requests.This work aims to provide a model for dynamic risk assessment from the RAdAC model, supported by the use of ontologies to perform the calculation of risk. In the proposal presented here, the composition of the total risk associated to an access request comprises the context risk, the risk considering confidentiality, integrity and availability of the actions, and the risk considering the history of the subject.From the mapping of the different variables involved in the calculation of context risk in sentences of an ontology, the model seeks to dynamically infer the context risk during the access to a specific data, based on the available risk factors and their weights.
|
55 |
Modelo de gerenciamento da infraestrutura de rede para otimização de nuvem verdeVillarreal, Sergio Roberto January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014. / Made available in DSpace on 2015-04-29T21:02:09Z (GMT). No. of bitstreams: 1
333050.pdf: 1755196 bytes, checksum: 5cc4f7adb9d9042757ae2da8541ed3f6 (MD5)
Previous issue date: 2014 / Os conceitos propostos pela TI Verde têm mudado as prioridades na concepção dos sistemas de informação e sua infraestrutura, acrescentando aos tradicionais requisitos de desempenho e custo, a necessidade de eficiência no consumo de energia. A abordagem de Computação em Nuvem Verde baseia-se nos conceitos de Computação em Nuvem e TI Verde com o objetivo de oferecer um ambiente computacional flexível e eficiente, porém suas estratégias não têm dado muita atenção para o consumo dos equipamentos de rede. Enquanto a Green Networking tem proposto princípios e técnicas que estão sendo padronizados e implementados nos novos equipamentos de rede, existe nos data centers uma grande quantidade de equipamentos legados sem esses recursos. Neste trabalho, se demonstra que é possível aperfeiçoar a abordagem de nuvem verde e reduzir significativamente o consumo de energia elétrica dos data centers mediante a aplicação de um modelo de gerenciamento dos equipamentos de rede baseado em regras simples que tornam o consumo dos mesmos aproximadamente proporcional ao tráfego. A metodologia utilizada consiste em pesquisa bibliográfica; definição do modelo através de expressões matemáticas e diagramas UML; validação do modelo mediante um estudo de caso aplicado de forma analítica; desenvolvimento de extensões ao simulador CloudSim para suportar o modelo e a realização de simulações para validar seu impacto em diferentes cenários.
|
56 |
Abordagem para Qualidade de Serviço em Banco de Dados Multi-Inquilinos em Nuvem / Approach for Quality of Service to Multi-Tenant Databases in the CloudMoreira, Leonardo Oliveira January 2014 (has links)
MOREIRA, L. O. Abordagem para Qualidade de Serviço em Banco de Dados Multi-Inquilinos em Nuvem. 2014. 130 f. Tese (Doutorado em Ciência da Computação) - Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2014. / Submitted by Daniel Eduardo Alencar da Silva (dealencar.silva@gmail.com) on 2015-01-23T20:40:06Z
No. of bitstreams: 1
2014_tese_lomoreira.pdf: 7232081 bytes, checksum: 6cf653b1eec3b011e37f11dd52c67b79 (MD5) / Approved for entry into archive by Rocilda Sales(rocilda@ufc.br) on 2015-09-23T16:30:06Z (GMT) No. of bitstreams: 1
2014_tese_lomoreira.pdf: 7232081 bytes, checksum: 6cf653b1eec3b011e37f11dd52c67b79 (MD5) / Made available in DSpace on 2015-09-23T16:30:06Z (GMT). No. of bitstreams: 1
2014_tese_lomoreira.pdf: 7232081 bytes, checksum: 6cf653b1eec3b011e37f11dd52c67b79 (MD5)
Previous issue date: 2014 / A computação em nuvens é um paradigma bem consolidado de utilização de recursos computacionais, segundo o qual infraestrutura de hardware, software e plataformas para o desenvolvimento de novas aplicações são oferecidos como serviços disponíveis remotamente e em escala global. Os usuários de nuvens computacionais abrem mão de uma infraestrutura computacional própria para dispô-la mediante serviços oferecidos por provedores de nuvem, delegando aspectos de Qualidade de Serviço (QoS) e assumindo custos proporcionais à quantidade de recursos que utilizam modelo de pagamento baseado no uso. Essas garantias de QoS são definidas entre o provedor do serviço e o usuário, e expressas por meio de Acordo de Nível de Serviço (SLA), o qual consiste de contratos que especificam um nível de qualidade a ser atendido, e penalidades em caso de falha. A maioria das aplicações em nuvem é orientada a dados e, por conta disso, Sistemas Gerenciadores de Banco de Dados (SGBDs) são candidatos potenciais para a implantação em nuvem. SGBDs em nuvem devem tratar uma grande quantidade de aplicações ou inquilinos. Os modelos de multi-inquilinatos são utilizados para consolidar vários inquilinos dentro de um só SGBD, favorecendo o compartilhamento eficaz de recursos, além de gerenciar uma grande quantidade de inquilinos com padrões de carga de trabalho irregulares. Por outro lado, os provedores em nuvem devem reduzir os custos operacionais, garantindo a qualidade. Para muitas aplicações, o maior tempo gasto no processamento das requisições está relacionado ao tempo de execução do SGBD. Portanto, torna-se importante que um modelo de qualidade seja aplicado ao SGBD para seu desempenho. Técnicas de provisionamento dinâmico são voltadas para o tratamento de cargas de trabalho irregulares, para que violações de SLA sejam evitadas. Sendo assim, uma estratégia para ajustar a nuvem no momento em que se prevê um comportamento que pode violar o SLA de um dado inquilino (banco de dados) deve ser considerada. As técnicas de alocação são usadas no intuito de aproveitar os recursos do ambiente em detrimento ao provisionamento. Com base nos sistemas de monitoramento e de modelos de otimização, as técnicas de alocação decidem onde será o melhor local para receber um dado inquilino. Para realizar a transferência do inquilino de forma eficiente, técnicas de Live Migration são adotadas para ter o mínimo de interrupção do serviço. Acredita-se que a combinação destas três técnicas podem contribuir para o desenvolvimento de um solução robusta de QoS para bancos de dados em nuvem, minimizando violações de SLA. Ante tais desafios, esta tese apresenta uma abordagem, denominada PMDB, para melhorar QoS em SGBDs multi-inquilinos em nuvem. A abordagem tem como objetivo reduzir o número de violações de SLA e aproveitar os recursos à disposição por meio de técnicas que realizam predição de carga de trabalho, alocação e migração de inquilinos quando necessitam de recursos com maior capacidade. Para isso, uma arquitetura foi proposta e um protótipo implementado com tais técnicas, além de estratégias de monitoramento e QoS voltada para aplicações de banco de dados em nuvem. Ademais, alguns experimentos orientados a desempenho foram especificados para mostrar a eficiência da abordagem a fim de alcançar o objetivo em foco. / A computação em nuvens é um paradigma bem consolidado de utilização de recursos computacionais, segundo o qual infraestrutura de hardware, software e plataformas para o desenvolvimento de novas aplicações são oferecidos como serviços disponíveis remotamente e em escala global. Os usuários de nuvens computacionais abrem mão de uma infraestrutura computacional própria para dispô-la mediante serviços oferecidos por provedores de nuvem, delegando aspectos de Qualidade de Serviço (QoS) e assumindo custos proporcionais à quantidade de recursos que utilizam modelo de pagamento baseado no uso. Essas garantias de QoS são definidas entre o provedor do serviço e o usuário, e expressas por meio de Acordo de Nível de Serviço (SLA), o qual consiste de contratos que especificam um nível de qualidade a ser atendido, e penalidades em caso de falha. A maioria das aplicações em nuvem é orientada a dados e, por conta disso, Sistemas Gerenciadores de Banco de Dados (SGBDs) são candidatos potenciais para a implantação em nuvem. SGBDs em nuvem devem tratar uma grande quantidade de aplicações ou inquilinos. Os modelos de multi-inquilinatos são utilizados para consolidar vários inquilinos dentro de um só SGBD, favorecendo o compartilhamento eficaz de recursos, além de gerenciar uma grande quantidade de inquilinos com padrões de carga de trabalho irregulares. Por outro lado, os provedores em nuvem devem reduzir os custos operacionais, garantindo a qualidade. Para muitas aplicações, o maior tempo gasto no processamento das requisições está relacionado ao tempo de execução do SGBD. Portanto, torna-se importante que um modelo de qualidade seja aplicado ao SGBD para seu desempenho. Técnicas de provisionamento dinâmico são voltadas para o tratamento de cargas de trabalho irregulares, para que violações de SLA sejam evitadas. Sendo assim, uma estratégia para ajustar a nuvem no momento em que se prevê um comportamento que pode violar o SLA de um dado inquilino (banco de dados) deve ser considerada. As técnicas de alocação são usadas no intuito de aproveitar os recursos do ambiente em detrimento ao provisionamento. Com base nos sistemas de monitoramento e de modelos de otimização, as técnicas de alocação decidem onde será o melhor local para receber um dado inquilino. Para realizar a transferência do inquilino de forma eficiente, técnicas de Live Migration são adotadas para ter o mínimo de interrupção do serviço. Acredita-se que a combinação destas três técnicas podem contribuir para o desenvolvimento de um solução robusta de QoS para bancos de dados em nuvem, minimizando violações de SLA. Ante tais desafios, esta tese apresenta uma abordagem, denominada PMDB, para melhorar QoS em SGBDs multi-inquilinos em nuvem. A abordagem tem como objetivo reduzir o número de violações de SLA e aproveitar os recursos à disposição por meio de técnicas que realizam predição de carga de trabalho, alocação e migração de inquilinos quando necessitam de recursos com maior capacidade. Para isso, uma arquitetura foi proposta e um protótipo implementado com tais técnicas, além de estratégias de monitoramento e QoS voltada para aplicações de banco de dados em nuvem. Ademais, alguns experimentos orientados a desempenho foram especificados para mostrar a eficiência da abordagem a fim de alcançar o objetivo em foco.
|
57 |
Um Serviço para Flexibilização da Tarifação em Nuvens de Infraestrutura / A Service for Easing Charging Infrastructure in CloudsViana, Nayane Ponte January 2013 (has links)
VIANA, N. P. Um Serviço para Flexibilização da Tarifação em Nuvens de Infraestrutura. 2013. 106 f. Dissertação (Mestrado em Ciência da Computação) - Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2013. / Submitted by Daniel Eduardo Alencar da Silva (dealencar.silva@gmail.com) on 2015-01-23T20:48:19Z
No. of bitstreams: 1
2013_dis_npviana.pdf: 3553603 bytes, checksum: 0e999b6df08351daaf88cb5e72f73163 (MD5) / Approved for entry into archive by Rocilda Sales(rocilda@ufc.br) on 2015-09-23T16:30:28Z (GMT) No. of bitstreams: 1
2013_dis_npviana.pdf: 3553603 bytes, checksum: 0e999b6df08351daaf88cb5e72f73163 (MD5) / Made available in DSpace on 2015-09-23T16:30:28Z (GMT). No. of bitstreams: 1
2013_dis_npviana.pdf: 3553603 bytes, checksum: 0e999b6df08351daaf88cb5e72f73163 (MD5)
Previous issue date: 2013 / Cloud computing has emerged in 2006 with the idea to make the utility computing service. This new paradigm is based on several mature technologies that have come to the right time, such as grid computing, distributed systems and virtualization. However, cloud computing has its peculiar features, like customization, elasticity and pay-per-use service and, moreover, to be a new paradigm, has many open questions that needs to be mature, such as security, availability and charging. The pricing is a key feature of cloud computing. In this approach the customer pay for your use, model known as pey per use. Then, perform the monitoring of the resources use is needed in order to pricing. In cloud services infrastructure case, monitoring the hardware resources use is necessary. However, many academic studies show that the form of charging by cloud providers do not take into account important requirements for the customers invoice calculation. Based on this, this work aims to improve the flexibility of charging for infrastructure clouds. For this, an academic and industry study was made to collect and sort the requirements for flexible charging services in cloud computing. Thus, an architecture and service charges, the aCCountS (a Cloud Accounting Service) and a domain specific language (DSL) for defining pricing policies in clouds, called Accounts-DSL, was proposed. In this study are defined: (i) the service architecture and the description of its key parts, (ii) the accounting service proposed and how it was developed, and (iii) the charging language and its requirements and grammar. Finally, the experimental evaluation performed to test the correctness of the service and the language proposed are described. For this, real test was made with the service deployment in commercial clouds in order to test the aCCountS and aCCountS-DSL features. / A computação em nuvem surgiu em 2006 com a ideia de transformar a computação em um serviço utilitário. Esse novo paradigma é baseado em várias tecnologias que vieram amadurecendo ao longo dos tempos, como o sistema distribuído, a computação em grade e a virtualização. Além disso, a computação em nuvem tem suas características peculiares, como a customização, a elasticidade e o pagamento por uso do serviço. Portanto, por ser um paradigma novo, a nuvem possui muitas questões em aberto que precisam ser amadurecidas, como a segurança, a disponibilidade e a tarifação. A tarifação é uma das principais características da computação em nuvem. Nesse paradigma, o cliente paga pelo que utiliza, modelo conhecido como pey per use. Para isso, é preciso realizar o monitoramento do uso dos recursos a fim de tarifar de acordo com sua utilização. As provedoras de nuvem disponibilizam diferentes tipos de serviços aos seus usuários, os principais são:(i) Software como Serviço, (ii) Plataforma como Serviços e (iii) Infraestrutura como Serviço (hardware). No caso dos serviços disponibilizados por nuvens de infraestrutura,é necessário medir o uso dos recursos de hardware na nuvem. Porém, muitos trabalhos acadêmicos mostram que o modelo de tarifação das provedoras de nuvem não levam em consideração requisitos importantes para o cálculo da fatura do cliente. Baseado nisso, este trabalho tem por objetivo melhorar a flexibilidade da tarifação em nuvens de infraestrutura. Para isso, ele propõe uma arquitetura e um serviço de tarifação, o aCCountS (Cloud aCCounting Service) e uma linguagem de domínio específico (DSL) para definição de políticas de tarifação em nuvens, chamada de aCCountS-DSL. Inicialmente, foi realizado um estudo na academia e na indústria a fim de coletar e classificar os requisitos para flexibilizar a cobrança de serviços na computação em nuvem e criar um novo modelo de tarifação. A partir desses estudos foram definidos (i) a linguagem de tarifação proposta, os requisitos que são suportados pela linguagem, em seguida a (ii) a arquitetura do serviço e a descrição de suas partes fundamentais e então, (iii) o serviço de tarifação proposto. Por fim, esse trabalho descreve as avaliações experimentais realizadas para testar a corretude do serviço e da linguagem propostos. Para isso, foram feitos testes reais a partir da implantação do serviço em nuvens comerciais com o objetivo de testar o aCCountS e a aCCountS-DSL.
|
58 |
Mapeamento de qualidade de experiência (QOE) através de qualidade de serviço (QOS) focado em bases de dados distribuídasSouza, Ramon Hugo de January 2017 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2017. / Made available in DSpace on 2017-08-22T04:23:28Z (GMT). No. of bitstreams: 1
347258.pdf: 3773483 bytes, checksum: 2ab3ff4810fbf2c17a929b1ac3ab553c (MD5)
Previous issue date: 2017 / A falta de conceitualização congruente sobre qualidade de serviço (QoS) para bases de dados (BDs) foi o fator que impulsionou o estudo resultante nesta tese. A definição de QoS como uma simples verificação de se um nó corre risco de falha devido ao número de acessos, como faziam, na época do levantamento bibliométrico desta tese, alguns sistemas comerciais, era uma simplificação exagerada para englobar um conceito tão complexo. Outros trabalhos que dizem lidar com estes conceitos também não são exatos, em termos matemáticos, e não possuem definições concretas ou com qualidade passível de utilização ou replicação, o que torna inviável sua aplicação ou mesmo verificação. O foco deste estudo é direcionado à bases de dados distribuídas (BDDs), de maneira que a conceitualização aqui desenvolvida é também compatível, ao menos parcialmente, com modelos não distribuídos de BDs. As novas definições de QoS desenvolvidas são utilizadas para se lidar com o conceito correlacionado de qualidade de experiência (QoE), em uma abordagem em nível de sistema focada em completude de QoS. Mesmo sendo QoE um conceito multidimensional, difícil de ser mensurado, o foco é mantido em uma abordagem passível de mensuramento, de maneira a permitir que sistemas de BDDs possam lidar com autoavaliação. A proposta de autoavaliação surge da necessidade de identificação de problemas passíveis de autocorreção. Tendo-se QoS bem definida, de maneira estatística, pode-se fazer análise de comportamento e tendência comportamental de maneira a se inferir previsão de estados futuros, o que permite o início de processo de correção antes que se alcance estados inesperados, por predição estatística. Sendo o objetivo geral desta tese a definição de métricas de QoS e QoE, com foco em BDDs, lidando com a hipótese de que é possível se definir QoE estatisticamente com base em QoS, para propósitos de nível de sistema. Ambos os conceitos sendo novos para BDDs quando lidando com métricas mensuráveis exatas. E com estes conceitos então definidos, um modelo de recuperação arquitetural é apresentado e testado para demonstração de resultados quando da utilização das métricas definidas para predição comportamental.<br> / Abstract : The hitherto lack of quality of service (QoS) congruent conceptualization to databases (DBs) was the factor that drove the initial development of this thesis. To define QoS as a simple verification that if a node is at risk of failure due to memory over-commitment, as did some commercial systems at the time that was made the bibliometric survey of this thesis, it is an oversimplification to encompass such a complex concept. Other studies that quote to deal with this concept are not accurate and lack concrete definitions or quality allowing its use, making infeasible its application or even verification. Being the focus targeted to distributed databases (DDBs), the developed conceptualization is also compatible, at least partially, with models of non-distributed DBs. These newfound QoS settings are then used to handle the correlated concept of quality of experience (QoE) in a system-level approach, focused on QoS completeness. Being QoE a multidimensional concept, hard to be measured, the focus is kept in an approach liable of measurement, in a way to allow DDBs systems to deal with self-evaluation. The idea of self-evaluation arises from the need of identifying problems subject to self-correction. With QoS statistically well-defined, it is possible to analyse behavior and to indetify tendencies in order to predict future states, allowing early correction before the system reaches unexpected states. Being the general objective of this thesis the definition of metrics of QoS and QoE, focused on DDBs, dealing with the hypothesis that it is possible to define QoE statistically based on QoS, for system level purposes. Both these concepts being new to DDBs when dealing with exact measurable metrics. Once defined these concepts, an architectural recovering model is presented and tested to demonstrate the results when using the metrics defined for behavioral prediction.
|
59 |
Controle de autenticação tolerante a intrusões em federações de cloudsBarreto, Luciano January 2017 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2017. / Made available in DSpace on 2017-10-10T04:18:04Z (GMT). No. of bitstreams: 1
348408.pdf: 2948482 bytes, checksum: 0e24b7eb9bae933aef6f1583a0c94b90 (MD5)
Previous issue date: 2017 / Federações de clouds tem sido um tópico de muitos estudos atualmente na área de Sistemas Distribuídos. A associação de provedores de clouds para formação de federações pode ser movida pela necessidade de pequenos provedores se unirem no sentido de competirem em mercado agressivo. O objetivo principal desta tese sempre foi o estudo dos controles de segurança em federações de clouds. A autenticação por ser peça fundamental na implantação de políticas de segurança acabou sendo o foco principal de nossos esforços. Em se tratando dos controles de autenticação, um ponto que quase sempre permanece em aberto nas formações destas federações é o gerenciamento de seus usuários. Neste sentido desenvolvemos uma proposta de federação de clouds cujas autenticações de seus usuários são baseadas no uso de provedores de identidades. Por se tornar ator principal na aplicação de políticas nestas federações, usamos técnicas que agregassem segurança e tolerância a intrusões a estes provedores de identidades. E, neste sentido, exploramos o uso da virtualização para permitir a proteção de entidades importantes para a segurança destes Provedores de Identidades (Identity Providers ? IdPs). Estes trabalhos preliminares de autenticação foram incorporados ao projeto SecFuNet e adotaram características definidas pelos parceiros de projeto, entre estas, o uso de processadores seguros. Posteriormente, diante de limitações de flexibilidade impostas pelo hardware especializado usado no projeto SecFuNet, outra abordagem envolvendo o armazenamento de informações de usuários em seus IdPs foi desenvolvida. Nesta segunda abordagem, a própria federação de clouds através de recursos de memorização foi utilizada como base para o armazenamento de credenciais e atributos de usuários. Protocolos de disseminação baseados em técnicas de compartilhamento de segredo foram introduzidos no modelo, de forma que o armazenamento das informações de usuários se mantivessem seguras mesmo em casos de intrusões tanto nos IdPs como em parte dos provedores de cloud da federação. A evolução de nossos trabalhos envolveu protótipos, os quais foram submetidos a vários experimentos de testes a fim de verificar sua viabilidade prática de nossas propostas.<br> / Abstract : Cloud federations have been the topic of many studies in the area of Distributed Systems. An association of cloud providers for federation formation can be motivated by the need for small providers not to groups their efforts to survive in the aggressive market. The main objective of this thesis is the study of security controls in cloud federations. Authentication as a key part of deploying security policies was the primary focus of our efforts. One point that usually remains open in federations is the management of its users. In this sense, a proposal of federation of clouds whose authentications of its users are based on the use of identities providers. By becoming a key point in policy enforcement in these federations, we use techniques that deploys security and intrusion tolerance to these identity providers. In this sense, we explore the use of virtualization to allow protection of important entities for an IdPs security. These preliminary works on authentication have been incorporated into the SecFuNet project and featured features defined by project partners, among them, and use of secure processors. Subsequently, faced with limitations of flexibility imposed by specialized hardware used no SecFuNet project, another approach involving the storage of information in their IdPs was developed. In this second approach, the federation of clouds was used as memory and database resources for storing attributes of users. Dissemination protocols based on secret sharing techniques for was applied on this model, so that the stored user information has remained secure even in cases of intrusion both in the IdPs and in part the cloud providers of the federation. The evolution of our work involved prototypes, which were submitted to several test experiments.
|
60 |
Uma arquitetura de computação autônoma e cognitiva para monitoramento de nuvensSchubert, Fernando January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014. / Made available in DSpace on 2016-01-15T14:40:30Z (GMT). No. of bitstreams: 1
336955.pdf: 2763605 bytes, checksum: 07c8d276c6efc2525413259bb9f38a2c (MD5)
Previous issue date: 2014 / Em um curto espaço de tempo, a computação em nuvem evoluiu de mais um buzzword do mercado para um paradigma e modelo de serviço e entrega de recursos amplamente consolidado e aceito. Mesmo que ainda existam lacunas e divergências sobre conceitos e padrões, fato inegável é a expansão e utilização da Nuvem como modelo computacional. Neste contexto novos desafios surgem, entre eles a necessidade de monitorar tais infraestruturas complexas e heterogêneas, de forma a possibilitar a análise de grandes volumes de dados gerados, para tarefas de importância primordial para este modelo, como faturamento de recursos utilizados, identificação de falhas e predição de comportamentos. Tendo em vista este universo dinâmico e de rápidas mudanças, a presente arquitetura é apresentada, propondo um modelo de monitoramento não intrusivo, cujo foco está no armazenamento e recuperação de dados para a construção de sistemas autônomos utilizando aprendizado de máquina. Este trabalho visa evoluir o estado da arte ao propor uma arquitetura autônoma para o monitoramento de Nuvens, tanto privadas quanto híbridas e públicas.<br> / Abstract : In a very short timespan, Cloud Computing has evolved from another market buzzword to a widely accepted and consolidated computing model. Even though there are still gaps and disagreements about concepts and patterns, an undeniable fact is the expansion and wide use of the Cloud as a computing model. In this context there are new challenges, including the need to monitor such complex and heterogeneous infrastructures, in order to enable the analysis of large volumes of data generated for tasks of paramount importance like billing, consolidated reports, detect failures and predict future issues. Given this dynamic and rapidly changing universe, the proposed architecture is presented, proposing a non-intrusive monitoring model, whose focus is the information storage and retrieval allowing the construction of autonomous systems using machine learning. This work aims to advance the state of the art by proposing an autonomous architecture for Clouds monitoring.
|
Page generated in 0.0478 seconds