Spelling suggestions: "subject:"nuvem"" "subject:"ouvem""
11 |
Arquitetura e sistema de monitoramento para computação em nuvem privadaChaves, Shirlei Aparecida de 25 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2012-10-25T03:47:11Z (GMT). No. of bitstreams: 1
287315.pdf: 2205010 bytes, checksum: 2435ae1db3362e6ef90c21cb91db411a (MD5) / A computação em nuvem, como todo novo paradigma tecnológico, apresenta diversos desafios: consolidação de definição e bases conceituais; estabelecimento de consenso sobre aplicações e benefícios; gerenciamento, entre outros. Este trabalho visou a apresentação desse paradigma, focando-se na atividade gerencial de monitoramento. Apresenta-se uma revisão sobre o estado da arte do conceito computação em nuvem, discussão de seus principais modelos de implantação e entrega de serviços, esforços de padronização, questões de gerenciamento e principalmente, monitoramento. Discute-se uma proposta de arquitetura de monitoramento para computação em nuvem que contempla o modelo de implantação de nuvem privada e o modelo de entrega de serviços conhecido como IaaS (Infrastructure as a Service ou Infraestrutura como Serviço). Contempla-se o modelo de nuvem privada e IaaS porque se considera que essa é a combinação que fornece maior controle para a organização que adota o uso da computação em nuvem, assim como também fornece os benefícios de maior aproveitamento do parque tecnológico instalado. Considerou-se também que o modelo de serviço IaaS é um modelo importante a ser estudado e contextualizado, pois pode trazer grandes benefícios às pequenas e médias empresas, laboratórios de pesquisa e organizações governamentais, educacionais, sem fins lucrativos e outras, pois, além de melhorar o aproveitamento do parque tecnológico instalado, pode facilitar atividades acadêmicas, manutenção de software e até postergar aquisição de novos equipamentos. Para teste e validação da arquitetura proposta desenvolve-se um protótipo denominado PCMONS (Private Cloud MONitoring Systems), o qual é programado em módulos e utiliza as linguagens de programação Python, Perl e Linux Shell Scripting. O
protótipo inicial foca no monitoramento de máquinas virtuais, dando suporte à plataforma de software para computação em nuvem Eucalyptus e a ferramenta de monitoramento Nagios. Para teste geral da arquitetura e protótipo, implanta-se um ambiente de computação em nuvem privada no Laboratório de Redes e Gerência (LRG) do Departamento de Informática e Estatística (INE) da Universidade Federal de Santa Catarina (UFSC). Apresentam-se os resultados obtidos através de um estudo de caso, o qual considera um possível cenário de uso para uma nuvem privada, com monitoramento realizado pelo PCMONS. / Cloud computing, like any new technological paradigm, presents many challenges: consolidating the definition and conceptual basis, establishing consensus on applications and benefits, management, among others. This work introduces this paradigm, focusing on one of the management activities: monitoring. It presents a review on the stateof- the-art in cloud computing concepts, discuss their main deployment and service delivery models, standardization efforts, management issues and, mainly, monitoring. It also presents and discusses a proposal of an architecture for monitoring cloud computing, which encompasses the private cloud deployment model and the service delivery model known as IaaS (Infrastructure as a Service). Private clouds and IaaS are focused because we consider that this is the combination that provides most control to the organization that adopts the use of cloud computing, and also provides the benefits of increasing the use of installed technological infrastructure. It was also felt that the IaaS service model is an important model to be studied and contextualized, because it can bring great benefits to small and medium enterprises, research laboratories and governmental, educational and nonprofit organizations, and others, because, besides the potential better use of the installed technological infrastructure, it can facilitate academic activities, software maintenance and even to postpone purchase of new equipment. To test and validate the proposed architecture, it is developed a prototype called PCMONS (Private Cloud MONitoring Systems), which is programmed into modules and uses the Python, Perl and Linux Shell Scripting languages. The initial prototype focuses on the monitoring of virtual machines, supporting the Eucalyptus software platform for cloud computing and the monitoring tool Nagios. To test the general architecture and prototype, it is deployed a private cloud computing environment in the Network and Management Laboratory (LRG), Department of Informatics and Statistics (INE), Federal University of Santa Catarina (UFSC). The results obtained are presented through a case study, which considers a possible usage scenario for a private cloud, with monitoring conducted by PCMONS.
|
12 |
Uma Abordagem para alocação de máquinas virtuais em ambientes de computação em nuvem verdeWerner, Jorge 25 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2011 / Made available in DSpace on 2012-10-25T20:12:53Z (GMT). No. of bitstreams: 1
292399.pdf: 9539638 bytes, checksum: 14964d0969534d73400db901fa615c47 (MD5) / Este trabalho propõe uma solução para o controle integrado de computação e os elementos do ambiente em nuvens verdes. A abordagem funciona com base em modelos de organização que regulam o comportamento dos componentes autônomos (agentes), que veêm os elementos ambientais como prestadores de serviços, por exemplo, servidores de processamento, carga de serviço de distribuição, processador de tarefa, serviço de redução de temperatura, entre outros. Argumenta-se que esta arquitetura pode suportar até 70\% em relação a otimização energética dos centros de dados que utilizam um modelo de uma infraestrutura por aplicação e até 40\% de otimização em relação a modelos de computação baseados em nuvem. O desafio é oferecer uma solução integrada de gestão do sistema que controla e regula as configurações internas, em resposta à flutuação dinâmica das variáveis externas proporcionando um sistema de informação escalável, flexível e de qualidade. Entende-se assim que a idéia para resolver as questões deva passar por uma estratégia para alocação dinâmica de máquinas virtuais em ambientes de computação em nuvem, a qual se baseia na migração da carga de trabalho de um servidor físico para outro e na realocação de recursos conforme a demanda por capacidade de processamento possa variar, avaliando o cenário de alocação das máquinas virtuais ao término (isto é, on line) da execução de cada tarefa, com o intuito de identificar um hospedeiro ocioso ou subutilizado. O trabalho introduz um modelo de gestão do sistema, e um modelo de alocação e distribuição de máquinas virtuais, analisando o comportamento do sistema, são descritos os princípios de funcionamento, e por fim é apresentado um cenário de caso de uso.
|
13 |
Uma estratégia para assegurar a confidencialidade de dados armazenados em nuvem / A Strategy to ensure confidentiality of data stores into cloud computingCastelo Branco Júnior, Eliseu January 2017 (has links)
CASTELO BRANCO JÚNIOR, Eliseu. Uma estratégia para assegurar a confidencialidade de dados armazenados em nuvem. 2017. 210 f. Tese (Doutorado em Computação)- Universidade Federal do Ceará, Fortaleza, 2017. / Submitted by Weslayne Nunes de Sales (weslaynesales@ufc.br) on 2017-07-10T12:02:36Z
No. of bitstreams: 1
2017_tese_ecastelobrancojunior.pdf: 3907960 bytes, checksum: 9f433822be136d071b072b730e8b7860 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2017-07-10T12:39:03Z (GMT) No. of bitstreams: 1
2017_tese_ecastelobrancojunior.pdf: 3907960 bytes, checksum: 9f433822be136d071b072b730e8b7860 (MD5) / Made available in DSpace on 2017-07-10T12:39:03Z (GMT). No. of bitstreams: 1
2017_tese_ecastelobrancojunior.pdf: 3907960 bytes, checksum: 9f433822be136d071b072b730e8b7860 (MD5)
Previous issue date: 2017 / Large amounts of confidential data stored on servers in the cloud is a trend for companies
looking for opportunities to reduce costs and increase the availability of their digital services.
However, in cloud computing environments data control is no longer belongs to the data owner
and the control belongs to the service provider, which provides new challenges related to privacy,
security, and confidentiality.
In this context, privacy and security solutions for data stored in the cloud using encryption, data
fragmentation or a combination of both have been proposed as best existing techniques in the
scientific literature. Despite this, problems related to the effectiveness of these techniques in
relation to the attacks, loss or theft of data have occurred in recent years, causing millions of
dollars of damages to companies and clients.
In this thesis, we present a new approach, called QSM-EXTRACTION, to ensure the confidentiality
of data in cloud storage services. The science behind this approach uses concepts from
Hegel’s Doctrine of Being. The QSM-EXTRACTION strategy is based on the fragmentation of
a digital file into fragments called information objects, on the decomposition of these objects
through the extraction of their characteristics (Quality, Quantity and Measure) and the dispersion
of these characteristics in different storage services in Cloud, allowing the later retrieval of this
data without loss of information.
In order to demonstrate the efficiency of the ideas that guide the strategy proposed in this
thesis, several experiments were carried out. To perform these experiments, a private cloud
infrastructure managed by OpenStack (Openstack Cloud Operating System) was used. The
algorithms that compose the QSM-EXTRACTION strategy were implemented in C++ language.
In order implement the evaluation of the efficiency of the QSM-EXTRACTION strategy, a
collection of syntactically created documents of different sizes was used. The results of the
experiments proved the feasibility of using the proposed approach in scenarios typical of cloud / O armazenamento de grandes quantidades de dados confidenciais em servidores na nuvem é
uma tendência para as empresas que buscam oportunidades de reduzir custos e aumentar a
disponibilidade de seus serviços digitais. Contudo, nos ambientes de computação em nuvem o
controle do dado deixa de ser do seu proprietário e passa a ser do provedor do serviço, o que
proporciona novos desafios relacionados à privacidade, segurança e confidencialidade.
Neste contexto, diferentes soluções para assegurar a confidencialidade dos dados armazenados
na nuvem foram propostas. Em geral, tais soluções utilizam criptografia, fragmentação de dados
ou uma combinação dessas duas abordagens. Apesar disto, problemas relacionados à eficácia
destas técnicas em relação à ataques, perda ou roubo de dados têm ocorrido nos últimos anos,
causando prejuízos de milhões de dólares para empresas e clientes.
Esta tese apresenta uma nova estratégia, denominada QSM-EXTRACTION, para assegurar a
confidencialidade de dados em serviços de armazenamento em nuvem. A ciência por trás dessa
abordagem utiliza conceitos da Doutrina do Ser de Hegel. A estratégia QSM-EXTRACTION
baseia-se na fragmentação de um arquivo digital em fragmentos denominados objetos de informação,
na decomposição desses objetos por meio da extração de suas características (Qualidade,
Quantidade e Medida) e na dispersão dessas características em diferentes serviços de armazenamento
em nuvem, permitindo a posterior recuperação desses dados sem perda de informação. A
finalidade da estratégia proposta é inviabilizar a reconstrução do arquivo original por parte de um
provedor de nuvem que possui apenas parte das características dos objetos de informações que
compõem este arquivo. Desta forma, assegura-se a confidencialidade dos dados armazenados
em nuvem e, por conseguinte, a privacidade dos proprietários desses dados. O trabalho aqui
proposto apresenta uma nova forma de ocultar o significado dos dados armazenados na nuvem, a
qual baseia-se na extração e armazenamento das características desses dados, e não nos dados
em si.
Com a finalidade de demonstrar a eficiência das ideias que norteiam a estratégia proposta nesta
tese, diversos experimentos foram realizados. Para executar estes experimentos, foi utilizada uma
infraestrutura de nuvem privada gerida pelo OpenStack (Openstack Cloud Operating System). Os
algoritmos que compõem a estratégia QSM-EXTRACTION foram implementados em linguagem
C++. Para realizar a avaliação da eficiência da estratégia QSM-EXTRACTION, foi utilizado
uma coleção de documentos criados sinteticamente, com diferentes tamanhos. Os resultados
dos experimentos comprovaram a viabilidade de utilizar a abordagem proposta em cenários
típicos da computação em nuvem, nos quais a quantidade de leituras é maior que a de escritas.
Adicionalmente, os experimentos mostraram que a estratégia QSM-EXTRACTION é bastante
flexível, podendo ser utilizada em conjunto com as principais abordagens para confidencialidade
de dados: criptografia, fragmentação e criptografia/fragmentação.
|
14 |
Um mecanismo de auto elasticidade com base no tempo de resposta para ambientes de computação em nuvem baseados em containers / An algorithm based on response time and traffic demands to scale containers on a cloud computing systemAbranches, Marcelo Cerqueira de 28 November 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência Da Computação, 2016. / Submitted by Camila Duarte (camiladias@bce.unb.br) on 2017-01-24T17:45:06Z
No. of bitstreams: 1
2016_MarceloCerqueiradeAbranches.pdf: 4134362 bytes, checksum: 595018c254e1e6f214a6a6ea70481794 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-03-13T17:41:50Z (GMT) No. of bitstreams: 1
2016_MarceloCerqueiradeAbranches.pdf: 4134362 bytes, checksum: 595018c254e1e6f214a6a6ea70481794 (MD5) / Made available in DSpace on 2017-03-13T17:41:50Z (GMT). No. of bitstreams: 1
2016_MarceloCerqueiradeAbranches.pdf: 4134362 bytes, checksum: 595018c254e1e6f214a6a6ea70481794 (MD5) / Este trabalho propõe uma arquitetura de computação em nuvem baseada em containers e um algoritmo de auto elasticidade. O algoritmo promove a otimização do processamento das requisições por meio da alocação eficiente do número de containers para alcançar tempos esperados de resposta no processamento de requisições. Para avaliar arquitetura proposta foi utilizada uma carga de trabalho caracterizada com base em uma série temporal real resultante das requisições de um sistema Web da Controladoria Geral da União (CGU). O sistema foi submetido a diferentes testes de carga e os resultados mostram que a solução proposta apresenta um forte potencial dado que consegue cumprir os requerimentos de desempenho alocando containers de forma mais eficiente do que outras propostas. / This work proposes a cloud computing architecture based on containers and an auto elasticity algorithm. The algorithm promotes the optimization of request processing by efficiently allocating the number of containers to achieve expected response times in web requests. To evaluate the proposed architecture, a workload was used based on a real time series resulting from the requests of a Web System of Controladoria Geral da União. The system was tested with different loads and the results show that the proposed solution has a strong potential since it can meet the performance requirements by allocating containers more efficiently than other related proposals.
|
15 |
Uma metodologia para definição de modelos de cobrança em ambientes de nuvens computacionaisLanger, Silvio Augusto January 2012 (has links)
Made available in DSpace on 2015-06-13T02:05:08Z (GMT). No. of bitstreams: 1
000470415-Texto+Completo-0.pdf: 2035047 bytes, checksum: f8fc93932fc597d1d920691b329aafc6 (MD5)
Previous issue date: 2012 / Nowadays cloud computing is considered a new concept for the provision of computational infrastructure. In this environment, clients can access and use software, platform or infrastructure as a service to reduce their costs, compared to the traditional values of datacenter model. To make this feasible, customers are charged by the use of computer resources by means of a charging model. These models determine how the use of any product or service will be paid by a client to a service provider. However, the definition of a charging model involves the execution of a series of processes so that is possible to identify the best parameters of the model for each provider. Therefore, it is necessary to clearly define the type of service that the provider adopts and the products you want to offer to the market. Moreover, it is necessary to verify the sales strategies adopted by the provider and the cost of operation. These difficulties were also found by PUCRS High Performance Laboratory (LAD-PUCRS). To facilitate this process, this paper presents a methodology to define and optimize charging models for providers of cloud computing. The method was applied in the LAD, which resulted in several improvements to the charging models used by the laboratory. Furthermore, the application of the methodology in this case study was evaluated and contributed to its improvement. / Atualmente, as nuvens computacionais são consideradas um novo conceito para o fornecimento de infraestrutura computacional. Neste ambiente, os clientes acessam e utilizam software, plataforma ou infraestrutura como serviços, sendo cobrados por seu uso. Há dificuldades entre os provedores em definir um modelo de cobrança para esse ambiente por envolver a execução de uma série de processos na identificação dos melhores parâmetros, considerando requisitos específicos dos modelos de serviços, da infraestrutura disponível, dos produtos ofertados e dos clientes, e também, das estratégias de venda e do custo de operação por parte do provedor. Uma metodologia para definição de modelos de cobrança foi elaborada em função do problema descrito mediante a revisão da literatura e de práticas reconhecidas de cobrança. Foram construídos oito formulários, abarcando os processos da metodologia e submetidos aos responsáveis pelo Laboratório de Alto Desempenho da PUCRS, conforme os procedimentos de estudo de caso único. Pela metodologia são sugeridos novos parâmetros para os modelos de cobrança bem como indicação de um novo produto: armazenamento além, das já existentes, VM’s 24x7 e cluster. A metodologia aplicada refere-se a um caso único, porém, permite seu uso extensivo a outros casos, inclusive, para sua validação.
|
16 |
Política de armazenamento de dados em nuvens federadas para dados biológicosGallon, Ricardo Fernandes 07 July 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2014. / Submitted by Ana Cristina Barbosa da Silva (annabds@hotmail.com) on 2014-11-20T16:39:03Z
No. of bitstreams: 1
2014_RicardoFernandesGallon.pdf: 1641798 bytes, checksum: 0acfed544c445d0bab511a4a677e857c (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-11-24T15:14:24Z (GMT) No. of bitstreams: 1
2014_RicardoFernandesGallon.pdf: 1641798 bytes, checksum: 0acfed544c445d0bab511a4a677e857c (MD5) / Made available in DSpace on 2014-11-24T15:14:24Z (GMT). No. of bitstreams: 1
2014_RicardoFernandesGallon.pdf: 1641798 bytes, checksum: 0acfed544c445d0bab511a4a677e857c (MD5) / A computação em nuvem tem possibilitado a integração de diversos provedores para a execução de tarefas de forma mais rápida em comparação a utilização dos modelos anteriores,e uma visão ao usuário de que os recursos de armazenamento e processamento são ilimitados. A Bioinformática, que lida com grande volume de informações, pode utilizar-se da infraestrutura de computação em nuvem para disponibilizar suas ferramentas,para serem utilizadas nos fluxos de trabalhos, chamados workflows. Além disso, as instituições podem associar-se a outras instituições para formar uma federação de nuvens computacionais, proporcionando maior flexibilidade na escolha de provedores de serviço.Neste contexto, o desempenho da execução de workflows de Bioinformática é fortemente afetado pelo armazenamento e recuperação de dados, devido ao grande volume de informações das sequências genômicas. Desta forma, a escolha da melhor nuvem para estas operações é fundamental para a eficiência da execução do workflow. O presente trabalho tem por objetivo propor uma política de armazenamento de dados genômicos para nuvens computacionais federadas buscando, através da definição de alguns critérios de seleção e estratégias, diminuir o tempo de transferência dos dados e assim contribuir para a diminuição do tempo total de execução do workflow. Foi realizado um estudo de caso, com dados reais, utilizando a plataforma BioNimbuZ[1], que é uma arquitetura para execução de workflows de bioinformática no ambiente de nuvens federadas. Com os resultados obtidos, foi possível determinar o peso de cada critério da política de armazenamento e realizar as análises em relação a política originalmente criada para a arquitetura. Desta forma, a política de armazenamento proposta apresentou ganhos quanto a eficiência, principalmente em nuvens com grande poder computacional. ________________________________________________________________________________ ABSTRACT / Cloud computing has enabled the integration of providers to perform tasks faster, and has allowed users to view the processing and storage resources as unlimited. Bio informatics, which handles large volume of information produced by high-throughput sequencing machines, may use the infrastructure of cloud computing to provide tools to be used in workflows. In addition, institutions may join other institutions to form a federation of computing clouds, providing greater flexibility in the choice of service providers. In this context, the performance of the implementation of a workflow is strongly affected by the storage and retrieval of data, due to the large amount of information from genomic sequences. Thus, choosing the best cloud for these operations is critical to the efficiency of the workflow. This work aims to propose a policy for the storage of genomic data for federated cloud computing seeking, by defining some selection criteria and strategies, toreduce the time of data transfer and thus contribute to the reduction of total execution time of the workflow. A case study was carried out with real data, using BioNimbuZ platform, which is an architecture for the implementation of bioinformatics workflows infederated cloud environments. With the results obtained, it was possible to determine the weight of each storage policy criteria and perform the analysis regarding the policy originally created for the architecture. Thus, the storage policy proposal presented efficiency gains, especially in clouds with great computing power.
|
17 |
Access control in IaaS multi-cloud heterogeneous environmentsSETTE, Ioram Schechtman 11 August 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-30T16:45:19Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
Ioram_Sette_PhD_Thesis.pdf: 10382850 bytes, checksum: a2a362f0971460d5758e3cf1ff71db96 (MD5) / Made available in DSpace on 2017-11-30T16:45:19Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
Ioram_Sette_PhD_Thesis.pdf: 10382850 bytes, checksum: a2a362f0971460d5758e3cf1ff71db96 (MD5)
Previous issue date: 2016-08-11 / CNPQ / Multiple Cloud Service Providers (CSPs) coexist nowadays offering their services competitively. To avoid vendor lock-in, users hire many services from an outsourced heterogeneous multi-cloud environment. This way, data and system security usually depend on isolated mechanism existing in each provider. Access Control (AC) mechanisms are responsible for the authentication, identification and authorisation
of users to resources. In the case of a multi-cloud environment, users often need to authenticate multiple times and also to define security policies for each CSP, which can possibly result in inconsistencies. The objective of this thesis is to provide a homogeneous access experience for users of heterogeneous multi-cloud services. Identity federations allow the Single Sign-On (SSO), i.e. users are identified and authenticated once by Identity Providers (IdPs) and gain access to trusted federated services. Nevertheless, authorisation federations or AC federations are not usual. Each cloud service uses to have its own AC mechanism, with their own policy definition languages. This work defines a solution that provides homogeneous authentication and authorisation to multiple heterogeneous Infrastructure as a Service (IaaS) platforms. This is possible through Identity Federations and Authorisation Policy Federations (APFs). In this solution, security policies are centrally stored in a “Disjunctive Normal Form (DNF)” and are semantically defined in terms of an Ontology. Therefore, cloud tenants can create APFs and bind their different accounts to them. Thus, global authorisation rules, defined and managed by the APF, can be enforced on all federated member accounts, providing a homogeneous access experience. A system prototype, composed of a central Policy Administration Point (PAP), called Federated Authorisation Policy Management Service (FAPManS), policy adaptors (translators) and a policy synchronization mechanism, was implemented for OpenStack and Amazon Web Services (AWS) cloud platforms. An ontology was also created based on their access control technologies. The “Level of Semantic Equivalence (LSE)” was defined as a metric that gives the percentage of policy rules that could be translated to the ontology terms. In the validation of this solution, authorization policies based on examples publicly provided by OpenStack and AWS were converted to ontology-based global rules and vice-versa with LSE above 80%. / Múltiplos provedores de computação em nuvem convivem hoje ofertando seus serviços de forma competitiva. Para evitar dependência (o chamado vendor lock-in), usuários utilizam muitos serviços em ambiente terceirizado e heterogêneo multi-nuvens. Desta forma, a segurança de dados e sistemas depende normalmente de mecanismos existentes isoladamente em cada um dos provedores. Mecanismos de controle de acesso são responsáveis pela autenticação, identificação e autorização dos usuários aos recursos. No caso de ambiente multi-nuvens, usuários geralmente precisam se autenticar diversas vezes e definir políticas de segurança para cada um dos serviços, que possivelmente podem apresentar inconsistências. O objetivo desta tese é proporcionar aos usuários de sistemas heterogêneos multi-nuvens uma experiência de acesso homogênea a estes serviços. Federações de identidade proporcionam o Single Sign-On (SSO), ou seja, os usuários são identificados e autenticados por provedores de identidade (IdPs) uma única vez e, através de protocolos como OpenID Connect, SAML ou ABFAB, recebem acesso a serviços federados com os quais possuem relação de confiança. No entanto, federações de autorização ou de políticas de controle de acesso não são comuns. Cada serviço de nuvem costuma ter seu próprio mecanismo de controle de acesso, com linguagens próprias de definição de políticas. Este trabalho define uma solução que provê autenticação e autorização homogêneas a usuários de múltiplos serviços de computação em nuvem heterogêneos no modelo de Infraestrutura como Serviço (IaaS). Isso é possível através de federações de identidade e de políticas de autorização. Nesta solução, políticas de segurança são armazenadas de forma centralizada no padrão “DNF” com semântica definida em uma Ontologia. Portanto, clientes de nuvens podem criar “Federações de Políticas de Autorização (APFs)” e associar suas contas em cada provedor a estas federações. Desta forma, regras de autorização globais, definidas e gerenciadas pela APF, passam a valer em todas as contas que fazem parte da federação, garantindo uma experiência homogênea de acesso. Um protótipo do sistema, composto de um Ponto de Administração de Políticas (PAP) centralizado e mecanismos de tradução e sincronismo de políticas, foi implementado para nuvens OpenStack e Amazon Web Services (AWS). Uma ontologia também foi definida baseada no controle de acesso destas tecnologias. A métrica “nível de equivalência semântica (LSE)” foi definida para calcular o percentual de regras de uma política que pode ser traduzido para termos de uma ontologia. Na validação da solução, políticas de autorização baseadas em exemplos fornecidos por OpenStack e AWS foram convertidos para regras globais, baseadas na ontologia, e vice-versa, com nível de equivalência semântica superior a 80%.
|
18 |
Avaliação da disponibilidade de infraestrutura de sincronização de dadosMELO, Carlos Alexandre Silva de 23 September 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2018-06-01T18:15:57Z
No. of bitstreams: 1
DISSERTAÇÃO Carlos Alexandre Silva de Melo.pdf: 1936170 bytes, checksum: 13873280858c0ea2c56136260d3bdcde (MD5) / Made available in DSpace on 2018-06-01T18:15:57Z (GMT). No. of bitstreams: 1
DISSERTAÇÃO Carlos Alexandre Silva de Melo.pdf: 1936170 bytes, checksum: 13873280858c0ea2c56136260d3bdcde (MD5)
Previous issue date: 2016-09-23 / Dispositivos eletrônicos como celulares, smartphones, televisores, smartwatches, computadores pessoais, laptops, consoles de mesa e portáteis estão, de algum modo, em praticamente todos os lares que se visite nos últimos anos, e é bem provável que pelo menos um deles possua conexão com a Internet e/ou algum tipo de mecanismo de sincronização instalado. Já a adoção de mecanismos de sincronização, como Dropbox, Google Drive e One Drive, tornou-se de grande importância para usuários de sistemas computacionais, que almejam ter acesso aos seus dados pessoais, sempre que possível, de forma justa e confiável, 24 horas por dia, os 07 dias da semana. E é este tipo de exigência que proporciona um aumento da demanda e da qualidade do serviço oferecido pelas prestadoras uma vez que, com a propagação do paradigma de computação em nuvem, vem sendo migrado em larga escala para este tipo de plataforma. A adoção da computação em nuvem é ligada diretamente à firmação de contrato entre prestadora de serviço e fornecedora de infraestrutura. Este contrato, também conhecido como Acordo de Nível de Serviço ou Service Level Agreements (SLA), prevê o pagamento de multas, caso os valores de disponibilidade estabelecidos não sejam alcançados. Quanto maior os valores de disponibilidade requeridos, mais alto será o custo da arquitetura que proverá o serviço, sendo imprescindível uma análise, meticulosa, antes de qualquer investimento realizado. Sendo uma possibilidade para os que desejam fornecer serviços, através da Internet, arcar com os custos de implantação de sua própria infraestrutura computacional. A compra das máquinas e equipamentos necessários para a implantação de uma infraestrutura própria pode ter um custo menor que a realização de um SLA com alguma grande empresa especializada no provimento de infraestruturas de computação em nuvem como Amazon e Google. Este trabalho propõe modelos hierárquicos baseados em RBDs, SPNs e CTMCs para avaliar disponibilidade e custos de implantação de serviços de sincronização de dados hospedados em plataformas privadas de computação em nuvem. Os modelos propostos poderão ser utilizados como subsídio para o planejamento de infraestruturas que possam prover serviços de sincronização de dados, e auxiliar nos processos internos de tomada de decisão e análise entre custo x benefício para determinação do melhor ambiente. / Electronic devices such as mobile phones, smartphones, televisions, smartwatches, PCs, laptops, table consoles and handhelds are present in some amount in virtually every home you’ve visited in the past few years, and it’s likely that at least one of them has an Internet connection and some synchronization mechanism installed. Since the adoption of synchronization mechanisms, such as Dropbox, Google Drive, and One Drive, became of great importance to computer systems users, which aims to gain access to your personal data wherever possible, fairly and reliably, 24 hours a day, seven days a week. This kind of requirement provides an increase in demand and the quality of service offered by the providers. This service, with the spread of cloud computing paradigm, has been migrated in large scale for this type of platform. The adoption of cloud computing is linked directly to the contract affirmation between the service provider and supplier of infrastructure, this contract, also known as Service Level Agreement (SLA) provides for the payment of penalties if the availability values set are not achieved. The higher the values of desired availability, the higher the cost of the architecture that will provide the
service, being indispensable a thorough analysis before any investment. It is a possibility for those who wish to serve over the Internet, bear the implementation costs of their computing infrastructure, responsible for providing the service. The purchase of machinery and equipment required for the deployment of its infrastructure may have a lower cost than the fulfillment of a contract with some big specialized company. This research proposes hierarchical models, based in RBDs, SPNs, and CTMCs for availability evaluation and deployment costs for data synchronization services hosted in a private cloud computing platform. The proposed model can be used as input for the planning of infrastructure that can provide data synchronization services, and assist in the internal decision-making and cost x benefit analysis determine which one is the best environment.
|
19 |
Planejamento de transcodificação de vídeo em nuvem elásticaFÉ, Iúre de Sousa 03 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-05T19:27:58Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
Dissertacao_biblioteca(1).pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5) / Rejected by Alice Araujo (alice.caraujo@ufpe.br), reason: Refazer. Teste da PROCIT. on 2018-07-12T21:50:43Z (GMT) / Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-12T21:55:58Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Iúre de Sousa Fé.pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-17T20:32:50Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Iúre de Sousa Fé.pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5) / Made available in DSpace on 2018-07-17T20:32:50Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Iúre de Sousa Fé.pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5)
Previous issue date: 2017-02-03 / O tráfego de vídeo ocupa a maior parte do volume de dados que são transmitidos pela Internet, principalmente devido à capacidade de usuários comuns gravarem e compartilharem seus próprios conteúdos. Entretanto, há uma grande heterogeneidade de dispositivos, softwares e rede para visualização dessas mídias, requerendo que esses vídeos sejam transcodificados para formatos compatíveis com a maioria dos visualizadores de vídeo. Transcodificar vídeos é uma atividade computacionalmente cara e com demanda altamente variável, portanto, pode beneficiar-se da capacidade distribuída e elástica da computação em nuvem. No entanto, identificar uma configuração dos mecanismos automáticos de elasticidade (auto-scaling), que cumpra os requisitos mínimos de desempenho requeridos pelo SLA ao menor custo possível não é uma tarefa simples, requer ajustar diversos parâmetros, como o momento de criar e retirar VMs, o tipo de VM que será adicionada, levando em conta o tempo de transcodificação e instanciação de cada tipo. Além disso, em infraestruturas públicas, os contratos firmados com o provedor de nuvem podem apresentar custos diferentes para um mesmo tipo de VM alugada, onde a opção apropriada é relacionada com o auto-scaling e carga de trabalho esperada. Já em infraestruturas de nuvem privadas, a complexidade de configuração trará também aspectos do dimensionamento dinâmico adequado da infraestrutura física para reduzir o consumo elétrico enquanto cumpre o SLA. Com objetivo de auxiliar na escolha desses parâmetros, esta dissertação propõe modelos em Redes de Petri Estocástica para computar a vazão, o tempo médio de resposta, o custo em nuvens públicas e o consumo elétrico em nuvens privadas. Essas métricas são avaliadas a partir da entrada dos parâmetros de configuração e taxa de requisições esperada para o sistema. Os modelos estocásticos propostos também foram integrados com o algoritmo de otimização GRASP, com objetivo de encontrar as configurações que devem ser adotadas na nuvem para cumprir o SLA e minimizar o custo de manter o sistema. Os estudos de caso demonstram que a combinação dos modelos com mecanismos de otimização é útil para orientar os administradores nas escolhas dos valores dos parâmetros de configuração para implantar e ajustar sistemas, respeitando os requisitos de desempenho e minimizando o custo. A aplicação dessa abordagem também permitiu identificar o comportamento do custo de um sistema em relação ao SLA, em um dos estudos de caso apresentados, a redução de 30 para 15 segundos no tempo de resposta mínimo representou um aumento de 299% no custo, já uma redução de 45 para 30 segundos apenas um aumento de 6%. Este comportamento é especialmente útil na negociação de novos SLAs. / Video traffic occupies most of the volume of transmitted data over the Internet, mainly because of the ability of users to record and share their content. However, there is a high heterogeneity of devices, software, and network for viewing these media, requiring these videos to be transcoded to formats compatible with most video viewers. Transcoding videos is a computationally expensive and highly variable demand activity so that it can benefit from the distributed and elastic ability of cloud computing. Although, identifying a configuration of the automatic elastic mechanisms (auto-scaling), which meets the minimum performance requirements required by the SLA at the lowest possible cost is not a simple task. It needs adjusting several parameters, such as the time to create and remove VMs, the type of VM that will be added, taking into account the transcoding and instantiation time of each type. Besides, in public infrastructures, contracts with the cloud provider may incur different costs for the same type of hired VM, where the appropriate option is related to auto-scaling and expected workload. In private cloud infrastructures, configuration complexity will also bring aspects of the proper dynamic dimensioning of the physical infrastructure to reduce electrical consumption while complying with the SLA. To assist in the choice of these parameters, this dissertation proposes Stochastic Petri Nets models to compute the throughput, the mean response time, and the cost in public clouds and electrical consumption in private clouds. These metrics are evaluated from the input of configuration parameters and requisition rate expected for the system. The proposed stochastic models were also integrated with the GRASP optimization algorithm, in order to find the configurations that should be adopted in the cloud to comply with the SLA and minimize the cost of owning the system. Case studies demonstrate that the combination of models with optimization mechanisms is useful to guide administrators in choosing the values of configuration parameters to deploy and tune systems while respecting performance requirements and minimizing cost. The application of this approach also allowed to identify the behavior of the cost of a system in relation to the SLA, in one of the presented case studies, the reduction of 30 to 15 seconds in the minimum response time represented a 299% increase in cost, while a reduction of 45 to 30 seconds only an increase of 6%. This behavior is especially useful when negotiating new SLAs.
|
20 |
Planejamento de infraestruturas de mobile cloud computing baseado em modelos estocásticosARAUJO, Jean Carlos Teixeira de 09 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T20:25:39Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Jean Carlos Teixeira de Araújo.pdf: 4792279 bytes, checksum: 0b4e08b802f03c64d5709a4e978e8af7 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T21:25:04Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Jean Carlos Teixeira de Araújo.pdf: 4792279 bytes, checksum: 0b4e08b802f03c64d5709a4e978e8af7 (MD5) / Made available in DSpace on 2018-07-26T21:25:04Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Jean Carlos Teixeira de Araújo.pdf: 4792279 bytes, checksum: 0b4e08b802f03c64d5709a4e978e8af7 (MD5)
Previous issue date: 2017-03-09 / CAPES / A academia e a indústria têm demonstrado que os recursos limitados dos dispositivos móveis podem ser complementados por recursos virtualizados em uma infraestrutura de computação em nuvem, surgindo assim um novo paradigma chamado mobile cloud computing (MCC). Embora esta solução expanda substancialmente a capacidade de tais dispositivos, também impõe uma dependência em tempo integral de conexão de Internet sem fio. Além disso, problemas como o esgotamento da carga da bateria, falhas de dispositivos móveis, instabilidade das redes sem fio, bugs de aplicativos e interrupções no serviço da nuvem podem representar obstáculos na expansão da mobile cloud computing, uma vez que tais problemas podem resultar no mal fornecimento do serviço da MCC. Modelos estocásticos hierárquicos são adequados para descrever de forma concisa o funcionamento de uma infraestrutura de MCC, lidando com o grande número de componentes que constituem esse tipo de sistema. Sendo um paradigma tão recente, poucos esforços foram feitos para identificar os impactos destes tipos de falhas sobre o funcionamento do sistema. Desta forma, esta tese provê modelos estocásticos para o planejamento de infraestruturas de mobile cloud computing. Esta abordagem foca especialmente no impacto de alguns fatores sobre a disponibilidade e confiabilidade do sistema, tais como: arquiteturas distintas de mobile cloud computing; características de protocolos de comunicação; componentes críticos dos dispositivos móveis, como a bateria; e o comportamento dos softwares envolvidos. A avaliação adotada é baseada em modelos heterogêneos hierárquicos e se concentra em métricas como a disponibilidade em estado estacionário, confiabilidade, downtime, probabilidade de conectividade, tempo médio de vida da bateria, e os custos de implantação e provisionamento da infraestrutura de nuvem. Os experimentos realizados fornecem subsídios aos parâmetros de entrada dos modelos aqui propostos. Além disso, ferramentas de software foram desenvolvidas para auxiliar na condução de tais experimentos. Os modelos propostos permitem realizar comparações entre diferentes formas de implantação de mobile cloud computing, assim como planejar ajustes na infraestrutura de hardware e software com o intuito de garantir níveis de serviço satisfatórios. / Academy and industry have been showing that the limited resources of mobile devices might be supplemented by virtualized resources in a cloud infrastructure, emerging a new paradigm called mobile cloud computing (MCC). While this solution substantially expands the abilities of such gadgets, it also enforces a full-time dependency on wireless Internet connection. Furthermore, issues such as battery charge depletion, mobile device faults, wireless network instability, application bugs, and outages in the cloud service may represent obstacles in expansion of the mobile cloud computing, since such issues may result in poor provision of the MCC service. Hierarchical stochastic models are suitable for a concise description of the operation of an MCC infrastructure, dealing with the large number of components that constitute this type of system. Being such a recent paradigm, few efforts were conduced to identify the impact of those types of faults on the system operation. In this way, this thesis provides stochastic models to planning of mobile cloud computing infrastructures. This approach focus specially on the impact of some factors on system availability and reliability, such as: different architectures of mobile cloud computing; characteristics of communication protocols; critical components of mobile devices, such as the battery; and the behavior of the software involved. Our evaluation is based on hierarchical heterogeneous models and focuses on measures such as steady-state availability, reliability, downtime, connectivity probability, average battery lifetime, and costs of implementation and provisioning of the cloud infrastructure. We performed experiments to provide subsidies to the input parameters of the proposed models here. In addition, software tools have been developed to aid in the conduct of such experiments. The proposed models allow comparisons between different forms of mobile cloud computing deployment, as well as planning adjustments to the hardware and software infrastructure to ensure satisfactory service levels.
|
Page generated in 0.0536 seconds