Spelling suggestions: "subject:"computação em devem"" "subject:"computação em vivem""
11 |
Uma estratégia para assegurar a confidencialidade de dados armazenados em nuvem / A Strategy to ensure confidentiality of data stores into cloud computingCastelo Branco Júnior, Eliseu January 2017 (has links)
CASTELO BRANCO JÚNIOR, Eliseu. Uma estratégia para assegurar a confidencialidade de dados armazenados em nuvem. 2017. 210 f. Tese (Doutorado em Computação)- Universidade Federal do Ceará, Fortaleza, 2017. / Submitted by Weslayne Nunes de Sales (weslaynesales@ufc.br) on 2017-07-10T12:02:36Z
No. of bitstreams: 1
2017_tese_ecastelobrancojunior.pdf: 3907960 bytes, checksum: 9f433822be136d071b072b730e8b7860 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2017-07-10T12:39:03Z (GMT) No. of bitstreams: 1
2017_tese_ecastelobrancojunior.pdf: 3907960 bytes, checksum: 9f433822be136d071b072b730e8b7860 (MD5) / Made available in DSpace on 2017-07-10T12:39:03Z (GMT). No. of bitstreams: 1
2017_tese_ecastelobrancojunior.pdf: 3907960 bytes, checksum: 9f433822be136d071b072b730e8b7860 (MD5)
Previous issue date: 2017 / Large amounts of confidential data stored on servers in the cloud is a trend for companies
looking for opportunities to reduce costs and increase the availability of their digital services.
However, in cloud computing environments data control is no longer belongs to the data owner
and the control belongs to the service provider, which provides new challenges related to privacy,
security, and confidentiality.
In this context, privacy and security solutions for data stored in the cloud using encryption, data
fragmentation or a combination of both have been proposed as best existing techniques in the
scientific literature. Despite this, problems related to the effectiveness of these techniques in
relation to the attacks, loss or theft of data have occurred in recent years, causing millions of
dollars of damages to companies and clients.
In this thesis, we present a new approach, called QSM-EXTRACTION, to ensure the confidentiality
of data in cloud storage services. The science behind this approach uses concepts from
Hegel’s Doctrine of Being. The QSM-EXTRACTION strategy is based on the fragmentation of
a digital file into fragments called information objects, on the decomposition of these objects
through the extraction of their characteristics (Quality, Quantity and Measure) and the dispersion
of these characteristics in different storage services in Cloud, allowing the later retrieval of this
data without loss of information.
In order to demonstrate the efficiency of the ideas that guide the strategy proposed in this
thesis, several experiments were carried out. To perform these experiments, a private cloud
infrastructure managed by OpenStack (Openstack Cloud Operating System) was used. The
algorithms that compose the QSM-EXTRACTION strategy were implemented in C++ language.
In order implement the evaluation of the efficiency of the QSM-EXTRACTION strategy, a
collection of syntactically created documents of different sizes was used. The results of the
experiments proved the feasibility of using the proposed approach in scenarios typical of cloud / O armazenamento de grandes quantidades de dados confidenciais em servidores na nuvem é
uma tendência para as empresas que buscam oportunidades de reduzir custos e aumentar a
disponibilidade de seus serviços digitais. Contudo, nos ambientes de computação em nuvem o
controle do dado deixa de ser do seu proprietário e passa a ser do provedor do serviço, o que
proporciona novos desafios relacionados à privacidade, segurança e confidencialidade.
Neste contexto, diferentes soluções para assegurar a confidencialidade dos dados armazenados
na nuvem foram propostas. Em geral, tais soluções utilizam criptografia, fragmentação de dados
ou uma combinação dessas duas abordagens. Apesar disto, problemas relacionados à eficácia
destas técnicas em relação à ataques, perda ou roubo de dados têm ocorrido nos últimos anos,
causando prejuízos de milhões de dólares para empresas e clientes.
Esta tese apresenta uma nova estratégia, denominada QSM-EXTRACTION, para assegurar a
confidencialidade de dados em serviços de armazenamento em nuvem. A ciência por trás dessa
abordagem utiliza conceitos da Doutrina do Ser de Hegel. A estratégia QSM-EXTRACTION
baseia-se na fragmentação de um arquivo digital em fragmentos denominados objetos de informação,
na decomposição desses objetos por meio da extração de suas características (Qualidade,
Quantidade e Medida) e na dispersão dessas características em diferentes serviços de armazenamento
em nuvem, permitindo a posterior recuperação desses dados sem perda de informação. A
finalidade da estratégia proposta é inviabilizar a reconstrução do arquivo original por parte de um
provedor de nuvem que possui apenas parte das características dos objetos de informações que
compõem este arquivo. Desta forma, assegura-se a confidencialidade dos dados armazenados
em nuvem e, por conseguinte, a privacidade dos proprietários desses dados. O trabalho aqui
proposto apresenta uma nova forma de ocultar o significado dos dados armazenados na nuvem, a
qual baseia-se na extração e armazenamento das características desses dados, e não nos dados
em si.
Com a finalidade de demonstrar a eficiência das ideias que norteiam a estratégia proposta nesta
tese, diversos experimentos foram realizados. Para executar estes experimentos, foi utilizada uma
infraestrutura de nuvem privada gerida pelo OpenStack (Openstack Cloud Operating System). Os
algoritmos que compõem a estratégia QSM-EXTRACTION foram implementados em linguagem
C++. Para realizar a avaliação da eficiência da estratégia QSM-EXTRACTION, foi utilizado
uma coleção de documentos criados sinteticamente, com diferentes tamanhos. Os resultados
dos experimentos comprovaram a viabilidade de utilizar a abordagem proposta em cenários
típicos da computação em nuvem, nos quais a quantidade de leituras é maior que a de escritas.
Adicionalmente, os experimentos mostraram que a estratégia QSM-EXTRACTION é bastante
flexível, podendo ser utilizada em conjunto com as principais abordagens para confidencialidade
de dados: criptografia, fragmentação e criptografia/fragmentação.
|
12 |
Um mecanismo de auto elasticidade com base no tempo de resposta para ambientes de computação em nuvem baseados em containers / An algorithm based on response time and traffic demands to scale containers on a cloud computing systemAbranches, Marcelo Cerqueira de 28 November 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência Da Computação, 2016. / Submitted by Camila Duarte (camiladias@bce.unb.br) on 2017-01-24T17:45:06Z
No. of bitstreams: 1
2016_MarceloCerqueiradeAbranches.pdf: 4134362 bytes, checksum: 595018c254e1e6f214a6a6ea70481794 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-03-13T17:41:50Z (GMT) No. of bitstreams: 1
2016_MarceloCerqueiradeAbranches.pdf: 4134362 bytes, checksum: 595018c254e1e6f214a6a6ea70481794 (MD5) / Made available in DSpace on 2017-03-13T17:41:50Z (GMT). No. of bitstreams: 1
2016_MarceloCerqueiradeAbranches.pdf: 4134362 bytes, checksum: 595018c254e1e6f214a6a6ea70481794 (MD5) / Este trabalho propõe uma arquitetura de computação em nuvem baseada em containers e um algoritmo de auto elasticidade. O algoritmo promove a otimização do processamento das requisições por meio da alocação eficiente do número de containers para alcançar tempos esperados de resposta no processamento de requisições. Para avaliar arquitetura proposta foi utilizada uma carga de trabalho caracterizada com base em uma série temporal real resultante das requisições de um sistema Web da Controladoria Geral da União (CGU). O sistema foi submetido a diferentes testes de carga e os resultados mostram que a solução proposta apresenta um forte potencial dado que consegue cumprir os requerimentos de desempenho alocando containers de forma mais eficiente do que outras propostas. / This work proposes a cloud computing architecture based on containers and an auto elasticity algorithm. The algorithm promotes the optimization of request processing by efficiently allocating the number of containers to achieve expected response times in web requests. To evaluate the proposed architecture, a workload was used based on a real time series resulting from the requests of a Web System of Controladoria Geral da União. The system was tested with different loads and the results show that the proposed solution has a strong potential since it can meet the performance requirements by allocating containers more efficiently than other related proposals.
|
13 |
Uma metodologia para definição de modelos de cobrança em ambientes de nuvens computacionaisLanger, Silvio Augusto January 2012 (has links)
Made available in DSpace on 2015-06-13T02:05:08Z (GMT). No. of bitstreams: 1
000470415-Texto+Completo-0.pdf: 2035047 bytes, checksum: f8fc93932fc597d1d920691b329aafc6 (MD5)
Previous issue date: 2012 / Nowadays cloud computing is considered a new concept for the provision of computational infrastructure. In this environment, clients can access and use software, platform or infrastructure as a service to reduce their costs, compared to the traditional values of datacenter model. To make this feasible, customers are charged by the use of computer resources by means of a charging model. These models determine how the use of any product or service will be paid by a client to a service provider. However, the definition of a charging model involves the execution of a series of processes so that is possible to identify the best parameters of the model for each provider. Therefore, it is necessary to clearly define the type of service that the provider adopts and the products you want to offer to the market. Moreover, it is necessary to verify the sales strategies adopted by the provider and the cost of operation. These difficulties were also found by PUCRS High Performance Laboratory (LAD-PUCRS). To facilitate this process, this paper presents a methodology to define and optimize charging models for providers of cloud computing. The method was applied in the LAD, which resulted in several improvements to the charging models used by the laboratory. Furthermore, the application of the methodology in this case study was evaluated and contributed to its improvement. / Atualmente, as nuvens computacionais são consideradas um novo conceito para o fornecimento de infraestrutura computacional. Neste ambiente, os clientes acessam e utilizam software, plataforma ou infraestrutura como serviços, sendo cobrados por seu uso. Há dificuldades entre os provedores em definir um modelo de cobrança para esse ambiente por envolver a execução de uma série de processos na identificação dos melhores parâmetros, considerando requisitos específicos dos modelos de serviços, da infraestrutura disponível, dos produtos ofertados e dos clientes, e também, das estratégias de venda e do custo de operação por parte do provedor. Uma metodologia para definição de modelos de cobrança foi elaborada em função do problema descrito mediante a revisão da literatura e de práticas reconhecidas de cobrança. Foram construídos oito formulários, abarcando os processos da metodologia e submetidos aos responsáveis pelo Laboratório de Alto Desempenho da PUCRS, conforme os procedimentos de estudo de caso único. Pela metodologia são sugeridos novos parâmetros para os modelos de cobrança bem como indicação de um novo produto: armazenamento além, das já existentes, VM’s 24x7 e cluster. A metodologia aplicada refere-se a um caso único, porém, permite seu uso extensivo a outros casos, inclusive, para sua validação.
|
14 |
Política de armazenamento de dados em nuvens federadas para dados biológicosGallon, Ricardo Fernandes 07 July 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2014. / Submitted by Ana Cristina Barbosa da Silva (annabds@hotmail.com) on 2014-11-20T16:39:03Z
No. of bitstreams: 1
2014_RicardoFernandesGallon.pdf: 1641798 bytes, checksum: 0acfed544c445d0bab511a4a677e857c (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-11-24T15:14:24Z (GMT) No. of bitstreams: 1
2014_RicardoFernandesGallon.pdf: 1641798 bytes, checksum: 0acfed544c445d0bab511a4a677e857c (MD5) / Made available in DSpace on 2014-11-24T15:14:24Z (GMT). No. of bitstreams: 1
2014_RicardoFernandesGallon.pdf: 1641798 bytes, checksum: 0acfed544c445d0bab511a4a677e857c (MD5) / A computação em nuvem tem possibilitado a integração de diversos provedores para a execução de tarefas de forma mais rápida em comparação a utilização dos modelos anteriores,e uma visão ao usuário de que os recursos de armazenamento e processamento são ilimitados. A Bioinformática, que lida com grande volume de informações, pode utilizar-se da infraestrutura de computação em nuvem para disponibilizar suas ferramentas,para serem utilizadas nos fluxos de trabalhos, chamados workflows. Além disso, as instituições podem associar-se a outras instituições para formar uma federação de nuvens computacionais, proporcionando maior flexibilidade na escolha de provedores de serviço.Neste contexto, o desempenho da execução de workflows de Bioinformática é fortemente afetado pelo armazenamento e recuperação de dados, devido ao grande volume de informações das sequências genômicas. Desta forma, a escolha da melhor nuvem para estas operações é fundamental para a eficiência da execução do workflow. O presente trabalho tem por objetivo propor uma política de armazenamento de dados genômicos para nuvens computacionais federadas buscando, através da definição de alguns critérios de seleção e estratégias, diminuir o tempo de transferência dos dados e assim contribuir para a diminuição do tempo total de execução do workflow. Foi realizado um estudo de caso, com dados reais, utilizando a plataforma BioNimbuZ[1], que é uma arquitetura para execução de workflows de bioinformática no ambiente de nuvens federadas. Com os resultados obtidos, foi possível determinar o peso de cada critério da política de armazenamento e realizar as análises em relação a política originalmente criada para a arquitetura. Desta forma, a política de armazenamento proposta apresentou ganhos quanto a eficiência, principalmente em nuvens com grande poder computacional. ________________________________________________________________________________ ABSTRACT / Cloud computing has enabled the integration of providers to perform tasks faster, and has allowed users to view the processing and storage resources as unlimited. Bio informatics, which handles large volume of information produced by high-throughput sequencing machines, may use the infrastructure of cloud computing to provide tools to be used in workflows. In addition, institutions may join other institutions to form a federation of computing clouds, providing greater flexibility in the choice of service providers. In this context, the performance of the implementation of a workflow is strongly affected by the storage and retrieval of data, due to the large amount of information from genomic sequences. Thus, choosing the best cloud for these operations is critical to the efficiency of the workflow. This work aims to propose a policy for the storage of genomic data for federated cloud computing seeking, by defining some selection criteria and strategies, toreduce the time of data transfer and thus contribute to the reduction of total execution time of the workflow. A case study was carried out with real data, using BioNimbuZ platform, which is an architecture for the implementation of bioinformatics workflows infederated cloud environments. With the results obtained, it was possible to determine the weight of each storage policy criteria and perform the analysis regarding the policy originally created for the architecture. Thus, the storage policy proposal presented efficiency gains, especially in clouds with great computing power.
|
15 |
Access control in IaaS multi-cloud heterogeneous environmentsSETTE, Ioram Schechtman 11 August 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-30T16:45:19Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
Ioram_Sette_PhD_Thesis.pdf: 10382850 bytes, checksum: a2a362f0971460d5758e3cf1ff71db96 (MD5) / Made available in DSpace on 2017-11-30T16:45:19Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
Ioram_Sette_PhD_Thesis.pdf: 10382850 bytes, checksum: a2a362f0971460d5758e3cf1ff71db96 (MD5)
Previous issue date: 2016-08-11 / CNPQ / Multiple Cloud Service Providers (CSPs) coexist nowadays offering their services competitively. To avoid vendor lock-in, users hire many services from an outsourced heterogeneous multi-cloud environment. This way, data and system security usually depend on isolated mechanism existing in each provider. Access Control (AC) mechanisms are responsible for the authentication, identification and authorisation
of users to resources. In the case of a multi-cloud environment, users often need to authenticate multiple times and also to define security policies for each CSP, which can possibly result in inconsistencies. The objective of this thesis is to provide a homogeneous access experience for users of heterogeneous multi-cloud services. Identity federations allow the Single Sign-On (SSO), i.e. users are identified and authenticated once by Identity Providers (IdPs) and gain access to trusted federated services. Nevertheless, authorisation federations or AC federations are not usual. Each cloud service uses to have its own AC mechanism, with their own policy definition languages. This work defines a solution that provides homogeneous authentication and authorisation to multiple heterogeneous Infrastructure as a Service (IaaS) platforms. This is possible through Identity Federations and Authorisation Policy Federations (APFs). In this solution, security policies are centrally stored in a “Disjunctive Normal Form (DNF)” and are semantically defined in terms of an Ontology. Therefore, cloud tenants can create APFs and bind their different accounts to them. Thus, global authorisation rules, defined and managed by the APF, can be enforced on all federated member accounts, providing a homogeneous access experience. A system prototype, composed of a central Policy Administration Point (PAP), called Federated Authorisation Policy Management Service (FAPManS), policy adaptors (translators) and a policy synchronization mechanism, was implemented for OpenStack and Amazon Web Services (AWS) cloud platforms. An ontology was also created based on their access control technologies. The “Level of Semantic Equivalence (LSE)” was defined as a metric that gives the percentage of policy rules that could be translated to the ontology terms. In the validation of this solution, authorization policies based on examples publicly provided by OpenStack and AWS were converted to ontology-based global rules and vice-versa with LSE above 80%. / Múltiplos provedores de computação em nuvem convivem hoje ofertando seus serviços de forma competitiva. Para evitar dependência (o chamado vendor lock-in), usuários utilizam muitos serviços em ambiente terceirizado e heterogêneo multi-nuvens. Desta forma, a segurança de dados e sistemas depende normalmente de mecanismos existentes isoladamente em cada um dos provedores. Mecanismos de controle de acesso são responsáveis pela autenticação, identificação e autorização dos usuários aos recursos. No caso de ambiente multi-nuvens, usuários geralmente precisam se autenticar diversas vezes e definir políticas de segurança para cada um dos serviços, que possivelmente podem apresentar inconsistências. O objetivo desta tese é proporcionar aos usuários de sistemas heterogêneos multi-nuvens uma experiência de acesso homogênea a estes serviços. Federações de identidade proporcionam o Single Sign-On (SSO), ou seja, os usuários são identificados e autenticados por provedores de identidade (IdPs) uma única vez e, através de protocolos como OpenID Connect, SAML ou ABFAB, recebem acesso a serviços federados com os quais possuem relação de confiança. No entanto, federações de autorização ou de políticas de controle de acesso não são comuns. Cada serviço de nuvem costuma ter seu próprio mecanismo de controle de acesso, com linguagens próprias de definição de políticas. Este trabalho define uma solução que provê autenticação e autorização homogêneas a usuários de múltiplos serviços de computação em nuvem heterogêneos no modelo de Infraestrutura como Serviço (IaaS). Isso é possível através de federações de identidade e de políticas de autorização. Nesta solução, políticas de segurança são armazenadas de forma centralizada no padrão “DNF” com semântica definida em uma Ontologia. Portanto, clientes de nuvens podem criar “Federações de Políticas de Autorização (APFs)” e associar suas contas em cada provedor a estas federações. Desta forma, regras de autorização globais, definidas e gerenciadas pela APF, passam a valer em todas as contas que fazem parte da federação, garantindo uma experiência homogênea de acesso. Um protótipo do sistema, composto de um Ponto de Administração de Políticas (PAP) centralizado e mecanismos de tradução e sincronismo de políticas, foi implementado para nuvens OpenStack e Amazon Web Services (AWS). Uma ontologia também foi definida baseada no controle de acesso destas tecnologias. A métrica “nível de equivalência semântica (LSE)” foi definida para calcular o percentual de regras de uma política que pode ser traduzido para termos de uma ontologia. Na validação da solução, políticas de autorização baseadas em exemplos fornecidos por OpenStack e AWS foram convertidos para regras globais, baseadas na ontologia, e vice-versa, com nível de equivalência semântica superior a 80%.
|
16 |
Avaliação da disponibilidade de infraestrutura de sincronização de dadosMELO, Carlos Alexandre Silva de 23 September 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2018-06-01T18:15:57Z
No. of bitstreams: 1
DISSERTAÇÃO Carlos Alexandre Silva de Melo.pdf: 1936170 bytes, checksum: 13873280858c0ea2c56136260d3bdcde (MD5) / Made available in DSpace on 2018-06-01T18:15:57Z (GMT). No. of bitstreams: 1
DISSERTAÇÃO Carlos Alexandre Silva de Melo.pdf: 1936170 bytes, checksum: 13873280858c0ea2c56136260d3bdcde (MD5)
Previous issue date: 2016-09-23 / Dispositivos eletrônicos como celulares, smartphones, televisores, smartwatches, computadores pessoais, laptops, consoles de mesa e portáteis estão, de algum modo, em praticamente todos os lares que se visite nos últimos anos, e é bem provável que pelo menos um deles possua conexão com a Internet e/ou algum tipo de mecanismo de sincronização instalado. Já a adoção de mecanismos de sincronização, como Dropbox, Google Drive e One Drive, tornou-se de grande importância para usuários de sistemas computacionais, que almejam ter acesso aos seus dados pessoais, sempre que possível, de forma justa e confiável, 24 horas por dia, os 07 dias da semana. E é este tipo de exigência que proporciona um aumento da demanda e da qualidade do serviço oferecido pelas prestadoras uma vez que, com a propagação do paradigma de computação em nuvem, vem sendo migrado em larga escala para este tipo de plataforma. A adoção da computação em nuvem é ligada diretamente à firmação de contrato entre prestadora de serviço e fornecedora de infraestrutura. Este contrato, também conhecido como Acordo de Nível de Serviço ou Service Level Agreements (SLA), prevê o pagamento de multas, caso os valores de disponibilidade estabelecidos não sejam alcançados. Quanto maior os valores de disponibilidade requeridos, mais alto será o custo da arquitetura que proverá o serviço, sendo imprescindível uma análise, meticulosa, antes de qualquer investimento realizado. Sendo uma possibilidade para os que desejam fornecer serviços, através da Internet, arcar com os custos de implantação de sua própria infraestrutura computacional. A compra das máquinas e equipamentos necessários para a implantação de uma infraestrutura própria pode ter um custo menor que a realização de um SLA com alguma grande empresa especializada no provimento de infraestruturas de computação em nuvem como Amazon e Google. Este trabalho propõe modelos hierárquicos baseados em RBDs, SPNs e CTMCs para avaliar disponibilidade e custos de implantação de serviços de sincronização de dados hospedados em plataformas privadas de computação em nuvem. Os modelos propostos poderão ser utilizados como subsídio para o planejamento de infraestruturas que possam prover serviços de sincronização de dados, e auxiliar nos processos internos de tomada de decisão e análise entre custo x benefício para determinação do melhor ambiente. / Electronic devices such as mobile phones, smartphones, televisions, smartwatches, PCs, laptops, table consoles and handhelds are present in some amount in virtually every home you’ve visited in the past few years, and it’s likely that at least one of them has an Internet connection and some synchronization mechanism installed. Since the adoption of synchronization mechanisms, such as Dropbox, Google Drive, and One Drive, became of great importance to computer systems users, which aims to gain access to your personal data wherever possible, fairly and reliably, 24 hours a day, seven days a week. This kind of requirement provides an increase in demand and the quality of service offered by the providers. This service, with the spread of cloud computing paradigm, has been migrated in large scale for this type of platform. The adoption of cloud computing is linked directly to the contract affirmation between the service provider and supplier of infrastructure, this contract, also known as Service Level Agreement (SLA) provides for the payment of penalties if the availability values set are not achieved. The higher the values of desired availability, the higher the cost of the architecture that will provide the
service, being indispensable a thorough analysis before any investment. It is a possibility for those who wish to serve over the Internet, bear the implementation costs of their computing infrastructure, responsible for providing the service. The purchase of machinery and equipment required for the deployment of its infrastructure may have a lower cost than the fulfillment of a contract with some big specialized company. This research proposes hierarchical models, based in RBDs, SPNs, and CTMCs for availability evaluation and deployment costs for data synchronization services hosted in a private cloud computing platform. The proposed model can be used as input for the planning of infrastructure that can provide data synchronization services, and assist in the internal decision-making and cost x benefit analysis determine which one is the best environment.
|
17 |
Planejamento de transcodificação de vídeo em nuvem elásticaFÉ, Iúre de Sousa 03 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-05T19:27:58Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
Dissertacao_biblioteca(1).pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5) / Rejected by Alice Araujo (alice.caraujo@ufpe.br), reason: Refazer. Teste da PROCIT. on 2018-07-12T21:50:43Z (GMT) / Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-12T21:55:58Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Iúre de Sousa Fé.pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-17T20:32:50Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Iúre de Sousa Fé.pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5) / Made available in DSpace on 2018-07-17T20:32:50Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Iúre de Sousa Fé.pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5)
Previous issue date: 2017-02-03 / O tráfego de vídeo ocupa a maior parte do volume de dados que são transmitidos pela Internet, principalmente devido à capacidade de usuários comuns gravarem e compartilharem seus próprios conteúdos. Entretanto, há uma grande heterogeneidade de dispositivos, softwares e rede para visualização dessas mídias, requerendo que esses vídeos sejam transcodificados para formatos compatíveis com a maioria dos visualizadores de vídeo. Transcodificar vídeos é uma atividade computacionalmente cara e com demanda altamente variável, portanto, pode beneficiar-se da capacidade distribuída e elástica da computação em nuvem. No entanto, identificar uma configuração dos mecanismos automáticos de elasticidade (auto-scaling), que cumpra os requisitos mínimos de desempenho requeridos pelo SLA ao menor custo possível não é uma tarefa simples, requer ajustar diversos parâmetros, como o momento de criar e retirar VMs, o tipo de VM que será adicionada, levando em conta o tempo de transcodificação e instanciação de cada tipo. Além disso, em infraestruturas públicas, os contratos firmados com o provedor de nuvem podem apresentar custos diferentes para um mesmo tipo de VM alugada, onde a opção apropriada é relacionada com o auto-scaling e carga de trabalho esperada. Já em infraestruturas de nuvem privadas, a complexidade de configuração trará também aspectos do dimensionamento dinâmico adequado da infraestrutura física para reduzir o consumo elétrico enquanto cumpre o SLA. Com objetivo de auxiliar na escolha desses parâmetros, esta dissertação propõe modelos em Redes de Petri Estocástica para computar a vazão, o tempo médio de resposta, o custo em nuvens públicas e o consumo elétrico em nuvens privadas. Essas métricas são avaliadas a partir da entrada dos parâmetros de configuração e taxa de requisições esperada para o sistema. Os modelos estocásticos propostos também foram integrados com o algoritmo de otimização GRASP, com objetivo de encontrar as configurações que devem ser adotadas na nuvem para cumprir o SLA e minimizar o custo de manter o sistema. Os estudos de caso demonstram que a combinação dos modelos com mecanismos de otimização é útil para orientar os administradores nas escolhas dos valores dos parâmetros de configuração para implantar e ajustar sistemas, respeitando os requisitos de desempenho e minimizando o custo. A aplicação dessa abordagem também permitiu identificar o comportamento do custo de um sistema em relação ao SLA, em um dos estudos de caso apresentados, a redução de 30 para 15 segundos no tempo de resposta mínimo representou um aumento de 299% no custo, já uma redução de 45 para 30 segundos apenas um aumento de 6%. Este comportamento é especialmente útil na negociação de novos SLAs. / Video traffic occupies most of the volume of transmitted data over the Internet, mainly because of the ability of users to record and share their content. However, there is a high heterogeneity of devices, software, and network for viewing these media, requiring these videos to be transcoded to formats compatible with most video viewers. Transcoding videos is a computationally expensive and highly variable demand activity so that it can benefit from the distributed and elastic ability of cloud computing. Although, identifying a configuration of the automatic elastic mechanisms (auto-scaling), which meets the minimum performance requirements required by the SLA at the lowest possible cost is not a simple task. It needs adjusting several parameters, such as the time to create and remove VMs, the type of VM that will be added, taking into account the transcoding and instantiation time of each type. Besides, in public infrastructures, contracts with the cloud provider may incur different costs for the same type of hired VM, where the appropriate option is related to auto-scaling and expected workload. In private cloud infrastructures, configuration complexity will also bring aspects of the proper dynamic dimensioning of the physical infrastructure to reduce electrical consumption while complying with the SLA. To assist in the choice of these parameters, this dissertation proposes Stochastic Petri Nets models to compute the throughput, the mean response time, and the cost in public clouds and electrical consumption in private clouds. These metrics are evaluated from the input of configuration parameters and requisition rate expected for the system. The proposed stochastic models were also integrated with the GRASP optimization algorithm, in order to find the configurations that should be adopted in the cloud to comply with the SLA and minimize the cost of owning the system. Case studies demonstrate that the combination of models with optimization mechanisms is useful to guide administrators in choosing the values of configuration parameters to deploy and tune systems while respecting performance requirements and minimizing cost. The application of this approach also allowed to identify the behavior of the cost of a system in relation to the SLA, in one of the presented case studies, the reduction of 30 to 15 seconds in the minimum response time represented a 299% increase in cost, while a reduction of 45 to 30 seconds only an increase of 6%. This behavior is especially useful when negotiating new SLAs.
|
18 |
Planejamento de infraestruturas de mobile cloud computing baseado em modelos estocásticosARAUJO, Jean Carlos Teixeira de 09 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T20:25:39Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Jean Carlos Teixeira de Araújo.pdf: 4792279 bytes, checksum: 0b4e08b802f03c64d5709a4e978e8af7 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T21:25:04Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Jean Carlos Teixeira de Araújo.pdf: 4792279 bytes, checksum: 0b4e08b802f03c64d5709a4e978e8af7 (MD5) / Made available in DSpace on 2018-07-26T21:25:04Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Jean Carlos Teixeira de Araújo.pdf: 4792279 bytes, checksum: 0b4e08b802f03c64d5709a4e978e8af7 (MD5)
Previous issue date: 2017-03-09 / CAPES / A academia e a indústria têm demonstrado que os recursos limitados dos dispositivos móveis podem ser complementados por recursos virtualizados em uma infraestrutura de computação em nuvem, surgindo assim um novo paradigma chamado mobile cloud computing (MCC). Embora esta solução expanda substancialmente a capacidade de tais dispositivos, também impõe uma dependência em tempo integral de conexão de Internet sem fio. Além disso, problemas como o esgotamento da carga da bateria, falhas de dispositivos móveis, instabilidade das redes sem fio, bugs de aplicativos e interrupções no serviço da nuvem podem representar obstáculos na expansão da mobile cloud computing, uma vez que tais problemas podem resultar no mal fornecimento do serviço da MCC. Modelos estocásticos hierárquicos são adequados para descrever de forma concisa o funcionamento de uma infraestrutura de MCC, lidando com o grande número de componentes que constituem esse tipo de sistema. Sendo um paradigma tão recente, poucos esforços foram feitos para identificar os impactos destes tipos de falhas sobre o funcionamento do sistema. Desta forma, esta tese provê modelos estocásticos para o planejamento de infraestruturas de mobile cloud computing. Esta abordagem foca especialmente no impacto de alguns fatores sobre a disponibilidade e confiabilidade do sistema, tais como: arquiteturas distintas de mobile cloud computing; características de protocolos de comunicação; componentes críticos dos dispositivos móveis, como a bateria; e o comportamento dos softwares envolvidos. A avaliação adotada é baseada em modelos heterogêneos hierárquicos e se concentra em métricas como a disponibilidade em estado estacionário, confiabilidade, downtime, probabilidade de conectividade, tempo médio de vida da bateria, e os custos de implantação e provisionamento da infraestrutura de nuvem. Os experimentos realizados fornecem subsídios aos parâmetros de entrada dos modelos aqui propostos. Além disso, ferramentas de software foram desenvolvidas para auxiliar na condução de tais experimentos. Os modelos propostos permitem realizar comparações entre diferentes formas de implantação de mobile cloud computing, assim como planejar ajustes na infraestrutura de hardware e software com o intuito de garantir níveis de serviço satisfatórios. / Academy and industry have been showing that the limited resources of mobile devices might be supplemented by virtualized resources in a cloud infrastructure, emerging a new paradigm called mobile cloud computing (MCC). While this solution substantially expands the abilities of such gadgets, it also enforces a full-time dependency on wireless Internet connection. Furthermore, issues such as battery charge depletion, mobile device faults, wireless network instability, application bugs, and outages in the cloud service may represent obstacles in expansion of the mobile cloud computing, since such issues may result in poor provision of the MCC service. Hierarchical stochastic models are suitable for a concise description of the operation of an MCC infrastructure, dealing with the large number of components that constitute this type of system. Being such a recent paradigm, few efforts were conduced to identify the impact of those types of faults on the system operation. In this way, this thesis provides stochastic models to planning of mobile cloud computing infrastructures. This approach focus specially on the impact of some factors on system availability and reliability, such as: different architectures of mobile cloud computing; characteristics of communication protocols; critical components of mobile devices, such as the battery; and the behavior of the software involved. Our evaluation is based on hierarchical heterogeneous models and focuses on measures such as steady-state availability, reliability, downtime, connectivity probability, average battery lifetime, and costs of implementation and provisioning of the cloud infrastructure. We performed experiments to provide subsidies to the input parameters of the proposed models here. In addition, software tools have been developed to aid in the conduct of such experiments. The proposed models allow comparisons between different forms of mobile cloud computing deployment, as well as planning adjustments to the hardware and software infrastructure to ensure satisfactory service levels.
|
19 |
Análise de sensibilidade aplicada à identificação de pontos que requerem melhoria na disponibilidade em infraestrura de CloudMELO, Rosangela Maria de 08 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T19:54:10Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Rosangela Maria de Melo.pdf: 1948795 bytes, checksum: cc0a3eec0b5971404b3994e89c0b7354 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T21:53:02Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Rosangela Maria de Melo.pdf: 1948795 bytes, checksum: cc0a3eec0b5971404b3994e89c0b7354 (MD5) / Made available in DSpace on 2018-07-26T21:53:02Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Rosangela Maria de Melo.pdf: 1948795 bytes, checksum: cc0a3eec0b5971404b3994e89c0b7354 (MD5)
Previous issue date: 2017-03-08 / Durante vários anos, os sistemas de computação em nuvem vem gerando um debate e interesse dentro das corporações de TI. Estes ambientes de computação em nuvem fornecem sistemas de armazenamento e processamento que são adaptáveis, eficientes e simples, permitindo assim modificações na infraestrutura de forma rápida, de acordo com a variação da carga de trabalho. Organizações de qualquer tamanho e tipo estão migrando para nuvem suportando soluções baseadas na Web. Devido às vantagens do modelo de pay-per-use e fatores de escalabilidade, serviços como o de Streaming de Vídeo e o MBaaS OpenMobester, dependem fortemente dessas infraestruturas de nuvem para oferecer uma grande variedade de conteúdos de multimídia e armazenamento de dados dos dispositivos móveis. Recentes eventos de falha em serviços de Streaming de Vídeo, demonstraram a importância fundamental da manutenção da alta disponibilidade em infraestruturas de computação em nuvem. Um dos métodos utilizados para identificar as tendências de ocorrências de falhas em sistemas computacionais, ocorre por meio da aplicação de estratégias de análise de sensibilidade. Cada estratégia de análise de sensibilidade pode obter um ranking diferenciado, desse modo sugerimos a utilização para avaliação dos sistemas computacionais, de mais de uma estratégia, com o objetivo de obtermos alta confiabilidade desses sistemas. Esta tese propõe uma metodologia aplicada no domínio dos sistemas computacionais, em particular na computação em nuvem, combinando a proposição e adaptação de estratégias de análise de sensibilidade com métodos já existentes, realizando uma comparação entre elas, com o propósito de estabelecer um índice de sensibilidade a partir da atribuição de pesos, para as posições que os parâmetros ocupam em cada estratégia. Pretende-se obter um ranking coerente e com a minimização das discrepâncias entre as estratégias, visando identificar os principais pontos que requerem melhoria na disponibilidade desses ambientes. A metodologia baseia-se na utilização de estratégias de análise de sensibilidade, conjuntamente com a modelagem hierárquica, e com os modelos para representação de mecanismos de redundância visando atuar na performance do sistema. A metodologia foi testada ao longo de estudos de casos distintos, no serviço de Streaming de Vídeo e no serviço MBaaS OpenMobester, desde o nível de infraestrutura básica até a infraestrustrura com redundância. Os estudos de casos mostram que a abordagem proposta é útil para guiar os provedores de serviço de nuvem no processo de tomada de decisões, especialmente para ajustes eventuais e melhorias arquiteturais no serviço. / For several years, cloud computing systems have been generating debate and interest within IT corporations. These cloud computing environments provide storage and processing systems that are adaptable, efficient and simple, thus allowing for rapid infrastructure modifications to be made, according to constantly changing workloads. Organizations of any size and type are migrating to the cloud supporting solutions based on Web. Due to the benefits of the pay-per-use model and scalability factors, services such as Video Streaming and MBaaS OpenMobester rely heavily on these cloud infrastructures to deliver a wide variety of multimedia content and Data storage of mobile devices. Recent failure events in video streaming services have demonstrated the critical importance of maintaining high availability in cloud computing infrastructures. One of the methods used to identify the trends of occurrences of failures in computational systems, occurs through the application of strategies of sensitivity analysis. Each strategy of sensitivity analysis can obtain a differentiated ranking, thus it is suggested that we use to evaluate the computational systems, more than one strategy, with the objective of obtaining high reliability of these systems. This thesis proposes a methodology applied in the field of computational systems, in particular in cloud computing, combining the proposition and adaptation of strategies of sensitivity analysis with existing methods, making a comparison between them, with the purpose of establishing a Index of sensitivity from the attribution of weights, the positions that the parameters occupy in each strategies. The aim is to achieve a coherent ranking and to minimize the discrepancies between the strategies, aiming to identify the main points that require improvement in the availability of these environments. The methodology is based on the use of sensitivity analysis strategies, together with the hierarchical modeling, and with the models to represent redundancy mechanisms aiming to perform in the performance of the system. The methodology has been tested over different case studies in the video streaming service and the MBaaS OpenMobester service, from the basic infrastructure to the redundant infrastructures. The case studies show that the proposed approach is useful for guiding cloud service providers in the decision-making process, especially for eventual adjustments and architectural improvements in the service.
|
20 |
Arquitetura SDNCLOUD: proposta, parametrização de elasticidade e balanceamento de carga em nuvem computacional definida por softwareÁVILA, Igor Meneguitte 24 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T19:03:12Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Igor Meneguitte Ávila.pdf: 3885692 bytes, checksum: a62ad8f0c957bd3f0c70afa061fe183b (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T22:40:08Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Igor Meneguitte Ávila.pdf: 3885692 bytes, checksum: a62ad8f0c957bd3f0c70afa061fe183b (MD5) / Made available in DSpace on 2018-07-26T22:40:08Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Igor Meneguitte Ávila.pdf: 3885692 bytes, checksum: a62ad8f0c957bd3f0c70afa061fe183b (MD5)
Previous issue date: 2017-02-24 / Em instituições federais de ensino, onde há sérias limitações orçamentárias e de infraestrutura com poucos recursos computacionais, a Computação em Nuvem (CN) surge como uma solução para a hospedagem de Ambientes Virtuais de Aprendizagem (AVAs). A elasticidade sob demanda e o balanceamento de carga permitem o aproveitamento do parque tecnológico, reutilizando de maneira distribuída os equipamentos descontinuados e com poucos recursos computacionais. CN é extremamente flexível quanto à virtualização de sua infraestrutura de hardware com o uso de hipervisores e máquinas virtuais, porém as redes que conectam os recursos de processamento e armazenamento da CN, continuam rígidas e com pouca flexibilidade. O processo de configuração e atualização da rede é realizado individualmente, de maneira estática e pouco eficiente. Diante da ossificação das redes surge o paradigma de Redes Definidas por Software Software Defined Networking (SDN), que tem como objetivo tornar as redes dinâmicas e programáveis. O controlador SDN tem papel centralizador, sendo o responsável por coordenar as ações dos elementos de rede, alavancar a programação de redes e realizar gerenciamento de conectividade. A integração com SDN torna os ambientes de CN mais flexíveis, estendendo-os e permitindo novas soluções. Este trabalho propõe SDNCloud, uma arquitetura que integra SDN à CN com suporte à elasticidade e balanceamento de carga para um ambiente virtual de aprendizagem. O testbed implementado utiliza controlador SDN OpenDayLight integrado, fazendo com que os switches virtuais do OpenStack sejam gerenciados por controlador OpenFlow. Para avaliar a proposta foi utilizado modelo de tráfego baseado em logs de transações e banco de dados da operação de um ambiente real (Moodle) de ensino à distância do Campus Muriaé do Instituto Federal do Sudeste de Minas Gerais. Após a caracterização e a modelagem foi encontrado, via análise de aderência, a distribuição generalização de pareto para os intervalos entre as requisições e extraída as informações para parametrização da elasticidade. Os resultados mostram a importância na escolha apropriada das métricas para o processo de elasticidade e para medir sua qualidade. Utilização de Central Processing Unit (CPU), utilização de memória, bytes de entrada e bytes de saída foram métricas testadas para o processo de elasticidade, enquanto tempo de resposta médio e taxa de perda de requisição para dimensionar a qualidade da mesma. Além das métricas, os resultados demonstram a relevância do trade-off entre os limiares de elasticidade positiva, negativa e intervalo entre as elasticidades para a qualidade da elasticidade. Nos resultados, ainda, foram comparados o modelo tradicional de CN com SDNCloud, revelando que a utilização da arquitetura proposta melhora o desempenho dos switches virtuais. / In federal educational institutions, where there are serious budgetary constraints and infrastructure with few computational resources, Cloud Computing (CC) emerges as a solution for hosting Virtual Learning Environments (VLE). The elasticity of demand and the load balancing allow the use of the technological park, reusing in a distributed way the discontinued equipment and with few computational resources. CC is extremely flexible in terms of virtualizing its hardware infrastructure with the use of hypervisors and virtual machines, however the networks which connect processing resources and CC’s storage remain rigid and with little flexibility. The process of setting up and updating the network is done individually, in a static and little efficient way. Faced the network ossification, the Software Defined Networking (SDN) paradigm emerges, which aims to become the networks more dynamic and programmable. The SDN controller has a centralizing role, being responsible for coordinating the actions of network elements, leveraging network programming and performing connectivity management. Integration with SDN makes CC environments more flexible, extending them and enabling new solutions. This work proposes SDNCloud, an architecture which integrates SDN to CC with elasticity support and load balancing, for a virtual learning environment. The implemented testbed uses integrated OpenDayLight SDN controller, making The OpenStack virtual switches being managed by OpenFlow controller. In order to evaluate the proposal, it was used traffic model based on transaction logs and database of the operation of a real environment (Moodle) of distance learning of Southeast Federal Institute of Minas Gerais - Campus Muriaé. After characterization and modeling, the pareto generalization distribution was found via adherence analysis for the intervals between the requisitions and extracted the information for parameterization of the elasticity. The results showed how is important to choose an appropriate metrics to the elasticity process and to measure its quality. The use of CPU, memory, input and output bytes were the metric tested for the elasticity process, in terms of time response rate and request lost tax to design the same quality. Besides the metrics, the results demonstrated the trade-off relevance between the thresholds of positive elasticity, negative and the interval between the “elasticities” to the elasticity quality. In the results, still, were compared the traditional approach of CC with the SDNCloud, revealing that the use of the architecture propose improve the performance of the virtual switches.
|
Page generated in 0.316 seconds