• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 263
  • 48
  • 14
  • 12
  • 10
  • 10
  • 10
  • 9
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 331
  • 331
  • 331
  • 211
  • 209
  • 52
  • 50
  • 49
  • 48
  • 43
  • 43
  • 42
  • 42
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Soluções para DBaaS com dados encriptados: mapeando arquiteturas

LIMA, Marcelo Ferreira de 11 August 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-04-07T12:42:11Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) MarceloLima-MestradoCIn-2015.pdf: 2673877 bytes, checksum: 7fed7c87bd80e3d1226642662bc3f739 (MD5) / Made available in DSpace on 2016-04-07T12:42:11Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) MarceloLima-MestradoCIn-2015.pdf: 2673877 bytes, checksum: 7fed7c87bd80e3d1226642662bc3f739 (MD5) Previous issue date: 2015-08-11 / Com a popularização crescente do modelo de computação em nuvem oferecendo serviços em cada uma das camadas de Software-as-a-Service (SaaS), Platform-asa- Service (PaaS) e Infrastructure-as-a-Service (IaaS), começaram a surgir provedores que disponibilizam o serviço específico de Database-as-a-Service (DBaaS), cuja ideia básica é disponibilizar bancos de dados na nuvem. Entretanto, a inviabilidade de execução de operações, consultas e alterações, sobre dados encriptados em serviços DBaaS é um fator que afasta os clientes da possibilidade de levar seus dados para a nuvem. Proprietários de dados e provedores de nuvem anseiam por sistemas criptográficos completamente homomórficos como uma solução. Mas não existe qualquer perspectiva a curto ou médio prazo de que estes sistemas possam ser computacionalmente viáveis. Atualmente pesquisas buscam construir soluções que utilizam sistemas criptográficos viáveis que possibilitem a execução de operações sobre dados encriptados no provedor de DBaaS. Um estudo, precursor e destacado, baseia sua solução em uma arquitetura Proxy, modelo que não é unanimidade para este tipo de solução. Esta pesquisa, baseada em mapeamento sistemático, busca iniciar uma discussão mais profunda sobre modelos de arquitetura para DBaaS e apresenta como principais contribuições: (i) um catálogo de estudos com propostas de soluções, organizado por modelo de arquitetura, (ii) a determinação de uma tendência na escolha de arquiteturas, considerando o estado da arte, (iii) uma investigação de um direcionamento concreto, apontando vantagens e desvantagens, com base nos estudos catalogados, sobre a adoção da arquitetura Proxy em soluções encriptadas de computação em nuvem para DBaaS e (iv) apontar uma lista consistente de questões em aberto acerca das soluções para banco de dados encriptados, com base em dados extraídos dos estudos catalogados. / With the growing popularity of cloud computing model, offering services in each of the layers of Software-as-a-Service (SaaS), Platform-as-a-Service (PaaS) and Infrastructure-as-a-Service (IaaS), began to emerge providers that provide the specific service Database-as-a-Service (DBaaS), whose basic idea is to provide databases in the cloud. However, the impossibility of executing operations, queries and changes on encrypted data in DBaaS services is a factor that keeps customers the possibility to bring your data to the cloud. Owners of data and cloud providers crave fully homomorphic cryptosystems as a solution. But there is no prospect in the short or medium term that these systems can be computationally feasible. Currently research seek to build solutions using viable cryptographic systems that allow the execution of operations on encrypted data on DBaaS provider. One study, precursor and highlighted, bases its solution on a Proxy architecture model, that is no unanimity for this type of solution. This research, based on systematic mapping, search start a deeper discussion of architectural models for DBaaS and presents as main contributions: (i) a catalog of studies with proposed solutions, organized by architectural model, (ii) the determination of a tendency in choosing architectures, considering the state of the art and (iii) an investigation of a concrete direction, pointing advantages and disadvantages, based on cataloged studies, on the adoption of Proxy architecture over cloud computing encrypted solutions to DBaaS and (iv) point to a consistent list of open questions about the solutions for encrypted database, based on data extracted from cataloged studies.
292

Abordagem dirigida a modelos para implantação automática de software em nuvem

Ribeiro Júnior, Franklin Magalhães 05 January 2015 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Cloud computing offers resources to reduce the computational costs in the institutions that uses hardware and software resources through virtualization, in addition the delivery of software as a service. There are mechanisms for automated software deployment in cloud providers, however it requires encoding or extensive knowledge for developer on the cloud provider specific technology, particularly the various requirements reconstruction, because cloud environments have their own software architectures. In this research was presented a model-based approach to automatic software deployment in the cloud environment. We presented a brief review of literature, with existing proposals for automated software deployment in cloud. In analyzed solutions, we found five that presents deployment mechanisms are script or programming language based, two proposals used manual mechanisms and two proposals applied the model-based approach to software deployment in the cloud, however still strongly linked to manual aspects and complex modeling, because it requires the developer to understand the cloud provider architecture. This research presents a new solution with detailed architecture, use cases, data flow and conceptual view of a model-based approach to automatic software deployment in the cloud. In this research was also conducted an experiment, where the solution presented positive impacts in maintainability, learn-ability and reduction of developer´s workload to deploy software services in the cloud, using UML deployment diagrams as input. / A computação em nuvem oferece recursos para reduzir os custos computacionais nas instituições que utilizam recursos de hardware e software através da virtualização, além da entrega de software como serviço. Existem mecanismos automáticos para implantação de software em provedores de nuvem, no entanto, demandam codificação ou requerem conhecimento aprofundado do desenvolvedor acerca da tecnologia específica do provedor de nuvem, sobretudo da reconstrução de vários requisitos, já que ambientes em nuvem possuem arquiteturas de software próprias. Nesta pesquisa foi apresentada uma abordagem baseada em modelos para implantação automática de software no ambiente em nuvem. Foi apresentada uma breve revisão da literatura sobre as propostas existentes para implantação automática de software na nuvem. Foram analisadas as propostas, onde cinco mecanismos de implantação baseiam-se em script ou linguagem de programação, duas propostas utilizaram em mecanismos manuais e duas propostas aplicaram uma abordagem baseada em modelos para implantação de software na nuvem, no entanto ainda fortemente ligadas a aspectos manuais e de modelagem complexa, uma vez que requer do desenvolvedor a compreensão da arquitetura do provedor de nuvem. Esta investigação apresenta uma nova solução com arquitetura detalhada, casos de uso, fluxo de dados e visão conceitual de uma abordagem dirigida a modelos para implantação de software automática na nuvem. Nesta pesquisa também foi realizado um experimento onde a solução apresentou impactos positivos em manutenibilidade, apreensibilidade e na redução na carga de trabalho do desenvolvedor para implantar serviços de software na nuvem por meio de diagramas de implantação UML como entrada.
293

Uma investigação sobre o processo migrátorio para a plataforma de computação em nuvem no Brasil

SILVA, Hilson Barbosa da 22 January 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-10-31T12:50:59Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) UMA INVESTIGAÇÃO SOBRE O PROCESSO MIGRATÓRIO PARA A PLATAFORMA DE COMPUTAÇÃO EM NUVEM NO BRASIL.pdf: 2425763 bytes, checksum: 20f3a5ca31db4bf99450bc873fe1b9d3 (MD5) / Made available in DSpace on 2016-10-31T12:50:59Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) UMA INVESTIGAÇÃO SOBRE O PROCESSO MIGRATÓRIO PARA A PLATAFORMA DE COMPUTAÇÃO EM NUVEM NO BRASIL.pdf: 2425763 bytes, checksum: 20f3a5ca31db4bf99450bc873fe1b9d3 (MD5) Previous issue date: 2016-01-22 / Contexto: A Computação em Nuvem apresenta um novo conceito de terceirização na contratação de serviço, esses avanços vêm sendo vistos como uma nova possibilidade para a redução nos volumes dos investimentos em TIC, proporcionados pela maior flexibilidade nos serviços ofertados sob demanda, tendo na redução de custo seu apelo mais forte. Mesmo sabendo dos benefícios do investimento em nuvem, presume-se que algumas empresas são receosas na contratação de serviços e/ou infraestruturas de TIC da computação em nuvem. Essa realidade, apresentada na pesquisa da Tech Supply, especializada em Inteligência Tecnológica para Auditoria e Integridade Corporativa e TI, segundo a qual 43% das empresas brasileiras não se sentem seguras para migrar os seus sistemas para nuvem. Objetivo: Nesse contexto geral, apresentam-se dois objetivos: investigar os indícios pelos quais algumas empresas podem estar propensas a contratarem ou não os serviços de Computação em Nuvem no Brasil. Adicionalmente, identificar i e e j de sua satisfação ou insatisfação em relação aos serviços de nuvem contratados no Brasil. Método: Para este estudo, definiu-se o tipo de pesquisa realizada como exploratória de natureza descritiva e explicativa, com ênfase na abordagem quantitativa. Quanto ao procedimento técnico, aplicou-se um levantamento através de um Survey, utilizando-se o instrumento de um questionário com 14 (quatorze) itens. Referente à coleta dessas informações, disponibilizou-se através de um formulário WEB (Online). E, por fim, quanto ao tipo de análise aplicada aos resultados, utilizou-se o aprendizado automático para extração dos resultados. Com o uso de aprendizado automático, faz-se necessário o estabelecimento de algumas definições em relação aos métodos de aprendizagem a serem aplicados, como tarefa de classificação por árvore de decisão com algoritmo de classificação J48, método de aprendizagem por indução. Para o modo de treinamento, aplicou-se o não incremental. Na hierarquia do aprendizado, utilizou-se o aprendizado supervisionado e para o paradigma de aprendizado, usou-se o simbólico. Definiram-se também as variáveis classificadoras para cada linha de investigação: “SIM” en c n “NÃO”, para as empresas que não usam; e “SATISFEITO” ou “INSATISFEITO” c n e , para as empresas que já usam. Resultado: Descobriu-se que as características das empresas que estão propensas a contratar a nuvem são garantia de entrega e qualidade dos serviços. Em contrapartida, as empresas que não estão propensas a contratar os serviços da nuvem têm como características o baixo faturamento e poucos colaboradores associados à confiabilidade e segurança da informação. Para a outra linha de investigação, em relação à satisfação, os motivos são o preço da nuvem associado aos modelos de Infraestrutura e Software como Serviço. Por outro lado, para as empresas que estão insatisfeitas, os motivos são segurança da informação, disponibilidade dos serviços associados à redução de custo. / Context: Cloud computing presents a new concept of outsourcing at hiring services, these advances have been seen as a new possibility for reduction at volume of investments in ICT, provided for greater flexibility in offered on-demand services, with cost reduction its strongest appeal. Even though the c d in e en benefi i ‟ assumed that some companies are afraid for contracting services and / or cloud c ing ICT inf c e. Thi e i y e en ed in he Tech S y‟ e e ch specializing in Technology Intelligence for Audit and Corporate Integrity and IT, according to which 43% of Brazilian companies do not feel safe to migrate their cloud systems. Objective: In general, there are two objectives: to investigate the evidence by which some companies may be prone to hire or not the Computing Cloud services in Brazil. In addition, identify the reasons for those that already use their satisfaction or dissatisfaction with the cloud services contracted in Brazil. Method: For this study, the type of research conducted was defined as exploratory of descriptive and explanatory nature, with an emphasis on quantitative approach. As for the technical procedure, was applied a survey through a Survey, using the instrument of a questionnaire with 14 (fourteen) items. Concerning the collection of this information, it made available through a web form (Online). Finally, the type of analysis applied to the results, we used the automatic learning for extracting results. With the use of automatic learning, it is necessary to establish some definitions regarding learning methods to applied as a classification task by decision tree classification algorithm J48¹, learning method for induction. For the training mode, applied to the non-incremental. In the learning hierarchy, we used supervised learning and the learning paradigm, was used the symbolic. The classification variables was defined for each research line: "YES" likely to hire or "NO" for companies that do not use; and "SATISFIED" or "DISSATISFIED" with the cloud, for companies that already use. Result: It found that the characteristics of companies that are likely to hire the cloud are delivery assurance and service quality. Conversely, companies that are not likely to hire cloud services characterized by low turnover and few employees associated with the reliability and information security. For another line of research in relation to satisfaction, the reasons are the price associated with cloud models Infrastructure and Software as a Service. On the other hand, for companies that are dissatisfied, the reasons are information security, availability of services associated with cost reduction.
294

A framework for availability, performance and survivability evaluation of disaster tolerant cloud computing systems

SILVA, Bruno 26 February 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-10-31T13:02:48Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Bruno_Silva_Doutorado_Ciencia_da_Computacao_2016.pdf: 7350049 bytes, checksum: f6bc77a5446b293d932df5ac54dad560 (MD5) / Made available in DSpace on 2016-10-31T13:02:48Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Bruno_Silva_Doutorado_Ciencia_da_Computacao_2016.pdf: 7350049 bytes, checksum: f6bc77a5446b293d932df5ac54dad560 (MD5) Previous issue date: 2016-02-26 / CNPq / Cloud Computing Systems (CCSs) allow the utilization of application services for users around the world. An important challenge for CCS providers is to supply a high-quality service even when there are failures, overloads, and disasters. A Service Level Agreement (SLA) is often established between providers and clients to define the availability, performance and security requirements of such services. Fines may be imposed on providers if SLA’s quality parameters are not met. A widely adopted strategy to increase CCS availability and mitigate the effects of disasters corresponds to the utilization of redundant subsystems and the adoption of geographically distributed data centers. Considering this approach, services of affected data centers can be transferred to operational data centers of the same CCS. However, the data center synchronization time increases with the distance, which may affect system performance. Additionally, resources over-provisioning may affect the service profitability, given the high costs of redundant subsystems. Therefore, an assessment that include performance, availability, possibility of disasters and data center allocation is of utmost importance for CCS projects. This work presents a framework for geographically distributed CCS evaluation that estimates metrics related to performance, availability and disaster recovery (man-made or natural disasters). The proposed framework is composed of an evaluation process, a set of models, evaluation tool, and fault injection tool. The evaluation process helps designers to represent CCS systems and obtain the desired metrics. This process adopts a formal hybrid modeling, which contemplates CCS high-level models, stochastic Petri nets (SPN) and reliability block diagrams (RBD) for representing and evaluating CCS subsystems. An evaluation tool is proposed (GeoClouds Modcs) to allow easy representation and evaluation of cloud computing systems. Finally, a fault injection tool for CCSs (Eucabomber 2.0) is presented to estimate availability metrics and validate the proposed models. Several case studies are presented and analyze survivability, performance and availability metrics considering multiple data center allocation scenarios for CCS systems. / Sistemas de Computação em Nuvem (SCNs) permitem a utilização de aplicações como serviços para usuários em todo o mundo. Um importante desafio para provedores de SCN corresponde ao fornecimento de serviços de qualidade mesmo na presença de eventuais falhas, sobrecargas e desastres. Geralmente, um acordo de nível de serviço (ANS) é estabelecido entre fornecedores e clientes para definição dos requisitos de disponibilidade, desempenho e segurança de tais serviços. Caso os parâmetros de qualidade definidos no ANS não sejam satisfeitos, multas podem ser aplicadas aos provedores. Nesse contexto, uma estratégia para aumentar a disponibilidade de SCNs e mitigar os efeitos de eventuais desastres consiste em utilizar subsistemas redundantes e adotar de centros de dados distribuídos geograficamente. Considerando-se esta abordagem, os serviços de centros de dados afetados podem ser transferidos para outros centros de dados do mesmo SCN. Contudo, o tempo de sincronização entre os diferentes centros de dados aumenta com a distância entre os mesmos, o que pode afetar a performance do sistema. Além disso, o provisionamento excessivo de recursos pode afetar a rentabilidade do serviço, dado o alto custo dos subsistemas redundantes. Portanto, uma avaliação que contemple desempenho, disponibilidade, possibilidade de desastres e alocação de centro de dados é de fundamental importância para o projeto de SCNs. Este trabalho apresenta um framework para avaliação de SCNs distribuídos geograficamente que permite a estimativa de métricas de desempenho, disponibilidade e capacidade de recuperação de desastres (naturais ou causados pelo homem). O framework é composto de um processo de avaliação, conjunto de modelos, ferramenta de avaliação e ferramenta de injeção de falhas. O processo de avaliação apresentado pode auxiliar projetistas de SCNs desde a representação do sistem de computação em nuvem até a obtenção das métricas de interesse. Este processo utiliza uma modelagem formal híbrida, que contempla modelos de SCN de alto nível, redes de Petri estocásticas (RPEs) e diagramas de bloco de confiabilidade (DBCs) para representação e avaliação de SCNs e seus subsistemas. Uma ferramenta de avaliação é proposta (GeoClouds Modcs) que permite fácil representação e avaliação de sistemas de computação em nuvem. Por fim, uma ferramenta de injeção de falhas em SCN (Eucabomber 2.0) é apresentada para estimar métricas de disponibilidade e validar os modelos propostos. Vários estudos de caso são apresentados e estes analisam a capacidade de recuperação de desastres, desempenho e disponibilidade de SCNs distribuídos geograficamente.
295

Em direção a uma proposta de utilização da computação em nuvem na administração pública federal: um estudo de caso no Instituto Federal Goiano

VIROTE, Alfredo Pupak Pereira 04 November 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-04-24T14:49:12Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) MPROF-ALFREDO-PUPAK.pdf: 1479779 bytes, checksum: f0f54ebae32533d590436f1c307fd540 (MD5) / Made available in DSpace on 2017-04-24T14:49:12Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) MPROF-ALFREDO-PUPAK.pdf: 1479779 bytes, checksum: f0f54ebae32533d590436f1c307fd540 (MD5) Previous issue date: 2016-11-04 / Atualmente, a Administração Pública Federal (APF) passa por uma constante modernização na forma de prestar os serviços públicos à população em geral, e essa modernização vem acompanhada de uma crescente demanda por recursos de Tecnologia da Informação (TI). O Decreto n° 8.539, de 8 de outubro de 2015, tem como principal objetivo promover a utilização de meios eletrônicos para a realização dos processos administrativos com segurança, transparência e economicidade, e também para facilitar o acesso do cidadão às instâncias administrativas. Entretanto, o prazo para implantação do sistema de Processo Eletrônico Nacional (PEN) é de apenas dois anos a partir da data do Decreto, e nem todos os órgãos da APF estão preparados para disponibilizar a infraestrutura de TI adequada para implantar o sistema em tempo hábil. Esta dissertação apresenta um método baseado na opinião de especialistas em TI com o objetivo de identificar as principais dificuldades enfrentadas pelos Gestores de TI em relação a Gestão de Infraestrutura de TI e na aquisição de novas de soluções de TI para atender ao sistema PEN. Como solução para este problema será apresentada uma proposta contendo o Catálogo de Boas Práticas a serem seguidos para adoção da Computação em Nuvem na APF. Na pesquisa foi constatado que as principais dificuldades dos Gestores de TI estão relacionadas com o processo de contratação burocrático exigido pela Instrução Normativa n° 4 de 2014 e com a lei n° 8.666/93 de licitações e contratos. O Catálogo de Boas Práticas contém o passo-a-passo com as orientações e recomendações a serem seguidas pelos Gestores de TI na contratação de serviços de Computação em Nuvem na APF, abrangendo desde a parte de governança, segurança e bilhetagem, até a forma de monitoramento e gerenciamento dos recursos computacionais em nuvem. / Currently, the Federal Public Administration (APF) goes through a constant modernization in order to provide public services to the population in general, and this modernization has been accompanied by an increasing demand for resources of Information Technology (TI). The Decree n° 8.539, of October 8, 2015, aims to promote the use of electronic means to the realization of administrative processes with security, transparency and economy, and also to facilitate the access of citizens to administrative instances. However, the deadline to the implantation of the System of National Electronic Process (PEN) is only two years from the date of the Decree, and not all organs of APF are prepared to provide the appropriate IT infrastructure to deploy the system in a timely manner. This dissertation presents a method based on the opinion of IT experts in order to identify the main difficulties faced by IT managers in relation to IT Infrastructure Management and the acquisition of new IT solutions to meet the PEN system. As a solution to this problem it is gonna be presented a proposal containing the Catalog of Best Practices to be followed for the adoption of Cloud Computing in APF. In the research it was found that the main difficulties of IT managers are related to the proccess of bureaucratic hiring required by Normative Instruction n° 4, 2014 and the Law n° 8.666/93, of bids and contracts. The Catalog of Best Practices contains the step-by-step with the orientations and recommendations to be followed by IT managers in hiring services of Cloud Computing in APF, covering from the part of Governance, Security and Ticketing until the form of monitoring and management of Cloud Computing Resources.
296

Infraestrutura para operações de Offloading computacional em ambiente integrado Cloudlet-SDN com suporte a mobilidade

FRANÇA, Adriano Henrique de Melo 29 August 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-04-25T12:03:54Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao_AdrianoHenrique.pdf: 1956295 bytes, checksum: 38ce5d73db0d44416c8653e58120f11c (MD5) / Made available in DSpace on 2017-04-25T12:03:55Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao_AdrianoHenrique.pdf: 1956295 bytes, checksum: 38ce5d73db0d44416c8653e58120f11c (MD5) Previous issue date: 2016-08-29 / Apesar da grande evolução tecnológica nos hardwares dos dispositivos móveis e nas redes sem fio, ainda existem grandes limitações nesses dispositivos em termos de processamento, capacidade de armazenamento e autonomia de energia, quando comparados aos desktops e servidores. O paradigma de Computação em Nuvem Móvel (MCC – Mobile Cloud Computing) permite estender os recursos computacionais dos dispositivos móveis através da utilização das técnicas de offloading computacional possibilitando um melhor desempenho as aplicações e uma redução no consumo das baterias dos dispositivos. Entretanto, a técnica de offloading nem sempre traz benefícios para o dispositivo móvel em situações de constante mobilidade do usuário, já que cada mudança de rede requer que o processo de offloading seja refeito. Esta dissertação propõe uma solução para otimizar o consumo de energia e o tempo de resposta durante as operações de offloading computacional quando o dispositivo muda de ponto de acesso. A proposta considera um esquema de gerenciamento de mobilidade baseado em Software Defined Networking (SDN) e técnica de caching remoto, que permite ao usuário receber o resultado do offloading no próximo acesso à rede, mesmo que esse fique desconectado por um longo período. A solução foi implementada em um testbed WiFi, com acesso ao ambiente MCC utilizando cloudlet baseada na plataforma OpenStack e integrada ao controlador SDN OpenDaylight. O consumo de energia obtido pela proposta que utiliza SDN/OpenFlow para o gerenciamento de mobilidade chegou a ser 11,33 vezes menor e a velocidade de processamento foi 3,23 vezes maior que do ambiente tradicional. O sistema de caching remoto, apesar de se mostrar útil em relação à rápida entrega dos resultados já processados, elevou consideravelmente o consumo de energia da bateria. A técnica de caching remoto é indicada para os casos nos quais a aplicação envia à cloudlet um grande volume de dados para ser processado e o nível da bateria do dispositivo encontra-se em estado não crítico ou quando o usuário enfrenta um longo período sem comunicação com a cloudlet. / Although the great technological evolution in the mobile devices hardware and wireless networks, remains significant limitations of these devices regarding processing, storage, and energy, when compared to desktops and servers. The paradigm of Mobile Cloud Computing (MCC) allows to extend the computational resources of the mobile devices through the use of computational offloading techniques, achieving a better performance on the part of the applications and a reduction in the battery consumption of the devices. The offloading technique does not always bring benefits to a mobile device in situations of high mobility since each network change requires the execution of the offloading process. This dissertation proposes a solution to optimize energy consumption and response times during the computational offloading operations when the device change of access points (AP). To this end, the proposal considers for such, a mobility management scheme based on SDN (Software Defined Networking) and a remote caching technique, that allows the user to receive the result from offloading in the next AP, even if he stays disconnected for an extended period. The solution was implemented in one Wi-Fi testbed, with access to the MCC environment using cloudlet based on the OpenStack platform and integrated with the OpenDaylight SDN controller. The achieved reduction of energy consumption for the mobility management proposal arrived to be 11.33 times lower, and the processing speed was 3.23 times bigger that of the traditional environment. The remote caching system, although useful in fast delivering the already processed results, considerably raised the battery energy consumption. Thus, the applicability of remote caching limits it to the cases where the application sends to the cloudlet an enormous volume of data to be processed and the battery level of the device is not critical or when the user faces an extended period without communication with the cloudlet.
297

Identification of Availability and Performance Bottlenecks in Cloud Computing Systems: an approach based on hierarchical models and sensitivity analysis.

MATOS JÚNIOR, Rubens de Souza 01 March 2016 (has links)
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2017-05-04T17:58:30Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese_rubens_digital_biblioteca_08092016.pdf: 4506490 bytes, checksum: 251226257a6b659a6ae047e659147a8a (MD5) / Made available in DSpace on 2017-05-04T17:58:30Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese_rubens_digital_biblioteca_08092016.pdf: 4506490 bytes, checksum: 251226257a6b659a6ae047e659147a8a (MD5) Previous issue date: 2016-03-01 / CAPES / Cloud computing paradigm is able to reduce costs of acquisition and maintenance of computer systems, and enables the balanced management of resources according to the demand. Hierarchical and composite analytical models are suitable for describing performance and dependability of cloud computing systems in a concise manner, dealing with the huge number of components which constitute such kind of system. That approach uses distinct sub-models for each system level and the measures obtained in each sub-model are integrated to compute the measures for the whole system. Identification of bottlenecks in hierarchical models might be difficult yet, due to the large number of parameters and their distribution among distinct modeling levels and formalisms. This thesis proposes methods for evaluation and detection of bottlenecks of cloud computing systems. The methodology is based on hierarchical modeling and parametric sensitivity analysis techniques tailored for such a scenario. This research introduces methods to build unified sensitivity rankings when distinct modeling formalisms are combined. These methods are embedded in the Mercury software tool, providing an automated sensitivity analysis framework for supporting the process. Distinct case studies helped in testing the methodology, encompassing hardware and software aspects of cloud systems, from basic infrastructure level to applications that are hosted in private clouds. The case studies showed that the proposed approach is helpful for guiding cloud systems designers and administrators in the decision-making process, especially for tune-up and architectural improvements. It is possible to employ the methodology through an optimization algorithm proposed here, called Sensitive GRASP. This algorithm aims at optimizing performance and dependability of computing systems that cannot stand the exploration of all architectural and configuration possibilities to find the best quality of service. This is especially useful for cloud-hosted services and their complex underlying infrastructures. / O paradigma de computação em nuvem é capaz de reduzir os custos de aquisição e manutenção de sistemas computacionais e permitir uma gestão equilibrada dos recursos de acordo com a demanda. Modelos analíticos hierárquicos e compostos são adequados para descrever de forma concisa o desempenho e a confiabilidade de sistemas de computação em nuvem, lidando com o grande número de componentes que constituem esse tipo de sistema. Esta abordagem usa sub-modelos distintos para cada nível do sistema e as medidas obtidas em cada sub-modelo são usadas para calcular as métricas desejadas para o sistema como um todo. A identificação de gargalos em modelos hierárquicos pode ser difícil, no entanto, devido ao grande número de parâmetros e sua distribuição entre os distintos formalismos e níveis de modelagem. Esta tese propõe métodos para a avaliação e detecção de gargalos de sistemas de computação em nuvem. A abordagem baseia-se na modelagem hierárquica e técnicas de análise de sensibilidade paramétrica adaptadas para tal cenário. Esta pesquisa apresenta métodos para construir rankings unificados de sensibilidade quando formalismos de modelagem distintos são combinados. Estes métodos são incorporados no software Mercury, fornecendo uma estrutura automatizada de apoio ao processo. Uma metodologia de suporte a essa abordagem foi proposta e testada ao longo de estudos de casos distintos, abrangendo aspectos de hardware e software de sistemas IaaS (Infraestrutura como um serviço), desde o nível de infraestrutura básica até os aplicativos hospedados em nuvens privadas. Os estudos de caso mostraram que a abordagem proposta é útil para orientar os projetistas e administradores de infraestruturas de nuvem no processo de tomada de decisões, especialmente para ajustes eventuais e melhorias arquiteturais. A metodologia também pode ser aplicada por meio de um algoritmo de otimização proposto aqui, chamado Sensitive GRASP. Este algoritmo tem o objetivo de otimizar o desempenho e a confiabilidade de sistemas em cenários onde não é possível explorar todas as possibilidades arquiteturais e de configuração para encontrar a melhor qualidade de serviço. Isto é especialmente útil para os serviços hospedados na nuvem e suas complexas
298

Cloudlets móveis : deslocamento de serviços para redução de latência

Rezende, Rodrigo de Ávila 29 August 2016 (has links)
Cloud Service have been usual to solve several computer issues, some companies like Amazon or Microsoft decide invest a big amount of money to sell computer resources as PaaA or IaaS. Subsequently, new devices, now portables, emerge as common and needs cloud computing to provide resources, creating a new structure known as mobile cloud computing. Even showing several models to its architecture in mobile cloud computing, natural behavior converge to total transparency to applications and users concerning to resource location, requiring that mobile devices maintains a permanent connection and an approach that needs a procces mirroring, knows as Cloudlets. These Cloudlets should provides required resources to guarantee a cofortable perception experience to users, giving an alternate option to latency problems, local processing and unavailable connections. To obtain this quality of perception, the Cloudlet should be closest to user as possible and follow him all the time during his travel. The usual model about Cloudlets consists on services running at virtual machine, that are costly what concerns moving and startup time. As alternative this work proposes a docker container based model, which will permit a smaller startup time less tranfer data about system between datacenters evolved. This alternative shows, at proposed scenarios, is possible reduce startup overhead and moving time, benefeting users perception and opening new perspectives to implement and optimizing. / Serviços em nuvem tem se tornado uma constante para solução dos problemas computacionais convencionais, algumas empresas a exemplo da Amazon ou Microsoft investiram em infraes-trutura para vender recursos como PaaS ou IaaS. Subsequentemente novos dispositivos, agora portáteis, tem se disseminado e precisaram adotar o modelo da nuvem de provimento de recursos criando dessa maneira a Mobile Cloud Computing. Mesmo com os vários modelos de arquitetura para essa nova nuvem para dispositivos móveis, a evolução aponta em total transparência para as aplicações e usuários quanto à localização dos recursos, demandando que os equipamentos móveis necessitem uma conexão permanente e uma abordagem de espelhamento de processos conhecidas como Cloudlets. As Cloudlets devem prover recursos exigidos que garantam uma experiência de percepção de uso confortável ao usuário, contornando problemas como alta latência, processamento local e indisponibilidade de conexão. Para a obtenção dessa qualidade de percepção, a Cloudlet deve estar o mais próximo possível do usuário e acompanhá-lo durante seu deslocamento. Este trabalho apresenta uma extensão ao simulador CloudSim que possibilita a análise do efeito do deslocamento das Cloudlets através da nuvem. Como alternativa, este trabalho discute a adoção de um modelo baseado em containeres e dockers que permita um tempo de subida menor e menos dados referentes ao ambiente para serem deslocados entre os centro de processamento das cloudlets. Para avaliação da alternativa foi desenvolvida uma extensão do CloudSim que permite a mobilidade dos serviços na nuvem. Como resultado a extensão demonstrou que, para os cenários propostos, é possível reduzir o tempo e o overhead necessários para os deslocamento, beneficiando a percepção do usuário e abrindo novas premissas para avaliação, implementação e otimização
299

Implantação eficiente de múltiplas coreografias de serviços em nuvens híbridas / Efficient deployment of multiple service choreographies in hybrid clouds

Gomes, Raphael de Aquino 06 April 2017 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2017-05-19T13:20:49Z No. of bitstreams: 2 Tese - Raphael de Aquino Gomes - 2017.pdf: 11643713 bytes, checksum: 23f27a75ccf239e427777100a4ef504f (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-05-19T13:24:29Z (GMT) No. of bitstreams: 2 Tese - Raphael de Aquino Gomes - 2017.pdf: 11643713 bytes, checksum: 23f27a75ccf239e427777100a4ef504f (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-05-19T13:24:29Z (GMT). No. of bitstreams: 2 Tese - Raphael de Aquino Gomes - 2017.pdf: 11643713 bytes, checksum: 23f27a75ccf239e427777100a4ef504f (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-04-06 / Fundação de Amparo à Pesquisa do Estado de Goiás - FAPEG / Conselho Nacional de Pesquisa e Desenvolvimento Científico e Tecnológico - CNPq / This thesis proposes a model-based approach to abstracting, simplifying, and automating cloud resource management decisions to deploy a set of service choreographies subject to non-functional constraints. Given a high-level description of service choreographies and related constraints, the approach autonomously performs resource estimation, selection, and allocation in a hybrid cloud environment with multiple cloud providers whilst decreases resource utilization costs and inter-services communication overhead. The main motivation for this work is because service choreographies are widely used for the development of solutions with complex needs, with service sharing among them. This scenario turns resource management a challenging task, mainly due to the different roles that a service assumes, the interference among constraints, and a large number of available resource types. This thesis also proposes an architecture that extends the approach with strategies to dynamic resource management to face constraint violations. This architecture was partially implemented in a prototype that was used in the proposed approach evaluation. / Esta tese apresenta uma abordagem baseada em modelos para abstrair, simplificar e automatizar as decisões de gerenciamento de recursos em nuvem ao implantar um conjunto de coreografias de serviços sujeitas a restrições não-funcionais. Dada uma descrição em alto nível das coreografias e das restrições relacionadas, a abordagem realiza de maneira autônoma a estimativa, a seleção e a alocação dos recursos em um ambiente de nuvem híbrida com múltiplos provedores, enquanto reduz os custos associados à utilização dos recursos e o atraso de comunicação entre os serviços. A principal motivação para o seu desenvolvimento se deve ao fato das coreografias de serviço serem amplamente utilizadas para o desenvolvimento de soluções com necessidades complexas, que geralmente compartilham serviços entre si. Isso faz com que o gerenciamento de recursos esteja sujeito a uma série de desafios, principalmente relacionados aos diferentes papéis que um serviço assume, à interferência que uma restrição causa em outra e à grande quantidade de tipos de recurso a serem considerados. A tese também propõe uma arquitetura que agrega à abordagem uma proposta para a automação das atividades relacionadas ao gerenciamento dinâmico de recursos como forma de reparar violações detectadas sobre as restrições. Esta arquitetura foi parcialmente implementada em um protótipo que foi utilizado na avaliação da abordagem.
300

SSACC -SERVIÇO DE SEGURANÇA PARA AUTENTICAÇÃO CIENTE DO CONTEXTO: para Dispositivos Móveis no Paradigma da Computação em Nuvem / SSAACC SECURITY FOR SOCIAL AUTHENTICATION AWARE OF CONTEXT: to Mobile Devices in Computing Paradigm Cloud

MORAES, Renato Ubaldo Moreira e 26 September 2014 (has links)
Made available in DSpace on 2016-08-17T14:52:38Z (GMT). No. of bitstreams: 1 Dissertacao_Renato Ubaldo Moreira e Moraes.pdf: 1378349 bytes, checksum: c8d418a48e72c6d94fdc632323dcf508 (MD5) Previous issue date: 2014-09-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Nowadays, there was a massive inclusion of smart mobile devices, known as smartphones, and with this accession, there s consequently a large increase in the consumption of information, especially from the internet. To support the great demand for information access, it s created a numerous devices to facilitate both access, the creation and the storage of such information, among the best known and disseminated currently is cloud computing. The feedback takes currently, an increasingly important and even critical for some entities, size and value turns out to be very desirable. Being often target capture and espionage attempts. To obtain data confidential information hackers use numerous devices, and more is used to scan networks. In other words can be described as scan "Scans notifications in computer networks, in order to identify which computers are active and which services are available for them. It is widely used by attackers to identify potential targets because it allows associate potential vulnerabilities to services enabled on a computer " [10]. According to [10] the number of attacks has been widening each year as shown in Figure 1.1 and 1.2 which are in section 1.1. Based on this high number incidents, the growth of the information consumer by means of devices furniture and the need to improve energy costs, the proposed establishment of the Office Security for Context Aware of authentication (Serviço de Segurança para Autenticação Ciente do Contexto(SSACC)) is required for today. The ssacc focus to provide a secure channel for transfer files to a server, using context information and reducing energy waste, thus saving resources and framing the Green Computing. Made based on the Secure Socket Layer (SSL), which is a widely used protocol that provides secure communication through a network. It uses several different cryptographic processes to ensure that data sent through the network is secure. It provides a security enhancement for the Transport Control Protocol (TCP) / Internet Protocol (IP) standard, which is used for communication with the Internet. SSL uses public key cryptography to provide authentication. The SSL protocol also uses encryption of the private key and digital signatures to ensure privacy and the integrity of data " [26]. / Atualmente houve uma adesão em massa aos dispositivos móveis inteligentes, conhecidos como smartphones, e, com essa adesão, houve consequentemente um grande aumento no consumo da informação, principalmente proveniente da internet. Para atender a grande demanda de acesso à informação foi criado inúmeros artifícios para facilitar tanto o acesso, quanto a criação e o armazenamento dessas informações, dentre os mais conhecidos e difundidos atualmente está a computação em nuvem. A informação assume, hoje em dia, uma importância crescente e até vital para algumas entidades, e com tamanho valor acaba se tornando muito desejada, sendo muitas vezes alvo de tentativas de captura e espionagem. Para se obter dados de informações confidenciais hackers usam inúmeros artifícios, e o mais usado é o scan de redes, que em outras palavras pode ser descrito scan como "notificações de varreduras em redes de computadores, com o intuito de identificar quais computadores estão ativos e quais serviços estão sendo disponibilizados por eles. É amplamente utilizado por atacantes para identificar potenciais alvos, pois permite associar possíveis vulnerabilidades aos serviços habilitados em um computador" [10]. De acordo com o [10] o número de ataques só vem crescendo a cada ano como mostra a figura 1.1 e 1.2 que estão na seção 1.1. Com base nesse alto número de incidentes, o crescimento do consumo da informação por meio de dispositivos móveis e a necessidade de melhorar gastos de energia, a proposta de criação do Serviço de Segurança para Autenticação Ciente do Contexto (SSACC) é necessária para a atualidade. O SSACC tem como principal objetivo fornecer um canal seguro para transferência de arquivos para um servidor, fazendo uso de informações de contexto e diminuindo o desperdício de energia, consequentemente economizando recursos e se enquadrando à Computação Verde. Feito com base no Secure Socket Layer(SSL), que é um "protocolo amplamente utilizado que fornece comunicação segura através de uma rede. Ele usa vários processos criptográficos diferentes para garantir que os dados enviados por meio de rede são seguras. Ele fornece um aprimoramento de segurança para o protocolo Transport Control Protocol (TCP)/ Internet Protocol (IP) padrão, que é usado para comunicação com a internet. SSL utiliza criptografia de chave pública para fornecer autenticação. O protocolo SSL também usa criptografia de chave privada e assinaturas digitais para garantir a privacidade e a integridade dos dados" [26].

Page generated in 0.0968 seconds