• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 263
  • 48
  • 14
  • 12
  • 10
  • 10
  • 10
  • 9
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 331
  • 331
  • 331
  • 211
  • 209
  • 52
  • 50
  • 49
  • 48
  • 43
  • 43
  • 42
  • 42
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Adoção tecnológica: fatores de decisão de adoção da internet das coisas em ambiente empresarial / Technology adoption: decision factors for the adoption of the internet of things in a business environment

Flávio Destri Lobo 28 January 2016 (has links)
A Internet das Coisas, ou Internet of Things (IoT), representa um novo paradigma de integração de várias tecnologias e soluções de comunicação e encontra aplicações em muitos domínios diferentes, tais como ambientes inteligentes (residencial e comercial), automação industrial, saúde, agricultura de alta precisão, gerenciamento inteligente de energia (smart grids, conservação de energia em edifícios), transporte e logística, setor automotivo em geral, cidades inteligentes e muitas outras áreas. A realização da visão de IoT ainda necessita de mais investimentos em pesquisa e desenvolvimento devido à sua novidade e complexidade. Além das questões técnicas, a adoção em larga escala também é dificultada pela falta de clareza dos fatores determinantes na decisão de adoção destas tecnologias. A questão- problema que esse trabalho de pesquisa busca elucidar é o desafio da adoção de inovações baseadas na Internet das Coisas, mais especificamente fatores que afetam a decisão de adoção. O tema adoção de inovação é relevante para quem desenvolve a inovação e deseja que ela seja adotada e para quem tem que decidir se adota ou não uma inovação. Como a taxa de adoção é influenciada por fatores e decisões tanto do lado de quem fornece quando do lado de quem adota uma determinada inovação tecnológica, o trabalho se baseia em estudos que buscam integrar as diversas variáveis afim de refletir a natureza sistêmica deste processo. O modelo proposto pode ser aplicado tanto para quem adota quanto para quem fornece a inovação, integrando questões externas e internas à empresa, bem como questões da tecnologia IoT em si e do fornecedor. A pesquisa utiliza o modelo proposto em três estudos de caso com o objetivo de identificar e analisar os fatores de decisão de adoção da Internet das Coisas nas respectivas empresas, e apresenta sugestões de como aplicar o modelo na avaliação e eventual seleção de inovações tecnológicas, tanto do ponto de vista de quem fornece quanto de quem adota a inovação. / The Internet of things (IoT) represents a new paradigm of integration of various technologies and communication solutions, and finds applications in many different domains, such as intelligent environments (residential and commercial), industrial automation, health, high precision agriculture, intelligent power management (smart grids, energy conservation in buildings), transport and logistics, the automotive industry in general, smart cities and many other areas. The realization of the vision of IoT still requires more investment in research and development because of its novelty and complexity. Beyond the technical issues, large-scale adoption is also hampered by the lack of clarity of the determining factors in the decision of adoption of these technologies. The problem this research seeks to elucidate is the challenge of adopting innovations based on the Internet of things, more specifically factors that affect the adoption decision. The theme adoption of innovation is relevant to those who develop an innovation and want it to be adopted as well as for those who have to decide whether to adopt an innovation or not. As the adoption rate is influenced by factors and decisions that lie both on the side of the supplier as well as the adopter of a particular technological innovation, this work is based on studies that seek to integrate variables from both sides in order to reflect the systemic nature of this process. The proposed model can be applied to both suppliers and adopters of the technological innovation, integrating factors that are external and internal to the company, as well as factors of the IoT technology and factors of the supplier. This research used the proposed model in three case studies in order to identify and analyze the factors of decision of adoption of the Internet of things in each company, and offers suggestions of how to apply the model in the evaluation and eventual selection of technological innovations, both from the point of view of suppliers as well as adopters of the innovation.
242

Abordagem híbrida para alocação de máquinas virtuais em nuvens computacionais / Hybrid approach for virtual machines allocation in computational clouds

Rocha, Lucio Agostinho, 1982- 23 August 2018 (has links)
Orientador: Eleri Cardozo / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-23T18:16:56Z (GMT). No. of bitstreams: 1 Rocha_LucioAgostinho_D.pdf: 2075379 bytes, checksum: 846d7b99386d80658fc1896a4e20a957 (MD5) Previous issue date: 2013 / Resumo: A Computação em Nuvem é um modelo para a oferta de serviços sob demanda na Internet. Neste modelo, um provedor de serviço de nuvem oferece serviços de processamento e armazenamento de informação por meio da virtualização de uma infraestrutura computacional, composta de servidores, equipamentos de comunicação, sistemas de armazenamento de dados, aplicativos, dentre outros. Na Computação em Nuvem as máquinas virtuais (VMs) são entidades que permitem o compartilhamento seguro de recursos na nuvem. Visando obter economia de escala, os provedores de serviço operam dezenas de data centers cada qual abrigando milhares de servidores e interconectados por redes de comunicação de alta capacidade. O consumo de energia nesta ampla infraestrutura física é responsável por uma parcela cada vez mais significativa dos custos operacionais das nuvens computacionais, além de contribuírem com a emissão de gases responsáveis pelo efeito estufa. Neste sentido, o processamento de informação em larga escala com baixas emissões de carbono, a chamada Computação Verde, assume um papel importante na Computação em Nuvem. O interesse pela Computação Verde tem motivado o surgimento de várias estratégias de alocação de recursos computacionais (VMs) em data centers com o objetivo de otimizar o consumo de energia na nuvem. Esta tese propõe uma estratégia capaz de otimizar o consumo de energia na infraestrutura de nuvem mantendo níveis de qualidade de serviço (QoS) na rede de comunicação dentro de limites definidos pelo provedor de serviço. Essa estratégia de otimização híbrida combina algoritmos genéticos, programação linear inteira mista e simulação de redes / Abstract: Cloud Computing is a model for the offering of on demand services through the Internet. In this model, a cloud service provider offers processing and data storage services by virtualizing a computing infrastructure, composed of servers, communication equipments, storage systems, and applications, among others. In Cloud Computing virtual machines (VMs) are the entities that allow the secure sharing of resources in the cloud. In order to achieve economies of scale, service providers operate tens of data centers each one holding thousands of servers and interconnected by a high capacity communication network. The energy consumption in this wide physical infrastructure responds by an increasing and significant portion of the operational costs of the cloud, and contributes to the emission of greenhouse gases. In this scenario, the large scale information processing with low emissions of carbon dioxide, the Green Computing, is becoming a major concern in Cloud Computing. The interest in Green Computing has motivated the emergence of strategies for allocating computing resources (VMs) in data centers with the objective of optimizing the energy consumption in the cloud. This thesis proposes a strategy able to optimize the energy consumption in cloud infrastructure keeping levels of quality of service (QoS) in the network communication within thresholds defined by service provider. This strategy of hybrid optimization combines genetic algorithms, mixed integer linear programming, and network simulations / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
243

PEESOS-Cloud: Uma arquitetura para o planejamento e execução de experimentos em sistemas orientados a serviços considerando a carga de trabalho / PEESOS-Cloud: an architecture for the planning and execution of experiments in service-oriented systems considering the workload

Carlos Henrique Gomes Ferreira 11 March 2016 (has links)
Este trabalho de mestrado tem como objetivo o desenvolvimento de uma arquitetura denominada PEESOS-Cloud para realização de experimentos em sistemas orientados a serviços capaz de verificar a carga de trabalho. Possíveis problemas durante a geração de carga em ambientes de experimentos foram identificados e sumarizados. Com base nesses problemas e limitandose às características dos sistemas distribuídos, dois módulos e um modelo para geração de carga foram desenvolvidos e associado à PEESOS-Cloud. Uma avaliação experimental foi realizada demonstrando a efetividade da proposta em atuar na avaliação de sistemas orientados a serviços. Para isso, cenários de experimentos foram definidos variando o ambiente de execução da arquitetura. Assim, o desempenho de uma aplicação sintética oferecida como serviço foi estudada e avaliada. Os resultados mostraram como a arquitetura proposta permite identificar a característica da carga de trabalho e verificar seu impacto sobre avaliação de um sistema alvo. Além disso, como uma carga de trabalho descaracterizada infere em uma avaliação de desempenho inconsistente. Por outro lado, como essa mesma carga de trabalho, sujeita a condições específicas, pode subsidiar uma avaliação de desempenho sólida. / This master thesis aims at developing an architecture called PEESOS-Cloud for conducting experiments in the service oriented systems capable of respecting the workload. Possible problems during the generation of load experiments environments were identified and summarized. Based on these problems and limited to the characteristics of distributed systems, two modules and a model for load generation were developed and associated with PEESOS-Cloud. An experimental evaluation was performed demonstrating the effectiveness of the proposal of acting in the evaluation of service-oriented systems. For this, experiments scenarios were defined by varying the architecture of execution environment. Thus, the performance of a synthetic application offered as a service has been studied and evaluated. The results showed how the proposed architecture allows us to identify the characteristics of the workload. In addition, uncharacterized workload can provide an inconsistent performance evaluation. On the other hand, as the same workload, subject to specific conditions, can support a solid performance evaluation.
244

Computação em nuvem elástica auxiliada por agentes computacionaise baseada em histórico para web services / Elastic cloud computing aided by history-based computacionaise agents to web service

Ariel da Silva Dias 15 December 2014 (has links)
A gestão eficaz de recursos computacionais em nuvem está diretamente ligada a gerir corretamente o desempenho das aplicações hospedadas na Máquina Virtual (Virtual Machine - VM), criando um ambiente capaz de controlá-la e redimensionar recursos de Memória, Disco, CPU e outros que se façam necessários, individualmente em resposta a carga de trabalho. Neste trabalho considera-se também a gestão eficaz a qual é possível realizar o retorno sobre o investimento realizado para a contratação do serviço de IaaS. Nesta pesquisa de mestrado, foi proposto o gerenciamento da infraestrutura computacional em nuvem, através de dois modelos que facilitam o provisionamento auto-adaptativo de recursos em um ambiente virtualizado: alocação de recursos utilizando modelo para previsão da carga de trabalho futura e a gestão auto-adaptativa de capacidade utilizando agentes computacionais para monitorarem constantemente as VMs. Além disso, é proposto o retorno do investimento, que trata a relação entre o valor que o cliente contratou do serviço de IaaS e o quanto efetivamente ele está utilizando. Desta forma, a cada período é contabilizado a taxa do valor gasto em unidades monetárias. Para contemplar esta proposta, foram desenvolvidos algoritmos que são o núcleo de todo gerenciamento. Também foram realizados experimentos e os resultados mostram a capacidade do autogerenciamento das máquinas virtuais, com reconfiguração dinâmica da infraestrutura através de previsões baseadas em histórico e também da reconfiguração e monitoramento com o uso de agentes computacionais. Após a análise e avaliação dos resultados obtidos nos experimentos, é possível afirmar que houve uma significativa melhora da reconfiguração dos recursos com agentes computacionais se comparado a reconfiguração com previsão de carga futura. / The efficient management of computational resources in the cloud is directly linked to correctly manage the performance of the applications hosted in the virtual machine (Virtual Machine - VM), creating an environment able to control it and resize features Memory, Disk, CPU and others resources, individually in response to workload. This work is also considered effective management which is possible to realize the return on investment for hiring the IaaS service. This Master thesis, is proposed the management of computing infrastructure in the cloud, using two models that facilitate self-adaptive resource provisioning in a virtualized environment using resource allocation model to predict the future workload and adaptive self-management capacity utilizing computational agents to continuously monitor the VMs. Furthermore, it is proposed return on investment, which is the ratio between the value that the client hired the IaaS service and how effectively it is using. Thus, each period is accounted for the rate of the amount spent in monetary units. To address this proposal, were developed algorithms that are the core of all management. Experiments were also conducted and the results show the ability of self-management for virtual machines with dynamic reconfiguration of infrastructure through predictions based on historical and also the reconfiguration and monitoring with the use of computational agents. After the analysis and evaluation of the results obtained in the experiments, is possible say that there was a significant improvement in reconfiguration of resources with computational agents compared with the workload forecast.
245

Data Warehouses na era do Big Data: processamento eficiente de Junções Estrela no Hadoop / Data Warehouses na era do Big Data: processamento eficiente de Junções Estrela no Hadoop

Jaqueline Joice Brito 12 December 2017 (has links)
The era of Big Data is here: the combination of unprecedented amounts of data collected every day with the promotion of open source solutions for massively parallel processing has shifted the industry in the direction of data-driven solutions. From recommendation systems that help you find your next significant one to the dawn of self-driving cars, Cloud Computing has enabled companies of all sizes and areas to achieve their full potential with minimal overhead. In particular, the use of these technologies for Data Warehousing applications has decreased costs greatly and provided remarkable scalability, empowering business-oriented applications such as Online Analytical Processing (OLAP). One of the most essential primitives in Data Warehouses are the Star Joins, i.e. joins of a central table with satellite dimensions. As the volume of the database scales, Star Joins become unpractical and may seriously limit applications. In this thesis, we proposed specialized solutions to optimize the processing of Star Joins. To achieve this, we used the Hadoop software family on a cluster of 21 nodes. We showed that the primary bottleneck in the computation of Star Joins on Hadoop lies in the excessive disk spill and overhead due to network communication. To mitigate these negative effects, we proposed two solutions based on a combination of the Spark framework with either Bloom filters or the Broadcast technique. This reduced the computation time by at least 38%. Furthermore, we showed that the use of full scan may significantly hinder the performance of queries with low selectivity. Thus, we proposed a distributed Bitmap Join Index that can be processed as a secondary index with loose-binding and can be used with random access in the Hadoop Distributed File System (HDFS). We also implemented three versions (one in MapReduce and two in Spark) of our processing algorithm that uses the distributed index, which reduced the total computation time up to 88% for Star Joins with low selectivity from the Star Schema Benchmark (SSB). Because, ideally, the system should be able to perform both random access and full scan, our solution was designed to rely on a two-layer architecture that is framework-agnostic and enables the use of a query optimizer to select which approaches should be used as a function of the query. Due to the ubiquity of joins as primitive queries, our solutions are likely to fit a broad range of applications. Our contributions not only leverage the strengths of massively parallel frameworks but also exploit more efficient access methods to provide scalable and robust solutions to Star Joins with a significant drop in total computation time. / A era do Big Data chegou: a combinação entre o volume dados coletados diarimente com o surgimento de soluções de código aberto para o processamento massivo de dados mudou para sempre a indústria. De sistemas de recomendação que assistem às pessoas a encontrarem seus pares românticos à criação de carros auto-dirigidos, a Computação em Nuvem permitiu que empresas de todos os tamanhos e áreas alcançassem o seu pleno potencial com custos reduzidos. Em particular, o uso dessas tecnologias em aplicações de Data Warehousing reduziu custos e proporcionou alta escalabilidade para aplicações orientadas a negócios, como em processamento on-line analítico (Online Analytical Processing- OLAP). Junções Estrelas são das primitivas mais essenciais em Data Warehouses, ou seja, consultas que realizam a junções de tabelas de fato com tabelas de dimensões. Conforme o volume de dados aumenta, Junções Estrela tornam-se custosas e podem limitar o desempenho das aplicações. Nesta tese são propostas soluções especializadas para otimizar o processamento de Junções Estrela. Para isso, utilizamos a família de software Hadoop em um cluster de 21 nós. Nós mostramos que o gargalo primário na computação de Junções Estrelas no Hadoop reside no excesso de operações escrita do disco (disk spill) e na sobrecarga da rede devido a comunicação excessiva entre os nós. Para reduzir estes efeitos negativos, são propostas duas soluções em Spark baseadas nas técnicas Bloom filters ou Broadcast, reduzindo o tempo total de computação em pelo menos 38%. Além disso, mostramos que a realização de uma leitura completa das tables (full table scan) pode prejudicar significativamente o desempenho de consultas com baixa seletividade. Assim, nós propomos um Índice Bitmap de Junção distribuído que é implementado como um índice secundário que pode ser combinado com acesso aleatório no Hadoop Distributed File System (HDFS). Nós implementamos três versões (uma em MapReduce e duas em Spark) do nosso algoritmo de processamento baseado nesse índice distribuído, os quais reduziram o tempo de computação em até 77% para Junções Estrelas de baixa seletividade do Star Schema Benchmark (SSB). Como idealmente o sistema deve ser capaz de executar tanto acesso aleatório quanto full scan, nós também propusemos uma arquitetura genérica que permite a inserção de um otimizador de consultas capaz de selecionar quais abordagens devem ser usadas dependendo da consulta. Devido ao fato de consultas de junção serem frequentes, nossas soluções são pertinentes a uma ampla gama de aplicações. A contribuições desta tese não só fortalecem o uso de frameworks de processamento de código aberto, como também exploram métodos mais eficientes de acesso aos dados para promover uma melhora significativa no desempenho Junções Estrela.
246

Implantação automatizada de composições de serviços web de grande escala / Automated deployment of large scale web service compositions

Leite, Leonardo Alexandre Ferreira 26 May 2014 (has links)
A implantação de composições de serviços web de grande escala apresentam vários desafios, tais como falhas corriqueiras na infraestrutura, heterogeneidade tecnológica, distribuição do sistema por diferentes organizações e atualização frequente dos serviços em operação. Nesta dissertação, estudamos como uma implantação automatizada baseada em middleware pode auxiliar na superação de tais desafios. Para isso, desenvolvemos o CHOReOS Enactment Engine, um sistema de middleware que possibilita a implantação distribuída e automatizada de composições de serviços web em uma infraestrutura virtualizada, operando no modelo de computação em nuvem denominado Plataforma como um Serviço. O middleware desenvolvido é avaliado qualitativamente em comparação a abordagens de implantação ad-hoc e quantitativamente pela sua escalabilidade em relação ao tempo de implantação das composições de serviços. / The deployment of large-scale service compositions presents several challenges, such as infrastructure failures, technological heterogeneity, distributions across different organizations, and continuous services updating. In this master thesis, we study how the automated deployed supported by middleware can help in overcoming such challenges. For this purpose, we developed the CHOReOS Enactment Engine, a middleware system that enables the distributed and automated deployment of web service compositions in a virtualized infrastructure, operating in the cloud computing model known as Platform as a Service. The developed middleware is evaluated qualitatively by comparing it with ad-hoc deployment solutions, and it is also evaluated quantitatively by its scalability regarding the deployment time of service compositions.
247

Modelos de negócio para ambientes de computação em nuvem que consideram atributos de qos relacionados a desempenho e a segurança / Business models for cloud computing environments that consider attributes related to performance and security

Batista, Bruno Guazzelli 10 November 2015 (has links)
Este projeto de doutorado tem como objetivo definir modelos de negócio para ambientes de computação em nuvem que consideram desempenho e segurança como atributos de qualidade de serviço durante a definição do contrato. Para isso, foi necessário quantificar o impacto causado no desempenho de um ambiente em nuvem quando diferentes mecanismos de segurança foram utilizados. Para a quantificação da sobrecarga foram utilizadas técnicas e metodologias disponíveis na literatura que visam garantir a integridade, disponibilidade e confidencialidade dos dados, abordando desafios que envolvem o acesso, armazenamento e manipulação de dados em serviços oferecidos por meio de máquinas virtuais. Experimentos executados possibilitaram analisar o comportamento das variáveis de resposta na utilização de cenários com diferentes mecanismos de segurança e cargas. Dessa forma, foi possível confrontar a sobrecarga imposta pelos mecanismos de segurança com a alteração da quantidade de recursos aplicada por um módulo proposto, chamado ReMM. De acordo com os resultados, o ReMM alterou a quantidade de recursos virtuais alocados utilizando dois algoritmos de escalabilidade, garantindo as exigências definidas no contrato de níveis de serviço. No entanto, a alteração dos recursos computacionais para contrapor a sobrecarga imposta pelos mecanismos de segurança impactou nos custos finais dos serviços. Dessa forma, a sobrecarga de segurança, desempenho e custo foram considerados na definição dos modelos de negócios em diferentes ambientes de computação em nuvem. / This PhD thesis has as main goal defining business models for cloud computing environments that consider performance and security as quality of service attributes during the service level agreement definition. For this, it was necessary quantifying the impact on the performance of a cloud environment in which different security mechanisms were applied. Techniques and methodologies available in the literature that aim ensuring the integrity, availability and confidentiality of data were used to quantify the overhead, addressing challenges related to access, storage and manipulation of data in services offered through virtual machines. Experiments were executed, in which the response variable behaviors were analyzed, using scenarios with different security mechanisms and workloads. In this way, it was possible to compare the overhead imposed by the security mechanisms with the changes in the quantity of resources applied by a module proposed, called ReMM. According to the results, the ReMM changed the amount of allocated virtual resources using two scalability algorithms, ensuring the requirements defined in service level agreement. However, the changes in the computational resources to face the overhead imposed by the security mechanisms influenced the final costs of the service. Therefore, security overhead, performance and cost were considered in the definition of business models in different cloud computing environments.
248

Computação em nuvem no contexto das smart grids: uma aplicação para auxílio à localização de faltas em sistemas de distribuição / Cloud computing in the smart grids context: an application to aid fault location in distribution systems

Sousa, Jeovane Vicente de 21 September 2018 (has links)
A computação em nuvem tem sido vislumbrada como a principal tecnologia capaz de integrar e gerenciar os diversos sistemas envolvidos em uma Smart Grid. Nesse sentido, esta pesquisa tem por objetivo desenvolver uma infraestrutura de computação em nuvem capaz de armazenar e manipular dados em sistemas de distribuição. Analisando a infraestrutura das principais aplicações que utilizam computação em nuvem nesse contexto, foi proposta uma arquitetura com serviços essenciais, que pode ser estendida, para abrigar serviços e aplicações voltadas aos sistemas de distribuição inteligentes. A partir dessa proposta, uma infraestrutura de computação em nuvem foi implementada, utilizando ferramentas open source. Essa infraestrutura permitiu o desenvolvimento de uma nova aplicação para auxílio à localização de faltas, utilizando mineração de dados sobre os dados provenientes de smart meters, que é capaz de reduzir o problema da múltipla estimação nos sistemas de distribuição radial, auxiliando na definição do ramal faltoso. Para isso, uma versão otimizada da ferramenta de mineração de dados DAMICORE (Data Mining of Code Repositories) foi implementada estendendo os serviços básicos da arquitetura proposta. A aplicação desenvolvida foi avaliada utilizando centenas de simulações de falta sujeitas ao problema da múltipla estimação, aplicadas ao longo de um alimentador de testes, sendo capaz de reduzir mais de 80% das extensões de falta susceptíveis ao problema da múltipla estimação. Os resultados apresentados mostraram que a arquitetura proposta e a infraestrutura de computação em nuvem desenvolvida são capazes de suportar novas aplicações para os sistemas de distribuição inteligentes contribuindo para o desenvolvimento das smart grids e para a difusão da computação em nuvem nesse contexto. Como contribuição adicional, a aplicação em nuvem desenvolvida permitirá reduzir a múltipla estimação na localização de faltas em sistemas de distribuição. / Cloud computing has been envisioned as the main technology capable to integrate and manage many systems on a Smart Grid. Thus, this research aims to develop a cloud computing infrastructure to store and manipulate smart distribution system data. By analyzing the infrastructure of the main applications using cloud computing for smart distribution systems, an extensible architecture with essential services was proposed to host smart distribution systems services and applications. Based on this proposition, a cloud computing platform was developed using open source tools. A new application to reduce multiple estimation for fault location in radial distribution systems using datamining techniques over smart meter data was implemented using this infrastructure. An optimized version of the datamining tool known as DAMICORE (Data Mining of Code Repositories) was implemented as an extension to the proposed architecture basic services. The new cloud application was tested using hundreds of fault simulations through a test feeder, being able to reduce the line extensions with multiple estimation by more than 80% in the simulated fault cases. The results show that the proposed cloud computing architecture and infrastructure enable new smart distribution systems applications, contributing to the development of smart grids and diffusion of cloud computing in this context. As an additional contribution, the cloud application developed will help to reduce the multiple estimation for fault locations in distribution systems.
249

Gerenciamento de acordo de nível de serviço de segurança para computação em nuvem. / Management od security service level agreement for cloud computing.

Torrez Rojas, Marco Antonio 27 October 2016 (has links)
O paradigma de computação em nuvem, por meio de seus modelos de serviço e implantação, apresenta para os provedores de serviço e consumidores benefícios e desafios. Um dos principais desafios apontados pela área de computação em nuvem é com relação à segurança da informação, especificamente a questão de conformidade com relação a contratos firmados entre o provedor e o consumidor. O acordo de nível de serviço (SLA) é um destes contratos, no qual são estabelecidos requisitos para a entrega e operação do serviço contratado pelo consumidor, bem como penalidades em caso de não atendimento a requisitos estabelecidos no contrato. Comumente, em um SLA definido entre provedor de serviço e consumidor as necessidades de disponibilidade e desempenho com relação ao serviço contratado são especificados, o que não ocorre com relação às necessidades de segurança. A necessidade de especificação de requisitos de segurança em um SLA, em especial confidencialidade e integridade, para o contexto de computação em nuvem, bem como arquiteturas de computação que tratem de requisitos de segurança em um SLA e efetuem o gerenciamento destes requisitos durante o ciclo de vida do SLA, encontram-se em evolução, se comparado aos requisitos de disponibilidade. Considerando a demanda crescente de incorporação de SLA de Segurança nos contratos de serviços de computação em nuvem, este trabalho tem como objetivo propor e avaliar um arcabouço de gerenciamento de serviços de computação em nuvem para o modelo de infraestrutura como serviço (IaaS), tendo como base requisitos de segurança especificados em um SLA, em especial os requisitos de confidencialidade e integridade. O gerenciamento proposto pelo arcabouço contempla as etapas do ciclo de vida de um SLA, que compreende as fases de: i) definir e especificar o SLA; ii) gerenciar e implantar o SLA; iii) executar e gerenciar o SLA e iv) finalizar o SLA. A validação do arcabouço proposto é realizada por meio da sua aplicação em um cenário de uso, onde será verificado o atendimento aos requisitos de segurança definidos e especificados no SLA. Para assegurar que o arcabouço proposto é seguro, bem como a sua integração com o ambiente de computação em nuvem é realizada análise de ameaças do arcabouço, e ações de mitigação apresentadas. Ao final, mostra-se que o arcabouço de gerenciamento proposto cumpre com os objetivos e requisitos propostos. / The cloud computing paradigm given its service and deployment models presents several benefits and challenges. One of the main challenges is related to information security, in particular, the compliance contracts between consumers and service provider. Service Level Agreements (SLAs) are contracts in which requirements about service operation and delivery as well as penalties in case of non-compliance of these requirements are defined. A SLA is usually defined in terms of availability and performance requirements, and data security requirements are normally not specified in details as these requirements. The need for security requirements specified in an SLA, especially confidentiality and integrity to the cloud computing paradigm, as well computing architectures to deal with SLA security requirements and management of cloud services based on SLA security requirements in an automated manner during its entire lifecycle are still in evolution, compared to availability requirements. In order to deal with these ineeds, this work aims to propose and evaluate a framework to orchestrate the management of cloud services for the infrastructure as a service (IaaS) based on SLA security requirements, specifically the confidentiality and integrity requirements. The management proposed by the framework comprehend the steps of the SLA lifecycle: i) SLA specification and definition; ii) SLA deployment and management; iii) SLA execute and monitoring; and iv) SLA termination. The validation of proposed framework is performed by its application in a usage scenario, checking the compliance with defined security requirements and specified in the SLA. To ensure the security of proposed framework and its cloud computing environment integration, a threat modeling is performed and mitigation actions are presented. At last, it is shown that the proposed management framework meets the specified framework requirements.
250

Avaliação da portabilidade entre fornecedores de teste como serviço na computação em nuvem / Evaluation of portability among testing as a service providers in cloud computing

Oliveira, Ricardo Ramos de 14 December 2017 (has links)
O processo de automatização de teste de software possui alto custo envolvido em sistemas de larga escala, pois exigem cenários de teste complexos e tempos de execução extremamente longos. Além disso, cada etapa do processo de teste requer recursos computacionais e um tempo considerável para a execução de muitos casos de teste, tornando-se um gargalo para as empresas de Tecnologia da Informação (TI). Neste contexto, os benefícios e oportunidades oferecidos pela combinação da computação em nuvem com o Teste como Serviço (Testing as a Service, TaaS), que é considerado um novo modelo de negócio e de serviço atraente e promissor, podem proporcionar um impacto positivo na redução do tempo de execução dos testes de maneira custo-efetiva e aumentar o retorno sobre o investimento ou Return on investment (ROI). Todavia, existe o problema de vendor lock-in, que é o aprisionamento do usuário à plataforma de um fornecedor específico ou serviço de teste, ocasionado pela dificuldade de migrar de um fornecedor TaaS para outro, limitando a utilização dessas novas tecnologias de maneira efetiva e eficiente, impedindo assim, a ampla adoção do TaaS. Como os estudos existentes não são rigorosos ou conclusivos e, principalmente, devido à falta de evidência empírica na área de serviço de teste, muitas questões devem ser investigadas na perspectiva da migração entre os provedores de TaaS. O objetivo deste trabalho é reduzir o impacto ocasionado pelo problema de vendor lock-in no processo de automatização de testes na computação em nuvem, na escrita, configuração, execução e gerenciamento dos resultados de testes automatizados. Neste contexto, foi desenvolvido o protótipo da abordagem intitulada Multi-TaaS por meio de uma biblioteca Java como prova de conceito. A abordagem Multi-TaaS é uma camada de abstração e a sua arquitetura permite abstrair e flexibilizar a troca de fornecedores de TaaS de forma portável, pois permite encapsular toda a complexidade da implementação do engenheiro de software ao desacoplar o teste automatizado de qual plataforma TaaS ele será executado, bem como abstrair os aspectos da comunicação e integração entre as APIs REST proprietárias dos diferentes fornecedores de TaaS. Além disso, a abordagem Multi-TaaS possibilita também sumarizar os resultados dos testes automatizados de forma independente das tecnologias da plataforma TaaS subjacente. Foram realizadas avaliações comparativas da eficiência, efetividade, dificuldade e do esforço de migração entre as abordagens Multi-TaaS e abordagem convencional, por meio de experimentos controlados. Os resultados deste trabalho indicam que a nova abordagem permite facilitar a troca do serviço de teste, melhorar a eficiência e, principalmente, reduzir o esforço e os custos de manutenção na migração entre fornecedores de TaaS. Os estudos realizados no experimento controlado são promissores e podem auxiliar os engenheiros de software na tomada de decisão quanto aos riscos associados ao vendor lock-in no TaaS. Por fim, a abordagem Multi-TaaS contribui, principalmente, para a portabilidade dos testes automatizados na nuvem e da sumarização dos resultados dos testes e, consequentemente, possibilita que o modelo de serviço TaaS na computação em nuvem seja amplamente adotado, de forma consciente, no futuro. / The automation of software testing involves high costs in large-scale systems, since it requires complex test scenarios and extremely long execution times. Moreover, each of its steps demands computational resources and considerable time for running many test cases, which makes it a bottleneck for Information Technology (IT) companies. The benefits and opportunities offered by the combination of cloud computing and Testing as a Service (TaaS), considered a new business and service model, can reduce the execution time of tests in a cost-effective way and improve Return on Investment (ROI). However, the lock-in problem, i.e., the imprisonment of the user in the platform of a specific vendor or test service caused by the difficult migration from one TaaS provider to another limits the effective use of such new technologies and prevents the widespread adoption of TaaS. As studies conducted are neither rigorous, nor conclusive, and mainly due to the lack of empirical evidence, many issues must be investigated from the perspective of migration among TaaS providers. This research aims at reductions in the impact of the vendor lock-in problem on the automation process of testing in cloud computing, writing, configuration, execution and management of automated test results. The prototype of the Multi- TaaS approach was developed through a Java library as a proof of concept. The Multi-TaaS approach is an abstraction layer and its architecture enables the abstraction and flexibilization of the exchange of TaaS providers in a portable way, once the complexity of the software engineers implementation can be encapsulated. The two main advantages of Multi-TaaS are the decoupling of the automated test from the TaaS platform on which it will be executed and the abstraction of the communication and integration aspects among the proprietary REST APIs of the different TaaS providers. The approach also enables the summarization of automated test results independently of the underlying TaaS platform technologies. A comparative evaluation between Multi-TaaS and conventional migration approaches regarding the difficulty, efficiency, effectiveness and effort of migration among TaaS providers was conducted through controlled experiments.The results show the approach facilitates the exchange of test service, improves efficiency and reduces the effort and maintenance costs of migration among TaaS providers. The studies conducted in the controlled experiment are promising and can assist software engineers in decision-making regarding the risks associated with vendor lock-in in TaaS. The Multi-TaaS approach contributes mainly to the portability of automated tests in the cloud and summarization of their results. Finally, this research enables also the widespread adoption of the TaaS service model in cloud computing, consciously, in the future.

Page generated in 0.0997 seconds