• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 263
  • 48
  • 14
  • 12
  • 10
  • 10
  • 10
  • 9
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 331
  • 331
  • 331
  • 211
  • 209
  • 52
  • 50
  • 49
  • 48
  • 43
  • 43
  • 42
  • 42
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

BioNimbus : uma arquitetura de federação de nuvens computacionais híbrida para a execução de workflows de Bioinformática

Saldanha, Hugo Vasconcelos 22 June 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2013-02-06T16:01:06Z No. of bitstreams: 1 2012_HugoVasconcelosSaldanha.pdf: 2248809 bytes, checksum: f80d729d5af8b3a883cb1c90f437b32a (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-02-07T11:31:54Z (GMT) No. of bitstreams: 1 2012_HugoVasconcelosSaldanha.pdf: 2248809 bytes, checksum: f80d729d5af8b3a883cb1c90f437b32a (MD5) / Made available in DSpace on 2013-02-07T11:31:54Z (GMT). No. of bitstreams: 1 2012_HugoVasconcelosSaldanha.pdf: 2248809 bytes, checksum: f80d729d5af8b3a883cb1c90f437b32a (MD5) / O paradigma da Computação em Nuvem tem possibilitado o surgimento de um grande ecossistema composto por diferentes tecnologias e provedores de serviço com o objetivo de oferecer enorme quantidade de recursos computacionais sob demanda. Neste cenário, pesquisas científicas têm aproveitado a computação em nuvem como plataforma capaz de lidar com processamento e armazenamento em larga escala necessários na realização de seus experimentos. Em especial, a Bioinformática deve lidar com a grande quantidade de dados produzida pelas modernas máquinas de sequenciamento genômico. Neste contexto, várias ferramentas têm sido projetadas e implementadas para tirar proveito da infraestrutura oferecida pela computação em nuvem. Nuvens públicas, disponibilizadas por grandes provedores de serviço seriam capazes de oferecer, individualmente, recursos suficientes para atender ao poder computacional requerido pelas aplicações de bioinformática. Entretanto, esta escolha cria uma dependência tecnológica em relação ao provedor de serviço escolhido, tornando as instituições de pesquisa sujeitas as escolhas estratégicas deste provedor. Além disso, a infraestrutura computacional existente nessas instituições ficaria ociosa, ao invés de ser aproveitada em conjunto com o uso da nuvem pública. Como alternativa, surge a Federação de Nuvens Computacionais, que possibilita a utilização simultânea das diversas infraestruturas existentes nas várias instituições de pesquisa de maneira integrada, além de permitir a utilização dos recursos oferecidos pelas nuvens públicas. O presente trabalho tem como objetivo propor uma arquitetura de federação de nuvens computacionais híbrida, denominada BioNimbus, capaz de executar aplicações e workflows de bioinformática de maneira transparente, flexível, eficiente e tolerante a falhas, com grande capacidade de processamento e de armazenamento. Os serviços necessários a construção da federação são detalhados, juntamente com seus requisitos. Foi realizado um estudo de caso com um workflow e dados reais a partir da implementação de um protótipo da arquitetura, integrando nuvens públicas e privadas. Com os resultados obtidos, foi possível observar a real aplicabilidade de uma arquitetura de federação híbrida em particular a BioNimbus, que atingiu as características projetadas inicialmente. Ao mesmo tempo, foram identificadas características que devem ser tratadas com o intuito de construir uma federação de nuvens computacionais híbrida que execute de forma eficiente e segura aplicações e workflows de bioinformática. _______________________________________________________________________________________ ABSTRACT / The Cloud Computing paradigm has enabled the emergence of a large ecosystem composed of different technologies and service providers with the goal of providing enormous amount of computing resources on demand. In this scenario, scientists have taken advantage of cloud computing as a platform capable of handling the large scale processing and storage requirements to carry out their experiments. In particular, Bioinformatics must handle large amounts of data produced by modern genomic sequencing machines. Thus, several tools have been designed and implemented to take advantage of the infrastructure offered by cloud computing. However, as the computing power required can be very large, only public clouds, provided by large service providers, would be able to offer, individually, sufficient resources. In these conditions, there would be a technological dependence on the chosen service provider, making research institutions subject to the strategic choices of this provider. Furthermore, the existing computing infrastructure in these institutions would remain idle, causing great waste. Alternatively, Cloud Federation emerges as a way to allow the simultaneous use of several existing infrastructures in the various research institutions in an integrated manner, besides allowing the use of the resources offered by public clouds. The present work aims to propose an architecture of a hybrid cloud federation, called BioNimbus, capable of running applications and bioinformatics workflows in a transparent, flexible, efficient and fault-tolerant manner, with high processing power and huge storage capacity. The services required to build the federation are detailed, along with their requirements. We conducted a case study with a real work ow and real data through the implementation of a prototype of the architecture, integrating public and private clouds. With the results obtained, it was possible to observe the real applicability of the BioNimbus architecture, reaching the desired characteristics. At the same time, some details to be studied better in future work were identified in order to obtain a better implementation of a bioinformatics cloud federation.
72

Uma abordagem para indexação e buscas Full-Text baseadas em conteúdo em sistemas de armazenamento em nuvem

MACHADO, Marco André Santos 02 September 2013 (has links)
Submitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-11T19:17:29Z No. of bitstreams: 2 Dissertaçao marco machado.pdf: 1819409 bytes, checksum: 14795aacd4dc5db579f77a32e1eba511 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T13:12:18Z (GMT) No. of bitstreams: 2 Dissertaçao marco machado.pdf: 1819409 bytes, checksum: 14795aacd4dc5db579f77a32e1eba511 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T13:12:18Z (GMT). No. of bitstreams: 2 Dissertaçao marco machado.pdf: 1819409 bytes, checksum: 14795aacd4dc5db579f77a32e1eba511 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-09-02 / FACEPE / O “universo digital” cresce de forma exponencial e a previsão é que em 2015 chegue a quase 8 zettabytes. É cada vez mais complexo processar, armazenar, gerenciar, garantir a segurança e disponibilizar estas informações. O armazenamento em nuvem é apontado como melhor solução para lidar com estes problemas e muitos sistemas têm sido desenvolvidos com este fim. Grande parte destes sistemas tiram proveito da arquitetura peer-to-peer (p2p) para evitar gargalos, pontos únicos de falha e conseguir escalar de forma fácil. A maioria dos sistemas de armazenamento em nuvem existentes não permite que o usuário faça buscas mais complexas, por exemplo, levando em consideração o conteúdo dos arquivos ou informações presente nos metadados. Com isso essa pesquisa tem como objetivo propor uma abordagem para extração e indexação de conteúdo dos arquivos, de forma que o sistema permita que sejam realizadas buscas full-text baseadas no conteúdo dos arquivos em sistemas de armazenamento em nuvem com arquitetura peer-to-peer. Além disso, essa pesquisa também tem como objetivo investigar uma maneira eficiente para armazenar o índice de busca dentro da arquitetura P2P, de forma que seja possível replicar as informações com facilidade, permita elasticidade, garanta disponibilidade e, com isso, permitir que as buscas encontrem a maior quantidade de resultados relevantes possível.
73

Uma plataforma para suporte às bibliotecas digitais de eventos científicos com foco na extração de informação

ALVES, Neide Ferreira 16 August 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-04-17T14:18:29Z No. of bitstreams: 2 TESE Neide Ferreira Alves .pdf: 4496625 bytes, checksum: 5673d5cd06a3ba049f1bdaec261136d6 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-04-17T14:18:29Z (GMT). No. of bitstreams: 2 TESE Neide Ferreira Alves .pdf: 4496625 bytes, checksum: 5673d5cd06a3ba049f1bdaec261136d6 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-08-16 / A presente tese descreve as especificações e requisitos para o desenvolvimento de Bibliotecas Digitais de documentos textuais, considerando a possibilidade de reuso e a extração de dados. Considerando o imenso volume de informação disponível nesses repositórios, é de grande interesse a construção de sistemas capazes de selecionar automaticamente apenas os dados de interesse do usuário, facilitando assim o acesso, a manipulação e a divulgação dessas informações. O Modelo de Referências de Biblioteca Digital da DELOS foi utilizado para guiar a construção do ambiente, como consequência foi desenvolvida a plataforma pLiveMemory com módulos implementados para desktop e web, neste último, a infraestrutura da nuvem do Google é utilizada. Entre os módulos desenvolvidos há um específico para identificação e extração de referências bibliográficas, o qual usa, entre outros, o algoritmo de Naïve Bayes juntamente com as técnicas de expressões regulares. Também há um módulo para identificação de palavras-chave em arquivos de formato PDF editável. Os resultados obtidos mostraram os ganhos com a utilização das estratégias adotadas nas diversas fases do projeto, como na classificação automática de informação dos textos de artigos científicos.
74

Computação em nuvem: desafios e oportunidades para a forense computacional

Didoné, Dener 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T16:00:49Z (GMT). No. of bitstreams: 2 arquivo6996_1.pdf: 2349038 bytes, checksum: 5361a0a89eca437864d33f8fa0407ea7 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Com o advento e barateamento dos dispositivos eletrônicos, acrescidos da ubiqüidade oferecida pela Internet, presencia-se a crescente demanda por profissionais que combatam crimes realizados neste meio, os crimes digitais. Devido a isso, a forense computacional surge neste contexto como elemento limitador à perpetração de tais crimes, buscando a elucidação de ilícitos ocorridos em meio digital. Com o surgimento da computação em nuvem, à medida em que essa se torna onipresente, experimentou-se uma grande mudança de paradigmas na forma em que a computação é utilizada. Porém este novo conceito tem apresentado inúmeros desafios e oportunidades não claramente esclarecidos à forense computacional. A própria definição do que é nuvem ainda causa grande confusão na indústria e academia, porém a nuvem é uma evolução da Internet que permite que qualquer coisa seja entregue como um serviço (Everything as a Service - EaaS, XaaS, *aaS). Com a disseminação de dispositivos eletrônicos, utilizando a Internet em um contexto geral como nuvem, presencia-se um dos problemas em vista da forense computacional. Este desafio imposto aos peritos é caracterizado pelo aumento da capacidade de armazenamento de dispositivos eletrônicos, o que acaba impossibilitando a criação de imagens forenses, e até mesmo impossibilitando a análise dos dados encontrados. Com o objetivo de discutir e ampliar a literatura acerca do assunto são apresentados novos caminhos para a solução deste problema através da computação em nuvem, onde se elaborou uma possível solução utilizando-se da entrega de Forense como Serviço (Forensic as a Service FaaS). Esta entrega é demonstrada através desta plataforma flexível, elástica e dinâmica que é a nuvem, com poder de armazenamento e processamento "ilimitados". Os resultados sugerem uma diminuição do tempo gasto na perícia de grandes conjuntos de dados, e também uma redução significativa da quantidade de dados a serem analisados pelo perito. Além disso, percebe-se que o uso de forense como serviço torna-se uma alternativa interessante e viável para se trabalhar com grandes conjuntos de dados
75

Arquitetura baseada em redes de sensores sem fio e computação em nuvem para cidades inteligentes

REYES, Ronald Jared Romero 31 August 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-04-22T19:06:55Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Ronald Jared Romero Reyes.pdf: 4508109 bytes, checksum: 854b8c2bd8dc9fd94e127a546c711284 (MD5) / Made available in DSpace on 2016-04-22T19:06:55Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Ronald Jared Romero Reyes.pdf: 4508109 bytes, checksum: 854b8c2bd8dc9fd94e127a546c711284 (MD5) Previous issue date: 2015-08-31 / FACEPE / Devido às limitações das redes de sensores sem fio (RSSFs) em termos de recursos de memória, poder computacional, comunicação e escalabilidade, dois de seus grandes desafios são: o gerenciamento eficiente da vasta quantidade de dados coletados e o compartilhamento dos sensores entre diversas aplicações. Atualmente, existem várias propostas, com suporte da computação em nuvem, para a aplicação de sensores em cidades inteligentes. Contudo, tais soluções não oferecem ferramentas ou plataformas para o desenvolvimento de aplicações baseadas em RSSFs que façam a gestão dos dados, bem como forneçam interfaces padronizadas, para que usuários finais desenvolvam e gerenciem as aplicações e os serviços fornecidos pela mesma infraestrutura. Desta forma, esta dissertação propõe uma nova arquitetura baseada no paradigma de Computação Orientada a Serviços (SOC – Service-Oriented Computing), para o gerenciamento eficiente de dados de RSSFs heterogêneas. Propõe-se um mecanismo de virtualização que fornece representações lógicas: tanto para sensores individuais, quanto para agrupamentos, objetivando padronizar os dados gerados pelas RSSFs, além de prover o suporte à qualidade de serviço (QoS – Quality of Service) nos processos de coleta, armazenamento, processamento e distribuição destes dados. Além disso, a proposta fornece serviços para o desenvolvimento de aplicações consumidoras dos dados. A arquitetura proposta utiliza o framework WSO2©, o qual proporciona toda uma plataforma de middleware para desenvolver soluções baseadas em SOA (Service Oriented Architecture) no ambiente de computação em nuvem. Os serviços oferecidos pela proposta são fornecidos segundo o modelo PaaS (Plataform as a Service) pelo Apache Stratos, que executa sobre uma infraestrutura de nuvem gerenciada com OpenStack. A virtualização dos dados dos sensores é feita através do conceito de filas de um Middleware Orientado a Mensagens (MOM – Message Oriented Middleware) utilizando a API JMS (Java Message Service). O serviço de armazenamento dos dados das RSSFs é composto e executado pelo servidor de orquestração BPS (Business Process Server), que inclui o fluxo de dados entre os serviços de acesso às filas e os serviços de armazenamento no banco de dados. Este serviço é executado automaticamente como uma tarefa programada no ESB (Enterprise Service Bus), sendo invocado com uma periodicidade que dependerá da carga de dados no sistema. A implementação da arquitetura foi avaliada com diversas cargas e periodicidades na coleta de dados das RSSFs. As análises permitiram concluir que os componentes da arquitetura impactam minimamente no desempenho do sistema, ao mesmo tempo em que a proposta permite atingir os objetivos de gerenciamento eficiente dos dados e tratamento da heterogeneidade de sensores e aplicações. / Due to limitations of wireless sensor networks (WSNs) in terms of memory resources, computational power, communication and scalability, two of its biggest challenges are: the efficient management of the vast amount of data collected and sharing the sensors between various applications. Currently, there are several proposals with cloud computing support for the application of sensors in smart cities. However, such solutions do not provide tools or platforms for the development of applications based on WSNs, which make the management of data and provide standardized interfaces for end users to develop and manage applications and services provided by the same infrastructure. Thus, this work proposes a new architecture based on the paradigm of Service Oriented Computing (SOC), for efficient management of heterogeneous WSNs data. It proposes a virtualization engine that provides logical representations: for individual sensors, and for groups, aiming to standardize the data generated by WSNs, and provide support for quality of service (QoS) in the collection processes, storage, processing and distribution of data. Moreover, the proposal provides services for the development of data-intensive applications. The proposed architecture uses the WSO2 © framework, which provides a whole middleware platform to develop solutions based on SOA (Service Oriented Architecture) in the cloud computing environment. The services offered by the proposal are provided according to the PaaS model (Platform as a Service) by Apache Stratos, running on a cloud infrastructure managed with OpenStack. Virtualization of the data from the sensors is made through the concept of queues of a Message Oriented Middleware (MOM) using the JMS API (Java Message Service). The storage service data of WSN is composed and executed by BPS orchestration server (Business Process Server), which includes the flow of data between the access services to queues and storage services in the database. This service runs automatically as a scheduled task on the ESB (Enterprise Service Bus), being invoked at intervals that depend on the system’s workload. The implementation of the architecture was evaluated with various loads and data collection periodicity of WSNs. The analysis showed that the architectural components incur in a minimal impact on system performance at the same time as the proposal achieves the efficient management goals of data and management of heterogeneous sensors and applications.
76

MPSF: cloud scheduling framework for distributed workflow execution. / MPSF: um arcabouço para escalonamento em computação em nuvem para execução distribuída de fluxos de trabalho.

Nelson Mimura Gonzalez 16 December 2016 (has links)
Cloud computing represents a distributed computing paradigm that gained notoriety due to its properties related to on-demand elastic and dynamic resource provisioning. These characteristics are highly desirable for the execution of workflows, in particular scientific workflows that required a great amount of computing resources and that handle large-scale data. One of the main questions in this sense is how to manage resources of one or more cloud infrastructures to execute workflows while optimizing resource utilization and minimizing the total duration of the execution of tasks (makespan). The more complex the infrastructure and the tasks to be executed are, the higher the risk of incorrectly estimating the amount of resources to be assigned to each task, leading to both performance and monetary costs. Scenarios which are inherently more complex, such as hybrid and multiclouds, rarely are considered by existing resource management solutions. Moreover, a thorough research of relevant related work revealed that most of the solutions do not address data-intensive workflows, a characteristic that is increasingly evident for modern scientific workflows. In this sense, this proposal presents MPSF, the Multiphase Proactive Scheduling Framework, a cloud resource management solution based on multiple scheduling phases that continuously assess the system to optimize resource utilization and task distribution. MPSF defines models to describe and characterize workflows and resources. MPSF also defines performance and reliability models to improve load distribution among nodes and to mitigate the effects of performance fluctuations and potential failures that might occur in the system. Finally, MPSF defines a framework and an architecture to integrate all these components and deliver a solution that can be implemented and tested in real applications. Experimental results show that MPSF is able to predict with much better accuracy the duration of workflows and workflow phases, as well as providing performance gains compared to greedy approaches. / A computação em nuvem representa um paradigma de computação distribuída que ganhoudestaque devido a aspectos relacionados à obtenção de recursos sob demanda de modo elástico e dinâmico. Estas características são consideravelmente desejáveis para a execução de tarefas relacionadas a fluxos de trabalho científicos, que exigem grande quantidade de recursos computacionais e grande fluxo de dados. Uma das principais questões neste sentido é como gerenciar os recursos de uma ou mais infraestruturas de nuvem para execução de fluxos de trabalho de modo a otimizar a utilização destes recursos e minimizar o tempo total de execução das tarefas. Quanto mais complexa a infraestrutura e as tarefas a serem executadas, maior o risco de estimar incorretamente a quantidade de recursos destinada para cada tarefa, levando a prejuízos não só em termos de tempo de execução como também financeiros. Cenários inerentemente mais complexos como nuvens híbridas e múltiplas nuvens raramente são considerados em soluções existentes de gerenciamento de recursos para nuvens. Além destes fatores, a maioria das soluções não oferece mecanismos claros para tratar de fluxos de trabalho com alta intensidade de dados, característica cada vez mais proeminente em fluxos de trabalho moderno. Neste sentido, esta proposta apresenta MPSF, uma solução de gerenciamento de recursos baseada em múltiplas fases de gerenciamento baseadas em mecanismos dinâmicos de alocação de tarefas. MPSF define modelos para descrever e caracterizar fluxos de trabalho e recursos de modo a suportar cenários simples e complexos, como nuvens híbridas e nuvens integradas. MPSF também define modelos de desempenho e confiabilidade para melhor distribuir a carga e para combater os efeitos de possíveis falhas que possam ocorrer no sistema. Por fim, MPSF define um arcabouço e um arquitetura que integra todos estes componentes de modo a definir uma solução que possa ser implementada e utilizada em cenários reais. Testes experimentais indicam que MPSF não só é capaz de prever com maior precisão a duração da execução de tarefas, como também consegue otimizar a execução das mesmas, especialmente para tarefas que demandam alto poder computacional e alta quantidade de dados.
77

Uma taxonomia de sistemas de tolerância a falhas em ambientes de computação em nuvem open source /

Andrade, Vinicius Santos. January 2019 (has links)
Orientador: Aleardo Manacero / Banca: Rafael Pasquini / Banca: Rodolfo Ipolito Meneguetti / Resumo: Computação em nuvem oferece serviços de computação por meio da internet, utilizando máquinas virtuais. A garantia de elasticidade e pagamento sobre demanda são os principais motivos para atrair pessoas para aderirem a esta tecnologia. Infelizmente, existem diversos fatores que podem ocasionar erros que poderão gerar falha(s) no serviço, sendo que muitas vezes tais falhas acabam ocasionando perda de dados, por exemplo. Para evitar transtornos além da própria falha do serviço é importante que o suporte de tolerância a falhas em computação em nuvem seja robusto, garantindo que o ambiente se recupere na íntegra, de maneira ágil e sem a necessidade de interferência do cliente ou até do administrador. Um ambiente de tolerância a falhas envolve inúmeras variáveis, tanto entre causas da falha como técnicas de tratamento, fazendo com que uma falha possa ser suprida de N maneiras. Na literatura é possível encontrar muitos trabalhos relacionados a tolerância falhas em nuvem, o que causa grande dificuldade em identificar pontos que podem ser melhorados em relação à falhas no ambiente. Neste trabalho é apresentada uma sistematização das inúmeras propostas para tratamento de falhas em uma infraestrutura de computação em nuvem encontradas na literatura, criando uma classificação por origem da falha e forma de tratamento, na qual se aponta ainda pontos fortes e fracos de cada abordagem. Essa sistematização serviu de base para a construção de um web site com informações objetivas sobre as... / Abstract: Cloud computing offers computer services over the internet using virtual machines. The guarantee of elasticity and payment on demand are the main reasons attracting people to join the technology. Unfortunately, there are a number of factors that may cause errors that could lead to service failure(s), with such failures often resulting in loss of data, for example. In order to avoid disruptions beyond the fault itself, it is important that the fault tolerance support is robust, ensuring that the environment is recovered in full, in an agile manner and without the need for customer, or even system's manager, interference. A fault tolerant environment deals with a myriad of variables related to the failure's cause or its treatment, implying that a failure can be managed through N approaches. One can find several papers describing approaches to solve cloud computing failures, which causes great difficulty in identifying points that can be improved in relation to the flaws in the environment. This work presents a systematic review of the methods for fault tolerance in a cloud computing infrastructure that are found in the literature, creating a classification based in the failure's cause and the solution's approach, including their strong and weak points. This systematization became the basis of a website containing objective information about the identified solutions, creating a prototype of a recommendation system for cloud computing managers / Mestre
78

Going cloud: a grounded theory of the transition of work from in-house computing to cloud computing

Holz, Edvalter Becker 26 February 2018 (has links)
Submitted by Edvalter Becker Holz (edvalterholz@gmail.com) on 2018-04-19T10:47:42Z No. of bitstreams: 1 Going Cloud_a grounded theory of the transition of work from in-house computing to cloud computing.pdf: 7108554 bytes, checksum: beaade1f863333c52207eb25dd7917ec (MD5) / Approved for entry into archive by Debora Nunes Ferreira (debora.nunes@fgv.br) on 2018-04-20T17:03:31Z (GMT) No. of bitstreams: 1 Going Cloud_a grounded theory of the transition of work from in-house computing to cloud computing.pdf: 7108554 bytes, checksum: beaade1f863333c52207eb25dd7917ec (MD5) / Approved for entry into archive by Isabele Garcia (isabele.garcia@fgv.br) on 2018-04-20T19:07:40Z (GMT) No. of bitstreams: 1 Going Cloud_a grounded theory of the transition of work from in-house computing to cloud computing.pdf: 7108554 bytes, checksum: beaade1f863333c52207eb25dd7917ec (MD5) / Made available in DSpace on 2018-04-20T19:07:40Z (GMT). No. of bitstreams: 1 Going Cloud_a grounded theory of the transition of work from in-house computing to cloud computing.pdf: 7108554 bytes, checksum: beaade1f863333c52207eb25dd7917ec (MD5) Previous issue date: 2018-02-26 / This study pursues the following question: how does the transition of work from in-house computing to cloud computing happens? While seeking for answers, an empirical study was carried out over one year. Its research strategy and method is grounded theory, combined with ethnography as a means for gathering empirical material. The phenomenon analyzed was named going cloud, an expression that refers to the process of shifting the work from local computing to cloud computing. The phenomenon is described, explicated and exemplified from three categories, each one regarding one temporal stage: justifying (temporal stage 1: the implementation and communication of cloud computing results in rethinking how things get done); re-mediating (temporal stage 2: rethinking how things get done results in limiting what can be done in new ways); circumscribing (temporal stage 3: limiting what can be done in new ways results in routinely doing only the managerial work in new ways). The core find is that, at the end of the transition of work from in-house computing to cloud computing, only the managerial work becomes reorganized. The study offers two original contributions to the emerging literature on cloud computing: I) it introduces ‘going cloud’ as a new substantive domain; II) offers a grounded theory, which suggests how and why only the managerial work is reorganized while the organization goes cloud. The study also offers two original contributions to the well-established literature on technology and organizing: III) it advances the theoretical model of the imbrication of human and material agencies; IV) it advances the discussion about the adoption of agential or critical realism while studying sociomateriality. The conclusions indicate how to advance knowledge about the transition from local computing to cloud computing: I) studying how this transition can result in technical attributes performing tasks that do not require expert knowledge; II) studying how organizations and people are developing criteria for deciding what kind of information may or may not go to the cloud. The main implication is to develop longitudinal studies, in order to make comparisons between the work before and after the routine use of cloud computing. / Este estudo responde à seguinte questão: como acontece a transição do trabalho da computação local para a computação em nuvem? Ao buscar respostas, foi desenvolvido um estudo empírico com duração de um ano. A estratégia e método de pesquisa é a grounded theory, combinada com etnografia como meio de obtenção de material empírico. O fenômeno analisado foi nomeado going cloud, expressão que se refere ao processo de mudar o trabalho da computação local para a computação em nuvem. O fenômeno é descrito, explicado e exemplificado a partir de três categorias principais, cada uma relativa a um estágio temporal: justificando (estágio temporal 1: a implementação da computação em nuvem resulta em repensar como as coisas são feitas); remediando (estágio temporal 2: repensar como as coisas são feitas resulta em limitar o que pode ser feito de novas formas); circunscrevendo (estágio temporal 3: limitar o que pode ser feito de novas formas resulta em fazer apenas o trabalho gerencial de novas formas). O principal achado é que, ao final da transição, apenas o trabalho gerencial se torna reorganizado. O estudo oferece duas contribuições originais para a literatura emergente sobre computação em nuvem: I) introduz going cloud como um novo domínio substantivo; II) oferece uma grounded theory, a qual sugere como e por que apenas o trabalho gerencial é reorganizado enquanto a organização adota computação em nuvem. O estudo oferece também duas contribuições originais para a já estabelecida literatura sobre tecnologia e organizar: III) avança o modelo teórico sobre imbricação entre agências humana e material; IV) avança a discussão sobre adotar realismo agêntico ou crítico como posicionamento ontológico ao estudar sociomaterialidade. As conclusões indicam como avançar o conhecimento sobre a transição do trabalho da computação local para a computação em nuvem: I) estudando como esta transição pode resultar em atributos técnicos performando tarefas que não requerem conhecimento especialista; II) estudando como organizações e pessoas estão desenvolvendo critérios para decidir que tipo de informação pode ou não pode ir para a nuvem. A principal implicação é desenvolver estudos longitudinais, com o propósito de fazer comparações entre o trabalho antes e após o uso rotineiro da computação em nuvem.
79

A collaborative architecture against DDOS attacks for cloud computing systems. / Uma arquitetura colaborativa contra ataques distribuídos de negação de serviço para sistemas de computação em nuvem.

Almeida, Thiago Rodrigues Meira de 14 December 2018 (has links)
Distributed attacks, such as Distributed Denial of Service (DDoS) ones, require not only the deployment of standalone security mechanisms responsible for monitoring a limited portion of the network, but also distributed mechanisms which are able to jointly detect and mitigate the attack before the complete exhaustion of network resources. This need led to the proposal of several collaborative security mechanisms, covering different phases of the attack mitigation: from its detection to the relief of the system after the attack subsides. It is expected that such mechanisms enable the collaboration among security nodes through the distributed enforcement of security policies, either by installing security rules (e.g., for packet filtering) and/or by provisioning new specialized security nodes on the network. Albeit promising, existing proposals that distribute security tasks among collaborative nodes usually do not consider an optimal allocation of computational resources. As a result, their operation may result in a poor Quality of Service for legitimate packet flows during the mitigation of a DDoS attack. Aiming to tackle this issue, this work proposes a collaborative solution against DDoS attacks with two main goals: (1) ensure an optimal use of resources already available in the attack\'s datapath in a proactive way, and (2) optimize the placement of security tasks among the collaborating security nodes. Regardless the characteristics of each main goal, legitimate traffic must be preserved as packet loss is reduced as much as possible. / Sem resumo
80

Projeto de um broker de gerenciamento adaptativo de recursos em computação em nuvem baseado em técnicas de controle realimentado / Design of an adaptive resource management broker for cloud computing based on feedback control techniques

Nobile, Pedro Northon 25 February 2013 (has links)
Computação em nuvem refere-se a um modelo de disponibilização de recursos computacionais no qual a infraestrutura de software e hardware é ofertada como um serviço, e vem se estabelecendo como um paradigma de sucesso graças a versatilidade e ao custo-efetividade envolvidos nesse modelo de negócio, possibilitando o compartilhamento de um conjunto de recursos físicos entre diferentes usuários e aplicações. Com o advento da computação em nuvem e a possibilidade de elasticidade dos recursos computacionais virtualizados, a alocação dinâmica de recursos vem ganhando destaque, e com ela as questões referentes ao estabelecimento de contratos e de de qualidade de serviço. Historicamente, as pesquisas em QoS concentram-se na solução de problemas que envolvem duas entidades: usuários e servidores. Entretanto, em ambientes de nuvem, uma terceira entidade passa a fazer parte dessa interação, o consumidor de serviços em nuvem, que usa a infraestrutura para disponibilizar algum tipo de serviço aos usuários finais e que tem recebido pouca atenção das pesquisa até o momento, principalmente no que tange ao desenvolvimento de mecanismos automáticos para a alocação dinâmica de recursos sob variação de demanda. Este trabalho consiste na proposta de uma arquitetura de gerenciamento adaptativo de recursos sob a perspectiva do modelo de negócio envolvendo três entidades, focada na eficiência do consumidor. O trabalho inspira-se em técnicas de controle realimentado para encontrar soluções adaptativas aos problemas de alocação dinâmica de recursos, resultando em uma arquitetura de broker de consumidor, um respectivo protótipo e um método de projeto de controle para sistemas computacionais dessa natureza / CLoud computing refers to a computer resource deployment model in which software and hardware infrastructure are offered as a service. Cloud computing has become a successful paradigm due to the versatility and cost-effectiveness involved in that business model, making it possible to share a cluster of physical resources between several users and applications. With the advent of cloud computing and the computer elastic resource, dynamic allocation of virtualized resources is becoming more prominent, and along with it, the issues concerning the establishment of quality of service parameters. Historically, research on QoS has focused on solutions for problems involving two entities: users and servers. However, in cloud environments, a third party becomes part of this interaction, the cloud consumer, that uses the infrastructure to provide some kind of service to endusers, and which has received fewer attention, especially regarding the development of autonomic mechanisms for dynamic resource allocation under time-varying demand. This work aims at the development of an architecture for dynamic adaptive resource allocation involving three entities, focused on consumer revenue. The research outcome is a consumer broker architecture based on feedback control, a respective architecture prototype and a computer system feedback control methodology which may be applied in this class of problems

Page generated in 0.0824 seconds