• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 263
  • 48
  • 14
  • 12
  • 10
  • 10
  • 10
  • 9
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 331
  • 331
  • 331
  • 211
  • 209
  • 52
  • 50
  • 49
  • 48
  • 43
  • 43
  • 42
  • 42
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Algoritmo distribuído para alocação de múltiplos recursos em ambientes distribuídos. / Distributed algorithm for multiple resource allocation in a distributed environment.

Ribacionka, Francisco 07 June 2013 (has links)
Ao considerar um sistema distribuído composto por um conjunto de servidores, clientes e recursos, que caracterizam ambientes como grades ou nuvens computacionais, que oferecem um grande número de recursos distribuídos como CPUs ou máquinas virtuais, os quais são utilizados conjuntamente por diferentes tipos de aplicações, tem-se a necessidade de se ter uma solução para alocação destes recursos. O apoio à alocação dos recursos fornecidos por tais ambientes deve satisfazer todas as solicitações de recursos das aplicações, e fornecer respostas afirmativas para alocação eficiente de recursos, fazer justiça na alocação no caso de pedidos simultâneos entre vários clientes de recursos e responder em um tempo finito a requisições. Considerando tal contexto de grande escala em sistemas distribuídos, este trabalho propõe um algoritmo distribuído para alocação de recursos. Este algoritmo explora a Lógica Fuzzy sempre que um servidor está impossibilitado de atender a uma solicitação feita por um cliente, encaminhando esta solicitação a um servidor remoto. O algoritmo utiliza o conceito de relógio lógico para garantir justiça no atendimento das solicitações feitas em todos os servidores que compartilham recursos. Este algoritmo segue o modelo distribuído, onde uma cópia do algoritmo é executada em cada servidor que compartilha recursos para seus clientes, e todos os servidores tomam parte das decisões com relação a alocação destes recursos. A estratégia desenvolvida tem como objetivo minimizar o tempo de resposta na alocação de recursos, funcionando como um balanceamento de carga em um ambiente cliente-servidor com alto índice de solicitações de recursos pelos clientes. A eficiência do algoritmo desenvolvido neste trabalho foi comprovada através da implementação e comparação com outros algoritmos tradicionais, mostrando a possibilidade de utilização de recursos que pertencem a distintos servidores por uma mesma solicitação de recursos, com a garantia de que esta requisição será atendida, e em um tempo finito. / When considering a distributed system composed of a set of servers, clients, and resources that characterize environments like computational grids or clouds that offer a large number of distributed resources such as CPUs or virtual machines, which are used jointly by different types of applications, there is the need to have a solution for allocating these resources. Support the allocation of resources provided by such environments must satisfy all Requests for resources such applications, and provide affirmative answers to the efficient allocation of resources, to do justice in this allocation in the case of simultaneous Requests from multiple clients and answer these resources in a finite time these Requests. Considering such a context of large- scale distributed systems, this paper proposes a distributed algorithm for resource allocation This algorithm exploits fuzzy logic whenever a server is unable to meet a request made by a client, forwarding this request to a remote server. The algorithm uses the concept of logical clock to ensure fairness in meeting the demands made on all servers that share resources. This algorithm follows a distributed model, where a copy of the algorithm runs on each server that shares resources for its clients and all servers take part in decisions regarding allocation of resources. The strategy developed aims to minimize the response time in allocating resources, functioning as a load-balancing in a client-server environment with high resource Requests by customers.
252

Uma abordagem dirigida por modelos para desenvolvimento de aplicações multi-paas / A model-driven aproach to develop multi-PaaS applications

Silva, Elias Adriano Nogueira da 01 September 2017 (has links)
No contexto da Engenharia de Software para a Computação em Nuvem as pesquisas relacionadas ao tema são cada vez mais crescentes e investiga-se como a Computação em Nuvem influenciará no desenvolvimento de sistemas de uma maneira geral. A atividade de construir sistemas para nuvem é uma tarefa complexa, criar aplicações de múltiplas nuvens, sobretudo, no contexto do modelo de serviço Plataforma-como-um-Serviço(PaaS), é ainda mais agravada devido especificidades de plataformas de nuvem que podem tornar a tarefa de desenvolvimento repetitiva, custosa e dependente de um provedor específico. As abordagens dirigidas por modelos(MDE) resolvem alguns desses problemas, elas propõem que a modelagem e mecanismos de transformação utilizados para gerar código a partir de modelos são uma melhor maneira de desenvolver sistemas de software, ao invés da codificação pura. Portanto, visando investigar como combinar os benefícios da Computação em Nuvem alinhados ao MDE, foi desenvolvida uma abordagem dirigida por modelos para desenvolvimento de aplicações multi-PaaS. Em direção a este objetivo foi realizado um Estudo de Caso em colaboração com uma empresa da indústria. Essa colaboração permitiu a criação de implementações de referencia que possibilitaram o desenvolvimento de uma Linguagem Específica de Domínio (DSL) e metaprogramas que compõem a abordagem. Para avaliar a abordagem desenvolvida foi realizado um Estudo de Caso. Os resultados mostram que MDE pode não só resolver o problema, mas trazer benefícios adicionais em relação a abordagens tradicionais de desenvolvimento de sistemas. Este trabalho explora esses benefícios, apresenta uma maneira de unir recursos heterogêneos de nuvem por meio de uma abordagem dirigida por modelos e aplicações orientadas a serviço. / Cloud computing is a computational paradigm that has increasingly been used in various sectors of industry and academia. Researchers have been studying how cloud technologies can influence several areas of science and research. In the context of Software Engineering, the researches related to cloud are increasingly increasing. Researchers are studying how to develop better cloud services offerings and how to find a strategy for combining existing resources to build improved services and solve problems. Building cloud systems is a complex task, in the context of the Platform-as-a-Service(PaaS) cloud service model; this activity is further aggravated by cloud platform specificities that can make the task of development repetitive, costly,and platform-specific. Model-driven approaches (MDE) solve some of these issues; they propose that the modeling and transformation mechanisms used to generate code from models are a better way to develop software systems, rather than pure coding. Development with MDE is a comprehensive and relevant research area and needs to be better explored in a wide range of contexts. Therefore, in order to investigate how to combine the benefits of multi-cloud appications aligned to the MDE, we developed a model-driven approach to build multi-PaaS applications.Toward this objective, we performed a case study in collaboration with an industry company.This collaboration allowed the creation of reference implementations that enabled the development of a Domain Specific Language (DSL) and metaprograms that constitute the approach. To evaluate the approach, we performed a case study. The results show that MDE cannot only solve the problem, but also bring additional benefits over traditional systems development approaches. This work explores these benefits, presents a way to combine heterogeneous cloud resources through a service-driven model and application-driven approach.
253

GreenMACC - Uma arquitetura para metaescalonamento verde com provisão de QoS em uma nuvem privada / GreenMACC - an architecture for green metascheduling with QoS provisioning in a private cloud

Carvalho Junior, Osvaldo Adilson de 15 December 2014 (has links)
Esta tese de Doutorado tem como objetivo apresentar uma arquitetura para metaescalonamento verde com provisão de qualidade de serviço em uma nuvem privada denominada GreenMACC. Essa nova arquitetura oferece a automatização na escolha de políticas em quatro estágios de escalonamento de uma nuvem privada, permitindo cumprir a negociação que foi estabelecida com o usuário. Devido a essa função, é possível garantir que o GreenMACC se comporte seguindo os princípios da computação verde sem deixar de se preocupar com a qualidade do serviço. Nesta tese o GreenMACC é apresentado, detalhado, discutido, validado e avaliado. Com os resultados apresentados pode-se concluir que a arquitetura proposta mostrou-se consistente, permitindo a execução dos serviços requisitados com diversas políticas de escalonamento em todos os seus estágios. Além disso, demonstrou flexibilidade em receber novas políticas, com focos verde e de qualidade de serviço, e eficiência na escolha das políticas de escalonamento de acordo com a negociação feita com o usuário. / This PhD thesis aims to present an architecture for green metascheduling with provision of quality of service in a private cloud called GreenMACC. This new architecture offers the possibility of choosing automatically the four stage scheduling policies of a private cloud, allowing to reach the users negotiation. As a result of this function, it is possible to ensure that GreenMACCs behavior follows the green computing principles and also is worried about the quality of the service. In this thesis Green- MACC is presented, particularized, discussed, validated and evaluated. The results show that the proposed architecture is consistent, allowing the execution of the requested services considering various scheduling policies in the stages. Moreover, GreenMACC proves to be flexible as allows new policies, focusing on green and quality of service, and to be efficient as chooses the scheduling policies following the users negotiation.
254

A Multi-tier fog architecture for vídeo on demand streaming / Uma arquitetura de névoa multicamada para streaming de vídeo sob demanda

SANTOS, Hugo Leonardo Melo dos 05 March 2018 (has links)
Submitted by Luciclea Silva (luci@ufpa.br) on 2018-06-12T14:48:14Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Multi-tierfogarchitecture.pdf: 1995624 bytes, checksum: d87887746c56923151f9613fa98af2b1 (MD5) / Approved for entry into archive by Luciclea Silva (luci@ufpa.br) on 2018-06-12T14:49:33Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Multi-tierfogarchitecture.pdf: 1995624 bytes, checksum: d87887746c56923151f9613fa98af2b1 (MD5) / Made available in DSpace on 2018-06-12T14:49:33Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Multi-tierfogarchitecture.pdf: 1995624 bytes, checksum: d87887746c56923151f9613fa98af2b1 (MD5) Previous issue date: 2018-03-05 / Os usuários estão mudando seus hábitos de comunicação tradicional com base em chamadas de voz ou mensagens de texto para serviços de vídeo em tempo real ou sob demanda consumidos em dispositivos móveis. Nesse sentido, a transmissão de conteúdo de vídeo considerando uma Qualidade de Experência (QoE) adequada nas infraestruturas de redes sem fio móvel é um problema crítico nas comunidades acadêmicas e industriais. Além disso, o vídeo sob demanda tem um consumo crescente na Internet, exigindo maior largura de banda e menor latência. Neste contexto, um paradigma de computação em névoa pode ser aplicado para melhorar a experiência do usuário em redes sem fio. A computação em névoa pode melhorar a QoE para transmissão de vídeo sob demanda, tanto fazendo cache de vídeo quanto fazendo adaptação de conteúdo na borda da rede. No entanto, é importante avaliar o desempenho do download de vídeos com diferentes configurações de codec e em cache mais próximo do usuário para medir o ganho sob perspectiva do usuário. Projetamos uma arquitetura de computação em névoa de várias camadas com 3 níveis localizados na nuvem, um perto da borda e outra nos dispositivos m´oveis. Avaliamos o desempenho do download do vídeo de vários níveis localizados em aplicações geográficas distintas para aplicações multimídia. N´os avaliamos em um ambiente experimental com rede livre e congestionada de vídeos transmitidos codificados em H.264 e H.265 com 3 taxas de bits em um cenário implantado no testbed FIBRE. Nós coletamos métricas de QoE, tempo de inicial para reprodução, tempo de congelamento, métricas de QoS, tempo de viagem ida e volta do pacote e consumo de energia para analisar os ganhos para cada configuração de vídeo. Esses resultados mostraram uma compreensão importante do uso de cache , codec e taxa de bits em cenários de redes multimídia. / Users are changing their traditional communication paradigm based on voice calls or text messages to real-time or on demand video services consumed on mobile devices. In this sense, the transmission of video content considering an adequate Quality of Experience (QoE) in mobile wireless networking infrastructures is a critical issue in both academic and industrial communities. Furthermore, video on demand have a growing consumption over Internet requiring higher bandwidth and lower latency. In this context, a fog computing paradigm can enhance the user experience in wireless networks. Fog computing for video on demand streaming can improve QoE by both video caching and adaptation schemes. However, it is important to evaluate the performance of downloading the videos with different codec configuration and cached closer to the user to measure the gain from the user perspective. We designed a multi-tier fog computing architecture with three levels located in the cloud, nearer the edge and in mobile devices. We evaluated the performance of downloading the video from multiple tier located in distinct geographical with a multimedia application. We assessed in an experimental environment with idle and congested network of streamed videos coded into H.264 and H.265 with three bitrates in a scenario deployed in the FIBRE testbed. We collected QoE metrics, playback start time, freeze times, QoS metric, round-time trip, and energy consumption to analyze the gains for each video configuration. These results showed an important understanding about cache, codec and bitrate schemes in multimedia networking scenarios.
255

A Multi-tier fog architecture for video on demand streaming / Uma Arquitetura de fogos multi-tier para video on demanda streaming

SANTOS, Hugo Leonardo Melo dos 05 March 2018 (has links)
Submitted by Luciclea Silva (luci@ufpa.br) on 2018-08-07T16:36:35Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Multi-tierFogArchitecture.pdf: 1995624 bytes, checksum: d87887746c56923151f9613fa98af2b1 (MD5) / Approved for entry into archive by Luciclea Silva (luci@ufpa.br) on 2018-08-07T16:38:20Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Multi-tierFogArchitecture.pdf: 1995624 bytes, checksum: d87887746c56923151f9613fa98af2b1 (MD5) / Made available in DSpace on 2018-08-07T16:38:20Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Multi-tierFogArchitecture.pdf: 1995624 bytes, checksum: d87887746c56923151f9613fa98af2b1 (MD5) Previous issue date: 2018-03-05 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Os usuários estão mudando seus hábitos de comunicação tradicional com base em chamadas de voz ou mensagens de texto para serviços de vídeo em tempo real ou sob demanda consumidos em dispositivos móveis. Nesse sentido, a transmissão de conteúdo de vídeo considerando uma Qualidade de Experiência (QoE) adequada nas infraestruturas de redes sem fio móvel é um problema crítico nas comunidades acadêmicas e industriais. Além disso, o vídeo sob demanda tem um consumo crescente na Internet, exigindo maior largura de banda e menor latência. Neste contexto, um paradigma de computação em névoa pode ser aplicado para melhorar a experiência do usuário em redes sem fio. A computação em névoa pode melhorar a QoE para transmissão de vídeo sob demanda, tanto fazendo cache de vídeo quanto fazendo adaptação de conteúdo na borda da rede. No entanto, é importante avaliar o desempenho do download de vídeos com diferentes configurações de codec e em cache mais próximo do usuário para medir o ganho sob perspectiva do usuário. Projetamos uma arquitetura de computação em névoa de váriias camadas com 3 níveis localizados na nuvem, um perto da borda e outra nos dispositivos móveis. Avaliamos o desempenho do download do vídeo de vários níveis localizados em aplicações geográficas distintas para aplicações multimídia. Nós avaliamos em um ambiente experimental com rede livre e congestionada de vídeos transmitidos codificados em H.264 e H.265 com 3 taxas de bits em um cenário implantado no testbed FIBRE. Nós coletamos métricas de QoE, tempo de inicial para reprodução, tempo de congelamento, métricas de QoS, tempo de viagem ida e volta do pacote e consumo de energia para analisar os ganhos para cada configuração de vídeo. Esses resultados mostraram uma compreensão importante do uso de cache , codec e taxa de bits em cenários de redes multimídia. / Users are changing their traditional communication paradigm based on voice calls or text messages to real-time or on demand video services consumed on mobile devices. In this sense, the transmission of video content considering an adequate Quality of Experience (QoE) in mobile wireless networking infrastructures is a critical issue in both academic and industrial communities. Furthermore, video on demand have a growing consumption over Internet requiring higher bandwidth and lower latency. In this context, a fog computing paradigm can enhance the user experience in wireless networks. Fog computing for video on demand streaming can improve QoE by both video caching and adaptation schemes. However, it is important to evaluate the performance of downloading the videos with diferent codec con_guration and cached closer to the user to measure the gain from the user perspective. We designed a multi-tier fog computing architecture with three levels located in the cloud, nearer the edge and in mobile devices. We evaluated the performance of downloading the video from multiple tier located in distinct geographical with a multimedia application. We assessed in an experimental environment with idle and congested network of streamed videos coded into H.264 and H.265 with three bitrates in a scenario deployed in the FIBRE testbed. We collected QoE metrics, playback start time, freeze times, QoS metric, round-time trip, and energy consumption to analyze the gains for each video configuration. These results showed an important understanding about cache, codec and bitrate schemes in multimedia networking scenarios.
256

GTTracker: serviço móvel para identificação de oportunidades comerciais

Cazarotto, Paulo Henrique 12 March 2013 (has links)
Submitted by Vanessa Nunes (vnunes@unisinos.br) on 2015-03-20T14:01:27Z No. of bitstreams: 1 PauloCazarotto.pdf: 2368123 bytes, checksum: ee9ef223d6270c29dbdc67ab2ce0bec6 (MD5) / Made available in DSpace on 2015-03-20T14:01:27Z (GMT). No. of bitstreams: 1 PauloCazarotto.pdf: 2368123 bytes, checksum: ee9ef223d6270c29dbdc67ab2ce0bec6 (MD5) Previous issue date: 2013 / Nenhuma / A crescente adoção de meios eletrônicos para comércio de produtos e serviços oferece a empresas um canal entre consumidores e vendedores. Este canal de comunicação para vendas é mantido tradicionalmente através de investimentos em plataformas de e-commerce. No cenário atual, cada empresa adquire ou desenvolve sua própria plataforma de comércio eletrônico. Este método possui um custo elevado e inviabiliza a entrada de pequenas e micro empresas no canal de comunicação. Neste âmbito, este trabalho propõe a disponibilização de um serviço compartilhado para publicação de ofertas e demandas que possibilita a identificação de oportunidades de negócio baseadas na localização dos usuários. Diferente de trabalhos relacionados estudados, o modelo é projetado para tirar proveito das funcionalidades disponibilizadas pela computação em nuvem, fácil provisionamento e baixo custo. Para tal, o modelo realiza o matching entre oferta e demanda utilizando estratégias de processamento em uma organização hierárquica, baseada em regiões. Através da implementação de um protótipo baseado neste modelo de processamento, chamado de GTTracker, foi possível compreender como um serviço projetado para atuar sobre recursos virtualizados escalonáveis pode se comportar. É foco da avaliação a apresentação do perfil de consumo dos recursos de infraestrutura durante diferentes cenários de acesso ao serviço. Os experimentos demonstraram que alguns mecanismos utilizados no serviço podem reduzir o consumo de recursos da infraestrutura e aumentar o desempenho do serviço proposto. A avaliação demonstra que é possível a implantação do serviço de forma progressiva, sobre uma plataforma de baixo custo, oferecendo um canal de comunicação acessível para quem deseja comprar e vender em qualquer lugar e a qualquer hora, utilizando um dispositivo móvel. / The increased adoption of electronic commerce for product and service allows companies to use a new channel between consumers and vendors. This communication channel for sales is traditionally held through investments in e-commerce platforms. In the current scenario, each company acquires or develops its own e-commerce platform. This method has a high cost and slows the entry of small companies in the communication channel. In this context, this work proposes a shared service for supply and demand publishing, which allows the identification of business opportunities based on user’s location. Unlike related works studied, the model is designed to take advantage of the features offered by cloud computing, such as easy provisioning and low-cost. Furthermore, the model performs the matching between supply and demand using processing strategies in a hierarchical organization, based on regions. We implemented a prototype based on this model, called GTTracker, to understand how the designed servisse performs on scalable virtualized resources. The focus of this assessment is profiling the infrastructure resources consumption, employing scenarios with different access patterns. The experiments demonstrated which mechanisms, used in the service, can reduce the resources consumption. Moreover, the evaluation shows an increase in the performance of GTTracker. The evaluation shows that managers can deploy the application gradually, using a low-cost platform. Additionally, GTTracker provides a channel of communication accessible to those users looking to buy or sell products wherever they are and at anytime, using a mobile device.
257

Elastic-RAN: Um modelo de elasticidade multinível com grão adaptativo para Cloud Radio Access Network

Andrioli, Leandro 31 July 2018 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2018-11-13T11:19:19Z No. of bitstreams: 1 Leandro Andrioli_.pdf: 6621163 bytes, checksum: b4a58154b0441ad094c57bbbea979ac4 (MD5) / Made available in DSpace on 2018-11-13T11:19:20Z (GMT). No. of bitstreams: 1 Leandro Andrioli_.pdf: 6621163 bytes, checksum: b4a58154b0441ad094c57bbbea979ac4 (MD5) Previous issue date: 2018-07-31 / Nenhuma / Até o ano de 2020, espera-se que a área de cobertura das redes de celulares aumente em 10 vezes, com mais de 50 bilhões de dispositivos conectados, suportando 100 vezes mais equipamentos de usuários e elevando a capacidade da taxa de dados em 1000 vezes. Tal circunstância gerará um aumento massivo no tráfego de dados, fomentando o desenvolvimento da 5G e fazendo com que a indústria e as iniciativas científicas passem a voltar seus esforços para atender a essa demanda. Ganha força, então, as pesquisas relacionadas a Cloud Radio Access Networks (C-RANs), uma arquitetura que consolida as base stations (BSs) para um ponto centralizado na nuvem, mudando a ideia de atuar com recursos fixos e limitados, na medida em que se beneficia de uma das características chave da Computação em Nuvem: a elasticidade de recursos. Um dos grandes desafios na arquitetura C-RAN reside na complexidade em orquestrar todos esses recursos computacionais de forma que o processamento das requisições seja realizado com alto desempenho e com o menor custo de infraestrutura possível. Diante de todo esse contexto, a presente dissertação busca desenvolver o modelo Elastic-RAN, propondo um conceito de elasticidade multinível não bloqueante, com orquestração automática de recursos através da coordenação de BBU Pools e seus BBUs, junto a um mecanismo de grão elástico adaptativo. A elasticidade multinível não bloqueante permite controlar o nível de BBU Pool (máquina física), haja vista o alto volume de tráfego e a distância máxima sugerida entre as antenas e os pools, e o nível de BBU (máquina virtual), em razão do alto processamento de CPU e memória necessária para as requisições, de modo a não penalizar os processamentos correntes. O mecanismo de grão elástico adaptativo permite provisionar e mapear os recursos sob demanda e em tempo de execução, considerando o uso corrente dos recursos, para que cada ação elástica seja executada com um grão próximo das necessidades correntes de processamento. O modelo Elastic-RAN foi avaliado por intermédio de experimentos que simularam diferentes perfis de cargas, os quais são executados em uma aplicação intensiva de CPU e de tráfego na rede, explorando a transferência de streamings e processando decodificação de blocos. Como resultados, foi possível constatar que o Elastic-RAN pode atingir ganhos que vão de 4% a 26%, em relação aos custos de execução, quando comparado à abordagem de elasticidade tradicional. Além disso, obteve melhor eficiência para todos os perfis de carga e reduziu em até 55% a quantidade de operações elásticas necessárias. Outrossim, frente a abordagem sem elasticidade, os ganhos de custos foram ainda superiores, ficando entre 51% e 70%. / It is expected that, by 2020, cell phone networks will have been increased 10 times their coverage area, with more than 50 billion connected devices, supporting 100 times more user equipment and increasing data rate capacity by 1000 times. This will lead to a massive increase in data traffic, fostering the development of 5G and making industry and scientific initiatives turn their efforts to meet this demand. In this scenario, Cloud Radio Access Networks (C-RANs) based researches, an architecture that consolidates base stations (BSs) to a cloud-centric point, are gaining momentum, changing the idea of fixed and limited resources, as it benefits from one of the key features of Cloud Computing: resource elasticity. One of the major challenges in C-RAN architecture lies in the high complexity of orchestrating all of these computational resources in order to perform the requests processing with high performance and the lowest possible infrastructure cost. Considering this context, the present dissertation seeks to develop the Elastic-RAN model, proposing a multilevel non-blocking elasticity concept, with automatic orchestration of resources through the coordination of BBU Pools and their BBUs, with an adaptive elastic grain mechanism. The multilevel non-blocking elasticity allows it control the level of BBU Pool (physical machine), given the high volume of traffic and the suggested maximum distance between antennas and pools, and the level of BBU (virtual machine), due to the high CPU processing and memory required for the requests, so as not to penalize the current processing. The adaptive elastic grain mechanism allows the provisioning and mapping of resources on demand and at runtime, considering the current use of resources, so that each elastic action is performed with a grain close to the current processing needs. The Elastic-RAN model was evaluated through experiments that simulated different load profiles, which are executed in an intensive CPU and network traffic application, exploiting the transfer of streamings and processing block decoding. As a result, it was possible to observe that Elastic-RAN may achieve gains ranging from 4 % to 26 %, in relation to execution costs, when compared to the traditional elasticity approach. In addition, it achieved better efficiency for all load profiles and reduced by 55 % the amount of elastic operations required. Also, given the non-elasticity approach, cost gains were even higher, going from 51 % to 70 %.
258

Autoelastic: explorando a elasticidade de recursos de computação em nuvem para a execução de aplicações de alto desempenho iterativa

Rodrigues, Vinicius Facco 29 February 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-05-09T12:51:39Z No. of bitstreams: 1 Vinicius Facco Rodrigues_.pdf: 2415611 bytes, checksum: 1672419839adc1b3095f04e90badce93 (MD5) / Made available in DSpace on 2016-05-09T12:51:40Z (GMT). No. of bitstreams: 1 Vinicius Facco Rodrigues_.pdf: 2415611 bytes, checksum: 1672419839adc1b3095f04e90badce93 (MD5) Previous issue date: 2016-02-29 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / PROSUP - Programa de Suporte à Pós-Gradução de Instituições de Ensino Particulares / Elasticidade de recursos é uma das características chave da Computação em Nuvem. Através dessa funcionalidade, recursos computacionais podem ser adicionados ou removidos ao ambiente a qualquer momento, permitindo aplicações escalarem dinamicamente, evitando provisionamento excessivo ou restrito de recursos. Considerando a área de computação de alto desempenho, conhecida também como HPC (High Performance Computing), iniciativas baseadas em sacola-de-tarefas utilizam um balanceador de carga e instâncias de máquinas virtuais (VM) fracamente acopladas. Neste cenário, os processos desempenham papéis independentes, facilitando a adição e remoção de VM’s pois o balanceador de carga se encarrega de distribuir tarefas entre os processos das VM’s ativas. Entretanto, aplicações HPC iterativas se caracterizam por serem fortemente acopladas e terem dificuldade de obter vantagem da elasticidade pois, em tais aplicações, geralmente os processos são fixos durante todo o tempo de execução. Devido a isso, a simples adição de novos recursos não garante que os mesmos serão utilizados pelos processos da aplicação. Além disso, a remoção de processos pode comprometer a inteira execução da aplicação, pois cada processo desempenha um papel fundamental em seu ciclo de execução. Aplicações iterativas voltadas para HPC são comumente implementadas utilizando MPI (Message Passing Interface) e neste contexto, fazer o uso da elasticidade torna-se um desafio pois é necessária a reescrita do código fonte para o tratamento da reorganização de recursos. Tal estratégia muitas vezes requer um conhecimento prévio do comportamento da aplicação, sendo necessárias interrupções do fluxo de execução nos momentos de reorganização de recursos. Além disso, utilizando MPI 2.0, em que há a possibilidade da alteração da quantidade de processos em tempo de execução, existem problemas relacionados em como tirar proveito da elasticidade pois o desenvolvedor deve por si mesmo gerenciar a reorganização da topologia de comunicação. Ainda, consolidações repentinas de máquinas virtuais que executam processos da aplicação podem comprometer a sua execução. Focando nessas questões, propõe-se nessa dissertação um modelo de elasticidade baseado na camada PaaS (Platform as a Service) da nuvem, chamado AutoElastic. AutoElastic age como um middleware permitindo que aplicações HPC iterativas obtenham vantagem do provisionamento de recursos dinâmico de uma infraestrutura de nuvem sem a necessidade de modificações no código fonte. AutoElastic oferece a elasticidade de forma automática, não sendo necessária a configuração de regras por parte do usuário. O mecanismo de elasticidade conta com a utilização de threholds fixos além de oferecer uma nova abordagem em que eles se auto ajustam durante a execução da aplicação. Ainda, AutoElastic oferece também um novo conceit o nomeado como elasticidade assíncrona, o qual oferece um arcabouço para permitir que a execução de aplicações não seja bloqueada enquanto recursos são adicionados ou removidos do ambiente. A viabilidade de AutoElastic é demonstrada através de um protótipo que executa uma aplicação de integração numérica CPU-Bound sobre a plataforma de nuvem OpenNebula. Resultados com tal aplicação demonstraram ganhos de desempenho de 28,4% a 59% quando comparadas diferentes execuções elásticas e não elásticas. Além disso, testes com diferentes parametrizações de thresholds e diferentes cargas de trabalho demonstraram que no uso de thresholds fixos, o valor do threshold superior possui maior impacto que o inferior no desempenho e consumo de recursos por parte da aplicação. / Elasticity is one of the key features of cloud computing. Using this functionality, we can increase or decrease the amount of computational resources of the cloud at any time, enabling applications to dynamically scale computing and storage resources, avoiding overand under-provisioning. In high performance computing (HPC), initiatives like bag-oftasks or key-value applications use a load balancer and a loosely-coupled set of virtual machine (VM) instances. In this scenario, it is easier to add or remove virtual machines because the load balancer is in charge of distribute tasks between the active processes. However, iterative HPC applications are characterized by being tightly-coupled and have difficulty to take advantage of the elasticity because in such applications the amount of processes is fixed throughout the application runtime. In fact, the simple addition of new resources does not guarantee that the processes will use them. Moreover, removing a single process can compromise the entire execution of the application because each process plays a key role in its execution cycle. Iterative applications related to HPC are commonly implemented using MPI (Message Passing Interface). In the joint-field of MPI and tightly-coupled HPC applications, it is a challenge use the elasticity feature since we need re-write the source code to address resource reorganization. Such strategy requires prior knowledge of application behaviour, requiring stop-reconfigure-and-go approaches when reorganizing resources. Besides, using MPI 2.0, in which the number of process can be changed during the application execution, there are problems related to how profit this new feature in the HPC scope, since the developer needs to handle the communication topology by himself. Moreover, sudden consolidation of a VM, together with a process, can compromise the entire execution. To address these issues, we propose a PaaS-based elasticity model, named AutoElastic. It acts as a middleware that allows iterative HPC applications to take advantage of dynamic resource provisioning of cloud infrastructures without any major modification. AutoElastic offers elasticity automatically, where the user does not need to configure any resource management policy. This elastic mechanism includes using fixed thresholds as well as offering a new approach where it self adjusts the threshold values during the application execution. AutoElastic provides a new concept denoted here as asynchronous elasticity, i.e., it provides a framework to allow applications to either increase or decrease their computing resources without blocking the current execution. The feasibility of AutoElastic is demonstrated through a prototype that runs a CPU-bound numerical integration application on top of the OpenNebula middleware. Results with a parallel iterative application showed performance gains between 28.4% and 59% when comparing different executions enabling and disabling elasticity feature. In addition, tests with different parameters showed that when using threshold-rule based techniques with fixed thresholds, the upper threshold has a greater impact in performance and resource consumption than the lower threshold.
259

Redes definidas por software na flexibilização de centrais de dados para sistemas de computação em nuvem

Lopes, Robson Ferreira January 2014 (has links)
Orientadora: Profª. Drª. Christiane Marie Schweitzer / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Engenharia da Informação, 2014. / Os sistemas em nuvem representam uma nova solução para provedores de serviços de rede para empresas de pequeno e médio porte. Esses provedores possuem centrais de dados com grande quantidade de servidores, instalados sobre uma estrutura virtualizada e que permite a alocação dos espaços para diversas empresas que tem necessidade de hospedagem de serviços e dados e não possuem recursos financeiros para sua própria central de dados. Por meio das Redes Definidas por Software (Software Defined Networks - SDN) o plano de controle está separadodo plano de dados fazendo surgir uma nova solução de operação e gerenciamento das redes. Oplano de dados é composto por switches, roteadores e hosts, responsável pelo tráfego dainformação através de seus fluxos, enquanto o plano de controle é implementado emsoftwaree é responsável pelo roteamento de pacotes e arquitetura. Os controladores são responsáveispela manutenção dos fluxos. Atualmente os controladores disponíveis para utilização e decódigo aberto, são: NOX, POX, Maestro, Beacon e Floodlight. Assim, o uso de SDN emsistemas de computação em nuvem, permite uma flexibilização da operação e gerenciamentode centrais de dados. Neste sentido, este trabalho procurou avaliar a resistência de controladoresSDNs diante de ataques de negação de serviço, que possam interromper seu funcionamento,comprometendo a segurança da rede, por meio de testes constatou-se que o controlador NOXapresentou um comportamento bastante satisfatório, mantendo as conexões de rede ativas sobstress. Além disso, diante do problema que administradores de centrais de dados se defrontamquando precisam alocar ou aumentar as máquinas virtuais no conjunto de servidores da nuvem,nem sempre é possível alocar máquinas virtuais próximas umas das outras no mesmo servidor,interferindo na vazão da rede, foi investigada uma solução para permitir esta reorganização.Esta solução foi chamada de desfragmentador de redes e permite o deslocamento das máquinasvirtuais, fazendo com que sejam alocadas em um único conjunto físico de servidores. Estareorganização é feita sob demanda e em tempo real, e os resultados apresentados são bastante interessantes mostrando a viabilidade da solução. / Cloud systems represent a new solution for network service providers for small and mid-sized companies. These providers have datacenters with large amount of servers, installed on a virtualized structure and allowing the allocation of spaces for several companies that have needof hosting services and data and they do not have the financial resources to your own datacenter. In the Software Defined Networks (SDNs), the control plane is separated from the data plan making a new solution of networks operation and management. The data plan is composed of switches, routers and hosts, responsible for the traffic information through its streams, while the control plan is implemented in software and is responsible for the architecture and routing of packets. Controllers are responsible for the management of the streams. Currently, the available controllers, for use and open source, are: NOX, POX, Maestro, Beacon and Floodlight. Thus, the use of SDN, in cloud computing systems, allows a flexibility of operation and management of datacenters. In this sense, this work sought to evaluate the resistance of SDNs controllers in front of denial-of-service attacks that can disruptits operation, compromising network security, by testing it was found that the NOX controllerpresented a quite satisfying behavior, keeping active network connections under stress.Moreover, faced with the problem that datacenter administrators when they need to allocate orincrease the virtual machines in the cloud servers, it is not always possible to allocate virtualmachines near to each other on the same server, interfering with network flow, was investigateda solution to allow this reorganization. This solution was called the network defragmenter and allows the movement of virtual machines, which are allocated on a single set of physical servers. This reorganisation is made on demand and in real time, and the results are quite interesting, showing the viability of the solution.
260

Avaliação de um Sistema Escalável de Classificação CNAE Implementado em Cloud Computing

Veronese, Lucas de Paula 17 March 2011 (has links)
Made available in DSpace on 2016-12-23T14:33:35Z (GMT). No. of bitstreams: 1 Lucas de Paula Veronese.pdf: 2538988 bytes, checksum: c17a3042d9904bfe301764e3ca465825 (MD5) Previous issue date: 2011-03-17 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Em problemas de classificação automática de texto com um grande número de rótulos, as bases de dados de treinamento são extensas, o que pode tornar o tempo de classificação proibitivo para os sistemas on-line. Destarte, nossa motivação para a realização deste trabalho veio da necessidade de o Governo Federal implementar no país um Cadastro Sincronizado Nacional (CSN) de empresas, onde a Classificação Nacional de Atividades Econômicas (CNAE) seria parte constituinte. Nesta tarefa de classificação, são associados um ou mais códigos CNAE-Subclasses à descrição de atividades econômicas de empresas. Vale destacar que, em 2009, a tarefa de atribuir ou revisar tais códigos CNAE foi realizada no país cerca de duas milhões de vezes. Diante disto, para a realização deste trabalho, nós investigamos o uso de servidores Web baseado em Cloud Computing devido à escalabilidade e ao baixo custo de desenvolvimento e operação. Pela facilidade de utilização e fornecimento de quotas livres, o servidor de Cloud Computing escolhido para desenvolvimento da aplicação foi o Google App Engine. Desta forma, nós projetamos, implementamos e hospedamos um sistema de classificação de textos dentro de tal servidor. No entanto, o Google App Engine cobra pelo serviço que ultrapassa a quantidade de quota livre (renovável diariamente), então, quanto menor a complexidade do processamento do sistema, menor o custo financeiro da aplicação. Foi feita uma otimização no sistema de armazenamento dos classificadores, aproveitando as características das bases de dados textuais. Houve uma redução do custo computacional do sistema e, em consequência, para a demanda atual de requisições CNAE o custo financeiro anual seria de 2000 dólares americanos. Este é um valor irrisório se comparado aos custos de infra-estrutura, manutenção e energia necessários para realizar um serviço semelhante ao de um servidor Web tradicional / In problems in automatic text classification with a large number of labels, training databases are large, therefore the classification time can become prohibitive for online rating systems. Thus, our motivation for this work came from the need of the Federal Government to implement a Cadastro Sincronizado Nacional (CSN) of companies, where the Classificação Nacional de Atividades Econômicas (CNAE) would compose the system. In this classification task one or more CNAE-Subclasses codes are associated to the description of the economic activities of companies. It is worth noticing that in 2009, the task of assigning codes or revise the CNAE was done in the country about 2 million times. This way, we investigated the use ofWeb servers based on Cloud Computing on its scalability and low cost of development and operation. Due to the ease of use and free quotas, the Cloud Computing server chosen for this application development was Google App Engine. Thus, we designed, implemented and hosted a system of classification of such texts on the server. However, Google App Engine service charges for exceeding the amount of free quota (renewable every day), whereas the lower the complexity of the processing system, the lower the financial cost of implementation. Aiming this, an optimization was performed on the storage system of classifiers, taking advantage of the features of the text base. We successfully reduced the computational cost of the system and, in consequence, it was estimated that for the current demand of requests the CNAE annual financial cost would be $ 2,000. This is a small amount when it is compared to the cost of infrastructure, maintenance and power that would take to perform a similar service to a traditional Web server

Page generated in 0.0895 seconds