• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 778
  • 220
  • 122
  • 65
  • 54
  • 33
  • 32
  • 30
  • 28
  • 21
  • 15
  • 14
  • 9
  • 9
  • 7
  • Tagged with
  • 1599
  • 1599
  • 390
  • 281
  • 244
  • 243
  • 240
  • 236
  • 231
  • 226
  • 215
  • 210
  • 177
  • 174
  • 152
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
641

RepliC: replicação elástica de banco de dados multi-inquilino em nuvem com qualidade de serviço / RepliC: elastic multi-tenant database replication in the cloud with quality of service

Sousa, Flávio Rubens de Carvalho January 2013 (has links)
SOUSA, Flávio Rubens de Carvalho. RepliC: replicação elástica de banco de dados multi-inquilino em nuvem com qualidade de serviço. 2013. 132 f. Tese (Doutorado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2013. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-19T19:47:51Z No. of bitstreams: 1 2013_tese_frcsousa.pdf: 4788267 bytes, checksum: 309c8c9a9a33c86ed21a274ae7a693a5 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-25T11:44:18Z (GMT) No. of bitstreams: 1 2013_tese_frcsousa.pdf: 4788267 bytes, checksum: 309c8c9a9a33c86ed21a274ae7a693a5 (MD5) / Made available in DSpace on 2016-07-25T11:44:18Z (GMT). No. of bitstreams: 1 2013_tese_frcsousa.pdf: 4788267 bytes, checksum: 309c8c9a9a33c86ed21a274ae7a693a5 (MD5) Previous issue date: 2013 / Fatores econômicos estão levando ao aumento das infraestruturas e instalações de fornecimento de computação como um serviço, conhecido como Cloud Computing ou Computação em Nuvem, onde empresas e indivíduos podem alugar capacidade de computação e armazenamento, em vez de fazerem grandes investimentos de capital necessários para a construção e instalação de equipamentos de computação em larga escala. Na nuvem, o usuário do serviço tem algumas garantias, tais como desempenho e disponibilidade. Essas garantias de qualidade de serviço (QoS) são definidas entre o provedor do serviço e o usuário e expressas por meio de um acordo de nível de serviço (SLA). Este acordo consiste de contratos que especificam um nível de qualidade que deve ser atendido e penalidades em caso de falha. Muitas empresas dependem de um SLA e estas esperam que os provedores de nuvem forneçam SLAs baseados em características de desempenho. Contudo, em geral, os provedores baseiam seus SLAs apenas na disponibilidade dos serviços oferecidos. Sistemas de gerenciamento de banco de dados (SGBDs) para computação em nuvem devem tratar uma grande quantidade de aplicações, tenants ou inquilinos. Abordagens multi-inquilino têm sido utilizadas para hospedar vários inquilinos dentro de um único SGBD, favorecendo o compartilhamento eficaz de recursos, além de gerenciar uma grande quantidade de inquilinos com padrões de carga de trabalho irregulares. Por outro lado, os provedores em nuvem devem reduzir os custos operacionais garantindo a qualidade. Neste contexto, uma característica chave é a replicação de banco de dados, que melhora a disponibilidade, desempenho e, consequentemente, a qualidade do serviço. Técnicas de replicação de dados têm sido usadas para melhorar a disponibilidade, o desempenho e a escalabilidade em diversos ambientes. Contudo, a maior parte das estratégias de replicação de banco de dados têm se concentrado em aspectos de escalabilidade e consistência do sistema com um número estático de réplicas. Aspectos relacionados à elasticidade para banco de dados multi-inquilino têm recebido pouca atenção. Estas questões são importantes em ambientes em nuvem, pois os provedores precisam adicionar réplicas de acordo com a carga de trabalho para evitar violação do SLA e eles precisam remover réplicas quando a carga de trabalho diminui, além de consolidar os inquilinos. Visando solucionar este problema, este trabalho apresenta RepliC, uma abordagem para a replicação de banco de dados em nuvem com foco na qualidade do serviço, elasticidade e utilização eficiente dos recursos por meio de técnicas multi-inquilino. RepliC utiliza informações dos SGBDs e do provedor para provisionar recursos de forma dinâmica. Com o objetivo de avaliar RepliC, experimentos que medem a qualidade de serviço e elasticidade são apresentados. Os resultados destes experimentos confirmam que RepliC garante a qualidade com uma pequena quantidade de violação do SLA enquanto utiliza os recursos de forma eficiente.
642

Abordagem para qualidade de serviço em banco de dados multi-inquilinos em nuvem / Approach for quality of service to multi-tenant databases in the cloud

Moreira, Leonardo Oliveira January 2014 (has links)
MOREIRA, Leonardo Oliveira. Abordagem para qualidade de serviço em banco de dados multi-inquilinos em nuvem. 2014. 130 f. Tese (Doutorado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2014. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-20T12:23:19Z No. of bitstreams: 1 2014_tese_lomoreira.pdf: 7232081 bytes, checksum: 6cf653b1eec3b011e37f11dd52c67b79 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-25T11:58:40Z (GMT) No. of bitstreams: 1 2014_tese_lomoreira.pdf: 7232081 bytes, checksum: 6cf653b1eec3b011e37f11dd52c67b79 (MD5) / Made available in DSpace on 2016-07-25T11:58:40Z (GMT). No. of bitstreams: 1 2014_tese_lomoreira.pdf: 7232081 bytes, checksum: 6cf653b1eec3b011e37f11dd52c67b79 (MD5) Previous issue date: 2014 / Cloud computing is a well-established paradigm of computing resources usage, whereby hardware infrastructure, software and platforms for the development of new applications are offered as services available remotely and globally. Cloud computing users give up their own infrastructure to dispose of it through the services offered by cloud providers, to which they delegate aspects of Quality of Service (QoS) and assume costs proportional to the amount of resources they use, which is based on a payment model. These QoS guarantees are established between the service provider and the user, and are expressed through Service Level Agreements (SLA). This agreement consists of contracts that specify a level of quality that must be met, and penalties in case of failure. The majority of cloud applications are data-driven, and thus Database Management Systems (DBMSs) are potential candidates for cloud deployment. Cloud DBMS should treat a wide range of applications or tenants. Multi-tenant models have been used to consolidate multiple tenants within a single DBMS, favoring the efficient sharing of resources, and to manage a large number of tenants with irregular workload patterns. On the other hand, cloud providers must be able to reduce operational costs while keeping quality levels as agreed. To many applications, the longer time spent in processing requests is related to the DBMS runtime. Therefore, it becomes important to apply a quality model to obtain DBMS performance. Dynamic provisioning techniques are geared to treat irregular workloads so that SLA violations are avoided. Therefore, it is necessary to adopt a strategy to adjust the cloud at the time a behavior that may violate the SLA of a given tenant (database) is predicted. The allocation techniques are applied in order to utilize the resources of the environment to the dentriment of provisioning. Based on both the monitoring and the optimization models systems, the allocation techniques will decide the best place to assign a given tenant to. In order to efficiently perform the transfer of the tenant, minimal service interruption, Live Migration techniques are adopted. It is believed that the combination of these three techniques may contribute to the development of a robust QoS solution to cloud databases which minimizes SLA violations. Faced with these challenges, this thesis proposes an approach, called PMDB, to improve DBMS QoS in multi-tenant cloud. The approach aims to reduce the number of SLA violations and take advantage the resources that are available using techniques that perform workload prediction, allocation and migration of tenants when greater capacity resources are needed. An architecture was then proposed and a prototype implementing such techniques was developed, besides monitoring strategies and QoS oriented database applications in the cloud. Some performance oriented experiments were then specified to show the effectiveness of our approach. / A computação em nuvens é um paradigma bem consolidado de utilização de recursos computacionais, segundo o qual infraestrutura de hardware, software e plataformas para o desenvolvimento de novas aplicações são oferecidos como serviços disponíveis remotamente e em escala global. Os usuários de nuvens computacionais abrem mão de uma infraestrutura computacional própria para dispô-la mediante serviços oferecidos por provedores de nuvem, delegando aspectos de Qualidade de Serviço (QoS) e assumindo custos proporcionais à quantidade de recursos que utilizam modelo de pagamento baseado no uso. Essas garantias de QoS são definidas entre o provedor do serviço e o usuário, e expressas por meio de Acordo de Nível de Serviço (SLA), o qual consiste de contratos que especificam um nível de qualidade a ser atendido, e penalidades em caso de falha. A maioria das aplicações em nuvem é orientada a dados e, por conta disso, Sistemas Gerenciadores de Banco de Dados (SGBDs) são candidatos potenciais para a implantação em nuvem. SGBDs em nuvem devem tratar uma grande quantidade de aplicações ou inquilinos. Os modelos de multi-inquilinatos são utilizados para consolidar vários inquilinos dentro de um só SGBD, favorecendo o compartilhamento eficaz de recursos, além de gerenciar uma grande quantidade de inquilinos com padrões de carga de trabalho irregulares. Por outro lado, os provedores em nuvem devem reduzir os custos operacionais, garantindo a qualidade. Para muitas aplicações, o maior tempo gasto no processamento das requisições está relacionado ao tempo de execução do SGBD. Portanto, torna-se importante que um modelo de qualidade seja aplicado ao SGBD para seu desempenho. Técnicas de provisionamento dinâmico são voltadas para o tratamento de cargas de trabalho irregulares, para que violações de SLA sejam evitadas. Sendo assim, uma estratégia para ajustar a nuvem no momento em que se prevê um comportamento que pode violar o SLA de um dado inquilino (banco de dados) deve ser considerada. As técnicas de alocação são usadas no intuito de aproveitar os recursos do ambiente em detrimento ao provisionamento. Com base nos sistemas de monitoramento e de modelos de otimização, as técnicas de alocação decidem onde será o melhor local para receber um dado inquilino. Para realizar a transferência do inquilino de forma eficiente, técnicas de Live Migration são adotadas para ter o mínimo de interrupção do serviço. Acredita-se que a combinação destas três técnicas podem contribuir para o desenvolvimento de um solução robusta de QoS para bancos de dados em nuvem, minimizando violações de SLA. Ante tais desafios, esta tese apresenta uma abordagem, denominada PMDB, para melhorar QoS em SGBDs multi-inquilinos em nuvem. A abordagem tem como objetivo reduzir o número de violações de SLA e aproveitar os recursos à disposição por meio de técnicas que realizam predição de carga de trabalho, alocação e migração de inquilinos quando necessitam de recursos com maior capacidade. Para isso, uma arquitetura foi proposta e um protótipo implementado com tais técnicas, além de estratégias de monitoramento e QoS voltada para aplicações de banco de dados em nuvem. Ademais, alguns experimentos orientados a desempenho foram especificados para mostrar a eficiência da abordagem a fim de alcançar o objetivo em foco.
643

Um serviço de offloading de dados contextuais com suporte à privacidade / A Contextual Data Offloading Service With Privacy Support

Gomes, Francisco Anderson de Almada January 2017 (has links)
GOMES, Francisco Anderson de Almada. Um serviço de offloading de dados contextuais com suporte à privacidade. 2017. 95 f. Dissertação (Mestrado em Ciência da Computação)- Universidade Federal do Ceará, Fortaleza, 2017. / Submitted by Jonatas Martins (jonatasmartins@lia.ufc.br) on 2017-05-26T13:43:05Z No. of bitstreams: 1 2017_dis_faagomes.pdf: 5747766 bytes, checksum: 678be7c6e0c8e999826aa6d7060bebb5 (MD5) / Approved for entry into archive by Jairo Viana (jairo@ufc.br) on 2017-05-26T17:04:18Z (GMT) No. of bitstreams: 1 2017_dis_faagomes.pdf: 5747766 bytes, checksum: 678be7c6e0c8e999826aa6d7060bebb5 (MD5) / Made available in DSpace on 2017-05-26T17:04:18Z (GMT). No. of bitstreams: 1 2017_dis_faagomes.pdf: 5747766 bytes, checksum: 678be7c6e0c8e999826aa6d7060bebb5 (MD5) Previous issue date: 2017 / Mobile devices became a common tool in our daily routine. Mobile applications are demanding access to contextual information increasingly. For instance, applications require user’s environment data as well as their profiles in order to adapt themselves (interfaces, services, content) according to this context data. Mobile applications with this behavior are known as context-aware applications. Several software infrastructures have been created to help the development of this applications. However, it was verified that most of them do not store history of the contextual data, since mobile devices are resource constrained. They are not built taking into account the privacy of contextual data either, due the fact that applications may expose contextual data without user consent. This dissertation addresses these topics by extending an existing middleware platform that help the development of mobile context-aware applications. This work present a service named COP (Contextual data Offloading service with Privacy Support) and is based in: (i) a context model, (ii) a privacy policy and (iii) synchronization policies. The COP aims to store and process the contextual data generated from several mobile devices, using the computational power of the cloud. To evaluate this work we developed an application that uses both the migration and the privacy mechanism of the contextual data of the COP. Other two experiments were made. The first experiment evaluated the impact of contextual filter processing in mobile device and remote environment, in which the processing time and energy consumption were measured. In this experiment was possible to conclude that the migration of data from mobile device to a remote environment is advantageous. The second experiment evaluated the energy consumption to send contextual data. / Dispositivos móveis tornaram-se uma ferramenta comum no dia a dia das pessoas. Aplicações móveis cada vez mais exigem o acesso às informações contextuais. Por exemplo, aplicações requerem os dados do ambiente do usuário, bem como dos seus perfis, a fim de se adaptarem (interfaces, serviços, conteúdo) de acordo com esses dados de contexto. Aplicações com esse comportamento são conhecidas como aplicações sensíveis ao contexto. Várias infraestruturas de software foram criadas para ajudar no desenvolvimento dessas aplicações. No entanto, foi verificado que a maioria delas não possui um histórico dos dados contextuais, uma vez que os dispositivos móveis são limitados em recursos de armazenamento. Também foi verificado que a maioria delas não é construída levando em conta a privacidade dos dados contextuais, o que pode levar à exposição desses dados sem o consentimento do usuário. Esta dissertação aborda tais tópicos, estendendo uma plataforma de middleware existente que ajuda o desenvolvimento de aplicativos móveis e sensíveis ao contexto. Este trabalho apresenta um serviço denominado COP (Contextual data Offloading service with Privacy Support) e é baseado em: (i) um modelo de contexto, (ii) uma política de privacidade e (iii) em políticas de sincronização de dados. O COP visa armazenar e processar os dados contextuais gerados a partir de vários dispositivos móveis, utilizando o poder computacional da nuvem. Para avaliar este trabalho foi desenvolvida uma aplicação que utiliza tanto a migração como o mecanismo de privacidade dos dados contextuais do COP. Outros dois experimentos foram feitos. O primeiro experimento avaliou o impacto da execução de filtros contextuais no dispositivo móvel e no ambiente remoto, em que foi medido o tempo e gasto energético desse processamento. Nesse experimento foi possível concluir que a migração de dados de um dispositivo móvel para um ambiente remoto é vantajosa. O segundo experimento avaliou o gasto energético para o envio dos dados contextuais.
644

Workload modeling and prediction for resources provisioning in cloud

Magalhães, Deborah Maria Vieira 23 February 2017 (has links)
MAGALHÃES, Deborah Maria Vieira. Workload modeling and prediction for resources provisioning in cloud. 2017. 100 f. Tese (Doutorado em Engenharia de Teleinformática)–Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2017. / Submitted by Hohana Sanders (hohanasanders@hotmail.com) on 2017-06-02T16:11:24Z No. of bitstreams: 1 2017_tese_dmvmagalhães.pdf: 5119492 bytes, checksum: 581c09b1ba042cf8c653ca69d0aa0d57 (MD5) / Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2017-06-02T16:18:39Z (GMT) No. of bitstreams: 1 2017_tese_dmvmagalhães.pdf: 5119492 bytes, checksum: 581c09b1ba042cf8c653ca69d0aa0d57 (MD5) / Made available in DSpace on 2017-06-02T16:18:39Z (GMT). No. of bitstreams: 1 2017_tese_dmvmagalhães.pdf: 5119492 bytes, checksum: 581c09b1ba042cf8c653ca69d0aa0d57 (MD5) Previous issue date: 2017-02-23 / The evaluation of resource management policies in cloud environments is challenging since clouds are subject to varying demand coming from users with different profiles and Quality de Service (QoS) requirements. Factors as the virtualization layer overhead, insufficient trace logs available for analysis, and mixed workloads composed of a wide variety of applications in a heterogeneous environment frustrate the modeling and characterization of applications hosted in the cloud. In this context, workload modeling and characterization is a fundamental step on systematizing the analysis and simulation of the performance of computational resources management policies and a particularly useful strategy for the physical implementation of the clouds. In this doctoral thesis, we propose a methodology for workload modeling and characterization to create resource utilization profiles in Cloud. The workload behavior patterns are identified and modeled in the form of statistical distributions which are used by a predictive controller to establish the complex relationship between resource utilization and response time metric. To this end, the controller makes adjustments in the resource utilization to maintain the response time experienced by the user within an acceptable threshold. Hence, our proposal directly supports QoS-aware resource provisioning policies. The proposed methodology was validated through two different applications with distinct characteristics: a scientific application to pulmonary diseases diagnosis, and a web application that emulates an auction site. The performance models were compared with monitoring data through graphical and analytical methods to evaluate their accuracy, and all the models presented a percentage error of less than 10 %. The predictive controller was able to dynamically maintain the response time close to the expected trajectory without Service Level Agreement (SLA) violation with an Mean Absolute Percentage Error (MAPE) = 4.36%. / A avaliação de políticas de gerenciamento de recursos em nuvens computacionais é uma tarefa desafiadora, uma vez que tais ambientes estão sujeitos a demandas variáveis de usuários com diferentes perfis de comportamento e expectativas de Qualidade de Serviço (QoS). Fatores como overhead da camada de virtualização, indisponibilidade de dados e complexidade de cargas de trabalho altamente heterogêneas dificultam a modelagem e caracterização de aplicações hospedadas em nuvens. Neste contexto, caracterizar e modelar a carga de trabalho (ou simples- mente carga) é um passo importante na sistematização da análise e simulação do desempenho de políticas de gerenciamento dos recursos computacionais e uma estratégia particularmente útil antes da implantação física das nuvens. Nesta tese de doutorado, é proposta uma metodologia para modelagem e caracterização de carga visando criar perfis de utilização de recursos em Nuvem. Os padrões de comportamento das cargas são identificados e modelados sob a forma de distribuições estatísticas as quais são utilizadas por um controlador preditivo a fim de estabelecer a complexa relação entre a utilização dos recursos e a métrica de tempo de resposta. Desse modo, o controlador realiza ajustes no percentual de utilização do recursos a fim de manter o tempo de resposta observado pelo o usuário dentro de um limiar aceitável. Assim, nossa proposta apoia diretamente políticas de provisionamento de recursos cientes da Qualidade de Serviço (QoS). A metodologia proposta foi validada através de aplicações com características distintas: uma aplicação científica para o auxílio do diagnóstico de doenças pulmonares e uma aplicação Web que emula um site de leilões. Os modelos de desempenho computacional gerados foram confrontados com os dados reais através de métodos estatísticos gráficos e analíticos a fim de avaliar sua acurácia e todos os modelos apresentaram um percentual de erro inferior a 10%. A modelagem proposta para o controlador preditivo mostrou-se efetiva pois foi capaz de dinamicamente manter o tempo de resposta próximo ao valor esperado, com erro percentual absoluto médio (MAPE ) = 4.36% sem violação de SLA.
645

Um Mecanismo de offloading de dados com tomada de decisão

Lima Filho, Joari Santiago 28 July 2017 (has links)
LIMA FILHO, J. S. Um Mecanismo de offloading de dados com tomada de decisão. 2017. 63 f. Dissertação (Mestrado em Engenharia de Teleinformática)–Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2017. / Submitted by Renato Vasconcelos (ppgeti@ufc.br) on 2017-09-08T18:15:22Z No. of bitstreams: 1 2017_dis_jslimafilho.pdf: 1815706 bytes, checksum: 4259b6681ae6971d1aa77d5dd975ec5b (MD5) / Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2017-09-08T19:04:32Z (GMT) No. of bitstreams: 1 2017_dis_jslimafilho.pdf: 1815706 bytes, checksum: 4259b6681ae6971d1aa77d5dd975ec5b (MD5) / Made available in DSpace on 2017-09-08T19:04:33Z (GMT). No. of bitstreams: 1 2017_dis_jslimafilho.pdf: 1815706 bytes, checksum: 4259b6681ae6971d1aa77d5dd975ec5b (MD5) Previous issue date: 2017-07-28 / According to IBGE (Brazilian Institute of Geography and Statistics), 92.1% of home access to the Internet was made by mobile phones. Due to the physical limitations, the processing power of these devices and the life of the batteries have not matched the growing demand of mobile applications. In the mobile cloud computing paradigm, offloading techniques are used to augment computation and power capacities of mobile devices as well as to reduce the execution time of tasks. In this dissertation, we propose a data offloading mechanism that selects and migrates files to a local infrastructure (cloudlet), assisting computation offloading frameworks to reduce the amount of data sent over the network. The mechanism uses the application methods execution history, as well as the network condition, to create decision trees that help deciding when and which files used by these methods should be transferred. The experiments results indicate that our mechanism reduces the processing offloading time by up to 19.5%. / De acordo com o IBGE (Instituto Brasileiro de Geografia e Estatística), 92,1% do acesso domici- liar à Internet passou a ser feito pelos telefones móveis celulares. Devido às limitações físicas, o poder de processamento desses dispositivos e o tempo de vida das baterias não têm acompanhado a exigência crescente dos aplicativos móveis. No paradigma de mobile cloud computing, as técnicas de offloading permitem a extensão das capacidades energética e computacional de dispositivos móveis, bem como a redução do tempo de execução de procedimentos. Nesta dis- sertação, propomos um mecanismo de offloading de dados que seleciona e migra arquivos para uma infraestrutura local (cloudlet) auxiliando os frameworks de offloading de processamento a reduzirem a quantidade de dados enviados pela rede. O mecanismo utiliza-se do histórico de execuções dos métodos dos aplicativos, assim como das condições da rede, para criar árvores de decisão que auxiliam na decisão de quando e quais arquivos utilizados por estes métodos devem ser transferidos. Os resultados dos experimentos indicam que a utilização do mecanismo proposto reduz o tempo do offloading de processamento em até 19,5%.
646

Um framework para a construção automatizada de cloud monitoring slices baseados em múltiplas soluções de monitoramento

Carvalho, Márcio Barbosa de January 2015 (has links)
Computação em nuvem é um paradigma em que provedores oferecem recursos computacionais como serviços, que são contratados sob demanda e são acessados através da Internet. Os conjuntos de recursos computacionais contratados são chamados de cloud slices, cujo monitoramento fornece métricas essenciais para atividades como a operação da infraestrutura, verificação do cumprimento de SLAs e medição da qualidade do serviço percebida pelos usuários. Além disso, o monitoramento também é oferecido como serviço para os usuários, que podem contratar métricas ou serviços de monitoramento diferenciados para seus cloud slices. O conjunto de métricas associadas a um cloud slice juntamente com as configurações necessárias para coletá-las pelas soluções de monitoramento é chamado de monitoring slice, cuja função é acompanhar o funcionamento do cloud slice. Entretanto, a escolha de soluções para serem utilizadas nos monitoring slices é prejudicada pela falta de integração entre soluções e plataformas de computação em nuvem. Para contornar esta falta de integração, os administradores precisam implementar scripts geralmente complexos para coletar informações sobre os cloud slices hospedados na plataforma, descobrir as operações realizadas na plataforma, determinar quais destas operações precisam ser refletidas no monitoramento de acordo com as necessidades do administrador e gerar as configurações dos monitoring slices. Nesta dissertação é proposto um framework que mantém monitoring slices atualizados automaticamente quando cloud slices são criados, modificados ou destruídos na plataforma de nuvem. Neste framework, os monitoring slices são mantidos de acordo com regras predefinidas pelos administradores oferecendo a flexibilidade que não está disponível nas soluções de monitoramento atuais. Desta forma, o desenvolvimento de scripts complexos é substituído pela configuração dos componentes do framework de acordo com as necessidades dos administradores em relação ao monitoramento. Estes componentes realizam a integração do framework com as plataformas e soluções de monitoramento e podem já ter sido desenvolvidos por terceiros. Caso o componente necessário não esteja disponível, o administrador pode desenvolvê-lo facilmente aproveitando as funcionalidades oferecidas pelo framework. Para avaliar o framework no contexto de nuvens do modelo IaaS, foi desenvolvido o protótipo chamado FlexACMS (Flexible Automated Cloud Monitoring Slices). A avaliação do FlexACMS mostrou que o tempo de resposta para a criação de monitoring slices é independente do número de cloud slices no framework. Desta forma, foi demonstrada a viabilidade e escalabilidade do FlexACMS para a criação de monitoring slices para nuvens IaaS. / Cloud computing is a paradigm that providers offer computing resources as services, which are acquired on demand and are accessed through the Internet. The set of acquired computing resources are called cloud slices, whose monitoring offers essential metrics for activities as infrastructure operation, SLA supervision, and quality of service measurement. Beyond, the monitoring is also offered as a service to users, that can acquire both differentiated metrics or monitoring services to their cloud slices. The set of metrics associated to a cloud slice and the required configuration to collect them by monitoring solutions is called monitoring slice, whose function is keep up with the cloud slice functioning. However, the monitoring solution choice to compose monitoring slices is harmed by lack of integration between solutions and cloud platforms. To overcome this lack of integration, the administrators need to develop scripts usually complex to collect information about cloud slices hosted by the platform, to discover the operations performed in the platform, to determine which operations need to be reflected in the monitoring according to the administrator’s needs, and to generate the monitoring slice configuration. This dissertation proposes a framework that keeps monitoring slices updated automatically when cloud slices are created, modified, or destroyed in the cloud platform. In this framework, the monitoring slices are kept according to rules defined by administrators, which offers the flexibility that is not available in current monitoring solutions. In this way, the framework replaces the development of complex scripts by the configuration of framework’s components according to administrator’s needs in regards to monitoring. These components perform the framework integration with platforms and monitoring solutions and may be already developed by third parties. If required component is not available, the administrator can easily develop it availing functionalities offered by the framework. In order to evaluate the framework in the context of IaaS clouds, a prototype called FlexACMS (Flexible Automated Cloud Monitoring Slices) was developed. The FlexACMS evaluation showed that response time to create monitoring slices is independent of the number of cloud slices in the framework. In this way, the FlexACMS feasibility and scalability was demonstrated for creation of monitoring slices for IaaS clouds.
647

Flexible and integrated resource management for IaaS cloud environments based on programmability / Gerenciamento de recursos flexível e integrado para ambientes de nuvem iaas baseado em programabilidade

Wickboldt, Juliano Araújo January 2015 (has links)
Nuvens de infraestrutura como serviço (IaaS) estão se tornando um ambiente habitual para execução de aplicações modernas da Internet. Muitas plataformas de gerenciamento de nuvem estão disponíveis para aquele que deseja construir uma nuvem de IaaS privada ou pública (e.g., OpenStack, Eucalyptus, OpenNebula). Um aspecto comum do projeto de plataformas atuais diz respeito ao seu modelo de controle caixa-preta. Em geral, as plataformas de gerenciamento de nuvem são distribuídas com um conjunto de estratégias de alocação de recursos embutida em seu núcleo. Dessa forma, os administradores de nuvem têm poucas oportunidades de influenciar a maneira como os recursos são realmente gerenciados (e.g., posicionamento de máquinas virtuais ou seleção caminho de enlaces virtuais). Os administradores poderiam se beneficiar de personalizações em estratégias de gerenciamento de recursos, por exemplo, para atingir os objetivos específicos de cada ambiente ou a fim de permitir a alocação de recursos orientada à aplicação. Além disso, as preocupações acerca do gerenciamento de recursos em nuvens se dividem geralmente em computação, armazenamento e redes. Idealmente, essas três preocupações deveriam ser abordadas no mesmo nível de importância por implementações de plataformas. No entanto, ao contrário do gerenciamento de computação e armazenamento, que têm sido amplamente estudados, o gerenciamento de redes em ambientes de nuvem ainda é bastante incipiente. A falta de flexibilidade e suporte desequilibrado para o gerenciamento de recursos dificulta a adoção de nuvens como um ambiente de execução viável para muitas aplicações modernas da Internet com requisitos rigorosos de elasticidade e qualidade do serviço. Nesta tese, um novo conceito de plataforma de gerenciamento de nuvem é introduzido onde o gerenciamento de recursos flexível é obtido pela adição de programabilidade no núcleo da plataforma. Além disso, uma API simplificada e orientada a objetos é introduzida a fim de permitir que os administradores escrevam e executem programas de gerenciamento de recursos para lidar com todos os tipos de recursos a partir de um único ponto. Uma plataforma é apresentada como uma prova de conceito, incluindo um conjunto de adaptadores para lidar com tecnologias de virtualização e de redes modernas, como redes definidas por software com OpenFlow, Open vSwitches e Libvirt. Dois estudos de caso foram realizados a fim de avaliar a utilização de programas de gerenciamento de recursos para implantação e otimização de aplicações através de uma rede emulada usando contêineres de virtualização Linux e Open vSwitches operando sob o protocolo OpenFlow. Os resultados mostram a viabilidade da abordagem proposta e como os programas de implantação e otimização são capazes de alcançar diferentes objetivos definidos pelo administrador. / Infrastructure as a Service (IaaS) clouds are becoming an increasingly common way to deploy modern Internet applications. Many cloud management platforms are available for users that want to build a private or public IaaS cloud (e.g., OpenStack, Eucalyptus, OpenNebula). A common design aspect of current platforms is their black-box-like controlling nature. In general, cloud management platforms ship with one or a set of resource allocation strategies hard-coded into their core. Thus, cloud administrators have few opportunities to influence how resources are actually managed (e.g., virtual machine placement or virtual link path selection). Administrators could benefit from customizations in resource management strategies, for example, to achieve environment specific objectives or to enable application-oriented resource allocation. Furthermore, resource management concerns in clouds are generally divided into computing, storage, and networking. Ideally, these three concerns should be addressed at the same level of importance by platform implementations. However, as opposed to computing and storage management, which have been extensively investigated, network management in cloud environments is rather incipient. The lack of flexibility and unbalanced support for resource management hinders the adoption of clouds as a viable execution environment for many modern Internet applications with strict requirements for elasticity or Quality of Service. In this thesis, a new concept of cloud management platform is introduced where resource management is made flexible by the addition of programmability to the core of the platform. Moreover, a simplified object-oriented API is introduced to enable administrators to write and run resource management programs to handle all kinds of resources from a single point. An implementation is presented as a proof of concept, including a set of drivers to deal with modern virtualization and networking technologies, such as software-defined networking with OpenFlow, Open vSwitches, and Libvirt. Two case studies are conducted to evaluate the use of resource management programs for the deployment and optimization of applications over an emulated network using Linux virtualization containers and Open vSwitches running the OpenFlow protocol. Results show the feasibility of the proposed approach and how deployment and optimization programs are able to achieve different objectives defined by the administrator.
648

Heuristic approaches for network problems / Abordagens heuristicas para problemas em redes

Stefanello, Fernando January 2015 (has links)
Em nosso mundo altamente conectado, novas tecnologias provêm contínuas mudanças na velocidade e eficiência das redes de telecomunicações e de transporte. Muitas dessas tecnologias são originárias de pesquisas em problemas de otimização em redes aplicadas a diferentes áreas. Nesta tese, investigamos três problemas de otimização combinatória que podem ser abordados como estruturas de redes. Primeiramente, são abordados problemas de engenharia de tráfego em redes de transporte. O objetivo principal é investigar os efeitos de alterar o custo de um subconjunto de arcos da rede, considerando que os clientes desta rede agem com um comportamento bem definido. O objetivo é controlar o fluxo na rede de modo a obter uma melhor distribuição do fluxo, minimizando o congestionamento ou maximizando o fluxo em um subconjunto de arestas. No primeiro problema considerase instalar um número fixo de postos de pedágios e definir os valores das tarifas para minimizar o tempo médio de viagem dos usuários. No segundo problema abordado, o objetivo é definir os valores das tarifas para maximizar a receita arrecadada nos arcos com pedágios. Em ambos os problemas, os usuários escolhem as rotas com base nos caminhos de menor custo da origem para o destino. Em redes de telecomunicações, um problema de alocação sujeito às condições da rede é considerado. O objetivo é alocar um conjunto de recursos, minimizando o custo de comunicação. Uma aplicação de computação em nuvem é considerada, onde os recursos são máquinas virtuais que devem ser alocadas em um conjunto de centros de dados. Condições da rede como largura de banda e latência são consideradas de modo a garantir a qualidade dos serviços. Para todos estes problemas, os modelos matemáticos são apresentados e avaliados usando um solver comercial de propósito geral como um método exato. Além disso, abordagens heurísticas são propostas, incluindo uma classe de algoritmo genético de chaves aleatórias viciadas (BRKGA). Resultados experimentais demonstram o bom desempenho das abordagens heurísticas propostas, mostrando que o BRKGA é uma ferramenta eficiente para resolver diferentes tipos de problemas de otimização combinatória, especialmente sobre estruturas de rede. / In our highly connected world, new technologies provide continuous changes in the speed and efficiency of telecommunication and transportation networks. Many of these technologies come from research on network optimization problems with applications in different areas. In this thesis, we investigate three combinatorial optimization problems that arise from optimization on networks. First, traffic engineering problems in transportation networks are addressed. The main objective is to investigate the effects of changing the cost of some links in the network regarding some well-defined user behavior. The goal is to control the flow in the network and seek a better flow distribution over the network and then minimize the traffic congestion or maximize the flow on a subset of links over network conditions. The first problem considered is to install a fixed number of tollbooths and define the values of tariffs to minimize the average user travel time. The second problem considered is to define the values of tariffs to maximize the revenue collected in the tolled arcs. In both problems, users choose the routes based on the least cost paths from source to destination. From telecommunication networks, a placement problem subjected to network conditions is considered. The main objective is to place a set of resources minimizing the communication cost. An application from cloud computing is considered, where the resources are virtual machines that should be placed in a set of data centers. Network conditions, such as bandwidth and latency, are considered in order to ensure the service quality. For all these problems, mathematical models are presented and evaluated using a general-purpose commercial solver as an exact method. Furthermore, new heuristics approaches are proposed, including some based on biased random-key genetic algorithm (BRKGA). Experimental results demonstrate the good performance of the proposed heuristic approaches, showing that BRKGA is an efficient tool for solving different kinds of combinatorial optimization problems, especially over network structures.
649

Efficient Scientific Workflow Scheduling in Cloud Environment

Cao, Fei 01 May 2014 (has links)
Cloud computing enables the delivery of remote computing, software and storage services through web browsers following pay-as-you-go model. In addition to successful commercial applications, many research efforts including DOE Magellan Cloud project focus on discovering the opportunities and challenges arising from the computing and data-intensive scientific applications that are not well addressed by the current supercomputers, Linux clusters and Grid technologies. The elastic resource provision, noninterfering resource sharing and flexible customized configuration provided by the Cloud infrastructure has shed light on efficient execution of many scientific applications modeled as Directed Acyclic Graph (DAG) structured workflows to enforce the intricate dependency among a large number of different processing tasks. Meanwhile, the Cloud environment poses various challenges. Cloud providers and Cloud users pursue different goals. Providers aim to maximize profit by achieving higher resource utilization and users want to minimize expenses while meeting their performance requirements. Moreover, due to the expanding Cloud services and emerging newer technologies, the ever-increasing heterogeneity of the Cloud environment complicates the challenges for both parties. In this thesis, we address the workflow scheduling problem from different applications and various objectives. For batch applications, due to the increasing deployment of many data centers and computer servers around the globe escalated by the higher electricity price, the energy cost on running the computing, communication and cooling together with the amount of CO2 emissions have skyrocketed. In order to maintain sustainable Cloud computing facing with ever-increasing problem complexity and big data size in the next decades, we design and develop energy-aware scientific workflow scheduling algorithm to minimize energy consumption and CO2 emission while still satisfying certain Quality of Service (QoS) such as response time specified in Service Level Agreement (SLA). Furthermore, the underlying Cloud hardware/Virtual Machine (VM) resource availability is time-dependent because of the dual operation modes namely on-demand and reservation instances at various Cloud data centers. We also apply techniques such as Dynamic Voltage and Frequency Scaling (DVFS) and DNS scheme to further reduce energy consumption within acceptable performance bounds. Our multiple-step resource provision and allocation algorithm achieves the response time requirement in the step of forward task scheduling and minimizes the VM overhead for reduced energy consumption and higher resource utilization rate in the backward task scheduling step. We also evaluate the candidacy of multiple data centers from the energy and performance efficiency perspectives as different data centers have various energy and cost related parameters. For streaming applications, we formulate scheduling problems with two different objectives, namely one is to maximize the throughput under a budget constraint while another is to minimize execution cost under a minimum throughput constraint. Two different algorithms named as Budget constrained RATE (B-RATE) and Budget constrained SWAP (B-SWAP) are designed under the first objective; Another two algorithms, namely Throughput constrained RATE (TP-RATE) and Throughput constrained SWAP (TP-SWAP) are developed under the second objective.
650

Cloud computing and innovation: its viability, benefits, challenges and records management capabilities

Bassett, Cameron January 2015 (has links)
This research investigated the potential benefits, risks and challenges, innovation properties and viability of cloud computing for records management on an Australian organisation within the mining software development sector. This research involved the use of a case study results analysis as well as a literature analysis. The literature analysis identified the ten potential benefits of cloud computing, as well as the ten risks and challenges associated with cloud computing. It further identified aspects, which needed to be addressed when adopting cloud computing in order to promote innovation within an organisation. The case study analysis was compared against a literature review of ten potential benefits of cloud computing, as well as the ten risks and challenges associated with cloud computing. This was done in order to determine cloud computing’s viability for records management for Company X (The company in the case study). Cloud computing was found to be viable for Company X. However, there were certain aspects, which need to be discussed and clarified with the cloud service provider beforehand in order to mitigate possible risks and compliance issues. It is also recommended that a cloud service provider who complies with international standards, such as ISO 15489, be selected. The viability of cloud computing for organisations similar to Company X (mining software development) followed a related path. These organisations need to ensure that the service provider is compliant with laws in their local jurisdiction, such as Electronic Transactions Act 1999 (Australia, 2011:14-15), as well as laws where their data (in the cloud) may be hosted. The benefits, risks and challenges of records management and cloud computing are applicable to these similar organisations. However, mitigation of these risks needs to be discussed with a cloud service provider beforehand. From an innovation perspective, cloud computing is able to promote innovation within an organisation, if certain antecedents are dealt with. Furthermore, if cloud computing is successfully adopted then it should promote innovation within organisations. / Information Science / M. Inf.

Page generated in 0.2774 seconds