Spelling suggestions: "subject:"computação em devem."" "subject:"computação em vivem.""
121 |
Uma proposta de infraestrutura com segurança para PACS em nuvem através de identidade federadaSouza, Ricardo Ferraro de January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:33:20Z (GMT). No. of bitstreams: 1
323384.pdf: 3708384 bytes, checksum: 789006398eb34e6de7b6dc9698758eeb (MD5)
Previous issue date: 2013 / Clínicas e hospitais vêm adquirindo cada vez mais recursos tecnológicos que auxiliam em um diagnóstico mais rápido e preciso, a fim de torná-lo mais dinâmico e eficaz. Isso vem fazendo com que entidades de saúde busquem equipamentos mais modernos e com recursos tecnológicos avançados. Os exames chegam aos médicos com muitas informações processadas em diferentes softwares e hardwares. Com o elevado número de informações contidas no exame, aumenta-se o tamanho e a quantidade de imagens presentes no exame do paciente. Com o passar do tempo, o volume de imagens cresce exponencialmente, saturando a capacidade de retenção de informações contidas nos dispositivos de armazenamento. A aquisição de novos hardwares para suportar tamanho acúmulo de informações tem-se mostrado um problema grave nestas instituições. Os sistemas PACS (Picture Archive and Communications System) podem adquirir, transmitir, armazenar e exibir informações de imagens médicas. O dcm4chee é um projeto de código aberto muito usado por provedores de sistemas de saúde, projetos de pesquisa e aplicações comerciais que fornece um conjunto de aplicações e bibliotecas usadas para implementar sistemas PACS. Normalmente, os sistemas PACS desenvolvidos são executados localmente em cada uma das instituições, nos seus servidores locais. Os médicos devem se cadastrar localmente em cada sistema PACS de cada uma das instituições de saúde nas quais exerçam sua profissão, para poder ter acesso às imagens médicas. Este trabalho propõe a implantação de sistemas PACS em ambientes de nuvem usando identidades federadas. Ambientes de nuvem auxiliam na eficiência do armazenamento de imagens médicas, possibilitando o acesso ao exame/laudo do paciente a partir de qualquer localidade, sendo independente a plataforma utilizada para o acesso. O acesso aos exames na nuvem é garantido e seguro através do conceito de federação que garante a confiança e segurança entre as partes. Foi desenvolvida a integração do sistema Shibboleth, que provê identidades federadas, com o sistema dcm4chee. Esta integração demonstra a utilização de PACS em nuvem através de identidades federadas.<br> / Abstract : Clinics and hospitals are acquiring increasingly technological resources that improve the diagnosis, turning it quicker, more accurate and effective. This way, the exams come to doctors with information that is processed on different software and hardware across the datacenter. With the large number of information required to make an exam, increases the size and number of images present on the examination file of the patient. The volume of images grows exponentially out of the storage devices. Then, the acquisition of new hardware to support increase on information has been a serious problem in these institutions. The PACS (Picture Archive and Communications System) may acquire, transmit, store and display information from medical images. The dcm4chee is an open source project used by providers of health systems, research projects and commercial applications that provides a set of applications and libraries used to implement PACS. Normally, developed systems PACS run locally in each of the institutions on local servers. Doctors must register locally on each system PACS of each health institutions in which they exercise their profession in order to have access to medical images. This paper proposes the implementation of PACS systems on cloud environments using federated identities. Cloud environments assist the efficient storage of medical images, enabling access to the report of the patient from any location, anywhere at any time. It was extended the dcm4chee application to integrate with the Shibboleth System, which provides federated identity. This integration demonstrates the use of cloud based PACS through the federated identity. This way the is secured and safe through the concept of federation that ensures trust and confidence between the involved parties.
|
122 |
Balanceamento de carga de trabalho em computação em nuvem baseado em redes magnéticas virtuais / César Angonese ; orientador, Alcides Calsavara ; co-orientador, Luiz Augusto de Paula Lima JrAngonese, César January 2012 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2012 / Bibliografia: f. [83]-86 / Recentemente, um novo paradigma de computação emergiu e mudou a forma de trabalho e hospedagem das aplicações: a computação em nuvem (do inglês Cloud Computing). Neste modelo, um serviço é hospedado por uma máquina virtual que é alocada em alguma máquina / Recently, a new computing paradigm emerged and changed the work way and application hosting: the Cloud Computing. In this model, a service is hosted by a virtual machine that is placed in some datacenter physical machine. But, a virtual machine is a finit
|
123 |
GeDaNIC: um framework para gerenciamento de banco de dados em nuvem baseado nas interações entre consultas / GeDaNIC: a framework for database management cloud data based on interactions between queriesSiqueira Junior, Manoel Mariano January 2012 (has links)
SIQUEIRA JUNIOR, Manoel Mariano. GeDaNIC: um framework para gerenciamento de banco de dados em nuvem baseado nas interações entre consultas. 2012. 95 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2012. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-11T18:53:56Z
No. of bitstreams: 1
2012_dis_mmsiqueirajunior.pdf: 3719350 bytes, checksum: 33c477059041509925b50560598154a7 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-20T11:56:41Z (GMT) No. of bitstreams: 1
2012_dis_mmsiqueirajunior.pdf: 3719350 bytes, checksum: 33c477059041509925b50560598154a7 (MD5) / Made available in DSpace on 2016-07-20T11:56:41Z (GMT). No. of bitstreams: 1
2012_dis_mmsiqueirajunior.pdf: 3719350 bytes, checksum: 33c477059041509925b50560598154a7 (MD5)
Previous issue date: 2012 / Cloud computing is a recent trend of technology aimed at providing services for Information Technology (IT) and demand-based payment in use. One of the main services provided by a computing platform cloud is the service data management, or simply data service. This service accepts responsibility for the installation, configuration and maintenance of database systems, as well as for efficient access to stored data. This work presents a framework, called GeDaNIC, for managing database systems cloud data. The proposed framework aims to provide software infrastructure required for the provision of data services in computing environments cloud. Accordingly, the search system designed to solve some problems still in the context of open systems database in the cloud, such as dispatch, scheduling appointments and resource provisioning. The approach extends the designed Previous work by adding important features such as: support to unforeseen workloads and use of information about the interactions between queries. The supporting seasonal workloads is related to one of the main properties of computing Cloud: rapid elasticity. Already interactions between queries can provide impacts significant performance of database systems. For this reason, the GeDaNIC uses information about these interactions in order to reduce the execution time of workloads submitted to the data service and thereby increase the profit of provider of this service. For this, three new approaches to model and measure the interactions between instances and types of queries are proposed. In order to demonstrate the efficiency of the proposed framework for experimental evaluation using the TPC-H on PostgreSQL was performed. The results show that the designed solution has the potential to increase the profit of the service provider cloud data. / Computação em nuvem é uma tendência recente de tecnologia cujo objetivo é proporcionar serviços de Tecnologia da Informação (TI) sob demanda e com pagamento baseado no uso. Um dos principais serviços disponibilizados por uma plataforma de computação em nuvem consiste no serviço de gerenciamento de dados, ou simplesmente, serviço de dados. Este serviço assume a responsabilidade pela instalação, configuração e manutenção dos sistemas de banco de dados, bem como pelo acesso eficiente aos dados armazenados. Este trabalho apresenta um framework, denominado GeDaNIC, para o gerenciamento de sistemas de banco de dados em nuvem. O framework proposto tem por objetivo fornecer a infraestrutura de software necessária para a disponibilização de serviços de dados em ambientes de computação em nuvem. Neste sentido, o mecanismo concebido busca solucionar alguns problemas ainda em aberto no contexto de sistemas de banco de dados em nuvem, tais como: despacho, escalonamento de consultas e provisionamento de recursos. A abordagem concebida estende os trabalhos anteriores adicionando importantes características, como: o suporte às cargas de trabalho imprevistas e a utilização de informações sobre as interações entre consultas. O suporte às cargas de trabalhos sazonais está relacionado a uma das principais propriedades da computação em nuvem: a elasticidade rápida. Já as interações entre consultas podem proporcionar impactos significativos no desempenho dos sistemas de banco de dados. Por este motivo, o GeDaNIC utiliza informações sobre essas interações com a finalidade de reduzir o tempo de execução das cargas de trabalho submetidas ao serviço de dados e, consequentemente, aumentar o lucro do provedor deste serviço. Para isso, três novas abordagens para modelar e mensurar as interações entre instâncias e tipos de consultas são propostas. Com o objetivo de demonstrar a eficiência do framework proposto uma avaliação experimental usando o benchmark TPC-H sobre o PostgreSQL foi realizada. Os resultados apontam que a solução concebida tem potencial para aumentar o lucro do provedor do serviço de dados em nuvem.
|
124 |
FairCPU: Uma arquitetura para provisionamento de máquinas virtuais utilizando características de processamento / FairCPU: An architecture for provisioning virtual machines using processing featuresRego, Paulo Antonio Leal January 2012 (has links)
REGO, Paulo Antonio Leal. FairCPU: Uma arquitetura para provisionamento de máquinas virtuais utilizando características de processamento. 2012. 81 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2012. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-12T15:06:42Z
No. of bitstreams: 1
2012_dis_palrego.pdf: 5402392 bytes, checksum: 6ce44a55f28b19b0d7b237d0bd43f4cd (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-20T13:50:46Z (GMT) No. of bitstreams: 1
2012_dis_palrego.pdf: 5402392 bytes, checksum: 6ce44a55f28b19b0d7b237d0bd43f4cd (MD5) / Made available in DSpace on 2016-07-20T13:50:46Z (GMT). No. of bitstreams: 1
2012_dis_palrego.pdf: 5402392 bytes, checksum: 6ce44a55f28b19b0d7b237d0bd43f4cd (MD5)
Previous issue date: 2012 / Resource scheduling is a key process for cloud computing platform, which generally uses virtual machines (VMs) as scheduling units. The use of virtualization techniques provides great flexibility with the ability to instantiate multiple VMs on one physical machine (PM), migrate them between the PMs and dynamically scale VM’s resources. The techniques of consolidation and dynamic allocation of VMs have addressed the impact of its use as an independent measure of location. It is generally accepted that the performance of a VM will be the same regardless of which PM it is allocated. This assumption is reasonable for a homogeneous environment where the PMs are identical and the VMs are running the same operating system and applications. Nevertheless, in a cloud computing environment, we expect that a set of heterogeneous resources will be shared, where PMs will face changes both in terms of their resource capacities and as also in data affinities. The main objective of this work is to propose an architecture to standardize the representation of the processing power by using processing units (PUs). Adding to that, the limitation of CPU usage is used to provide performance isolation and maintain the VM’s processing power at the same level regardless the underlying PM. The proposed solution considers the PMs heterogeneity present in the cloud infrastructure and provides scheduling policies based on PUs. The proposed architecture is called FairCPU and was implemented to work with KVM and Xen hypervisors. As study case, it was incorporated into a private cloud, built with the middleware OpenNebula, where several experiments were conducted. The results prove the efficiency of FairCPU architecture to use PUs to reduce VMs’ performance variability, as well as to provide a new way to represent and manage the processing power of the infrastructure’s physical and virtual machines. / O escalonamento de recursos é um processo chave para a plataforma de Computação em Nuvem, que geralmente utiliza máquinas virtuais (MVs) como unidades de escalonamento. O uso de técnicas de virtualização fornece grande flexibilidade com a habilidade de instanciar várias MVs em uma mesma máquina física (MF), modificar a capacidade das MVs e migrá-las entre as MFs. As técnicas de consolidação e alocação dinâmica de MVs têm tratado o impacto da sua utilização como uma medida independente de localização. É geralmente aceito que o desempenho de uma MV será o mesmo, independentemente da MF em que ela é alocada. Esta é uma suposição razoável para um ambiente homogêneo, onde as MFs são idênticas e as MVs estão executando o mesmo sistema operacional e aplicativos. No entanto, em um ambiente de Computação em Nuvem, espera-se compartilhar um conjunto composto por recursos heterogêneos, onde as MFs podem variar em termos de capacidades de seus recursos e afinidades de dados. O objetivo principal deste trabalho é apresentar uma arquitetura que possibilite a padronização da representação do poder de processamento das MFs e MVs, em função de Unidades de Processamento (UPs), apoiando-se na limitação do uso da CPU para prover isolamento de desempenho e manter a capacidade de processamento das MVs independente da MF subjacente. Este trabalho busca suprir a necessidade de uma solução que considere a heterogeneidade das MFs presentes na infraestrutura da Nuvem e apresenta políticas de escalonamento baseadas na utilização das UPs. A arquitetura proposta, chamada FairCPU, foi implementada para trabalhar com os hipervisores KVM e Xen, e foi incorporada a uma nuvem privada, construída com o middleware OpenNebula, onde diversos experimentos foram realizados para avaliar a solução proposta. Os resultados comprovam a eficiência da arquitetura FairCPU em utilizar as UPs para reduzir a variabilidade no desempenho das MVs, bem como para prover uma nova maneira de representar e gerenciar o poder de processamento das MVs e MFs da infraestrutura.
|
125 |
FOLE: Um framework conceitual para avaliação de desempenho da elasticidade em ambientes de computação em nuvem / FOLE: A conceptual framework for elasticity performance analysis in cloud computing environmentsCoutinho, Emanuel Ferreira January 2014 (has links)
COUTINHO, Emanuel Ferreira. FOLE: Um framework conceitual para avaliação de desempenho da elasticidade em ambientes de computação em nuvem. 2014. 151 f. Tese (Doutorado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2014. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-12T19:32:22Z
No. of bitstreams: 1
2014_tese_efcoutinho.pdf: 4432785 bytes, checksum: c8a0bea866dc212f28683d4c6ecef785 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-25T11:37:49Z (GMT) No. of bitstreams: 1
2014_tese_efcoutinho.pdf: 4432785 bytes, checksum: c8a0bea866dc212f28683d4c6ecef785 (MD5) / Made available in DSpace on 2016-07-25T11:37:49Z (GMT). No. of bitstreams: 1
2014_tese_efcoutinho.pdf: 4432785 bytes, checksum: c8a0bea866dc212f28683d4c6ecef785 (MD5)
Previous issue date: 2014 / Currently, many customers and providers are using resources of Cloud Computing environments,such as processing and storage, for their applications and services. Through ease of use, based on the pay per use model, it is natural that the number of users and their workloads also grow. As a result, providers should expand their resources and maintain the agreed level of quality for customers, otherwise breaks the Service Level Agreement (SLA) and the resulting penalties. With the increase in computational resources usage, a key feature of Cloud Computing has become quite attractive: the elasticity. Elasticity can be defined as how a computational cloud adapts to variations in its workload through resources provisioning and deprovisioning. Due to limited availability of information regarding configuration of the experiments, in general is not trivial to implement elasticity concepts, much less apply them in cloud environments. Furthermore, the way of measuring cloud elasticity is not obvious, and there is not yet a standard for this task. Moreover, its evaluation could be performed in different ways due to many technologies and strategies for providing cloud elasticity. A common aspect of elasticity performance analysis is the use of environmental resources, such as CPU and memory, and even without a specific metric, to allow an indirectly assess of elasticity. In this context, this work proposes FOLE, a conceptual framework for conducting performance analysis of elasticity in Cloud Computing environments in a systematic, flexible and reproducible way. To support the framework, we proposed a set of specific metrics for elasticity and metrics for its indirect measurement. For the measurement of elasticity in Cloud Computing, we proposed metrics based on concepts of Physics, such as strain and stress, and Microeconomics, such as Price Elasticity of Demand. Additionally, we also proposed metrics based on resources allocation and deallocation operation times, and used resources, to support the measurement of elasticity. For verification and validation of the proposal, we performed two experiments, one in a private cloud and other in a hybrid cloud, using microbenchmarks and a classic scientific application, through a designed infrastructure based on concepts of Autonomic Computing. Through these experiments, FOLE had validated their activities, allowing the systematization of a elasticity performance analysis. The results show it is possible to assess the elasticity of a Cloud Computing environment using specific metrics based on other areas of knowledge, and also complemented by metrics related to time and resources operations satisfactorily. / Atualmente muitos clientes e provedores estão utilizando recursos de ambientes de Computação em Nuvem, tais como processamento e armazenamento, para suas aplicações e serviços. Devido à facilidade de utilização, baseada no modelo de pagamento por uso, é natural que a quantidade de usuários e suas respectivas cargas de trabalho também cresçam. Como consequência, os provedores devem ampliar seus recursos e manter o nível de qualidade acordado com os clientes, sob pena de quebras do Service Level Agreement (SLA) e consequentes multas. Com o aumento na utilização de recursos computacionais, uma das características principais da Computação em Nuvem tem se tornado bastante atrativa: a elasticidade. A elasticidade pode ser definida como o quanto uma nuvem computacional se adapta a variações na sua carga de trabalho através do provisionamento e desprovisionamento de recursos. Devido à pouca disponibilidade de informação em relação à configuração dos experimentos, em geral não é trivial implementar conceitos de elasticidade, muito menos aplicá-los em ambientes de nuvens computacionais. Além disso, a maneira de se medir a elasticidade não é tão óbvia, e bastante variada, não havendo ainda uma padronização para esta tarefa, e sua avaliação pode ser executada de diferentes maneiras devido às diversas tecnologias e estratégias para o provimento da elasticidade. Um aspecto comum na avaliação de desempenho da elasticidade é a utilização de recursos do ambiente, como CPU e memória, e mesmo sem ter uma métrica específica para a elasticidade, é possível se obter uma avaliação indireta. Nesse contexto, este trabalho propõe o FOLE, um framework conceitual para a realização de análise de desempenho da elasticidade em nuvens computacionais de maneira sistemática, flexível e reproduzível. Para apoiar o framework, métricas específicas para a elasticidade e métricas para sua medição indireta foram propostas. Para a medição da elasticidade em Computação em Nuvem, propomos métricas baseadas em conceitos da Física, como tensão e estresse, e da Microeconomia, como Elasticidade do Preço da Demanda. Adicionalmente, métricas baseadas em tempos de operações de alocação e desalocação de recursos, e na utilização desses recursos foram propostas para apoiar a medição da elasticidade. Para verificação e validação da proposta, dois estudos de caso foram realizados, um em uma nuvem privada e outro em uma nuvem híbrida, com experimentos projetados utilizando microbenchmarks e uma aplicação científica clássica, executados sobre uma infraestrutura baseada em conceitos de Computação Autonômica. Por meio desses experimentos, o FOLE foi validado em suas atividades, permitindo a sistematização de uma análise de desempenho da elasticidade. Os resultados mostram que é possível avaliar a elasticidade de um ambiente de Computação em Nuvem por meio de métricas específicas baseadas em conceitos de outras áreas de conhecimento, e também complementada por métricas relacionadas a tempos de operações e recursos de maneira satisfatória.
|
126 |
RepliC: replicação elástica de banco de dados multi-inquilino em nuvem com qualidade de serviço / RepliC: elastic multi-tenant database replication in the cloud with quality of serviceSousa, Flávio Rubens de Carvalho January 2013 (has links)
SOUSA, Flávio Rubens de Carvalho. RepliC: replicação elástica de banco de dados multi-inquilino em nuvem com qualidade de serviço. 2013. 132 f. Tese (Doutorado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2013. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-19T19:47:51Z
No. of bitstreams: 1
2013_tese_frcsousa.pdf: 4788267 bytes, checksum: 309c8c9a9a33c86ed21a274ae7a693a5 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-25T11:44:18Z (GMT) No. of bitstreams: 1
2013_tese_frcsousa.pdf: 4788267 bytes, checksum: 309c8c9a9a33c86ed21a274ae7a693a5 (MD5) / Made available in DSpace on 2016-07-25T11:44:18Z (GMT). No. of bitstreams: 1
2013_tese_frcsousa.pdf: 4788267 bytes, checksum: 309c8c9a9a33c86ed21a274ae7a693a5 (MD5)
Previous issue date: 2013 / Fatores econômicos estão levando ao aumento das infraestruturas e instalações de fornecimento de computação como um serviço, conhecido como Cloud Computing ou Computação em Nuvem, onde empresas e indivíduos podem alugar capacidade de computação e armazenamento, em vez de fazerem grandes investimentos de capital necessários para a construção e instalação de equipamentos de computação em larga escala. Na nuvem, o usuário do serviço tem algumas garantias, tais como desempenho e disponibilidade. Essas garantias de qualidade de serviço (QoS) são definidas entre o provedor do serviço e o usuário e expressas por meio de um acordo de nível de serviço (SLA). Este acordo consiste de contratos que especificam um nível de qualidade que deve ser atendido e penalidades em caso de falha. Muitas empresas dependem de um SLA e estas esperam que os provedores de nuvem forneçam SLAs baseados em características de desempenho. Contudo, em geral, os provedores baseiam seus SLAs apenas na disponibilidade dos serviços oferecidos. Sistemas de gerenciamento de banco de dados (SGBDs) para computação em nuvem devem tratar uma grande quantidade de aplicações, tenants ou inquilinos. Abordagens multi-inquilino têm sido utilizadas para hospedar vários inquilinos dentro de um único SGBD, favorecendo o compartilhamento eficaz de recursos, além de gerenciar uma grande quantidade de inquilinos com padrões de carga de trabalho irregulares. Por outro lado, os provedores em nuvem devem reduzir os custos operacionais garantindo a qualidade. Neste contexto, uma característica chave é a replicação de banco de dados, que melhora a disponibilidade, desempenho e, consequentemente, a qualidade do serviço. Técnicas de replicação de dados têm sido usadas para melhorar a disponibilidade, o desempenho e a escalabilidade em diversos ambientes. Contudo, a maior parte das estratégias de replicação de banco de dados têm se concentrado em aspectos de escalabilidade e consistência do sistema com um número estático de réplicas. Aspectos relacionados à elasticidade para banco de dados multi-inquilino têm recebido pouca atenção. Estas questões são importantes em ambientes em nuvem, pois os provedores precisam adicionar réplicas de acordo com a carga de trabalho para evitar violação do SLA e eles precisam remover réplicas quando a carga de trabalho diminui, além de consolidar os inquilinos. Visando solucionar este problema, este trabalho apresenta RepliC, uma abordagem para a replicação de banco de dados em nuvem com foco na qualidade do serviço, elasticidade e utilização eficiente dos recursos por meio de técnicas multi-inquilino. RepliC utiliza informações dos SGBDs e do provedor para provisionar recursos de forma dinâmica. Com o objetivo de avaliar RepliC, experimentos que medem a qualidade de serviço e elasticidade são apresentados. Os resultados destes experimentos confirmam que RepliC garante a qualidade com uma pequena quantidade de violação do SLA enquanto utiliza os recursos de forma eficiente.
|
127 |
Gernu: uma abordagem para gerenciamento de nuvens baseada nos requisitos do usuário, criação dinâmica dos serviços e definição de atributos de qualidade / Gernu : an approach to cloud management based on user requirements , dynamic creation of services and definition of quality attributesBorges, Helder Pereira January 2013 (has links)
BORGES, Helder Pereira. Gernu: uma abordagem para gerenciamento de nuvens baseada nos requisitos do usuário, criação dinâmica dos serviços e definição de atributos de qualidade. 2013. 196 f. Tese (Doutorado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2013. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-20T12:14:36Z
No. of bitstreams: 1
2013_tese_hpborges.pdf: 4091314 bytes, checksum: ac71632d34cb5c2ec74cdd3c41ba48cf (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-25T11:56:09Z (GMT) No. of bitstreams: 1
2013_tese_hpborges.pdf: 4091314 bytes, checksum: ac71632d34cb5c2ec74cdd3c41ba48cf (MD5) / Made available in DSpace on 2016-07-25T11:56:09Z (GMT). No. of bitstreams: 1
2013_tese_hpborges.pdf: 4091314 bytes, checksum: ac71632d34cb5c2ec74cdd3c41ba48cf (MD5)
Previous issue date: 2013 / Cloud Computing has been established in recent years as an important area of research. This paradigm has been consolidated, since tasks such as obtaining, handling, sharing and exploitation of large amounts of data are becoming increasingly common, requiring many computing resources. Considering this context, cloud computing can help providing these resources indefinitely, including memory, processing, storage and others, all of them for immediate use. The provision of cloud services involves several complex tasks. To increase the user satisfaction, these tasks need to consider issues relevant to them, in addition to the providers' policies. In order to define a flexible process for specification and procurement of services in clouds from the hardware and software requirements of users, this work proposes an approach that uses a virtual environment model containing all the relevant information to provide a personalized service. Another key challenge for cloud computing is related to the services quality control. This aspect may be directly affected by resource utilization. Thus, the use of automated mechanisms to provide services, monitoring resources, as well the quality of services also helps to increase the level of customer satisfaction, creating an environment less susceptible to errors for the administrators. Besides the aspects of hardware and software, the virtual environment model will contain the quality of service attributes, having been set an automated negotiation process that occurs concomitantly with the procurement service process. Thus, this approach will be able to automatically deliver infrastructure, platform and software as a service from the user's specific requirements. / A Computação em Nuvem foi estabelecida nos últimos anos como uma importante área de pesquisa. Este paradigma tem se consolidado, pois, atualmente, tarefas como a obtenção, manipulação, compartilhamento e exploração de grandes quantidades de dados são cada vez mais comuns, exigindo muitos recursos computacionais. Dentro deste contexto, a computação em nuvem pode contribuir, pois pode fornecer estes recursos indefinidamente, incluindo memória, processamento, armazenamento entre outros, todos para uso imediato. A provisão de serviços em nuvens envolve várias tarefas complexas. Para elevar a satisfação dos usuários, estas tarefas precisam considerar aspectos relevantes para eles, além das políticas particulares dos provedores. Desta forma, com o objetivo de definir um processo flexível para a especificação e aquisição de serviços nas nuvens, este trabalho propõe uma abordagem que utiliza um modelo de ambiente virtual contendo todas as informações relevantes para criação de um serviço personalizado a partir dos requisitos de hardware e software do usuário. Outro desafio importante para a computação em nuvem está relacionado com o controle de qualidade dos serviços prestados, sendo que esta pode ser diretamente afetada pela utilização dos recursos. Sendo assim, a utilização de mecanismos automatizados para gerar serviços, monitorar os recursos e a qualidade dos serviços também contribui para incrementar o nível de satisfação dos clientes, além de criar um ambiente menos suscetível a erros para os administradores. Além dos aspectos de hardware e software, o modelo de ambiente conterá os atributos de qualidade do serviço, tendo sido definido um processo de negociação automatizado que ocorre concomitante ao processo de contratação do serviço. Assim, esta abordagem será capaz de entregar automaticamente infraestrutura, plataforma e software como serviço a partir dos requisitos específicos do usuário.
|
128 |
Abordagem para qualidade de serviço em banco de dados multi-inquilinos em nuvem / Approach for quality of service to multi-tenant databases in the cloudMoreira, Leonardo Oliveira January 2014 (has links)
MOREIRA, Leonardo Oliveira. Abordagem para qualidade de serviço em banco de dados multi-inquilinos em nuvem. 2014. 130 f. Tese (Doutorado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2014. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-20T12:23:19Z
No. of bitstreams: 1
2014_tese_lomoreira.pdf: 7232081 bytes, checksum: 6cf653b1eec3b011e37f11dd52c67b79 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-25T11:58:40Z (GMT) No. of bitstreams: 1
2014_tese_lomoreira.pdf: 7232081 bytes, checksum: 6cf653b1eec3b011e37f11dd52c67b79 (MD5) / Made available in DSpace on 2016-07-25T11:58:40Z (GMT). No. of bitstreams: 1
2014_tese_lomoreira.pdf: 7232081 bytes, checksum: 6cf653b1eec3b011e37f11dd52c67b79 (MD5)
Previous issue date: 2014 / Cloud computing is a well-established paradigm of computing resources usage, whereby hardware infrastructure, software and platforms for the development of new applications are offered as services available remotely and globally. Cloud computing users give up their own infrastructure to dispose of it through the services offered by cloud providers, to which they delegate aspects of Quality of Service (QoS) and assume costs proportional to the amount of resources they use, which is based on a payment model. These QoS guarantees are established between the service provider and the user, and are expressed through Service Level Agreements (SLA). This agreement consists of contracts that specify a level of quality that must be met, and penalties in case of failure. The majority of cloud applications are data-driven, and thus Database Management Systems (DBMSs) are potential candidates for cloud deployment. Cloud DBMS should treat a wide range of applications or tenants. Multi-tenant models have been used to consolidate multiple tenants within a single DBMS, favoring the efficient sharing of resources, and to manage a large number of tenants with irregular workload patterns. On the other hand, cloud providers must be able to reduce operational costs while keeping quality levels as agreed. To many applications, the longer time spent in processing requests is related to the DBMS runtime. Therefore, it becomes important to apply a quality model to obtain DBMS performance. Dynamic provisioning techniques are geared to treat irregular workloads so that SLA violations are avoided. Therefore, it is necessary to adopt a strategy to adjust the cloud at the time a behavior that may violate the SLA of a given tenant (database) is predicted. The allocation techniques are applied in order to utilize the resources of the environment to the dentriment of provisioning. Based on both the monitoring and the optimization models systems, the allocation techniques will decide the best place to assign a given tenant to. In order to efficiently perform the transfer of the tenant, minimal service interruption, Live Migration techniques are adopted. It is believed that the combination of these three techniques may contribute to the development of a robust QoS solution to cloud databases which minimizes SLA violations. Faced with these challenges, this thesis proposes an approach, called PMDB, to improve DBMS QoS in multi-tenant cloud. The approach aims to reduce the number of SLA violations and take advantage the resources that are available using techniques that perform workload prediction, allocation and migration of tenants when greater capacity resources are needed. An architecture was then proposed and a prototype implementing such techniques was developed, besides monitoring strategies and QoS oriented database applications in the cloud. Some performance oriented experiments were then specified to show the effectiveness of our approach. / A computação em nuvens é um paradigma bem consolidado de utilização de recursos computacionais, segundo o qual infraestrutura de hardware, software e plataformas para o desenvolvimento de novas aplicações são oferecidos como serviços disponíveis remotamente e em escala global. Os usuários de nuvens computacionais abrem mão de uma infraestrutura computacional própria para dispô-la mediante serviços oferecidos por provedores de nuvem, delegando aspectos de Qualidade de Serviço (QoS) e assumindo custos proporcionais à quantidade de recursos que utilizam modelo de pagamento baseado no uso. Essas garantias de QoS são definidas entre o provedor do serviço e o usuário, e expressas por meio de Acordo de Nível de Serviço (SLA), o qual consiste de contratos que especificam um nível de qualidade a ser atendido, e penalidades em caso de falha. A maioria das aplicações em nuvem é orientada a dados e, por conta disso, Sistemas Gerenciadores de Banco de Dados (SGBDs) são candidatos potenciais para a implantação em nuvem. SGBDs em nuvem devem tratar uma grande quantidade de aplicações ou inquilinos. Os modelos de multi-inquilinatos são utilizados para consolidar vários inquilinos dentro de um só SGBD, favorecendo o compartilhamento eficaz de recursos, além de gerenciar uma grande quantidade de inquilinos com padrões de carga de trabalho irregulares. Por outro lado, os provedores em nuvem devem reduzir os custos operacionais, garantindo a qualidade. Para muitas aplicações, o maior tempo gasto no processamento das requisições está relacionado ao tempo de execução do SGBD. Portanto, torna-se importante que um modelo de qualidade seja aplicado ao SGBD para seu desempenho. Técnicas de provisionamento dinâmico são voltadas para o tratamento de cargas de trabalho irregulares, para que violações de SLA sejam evitadas. Sendo assim, uma estratégia para ajustar a nuvem no momento em que se prevê um comportamento que pode violar o SLA de um dado inquilino (banco de dados) deve ser considerada. As técnicas de alocação são usadas no intuito de aproveitar os recursos do ambiente em detrimento ao provisionamento. Com base nos sistemas de monitoramento e de modelos de otimização, as técnicas de alocação decidem onde será o melhor local para receber um dado inquilino. Para realizar a transferência do inquilino de forma eficiente, técnicas de Live Migration são adotadas para ter o mínimo de interrupção do serviço. Acredita-se que a combinação destas três técnicas podem contribuir para o desenvolvimento de um solução robusta de QoS para bancos de dados em nuvem, minimizando violações de SLA. Ante tais desafios, esta tese apresenta uma abordagem, denominada PMDB, para melhorar QoS em SGBDs multi-inquilinos em nuvem. A abordagem tem como objetivo reduzir o número de violações de SLA e aproveitar os recursos à disposição por meio de técnicas que realizam predição de carga de trabalho, alocação e migração de inquilinos quando necessitam de recursos com maior capacidade. Para isso, uma arquitetura foi proposta e um protótipo implementado com tais técnicas, além de estratégias de monitoramento e QoS voltada para aplicações de banco de dados em nuvem. Ademais, alguns experimentos orientados a desempenho foram especificados para mostrar a eficiência da abordagem a fim de alcançar o objetivo em foco.
|
129 |
S-SWAP: scale-space based workload analysis and prediction / S-SWAP: scale-space based workload analysis and predictionSantos, Gustavo Adolfo Campos dos January 2013 (has links)
SANTOS, Gustavo Adolfo Campos dos. S-SWAP: scale-space based workload analysis and prediction. 2013. 99 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2013. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-28T19:41:50Z
No. of bitstreams: 1
2013_dis_gacsantos.pdf: 3910335 bytes, checksum: 15f381ec4c1d77510c3d76424bf764aa (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-08-01T15:38:14Z (GMT) No. of bitstreams: 1
2013_dis_gacsantos.pdf: 3910335 bytes, checksum: 15f381ec4c1d77510c3d76424bf764aa (MD5) / Made available in DSpace on 2016-08-01T15:38:14Z (GMT). No. of bitstreams: 1
2013_dis_gacsantos.pdf: 3910335 bytes, checksum: 15f381ec4c1d77510c3d76424bf764aa (MD5)
Previous issue date: 2013 / This work presents a scale-space based approach to assist dynamic resource provisioning. The application of this theory makes it possible to eliminate the presence of irrelevant information from a signal that can potentially induce wrong or late decision making. Dynamic provisioning involves increasing or decreasing the amount of resources allocated to an application in response to workload changes. While monitoring both resource consumption and application-speci c metrics is fundamental in this process since the latter is of great importance to infer information about the former, dealing with these pieces of information to provision resources in dynamic environments poses a big challenge. The presence of unwanted characteristics, or noise, in a signal that represents the monitored metrics favors misleading interpretations and is known to a ect forecast models. Even though some forecast models are robust to noise, reducing its in uence may decrease training time and increase e ciency. Because a dynamic environment demands decision making and predictions on a quickly changing landscape, approximations are necessary. Thus it is important to realize how approximations give rise to limitations in the forecasting process. On the other hand, being aware of when detail is needed, and when it is not, is crucial to perform e cient dynamic forecastings. In a cloud environment, resource provisioning plays a key role for ensuring that providers adequately accomplish their obligation to customers while maximizing the utilization of the underlying infrastructure. Experiments are shown considering simulation of both reactive and proactive strategies scenarios with a real-world trace that corresponds to access rate. Results show that embodying scale-space theory in the decision making stage of dynamic provisioning strategies is very promising. It both improves workload analysis, making it more meaningful to our purposes, and lead to better predictions. / This work presents a scale-space based approach to assist dynamic resource provisioning. The application of this theory makes it possible to eliminate the presence of irrelevant information from a signal that can potentially induce wrong or late decision making. Dynamic provisioning involves increasing or decreasing the amount of resources allocated to an application in response to workload changes. While monitoring both resource consumption and application-speci c metrics is fundamental in this process since the latter is of great importance to infer information about the former, dealing with these pieces of information to provision resources in dynamic environments poses a big challenge. The presence of unwanted characteristics, or noise, in a signal that represents the monitored metrics favors misleading interpretations and is known to a ect forecast models. Even though some forecast models are robust to noise, reducing its in uence may decrease training time and increase e ciency. Because a dynamic environment demands decision making and predictions on a quickly changing landscape, approximations are necessary. Thus it is important to realize how approximations give rise to limitations in the forecasting process. On the other hand, being aware of when detail is needed, and when it is not, is crucial to perform e cient dynamic forecastings. In a cloud environment, resource provisioning plays a key role for ensuring that providers adequately accomplish their obligation to customers while maximizing the utilization of the underlying infrastructure. Experiments are shown considering simulation of both reactive and proactive strategies scenarios with a real-world trace that corresponds to access rate. Results show that embodying scale-space theory in the decision making stage of dynamic provisioning strategies is very promising. It both improves workload analysis, making it more meaningful to our purposes, and lead to better predictions.
|
130 |
Workload modeling and prediction for resources provisioning in cloudMagalhães, Deborah Maria Vieira 23 February 2017 (has links)
MAGALHÃES, Deborah Maria Vieira. Workload modeling and prediction for resources provisioning in cloud. 2017. 100 f. Tese (Doutorado em Engenharia de Teleinformática)–Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2017. / Submitted by Hohana Sanders (hohanasanders@hotmail.com) on 2017-06-02T16:11:24Z
No. of bitstreams: 1
2017_tese_dmvmagalhães.pdf: 5119492 bytes, checksum: 581c09b1ba042cf8c653ca69d0aa0d57 (MD5) / Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2017-06-02T16:18:39Z (GMT) No. of bitstreams: 1
2017_tese_dmvmagalhães.pdf: 5119492 bytes, checksum: 581c09b1ba042cf8c653ca69d0aa0d57 (MD5) / Made available in DSpace on 2017-06-02T16:18:39Z (GMT). No. of bitstreams: 1
2017_tese_dmvmagalhães.pdf: 5119492 bytes, checksum: 581c09b1ba042cf8c653ca69d0aa0d57 (MD5)
Previous issue date: 2017-02-23 / The evaluation of resource management policies in cloud environments is challenging since clouds are subject to varying demand coming from users with different profiles and Quality de Service (QoS) requirements. Factors as the virtualization layer overhead, insufficient trace logs available for analysis, and mixed workloads composed of a wide variety of applications in a heterogeneous environment frustrate the modeling and characterization of applications hosted in the cloud. In this context, workload modeling and characterization is a fundamental step on systematizing the analysis and simulation of the performance of computational resources management policies and a particularly useful strategy for the physical implementation of the clouds. In this doctoral thesis, we propose a methodology for workload modeling and characterization to create resource utilization profiles in Cloud. The workload behavior patterns are identified and modeled in the form of statistical distributions which are used by a predictive controller to establish the complex relationship between resource utilization and response time metric. To this end, the controller makes adjustments in the resource utilization to maintain the response time experienced by the user within an acceptable threshold. Hence, our proposal directly supports QoS-aware resource provisioning policies. The proposed methodology was validated through two different applications with distinct characteristics: a scientific application to pulmonary diseases diagnosis, and a web application that emulates an auction site. The performance models were compared with monitoring data through graphical and analytical methods to evaluate their accuracy, and all the models presented a percentage error of less than 10 %. The predictive controller was able to dynamically maintain the response time close to the expected trajectory without Service Level Agreement (SLA) violation with an Mean Absolute Percentage Error (MAPE) = 4.36%. / A avaliação de políticas de gerenciamento de recursos em nuvens computacionais é uma tarefa desafiadora, uma vez que tais ambientes estão sujeitos a demandas variáveis de usuários com diferentes perfis de comportamento e expectativas de Qualidade de Serviço (QoS). Fatores como overhead da camada de virtualização, indisponibilidade de dados e complexidade de cargas de trabalho altamente heterogêneas dificultam a modelagem e caracterização de aplicações hospedadas em nuvens. Neste contexto, caracterizar e modelar a carga de trabalho (ou simples- mente carga) é um passo importante na sistematização da análise e simulação do desempenho de políticas de gerenciamento dos recursos computacionais e uma estratégia particularmente útil antes da implantação física das nuvens. Nesta tese de doutorado, é proposta uma metodologia para modelagem e caracterização de carga visando criar perfis de utilização de recursos em Nuvem. Os padrões de comportamento das cargas são identificados e modelados sob a forma de distribuições estatísticas as quais são utilizadas por um controlador preditivo a fim de estabelecer a complexa relação entre a utilização dos recursos e a métrica de tempo de resposta. Desse modo, o controlador realiza ajustes no percentual de utilização do recursos a fim de manter o tempo de resposta observado pelo o usuário dentro de um limiar aceitável. Assim, nossa proposta apoia diretamente políticas de provisionamento de recursos cientes da Qualidade de Serviço (QoS). A metodologia proposta foi validada através de aplicações com características distintas: uma aplicação científica para o auxílio do diagnóstico de doenças pulmonares e uma aplicação Web que emula um site de leilões. Os modelos de desempenho computacional gerados foram confrontados com os dados reais através de métodos estatísticos gráficos e analíticos a fim de avaliar sua acurácia e todos os modelos apresentaram um percentual de erro inferior a 10%. A modelagem proposta para o controlador preditivo mostrou-se efetiva pois foi capaz de dinamicamente manter o tempo de resposta próximo ao valor esperado, com erro percentual absoluto médio (MAPE ) = 4.36% sem violação de SLA.
|
Page generated in 0.0682 seconds