• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6983
  • 486
  • 318
  • 283
  • 283
  • 279
  • 194
  • 89
  • 78
  • 78
  • 76
  • 42
  • 6
  • 5
  • 2
  • Tagged with
  • 7624
  • 2223
  • 1814
  • 1759
  • 1276
  • 1076
  • 964
  • 962
  • 960
  • 895
  • 881
  • 870
  • 841
  • 799
  • 792
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Access control in IaaS multi-cloud heterogeneous environments

SETTE, Ioram Schechtman 11 August 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-30T16:45:19Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Ioram_Sette_PhD_Thesis.pdf: 10382850 bytes, checksum: a2a362f0971460d5758e3cf1ff71db96 (MD5) / Made available in DSpace on 2017-11-30T16:45:19Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Ioram_Sette_PhD_Thesis.pdf: 10382850 bytes, checksum: a2a362f0971460d5758e3cf1ff71db96 (MD5) Previous issue date: 2016-08-11 / CNPQ / Multiple Cloud Service Providers (CSPs) coexist nowadays offering their services competitively. To avoid vendor lock-in, users hire many services from an outsourced heterogeneous multi-cloud environment. This way, data and system security usually depend on isolated mechanism existing in each provider. Access Control (AC) mechanisms are responsible for the authentication, identification and authorisation of users to resources. In the case of a multi-cloud environment, users often need to authenticate multiple times and also to define security policies for each CSP, which can possibly result in inconsistencies. The objective of this thesis is to provide a homogeneous access experience for users of heterogeneous multi-cloud services. Identity federations allow the Single Sign-On (SSO), i.e. users are identified and authenticated once by Identity Providers (IdPs) and gain access to trusted federated services. Nevertheless, authorisation federations or AC federations are not usual. Each cloud service uses to have its own AC mechanism, with their own policy definition languages. This work defines a solution that provides homogeneous authentication and authorisation to multiple heterogeneous Infrastructure as a Service (IaaS) platforms. This is possible through Identity Federations and Authorisation Policy Federations (APFs). In this solution, security policies are centrally stored in a “Disjunctive Normal Form (DNF)” and are semantically defined in terms of an Ontology. Therefore, cloud tenants can create APFs and bind their different accounts to them. Thus, global authorisation rules, defined and managed by the APF, can be enforced on all federated member accounts, providing a homogeneous access experience. A system prototype, composed of a central Policy Administration Point (PAP), called Federated Authorisation Policy Management Service (FAPManS), policy adaptors (translators) and a policy synchronization mechanism, was implemented for OpenStack and Amazon Web Services (AWS) cloud platforms. An ontology was also created based on their access control technologies. The “Level of Semantic Equivalence (LSE)” was defined as a metric that gives the percentage of policy rules that could be translated to the ontology terms. In the validation of this solution, authorization policies based on examples publicly provided by OpenStack and AWS were converted to ontology-based global rules and vice-versa with LSE above 80%. / Múltiplos provedores de computação em nuvem convivem hoje ofertando seus serviços de forma competitiva. Para evitar dependência (o chamado vendor lock-in), usuários utilizam muitos serviços em ambiente terceirizado e heterogêneo multi-nuvens. Desta forma, a segurança de dados e sistemas depende normalmente de mecanismos existentes isoladamente em cada um dos provedores. Mecanismos de controle de acesso são responsáveis pela autenticação, identificação e autorização dos usuários aos recursos. No caso de ambiente multi-nuvens, usuários geralmente precisam se autenticar diversas vezes e definir políticas de segurança para cada um dos serviços, que possivelmente podem apresentar inconsistências. O objetivo desta tese é proporcionar aos usuários de sistemas heterogêneos multi-nuvens uma experiência de acesso homogênea a estes serviços. Federações de identidade proporcionam o Single Sign-On (SSO), ou seja, os usuários são identificados e autenticados por provedores de identidade (IdPs) uma única vez e, através de protocolos como OpenID Connect, SAML ou ABFAB, recebem acesso a serviços federados com os quais possuem relação de confiança. No entanto, federações de autorização ou de políticas de controle de acesso não são comuns. Cada serviço de nuvem costuma ter seu próprio mecanismo de controle de acesso, com linguagens próprias de definição de políticas. Este trabalho define uma solução que provê autenticação e autorização homogêneas a usuários de múltiplos serviços de computação em nuvem heterogêneos no modelo de Infraestrutura como Serviço (IaaS). Isso é possível através de federações de identidade e de políticas de autorização. Nesta solução, políticas de segurança são armazenadas de forma centralizada no padrão “DNF” com semântica definida em uma Ontologia. Portanto, clientes de nuvens podem criar “Federações de Políticas de Autorização (APFs)” e associar suas contas em cada provedor a estas federações. Desta forma, regras de autorização globais, definidas e gerenciadas pela APF, passam a valer em todas as contas que fazem parte da federação, garantindo uma experiência homogênea de acesso. Um protótipo do sistema, composto de um Ponto de Administração de Políticas (PAP) centralizado e mecanismos de tradução e sincronismo de políticas, foi implementado para nuvens OpenStack e Amazon Web Services (AWS). Uma ontologia também foi definida baseada no controle de acesso destas tecnologias. A métrica “nível de equivalência semântica (LSE)” foi definida para calcular o percentual de regras de uma política que pode ser traduzido para termos de uma ontologia. Na validação da solução, políticas de autorização baseadas em exemplos fornecidos por OpenStack e AWS foram convertidos para regras globais, baseadas na ontologia, e vice-versa, com nível de equivalência semântica superior a 80%.
62

Planejamento de transcodificação de vídeo em nuvem elástica

FÉ, Iúre de Sousa 03 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-05T19:27:58Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Dissertacao_biblioteca(1).pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5) / Rejected by Alice Araujo (alice.caraujo@ufpe.br), reason: Refazer. Teste da PROCIT. on 2018-07-12T21:50:43Z (GMT) / Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-12T21:55:58Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Iúre de Sousa Fé.pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-17T20:32:50Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Iúre de Sousa Fé.pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5) / Made available in DSpace on 2018-07-17T20:32:50Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Iúre de Sousa Fé.pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5) Previous issue date: 2017-02-03 / O tráfego de vídeo ocupa a maior parte do volume de dados que são transmitidos pela Internet, principalmente devido à capacidade de usuários comuns gravarem e compartilharem seus próprios conteúdos. Entretanto, há uma grande heterogeneidade de dispositivos, softwares e rede para visualização dessas mídias, requerendo que esses vídeos sejam transcodificados para formatos compatíveis com a maioria dos visualizadores de vídeo. Transcodificar vídeos é uma atividade computacionalmente cara e com demanda altamente variável, portanto, pode beneficiar-se da capacidade distribuída e elástica da computação em nuvem. No entanto, identificar uma configuração dos mecanismos automáticos de elasticidade (auto-scaling), que cumpra os requisitos mínimos de desempenho requeridos pelo SLA ao menor custo possível não é uma tarefa simples, requer ajustar diversos parâmetros, como o momento de criar e retirar VMs, o tipo de VM que será adicionada, levando em conta o tempo de transcodificação e instanciação de cada tipo. Além disso, em infraestruturas públicas, os contratos firmados com o provedor de nuvem podem apresentar custos diferentes para um mesmo tipo de VM alugada, onde a opção apropriada é relacionada com o auto-scaling e carga de trabalho esperada. Já em infraestruturas de nuvem privadas, a complexidade de configuração trará também aspectos do dimensionamento dinâmico adequado da infraestrutura física para reduzir o consumo elétrico enquanto cumpre o SLA. Com objetivo de auxiliar na escolha desses parâmetros, esta dissertação propõe modelos em Redes de Petri Estocástica para computar a vazão, o tempo médio de resposta, o custo em nuvens públicas e o consumo elétrico em nuvens privadas. Essas métricas são avaliadas a partir da entrada dos parâmetros de configuração e taxa de requisições esperada para o sistema. Os modelos estocásticos propostos também foram integrados com o algoritmo de otimização GRASP, com objetivo de encontrar as configurações que devem ser adotadas na nuvem para cumprir o SLA e minimizar o custo de manter o sistema. Os estudos de caso demonstram que a combinação dos modelos com mecanismos de otimização é útil para orientar os administradores nas escolhas dos valores dos parâmetros de configuração para implantar e ajustar sistemas, respeitando os requisitos de desempenho e minimizando o custo. A aplicação dessa abordagem também permitiu identificar o comportamento do custo de um sistema em relação ao SLA, em um dos estudos de caso apresentados, a redução de 30 para 15 segundos no tempo de resposta mínimo representou um aumento de 299% no custo, já uma redução de 45 para 30 segundos apenas um aumento de 6%. Este comportamento é especialmente útil na negociação de novos SLAs. / Video traffic occupies most of the volume of transmitted data over the Internet, mainly because of the ability of users to record and share their content. However, there is a high heterogeneity of devices, software, and network for viewing these media, requiring these videos to be transcoded to formats compatible with most video viewers. Transcoding videos is a computationally expensive and highly variable demand activity so that it can benefit from the distributed and elastic ability of cloud computing. Although, identifying a configuration of the automatic elastic mechanisms (auto-scaling), which meets the minimum performance requirements required by the SLA at the lowest possible cost is not a simple task. It needs adjusting several parameters, such as the time to create and remove VMs, the type of VM that will be added, taking into account the transcoding and instantiation time of each type. Besides, in public infrastructures, contracts with the cloud provider may incur different costs for the same type of hired VM, where the appropriate option is related to auto-scaling and expected workload. In private cloud infrastructures, configuration complexity will also bring aspects of the proper dynamic dimensioning of the physical infrastructure to reduce electrical consumption while complying with the SLA. To assist in the choice of these parameters, this dissertation proposes Stochastic Petri Nets models to compute the throughput, the mean response time, and the cost in public clouds and electrical consumption in private clouds. These metrics are evaluated from the input of configuration parameters and requisition rate expected for the system. The proposed stochastic models were also integrated with the GRASP optimization algorithm, in order to find the configurations that should be adopted in the cloud to comply with the SLA and minimize the cost of owning the system. Case studies demonstrate that the combination of models with optimization mechanisms is useful to guide administrators in choosing the values of configuration parameters to deploy and tune systems while respecting performance requirements and minimizing cost. The application of this approach also allowed to identify the behavior of the cost of a system in relation to the SLA, in one of the presented case studies, the reduction of 30 to 15 seconds in the minimum response time represented a 299% increase in cost, while a reduction of 45 to 30 seconds only an increase of 6%. This behavior is especially useful when negotiating new SLAs.
63

Planejamento de infraestruturas de mobile cloud computing baseado em modelos estocásticos

ARAUJO, Jean Carlos Teixeira de 09 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T20:25:39Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Jean Carlos Teixeira de Araújo.pdf: 4792279 bytes, checksum: 0b4e08b802f03c64d5709a4e978e8af7 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T21:25:04Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Jean Carlos Teixeira de Araújo.pdf: 4792279 bytes, checksum: 0b4e08b802f03c64d5709a4e978e8af7 (MD5) / Made available in DSpace on 2018-07-26T21:25:04Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Jean Carlos Teixeira de Araújo.pdf: 4792279 bytes, checksum: 0b4e08b802f03c64d5709a4e978e8af7 (MD5) Previous issue date: 2017-03-09 / CAPES / A academia e a indústria têm demonstrado que os recursos limitados dos dispositivos móveis podem ser complementados por recursos virtualizados em uma infraestrutura de computação em nuvem, surgindo assim um novo paradigma chamado mobile cloud computing (MCC). Embora esta solução expanda substancialmente a capacidade de tais dispositivos, também impõe uma dependência em tempo integral de conexão de Internet sem fio. Além disso, problemas como o esgotamento da carga da bateria, falhas de dispositivos móveis, instabilidade das redes sem fio, bugs de aplicativos e interrupções no serviço da nuvem podem representar obstáculos na expansão da mobile cloud computing, uma vez que tais problemas podem resultar no mal fornecimento do serviço da MCC. Modelos estocásticos hierárquicos são adequados para descrever de forma concisa o funcionamento de uma infraestrutura de MCC, lidando com o grande número de componentes que constituem esse tipo de sistema. Sendo um paradigma tão recente, poucos esforços foram feitos para identificar os impactos destes tipos de falhas sobre o funcionamento do sistema. Desta forma, esta tese provê modelos estocásticos para o planejamento de infraestruturas de mobile cloud computing. Esta abordagem foca especialmente no impacto de alguns fatores sobre a disponibilidade e confiabilidade do sistema, tais como: arquiteturas distintas de mobile cloud computing; características de protocolos de comunicação; componentes críticos dos dispositivos móveis, como a bateria; e o comportamento dos softwares envolvidos. A avaliação adotada é baseada em modelos heterogêneos hierárquicos e se concentra em métricas como a disponibilidade em estado estacionário, confiabilidade, downtime, probabilidade de conectividade, tempo médio de vida da bateria, e os custos de implantação e provisionamento da infraestrutura de nuvem. Os experimentos realizados fornecem subsídios aos parâmetros de entrada dos modelos aqui propostos. Além disso, ferramentas de software foram desenvolvidas para auxiliar na condução de tais experimentos. Os modelos propostos permitem realizar comparações entre diferentes formas de implantação de mobile cloud computing, assim como planejar ajustes na infraestrutura de hardware e software com o intuito de garantir níveis de serviço satisfatórios. / Academy and industry have been showing that the limited resources of mobile devices might be supplemented by virtualized resources in a cloud infrastructure, emerging a new paradigm called mobile cloud computing (MCC). While this solution substantially expands the abilities of such gadgets, it also enforces a full-time dependency on wireless Internet connection. Furthermore, issues such as battery charge depletion, mobile device faults, wireless network instability, application bugs, and outages in the cloud service may represent obstacles in expansion of the mobile cloud computing, since such issues may result in poor provision of the MCC service. Hierarchical stochastic models are suitable for a concise description of the operation of an MCC infrastructure, dealing with the large number of components that constitute this type of system. Being such a recent paradigm, few efforts were conduced to identify the impact of those types of faults on the system operation. In this way, this thesis provides stochastic models to planning of mobile cloud computing infrastructures. This approach focus specially on the impact of some factors on system availability and reliability, such as: different architectures of mobile cloud computing; characteristics of communication protocols; critical components of mobile devices, such as the battery; and the behavior of the software involved. Our evaluation is based on hierarchical heterogeneous models and focuses on measures such as steady-state availability, reliability, downtime, connectivity probability, average battery lifetime, and costs of implementation and provisioning of the cloud infrastructure. We performed experiments to provide subsidies to the input parameters of the proposed models here. In addition, software tools have been developed to aid in the conduct of such experiments. The proposed models allow comparisons between different forms of mobile cloud computing deployment, as well as planning adjustments to the hardware and software infrastructure to ensure satisfactory service levels.
64

Análise de sensibilidade aplicada à identificação de pontos que requerem melhoria na disponibilidade em infraestrura de Cloud

MELO, Rosangela Maria de 08 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T19:54:10Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rosangela Maria de Melo.pdf: 1948795 bytes, checksum: cc0a3eec0b5971404b3994e89c0b7354 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T21:53:02Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rosangela Maria de Melo.pdf: 1948795 bytes, checksum: cc0a3eec0b5971404b3994e89c0b7354 (MD5) / Made available in DSpace on 2018-07-26T21:53:02Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rosangela Maria de Melo.pdf: 1948795 bytes, checksum: cc0a3eec0b5971404b3994e89c0b7354 (MD5) Previous issue date: 2017-03-08 / Durante vários anos, os sistemas de computação em nuvem vem gerando um debate e interesse dentro das corporações de TI. Estes ambientes de computação em nuvem fornecem sistemas de armazenamento e processamento que são adaptáveis, eficientes e simples, permitindo assim modificações na infraestrutura de forma rápida, de acordo com a variação da carga de trabalho. Organizações de qualquer tamanho e tipo estão migrando para nuvem suportando soluções baseadas na Web. Devido às vantagens do modelo de pay-per-use e fatores de escalabilidade, serviços como o de Streaming de Vídeo e o MBaaS OpenMobester, dependem fortemente dessas infraestruturas de nuvem para oferecer uma grande variedade de conteúdos de multimídia e armazenamento de dados dos dispositivos móveis. Recentes eventos de falha em serviços de Streaming de Vídeo, demonstraram a importância fundamental da manutenção da alta disponibilidade em infraestruturas de computação em nuvem. Um dos métodos utilizados para identificar as tendências de ocorrências de falhas em sistemas computacionais, ocorre por meio da aplicação de estratégias de análise de sensibilidade. Cada estratégia de análise de sensibilidade pode obter um ranking diferenciado, desse modo sugerimos a utilização para avaliação dos sistemas computacionais, de mais de uma estratégia, com o objetivo de obtermos alta confiabilidade desses sistemas. Esta tese propõe uma metodologia aplicada no domínio dos sistemas computacionais, em particular na computação em nuvem, combinando a proposição e adaptação de estratégias de análise de sensibilidade com métodos já existentes, realizando uma comparação entre elas, com o propósito de estabelecer um índice de sensibilidade a partir da atribuição de pesos, para as posições que os parâmetros ocupam em cada estratégia. Pretende-se obter um ranking coerente e com a minimização das discrepâncias entre as estratégias, visando identificar os principais pontos que requerem melhoria na disponibilidade desses ambientes. A metodologia baseia-se na utilização de estratégias de análise de sensibilidade, conjuntamente com a modelagem hierárquica, e com os modelos para representação de mecanismos de redundância visando atuar na performance do sistema. A metodologia foi testada ao longo de estudos de casos distintos, no serviço de Streaming de Vídeo e no serviço MBaaS OpenMobester, desde o nível de infraestrutura básica até a infraestrustrura com redundância. Os estudos de casos mostram que a abordagem proposta é útil para guiar os provedores de serviço de nuvem no processo de tomada de decisões, especialmente para ajustes eventuais e melhorias arquiteturais no serviço. / For several years, cloud computing systems have been generating debate and interest within IT corporations. These cloud computing environments provide storage and processing systems that are adaptable, efficient and simple, thus allowing for rapid infrastructure modifications to be made, according to constantly changing workloads. Organizations of any size and type are migrating to the cloud supporting solutions based on Web. Due to the benefits of the pay-per-use model and scalability factors, services such as Video Streaming and MBaaS OpenMobester rely heavily on these cloud infrastructures to deliver a wide variety of multimedia content and Data storage of mobile devices. Recent failure events in video streaming services have demonstrated the critical importance of maintaining high availability in cloud computing infrastructures. One of the methods used to identify the trends of occurrences of failures in computational systems, occurs through the application of strategies of sensitivity analysis. Each strategy of sensitivity analysis can obtain a differentiated ranking, thus it is suggested that we use to evaluate the computational systems, more than one strategy, with the objective of obtaining high reliability of these systems. This thesis proposes a methodology applied in the field of computational systems, in particular in cloud computing, combining the proposition and adaptation of strategies of sensitivity analysis with existing methods, making a comparison between them, with the purpose of establishing a Index of sensitivity from the attribution of weights, the positions that the parameters occupy in each strategies. The aim is to achieve a coherent ranking and to minimize the discrepancies between the strategies, aiming to identify the main points that require improvement in the availability of these environments. The methodology is based on the use of sensitivity analysis strategies, together with the hierarchical modeling, and with the models to represent redundancy mechanisms aiming to perform in the performance of the system. The methodology has been tested over different case studies in the video streaming service and the MBaaS OpenMobester service, from the basic infrastructure to the redundant infrastructures. The case studies show that the proposed approach is useful for guiding cloud service providers in the decision-making process, especially for eventual adjustments and architectural improvements in the service.
65

Provisão de computação voluntária e intensiva de dados para suporte de aplicações científicas

Gutierrez, Felipe Oliveira 17 February 2014 (has links)
Submitted by Santos Davilene (davilenes@ufba.br) on 2016-05-25T12:39:19Z No. of bitstreams: 1 FelipeOliveiraGutierrez-Dissertacao.pdf: 2956268 bytes, checksum: f8c8c623dba24c46d9d9ec40663d86dc (MD5) / Made available in DSpace on 2016-05-25T12:39:19Z (GMT). No. of bitstreams: 1 FelipeOliveiraGutierrez-Dissertacao.pdf: 2956268 bytes, checksum: f8c8c623dba24c46d9d9ec40663d86dc (MD5) / O projeto mc2 (Minha Cloud Científica), no qual se insere a presente proposta, objetiva prover uma plataforma de suporte `a execução de aplicações cient´ıficas em recursos computacionais de diferentes paradigmas: agregados, redes par-a-par, redes voluntárias e sistemas de larga escala. Neste escopo, este trabalho aborda a inclusão de recursos de computação voluntária e de processamento intensivo de dados na plataforma mc2, juntamente com a análise de métricas de desempenho para alguns estudos de casos. Nestas análises foram obtidos resultados satisfatórios para os dois módulos do mc2 citados. Através deles foi possível avaliar a facilidade que os cientistas de diversas áreas podem obter usufruindo da plataforma e o ganho em desempenho quando necessitam de grandes volumes de processamento.
66

Algoritmo Particle swarm para escalonamento de máquinas virtuais em computação em nuvem /

Silva, Wellington Francisco da January 2018 (has links)
Orientador: Renata Spolon Lobato / Banca: Rodrigo Guido / Banca: Henrique Dezani / Resumo: A demanda computacional dos últimos anos fez um novo paradigma computacional tornar-se extremamente necessário para suprir a demanda por recursos. A computação em nuvem tem sido muito usada e é realidade em todos setores que demandam uso computacional aliado com segurança e com facilidade de gerenciamento. Data Centers gigantescos foram criados para atender uma demanda cada vez maior. Processamento, memória e armazenamento são entregues a clientes finais que não tem a preocupação com energia, resfriamento, hardware, software, licenças e gerenciamento, pagando apenas pelo que realmente necessita. Considerando que o usuário solicita recursos para executar uma determinada tarefa, faz-se necessária a criação de mecanismos eficientes de alocação de recursos e métricas de cobrança justas. Neste trabalho é feita uma revisão de conceitos de computação em nuvem, virtualização e escalonamento de recursos. São analisados alguns algoritmos de escalonamento. Utiliza o algoritmo particle swarm como base para escalonar máquinas virtuais na classe de infraestrutura como serviço(IaaS). Busca o ambiente que atenda a necessidade de recursos solicitados e o QoS (qualidade de serviço) contratado. Por fim é implementado o algoritmo particle swarm para fazer análise da melhor configuração de parâmetros para atender a demanda de alocação de máquina virtual em computação em nuvem. É considerado para o cálculo a quantidade de CPU, memória e disco. Os resultados mostraram que o algoritmo é eficiente... / Abstract: The computational demand of the last years has made a new computational paradigm become extremely necessary to supply the demand for resources. Cloud computing has been widely used and is a reality in all sectors that demand computational use allied with security and with ease of management. Gigantic data centers were created to meet ever-increasing demand. Processing, memory, and storage are delivered to end customers who do not have the energy, cooling, hardware, software, licensing, and management concerns, paying only for what they really need. Considering that the user requests resources to perform a certain task, it is necessary to create efficient mechanisms of allocation of resources and fair collection metrics. In this work a review of concepts of cloud computing, virtualization and scheduling of resources is made. Some scaling and collection algorithms are analyzed. It uses the particle swarm algorithm as the basis for staging virtual machines in the infrastructure class as a service (IaaS). It seeks the environment that meets the need for requested resources and contracted QoS. Finally, the particle swarm algorithm is implemented to make analysis of the best parameter configuration to meet the demand for virtual machine allocation in cloud computing. The amount of CPU, memory and disk is considered for calculation. The results showed that the algorithm is efficient to be used to stagger virtual machines in cloud computing / Mestre
67

A especificação de um middleware para dispositivos móveis utilizando grades de computadores

Navarro, Fabio Piola January 2006 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-22T19:09:34Z (GMT). No. of bitstreams: 1 233924.pdf: 838255 bytes, checksum: 2ae3e3e0385f42760b6c9b2509fbc35f (MD5) / Grades de computadores (grids) têm como característica principal prover uma distribuição de processamento e fornecer integração entre os dispositivos da grade. A computação móvel tem por objetivo o fornecimento de serviços móveis, isto é, entrega de informação a qualquer hora e em qualquer lugar, através de dispositivos móveis. Baseado neste contexto, esta dissertação motivada pela capacidade das grades de computadores de homogeneização de dispositivos e alto poder de processamento apresenta uma arquitetura para integrar os serviços da computação móvel às características da computação em grade através de um middleware. Este middleware é responsável pela transparência de acesso aos recursos, dispositivos móveis e não móveis, por parte dos usuários. Com isto pretende-se resolver alguns problemas relacionados a computação móvel, como falta de poder de processamento, baixa capacidade de memória entre outros descritos ao longo da dissertação pelo uso de grades de computadores. Esta dissertação contribui com uma nova abordagem para a resolução de problemas móveis ao integrar computação em grade com computação móvel.
68

Uma abordagem para tratamento da desconexão de dispositivos móveis na utilização de recursos de Grif computacional

Rossetto, Anubis Graciela de Moraes January 2007 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2012-10-22T23:46:37Z (GMT). No. of bitstreams: 1 242963.pdf: 1538614 bytes, checksum: 5b7becee02e088bd20c866cf550c555e (MD5) / A utilização de dispositivos móveis em ambientes de grid computacional tem sido explorada para aplicações técnico-científicas, que muitas vezes podem se beneficiar do poder computacional e mobilidade desses ambientes. Todavia, a integração dos dispositivos móveis requer um tratamento mais criterioso de algumas de suas limitações. Uma das vulnerabilidades existentes em uma configuração móvel é a sua imprevisibilidade quanto às suas conexões, assim, desconexões são usualmente freqüentes em ambientes móveis. Esta dissertação apresenta uma pesquisa sobre o tratamento das desconexões de dispositivos móveis utilizados pelos usuários para submissão e monitoração de aplicações em ambientes de grids computacionais. O conceito de workflow foi empregado para a submissão e monitoração de aplicações com várias tarefas para solução de um único problema. A abordagem proposta é constituída por um mecanismo de tratamento de falhas que possui três componentes: o observador, o analisador e o adaptador. Nos casos de desconexão, o mecanismo desenvolvido adapta o fluxo de execução das aplicações considerando a natureza da aplicação e as configurações prévias do usuário. Com a execução dos testes experimentais observou-se que o mecanismo proposto atua na verificação do status de conexão e, quando necessário, procede ao ajuste na execução da aplicação. Em adição, a abordagem possibilita o reinício de aplicações não finalizadas, sem perder o processamento já realizado. Neste contexto, o mecanismo garante a consistência das aplicações de maneira transparente para o usuário, bem como evita o desperdício dos recursos do ambiente grid. Desta forma, a abordagem atingiu com sucesso o objetivo de uma melhor utilização de um ambiente de grid computacional, através de um dispositivo móvel, considerando-se suas eventuais desconexões.
69

Uma abordagem de reserva antecipada de recursos em ambientes oportunistas

Gomes, Eliza Helena Areias January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:31:50Z (GMT). No. of bitstreams: 1 324075.pdf: 3522909 bytes, checksum: fe21f0166c9e3f4e8335b1b55b686f69 (MD5) Previous issue date: 2013 / A grade computacional é muito utilizada quando se deseja alto desempenho para resolução de problemas que requerem alto poder de processamento. As grades oportunistas, um tipo de grade computacional, possuem o diferencial de utilizar recursos computacionais ociosos de máquinas pessoais para a resolução destes problemas, o que torna esse ambiente mais barato e, consequentemente, mais interessante, principalmente para a comunidade acadêmica. No entanto, nos ambientes oportunistas a disputa por recursos torna-se maior devido à instabilidade e constante uso de seus recursos. Problemas como o excesso de solicitações de alocação de recursos em um mesmo período podem ser recorrentes, o que pode tanto prejudicar o desempenho do sistema quanto tornar o processo de solicitação de recursos trabalhoso para o usuário, uma vez que este terá que repetir o processo até que haja recursos disponíveis para a sua execução. Uma maneira eficiente de resolver tal problema é com a utilização da reserva antecipada de recursos. Este mecanismo permite que o usuário selecione um conjunto de recursos para que sejam utilizados em um período no futuro, considerando oportunisticamente os recursos disponíveis. Diante disso, esta dissertação propôs a utilização do mecanismo de reserva antecipada em um ambiente de grade oportunista. O objetivo foi melhorar a vazão do uso de recursos oportunistas, de modo a oferecer a possibilidade de alocação dos recursos durante um longo período de tempo, e não apenas no momento da solicitação. Estudos de caso foram realizados para ilustrar o comportamento de um ambiente oportunista com a abordagem proposta, bem como para comparar os ambientes que utilizam e não utilizam reserva antecipada. Os resultados mostraram a eficiência e validade da utilização de tal abordagem em um ambiente distribuído.<br> / Abstract : Grid computing is widely used when high performance is desired to resolve problems that require high processing power. Opportunistic grids, a type of grid computing system, have the differential to use idle computing resources of personal machines to solving these problems, making the solution cheaper and consequently more interesting, specially for the academic community. However, opportunistic environments have more competition for resources due to instability and constant use of their resources. Problems such as excessive requests of resources allocation can be recurrent and can both degrade the performance of the system and make the process of resource requests harder to user, once the user will have to repeat this process until there are available resources to the execution. An efficient way to solve this problem is through the use of advanced reservation of resources. This mechanism allows user to select a set of resources to be used in the future opportunistically considering available resources. Therefore, this dissertation proposed the use of the advanced reservation mechanism in an opportunistic grid environment. The goal was to improve the use flow of the opportunistic resources in order to offer the resources allocation possibility for a long period of time and not only at the time of request. Case studies were carried out to illustrate the behaviour of an opportunistic environment with the proposed approach, as well as to compare environments that use with others that do not use advanced reservation. The results show the efficiency and validity of the approach in a distributed environment.
70

Uma arquitetura de computação autônoma e cognitiva para monitoramento de nuvens

Schubert, Fernando January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014. / Made available in DSpace on 2016-01-15T14:40:30Z (GMT). No. of bitstreams: 1 336955.pdf: 2763605 bytes, checksum: 07c8d276c6efc2525413259bb9f38a2c (MD5) Previous issue date: 2014 / Em um curto espaço de tempo, a computação em nuvem evoluiu de mais um buzzword do mercado para um paradigma e modelo de serviço e entrega de recursos amplamente consolidado e aceito. Mesmo que ainda existam lacunas e divergências sobre conceitos e padrões, fato inegável é a expansão e utilização da Nuvem como modelo computacional. Neste contexto novos desafios surgem, entre eles a necessidade de monitorar tais infraestruturas complexas e heterogêneas, de forma a possibilitar a análise de grandes volumes de dados gerados, para tarefas de importância primordial para este modelo, como faturamento de recursos utilizados, identificação de falhas e predição de comportamentos. Tendo em vista este universo dinâmico e de rápidas mudanças, a presente arquitetura é apresentada, propondo um modelo de monitoramento não intrusivo, cujo foco está no armazenamento e recuperação de dados para a construção de sistemas autônomos utilizando aprendizado de máquina. Este trabalho visa evoluir o estado da arte ao propor uma arquitetura autônoma para o monitoramento de Nuvens, tanto privadas quanto híbridas e públicas.<br> / Abstract : In a very short timespan, Cloud Computing has evolved from another market buzzword to a widely accepted and consolidated computing model. Even though there are still gaps and disagreements about concepts and patterns, an undeniable fact is the expansion and wide use of the Cloud as a computing model. In this context there are new challenges, including the need to monitor such complex and heterogeneous infrastructures, in order to enable the analysis of large volumes of data generated for tasks of paramount importance like billing, consolidated reports, detect failures and predict future issues. Given this dynamic and rapidly changing universe, the proposed architecture is presented, proposing a non-intrusive monitoring model, whose focus is the information storage and retrieval allowing the construction of autonomous systems using machine learning. This work aims to advance the state of the art by proposing an autonomous architecture for Clouds monitoring.

Page generated in 0.0602 seconds