• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 263
  • 48
  • 14
  • 12
  • 10
  • 10
  • 10
  • 9
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 331
  • 331
  • 331
  • 211
  • 209
  • 52
  • 50
  • 49
  • 48
  • 43
  • 43
  • 42
  • 42
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Modelagem matemática da precificação dos recursos computacionais utilizados em planos de provedores de computação em uvens usando o método hedônico

Pacheco, Jussiano Regis 05 December 2018 (has links)
A computação em nuvem se apresenta como possibilidade eficiente de maximizar e flexibilizar os recursos computacionais das empresas Infrastructure as Service (IaaS) é um modelo de computação em nuvem focado na contratação de máquinas virtuais com o intuito de oferecer o uso de recursos computacionais de forma otimizada. Entretanto, a diversidade de planos ofertados, assim como as estratégias de precificação adotadas pelos provedores torna complexa a tomada de decisão. Neste sentido, com o objetivo de compreender a composição dos planos de precificação, esta dissertação desenvolveu modelos ecnométricos para estimular os preços dos recursos computacionais utilizados em planos de provedores de computação em nuvem da modalidade IaaS por meio de método hedônico. Para isso, foram analisados planos de computação em nuvem ofertados por três dos principais provedores Amazon Web Service, Google Cloud Platform e Microsolft Windos Azure. Os dados obtidos referem-se ao valor mensal, características qualitativas (como CPU, armazenamento e memória). Utilizou-se para estimular os coeficientes a análise de regressão Não Linear. Os testes estatísticos mostram que os modelos são eficazes. Os resultados permitiram identificar determinadas estratégias de precificação aplicadas. Os planos da Google Cloud apresentam um padrão semelhante de precificação dos recursos computacionais em relação a localização geográfica. Também e o provedor com o preço médio mais baixo pelo conjunto de recursos computacionais. Já a Azure utiliza de estratégias especificas de preços em cada um dos servidores, os preços praticados não apresentam relação com a localização geográfica. É também a Azure que possui o valor médio mais alto pelo conjunto CPU x Memória (1x3,75GB). Já na Amazon observou-se que a localização geográfica do servidor tem influência sobre os planos de precificação. Este também é o provedor que possui o maior valor entre s planos com sistemas operacionais Windows, preço 76% maior que a Azure. Em uma análise comparativa, os planos propostos pela Google mostraram ser mais vantajosos em situações com baixa e média quantidade de Armazenamento. A Amazon apresentou as melhores opções para o planos compostos por alta quantidade de armazenamento e com sistema operacional Linux e Windows, este último somente em algumas regiões. A análise estatística indica que o modelo proposto permite compreender as estratégias de preço praticadas pelos provedores de Computação em Nuvem. / 95 f.
192

Um estudo sobre a adoção da Computação em Nuvem no Brasil / A study on Cloud Computing adoption in Brazil

Ramalho, Neilson Carlos Leite 18 December 2012 (has links)
A Computação em Nuvem (CN) é um dos temas mais abordados por profissionais de TI atualmente. Com um forte apelo econômico, a CN torna possível a ideia da computação como uma utilidade, na qual recursos computacionais (processamento e armazenamento, por exemplo) podem ser consumidos e pagos com a mesma conveniência que a energia elétrica. Com este novo paradigma, uma empresa, ao iniciar suas atividades, não necessita mais investir antecipadamente um alto capital em equipamentos de TI. Os recursos computacionais são adquiridos conforme são necessários e o consumidor paga apenas pelo que utiliza. Esta pesquisa traz uma contribuição para as organizações e para o meio acadêmico, uma vez que analisa a adoção da CN por empresas brasileiras. A pesquisa abrange empresas privadas de diversos portes e setores que tenham adotado pelo menos um serviço de TI no modelo de CN. O modelo de pesquisa foi elaborado com base nos objetivos específicos, os quais se originaram das lacunas existentes sobre o uso de serviços de CN no Brasil. A pesquisa utilizou uma amostra não probabilística contendo 96 casos, os quais contemplaram aspectos do respondente, da organização e do serviço de CN mais importante para a organização. Os dados foram coletados por meio de um questionário e tratados estatisticamente usando técnicas não paramétricas e Análise de Agrupamentos. A pesquisa se caracteriza por ser exploratória, verificando frequências e ligações entre as características organizacionais e os serviços de CN. A pesquisa identificou as características dos serviços de CN utilizados no Brasil e o grau de aderência de cada serviço à definição de CN proposta. Adicionalmente, foram apresentadas as relações entre as características organizacionais e as características dos serviços de CN. Além disso, foi possível identificar três grupos distintos de empresas, em relação às características dos serviços de CN utilizados, e descrever às características organizacionais e dos serviços associados a cada grupo. Finalmente, a CN foi discutida à luz das Teorias de Terceirização. / Cloud Computing (CC) is one of the most discussed topics among IT professionals today. With a strong economic appeal, CC makes possible the idea of computing as a utility, in which computing resources (processing power and storage, for example) can be consumed and paid with the same convenience as electricity. In this new paradigm, a startup company does not need up-front capital to invest in advanced IT assets. The computing resources are acquired as needed and the customer pays only for what is used. This research makes an important contribution to organizations and academia, since it analyzes CC adoption by Brazilian companies. The survey covers private companies of all sizes and sectors that have adopted at least one IT service in CC model. The research model was designed based on the research specific objectives, which were made from the gaps of CC services usage in Brazil. This paper used a not randomly picked sample with 96 cases, which specified aspects of the respondent, organization and the most important CC service to the organization. Data was collected through a questionnaire and statistically analyzed using nonparametric techniques and Cluster Analysis. This research is characterized as exploratory, checking frequencies and links between organizational characteristics and CC services characteristics. This research identified the characteristics of CC services used in Brazil and the compliance degree of each service to the proposed CC definition. Additionally, we presented and discussed the relationships between organizational characteristics and characteristics of CC services. Furthermore, it was possible to identify three distinct groups of companies in relation to the characteristics of CC services they use, and describe organizational characteristics and services associated with each group. Finally, CC was discussed in the light of the Outsourcing Theories.
193

Computação em nuvem elástica auxiliada por agentes computacionaise baseada em histórico para web services / Elastic cloud computing aided by history-based computacionaise agents to web service

Dias, Ariel da Silva 15 December 2014 (has links)
A gestão eficaz de recursos computacionais em nuvem está diretamente ligada a gerir corretamente o desempenho das aplicações hospedadas na Máquina Virtual (Virtual Machine - VM), criando um ambiente capaz de controlá-la e redimensionar recursos de Memória, Disco, CPU e outros que se façam necessários, individualmente em resposta a carga de trabalho. Neste trabalho considera-se também a gestão eficaz a qual é possível realizar o retorno sobre o investimento realizado para a contratação do serviço de IaaS. Nesta pesquisa de mestrado, foi proposto o gerenciamento da infraestrutura computacional em nuvem, através de dois modelos que facilitam o provisionamento auto-adaptativo de recursos em um ambiente virtualizado: alocação de recursos utilizando modelo para previsão da carga de trabalho futura e a gestão auto-adaptativa de capacidade utilizando agentes computacionais para monitorarem constantemente as VMs. Além disso, é proposto o retorno do investimento, que trata a relação entre o valor que o cliente contratou do serviço de IaaS e o quanto efetivamente ele está utilizando. Desta forma, a cada período é contabilizado a taxa do valor gasto em unidades monetárias. Para contemplar esta proposta, foram desenvolvidos algoritmos que são o núcleo de todo gerenciamento. Também foram realizados experimentos e os resultados mostram a capacidade do autogerenciamento das máquinas virtuais, com reconfiguração dinâmica da infraestrutura através de previsões baseadas em histórico e também da reconfiguração e monitoramento com o uso de agentes computacionais. Após a análise e avaliação dos resultados obtidos nos experimentos, é possível afirmar que houve uma significativa melhora da reconfiguração dos recursos com agentes computacionais se comparado a reconfiguração com previsão de carga futura. / The efficient management of computational resources in the cloud is directly linked to correctly manage the performance of the applications hosted in the virtual machine (Virtual Machine - VM), creating an environment able to control it and resize features Memory, Disk, CPU and others resources, individually in response to workload. This work is also considered effective management which is possible to realize the return on investment for hiring the IaaS service. This Master thesis, is proposed the management of computing infrastructure in the cloud, using two models that facilitate self-adaptive resource provisioning in a virtualized environment using resource allocation model to predict the future workload and adaptive self-management capacity utilizing computational agents to continuously monitor the VMs. Furthermore, it is proposed return on investment, which is the ratio between the value that the client hired the IaaS service and how effectively it is using. Thus, each period is accounted for the rate of the amount spent in monetary units. To address this proposal, were developed algorithms that are the core of all management. Experiments were also conducted and the results show the ability of self-management for virtual machines with dynamic reconfiguration of infrastructure through predictions based on historical and also the reconfiguration and monitoring with the use of computational agents. After the analysis and evaluation of the results obtained in the experiments, is possible say that there was a significant improvement in reconfiguration of resources with computational agents compared with the workload forecast.
194

PS2DICOM: Explorando o paradigma Publish/Subscribe e a elasticidade em níveis aplicados ao procedimento de Telemedicina

Paim, Euclides Palma 31 October 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2018-02-22T12:31:13Z No. of bitstreams: 1 Euclides Palma Paim_.pdf: 2529933 bytes, checksum: 9c867ad7f5950b65e99f49343f096e8e (MD5) / Made available in DSpace on 2018-02-22T12:31:13Z (GMT). No. of bitstreams: 1 Euclides Palma Paim_.pdf: 2529933 bytes, checksum: 9c867ad7f5950b65e99f49343f096e8e (MD5) Previous issue date: 2017-10-31 / Nenhuma / Imagens médicas são usadas diariamente para apoio ao diagnóstico em diferentes áreas da Radiologia no mundo todo. Essas imagens seguem uma padronização internacional definida pela ISO 12052, conhecida como padrão DICOM (Digital Imaging and Communications in Medicine). Cada instituição que reivindica conformidade com esta norma, possui seus próprios serviços de armazenamento, sistemas de visualização e processamento específicos para esses dados. No entanto, há uma grande necessidade de que essas imagens sejam analisadas por diferentes especialistas, a fim de que cada caso possa ser discutido de forma ampla, na busca do melhor tratamento para cada patologia. A indisponibilidade de dados em tempo real para a avaliação médica especializada impacta direta e profundamente no sucesso terapêutico. O modelo de computação em nuvem tem as características necessárias para garantir que estas imagens se encontrem ao alcance dos profissionais mais recomendados para cada caso, aptos a oferecer o melhor atendimento. A grande quantidade de recursos disponíveis em nuvem, para lidar com esses dados de forma escalável, facilita a criação de uma infraestrutura para apoio ao diagnóstico à distância através de recursos de Telemedicina. Tomando como base o paradigma computacional Publicar/Assinar, podemos estabelecer comunicação em tempo real para solucionar situações no campo da saúde, como comunicação entre hospitais ou clínicas e entre médicos, enfermeiros e especialistas envolvidos no diagnóstico. Em ambientes clínicos que lidam com transmissão massiva de imagens em alta resolução no padrão DICOM, bem como em ambientes com problemas de desempenho de rede, transmitir essas imagens em tempo hábil, armazenar e disponibilizar de forma segura é um problema sem solução espontânea. Dessa forma esse trabalho propõe uma arquitetura baseada em nuvem computacional, para coletar, comprimir, armazenar e recuperar dados utilizando o paradigma Publicar/Assinar e dois níveis de escalabilidade. O modelo PS2DICOM é estabelecido como um middleware que oferece recursos de infraestrutura na camada IaaS (Infrastructure as a Service), apoiando as tarefas de transmissão e armazenamento de arquivos dentro do padrão DICOM. O sistema oferece compactação dos dados com diferentes intensidades, conforme largura de banda disponível. O modelo PS2DICOM conta ainda com dois níveis de balanceamento de carga e com a elasticidade reativa oferecida pela infraestrutura. A pesquisa contribui ao apresentar uma arquitetura eficaz para otimizar tarefas de rede, capaz de ser adotada como solução ao desenvolver aplicações voltadas para nuvens computacionais aplicadas a saúde em futuras situações reais. A arquitetura foi testada utilizando um protótipo com módulos distintos, desenvolvidos para cada serviço específico oferecido e mostrou-se eficiente como solução para os problemas em questão. Seus detalhes são descritos nos capítulos seguintes, bem como sua implementação, que corrobora a viabilidade do modelo. / Medical images are used daily to support diagnosis in different areas of Radiology throughout the world. These images follow an international standardization defined by ISO 12052, known as DICOM (Digital Imaging and Communications in Medicine) standard. Each institution that claims compliance with this standard has its own storage services, visualization and processing systems specific to that data. However, there is a great need for these images to be analyzed by different specialists, so that each case can be discussed in a broad way, in the search for the best treatment for each pathology. The unavailability of real-time data for specialized medical evaluation has a direct and profound impact on therapeutic success. The cloud computing model has the necessary characteristics to ensure that these images are within the reach of the professionals most recommended for each case, able to offer the best service. The large amount of resources available in the cloud to handle this data in a scalable way facilitates the creation of an infrastructure to support remote diagnosis through Telemedicine resources. Based on the computational paradigm Publish/Subscribe, we can establish real-time communication to solve situations in the field of health, such as communication between hospitals or clinics and between doctors, nurses and experts involved in the diagnosis. In clinical environments that deal with massive transmission of high resolution images in the DICOM standard, as well as in environments with network performance problems, transmitting these images in a timely manner, storing and making them available securely is a problem without a spontaneous solution. In this way, this work proposes a computational cloud-based architecture to collect, compress, store and retrieve data using the Publish/Subscribe paradigm and two levels of scalability. The PS2DICOM model is established as a middleware that provides infrastructure resources in the IaaS (Infrastructure as a Service) layer, supporting the tasks of transmitting and storing files within the DICOM standard. The system offers data compression with different intensities, depending on available bandwidth. The PS2DICOM model also has two levels of load balancing and the reactive elasticity offered by the infrastructure. The research contributes to presenting an efficient architecture to optimize network tasks, capable of being adopted as a solution when developing applications focused on computational clouds applied to health in future real situations. The architecture was tested using a prototype with distinct modules, developed for each specific service offered and proved to be efficient as a solution to the problems in question. Its details are described in the following chapters, as well as its implementation, which corroborates the viability of the model.
195

Vertelastic: um módulo de decisão para explorando elasticidade vertical no Autoelastic

Moreira, Gabriel Araujo Siccardi 25 September 2018 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2019-03-07T14:25:20Z No. of bitstreams: 1 Gabriel Araujo Siccardi Moreira_.pdf: 1944250 bytes, checksum: ba14c1d555cd6aab9a45c10ed781a54e (MD5) / Made available in DSpace on 2019-03-07T14:25:20Z (GMT). No. of bitstreams: 1 Gabriel Araujo Siccardi Moreira_.pdf: 1944250 bytes, checksum: ba14c1d555cd6aab9a45c10ed781a54e (MD5) Previous issue date: 2018-09-25 / Nenhuma / O conceito de elasticidade está muito ligado à computação em nuvens, pois consiste na capacidade de contrair recursos computacionais de maneira dinâmica e em tempo real. Usualmente, em computação de alto desempenho (HPC), as aplicações são modeladas para serem utilizadas com técnica de balanceamento de carga, fazendo uso da tecnologia de máquinas virtual. A computação paralela há muito tem sido utilizada para resolver questões computacionais que envolvem a execução de muitos processos simultaneamente e demanda quantidade grande de cálculos, cuja premissa é que um grande trecho de código a ser processado pode ser quebrado em menores e, assim, o problema como um todo dividido e resolvido de forma mais rápida. HPC é um típico caso de uso de paralelismo computacional que tem como seu protocolo de comunicação mais comum o Message Passing Interface (MPI), porém quando estamos tratando de aplicações em MPI, o aproveitamento máximo da elasticidade se dá de forma trabalhosa, com a necessidade de reescrita de código, de conhecimento profundo do comportamento da aplicação, além de serem inevitáveis algumas interrupções na aplicação para recompilar novas e pô-la em produção. A fim de evitar a reescrita de código e o aproveitamento total dos hardwares que estão cada vez mais robustos propõe-se na pesquisa desta dissertação a possibilidade de implementação de elasticidade vertical para trabalhar com aplicação de alto desempenho. Um modulo de decisão chamado VertElastic, é incorporado ao framework AutoElastic permitindo assim que se expanda a possibilidade para as duas formas de elasticidade – vertical e horizontal, podendo ainda ser feita de forma fixa com a indicação de threholds ou com predição os valores sejam calculados automaticamente. Trabalhos abordam a elasticidade vertical com threshold, já outros se valem da elasticidade horizontal de forma proativa e/ou reativa, porém não se encontrou pesquisas que permitissem a flexibilidade de se utilizar elasticidade vertical ou horizontal conforme a necessidade de forma proativa ou reativa, para isso o VertElastic se utiliza da elasticidade assíncrona, proporcionando que a aplicação não seja bloqueada enquanto a elasticidade acontece, seja ela para aumentar ou diminuir o recurso computacional. O VertElastic demostra sua viabilidade em uma rotina de testes executados na ferramenta open source OpenNebula. A execução de uma aplicação CPU-Bound demostra que o VertElastic se mostrou entre 13% e 38% mais eficaz que a não utilização de nenhuma técnica de elasticidade. Os testes ainda mostraram que quanto maior o threshold utilizado menor é o ganho no consumo de recursos computacionais e maior o tempo de execução da aplicação. / The concept of elasticity is closely linked to cloud computing because it consists of the ability to contract computational resources dynamically and in real time. Usually, in high performance computing (HPC), applications are modeled for use with load balancing technology, making use of virtual machine technology. Parallel computing has long been used to solve computational issues involving the execution of many processes simultaneously and demand large amounts of computations whose premise is that a large piece of code to be processed can be broken into smaller ones and thus the problem as a whole divided and resolved more quickly. HPC is a typical case of use of computer parallelism that has as its most common communication protocol Message Passing Interface (MPI), but when we are dealing with applications in MPI, the maximum use of elasticity occurs in a laborious way, with the need code rewriting, deep knowledge of application behavior, and some interruptions in the application to recompile new ones and put it into production are inevitable. In order to avoid the rewriting of code and the total use of hardwares that are increasingly robust, it is proposed in the research of this dissertation the possibility of implementing vertical elasticity to work with high performance application. A decision module called VertElastic is incorporated into the AutoElastic framework, thus allowing the possibility for both forms of elasticity - vertical and horizontal - to be expanded, and can be done in a fixed way with the indication of threholds or with prediction values are calculated automatically. Studies deal with vertical elasticity with threshold, while others use proactive and / or reactive horizontal elasticity, but no research was found that allowed the flexibility to use vertical or horizontal elasticity as needed proactively or reactively, for this the VertElastic uses the asynchronous elasticity, providing that the application is not blocked while the elasticity happens, be it to increase or decrease the computational resource. VertElastic demonstrates its feasibility in a testing routine run on the open source OpenNebula tool. The execution of a CPU-Bound application showed that VertElastic was 13% to 38% more effective than the non-use of any elasticity technique. The tests also showed that the higher the threshold used the lower the gain in the consumption of computational resources and the longer the execution time of the application.
196

BSPMon - um sistema de monitoramento preditivo de recursos em cloud computing para aplicações Bulk Synchronous Parallel

Pires, Júlio Cezar Santos 29 April 2014 (has links)
Submitted by Maicon Juliano Schmidt (maicons) on 2015-05-29T13:32:27Z No. of bitstreams: 1 Júlio Cezar Santos Pires_.pdf: 1421846 bytes, checksum: 20f1800d942c84a72b6cb04d163cc92f (MD5) / Made available in DSpace on 2015-05-29T13:32:27Z (GMT). No. of bitstreams: 1 Júlio Cezar Santos Pires_.pdf: 1421846 bytes, checksum: 20f1800d942c84a72b6cb04d163cc92f (MD5) Previous issue date: 2014-04-29 / CTIC/RNP - Centro de Pesquisa e Desenvolvimento em Tecnologias Digitais para informação e Comunicação / Com os constantes avanços tecnológicos, surgem novas tendências para prover uma base de serviços para a nova era da tecnologia da informação. Com isso, surgem novos paradigmas para sistemas distribuídos, como, por exemplo, a Computação em Nuvem (ou Cloud Computing), que possui como ideia base a disponibilização de recursos computacionais sob demanda por meio da Internet, permitindo, assim, a sua utilização em qualquer lugar e pelos mais diversos tipos de aplicações. Entre as principais características da computação em nuvem, tem-se a elasticidade, provisionamento de serviço e cobrança baseada na utilização efetiva dos recursos. Visando tornar estas características, na prática, possíveis, torna-se indispensável que a infraestrutura disponha de um sistema de monitoramento. Neste contexto, este trabalho apresenta o BSPMon, um sistema de monitoramento de recursos preditivo para aplicações paralelas em Cloud Computing. Com o objetivo de ter um controle fino sobre os recursos computacionais, o BSPMon coletará métricas de desempenho nos três níveis da infraestrutura: máquina física, máquina virtual e aplicação, efetuando, desta forma, um monitoramento hierárquico multinível dos recursos. De posse destas métricas de desempenho, o BSPMon efetuará predições sobre as demandas, visando melhores resultados para a tomada de decisão em situações de migração, previsão, controle sobre o SLA, provisionamento e consolidação dos recursos. O sistema proposto atuará no nível de middleware, de forma transparente para a aplicação. A partir das avaliações obtidas na predição, os resultados apontam baixa intrusividade na infraestrutura, eficiência energética e predições com taxa de acerto superior a 90%. / Due to constant technological advances, there are new trends to provide a service base for the new era of information technology. Thus, there are new paradigms for distributed systems, for example, Cloud Computing, which has as basic idea of the provision of computational resources on demand via the Internet, thus allowing their use anywhere and for many different types of applications. Among the main features of cloud computing, there is elasticity, service provisioning and billing based on the effective use of resources. In order to make these features in practice possible, it is essential that the infrastructure to have a monitoring system. In this context, this work presents the BSPMon, a monitoring system of predictive features for parallel applications in Cloud Computing. In order to have fine control over computing resources, the BSPMon collect performance metrics in three levels of infrastructure: physical machine, virtual machine and application, making thus a multilevel hierarchical resource monitoring. With such performance metrics, the BSPMon shall make predictions about the demands, to obtain better results for decision making in migration scenarios, prediction, control over the SLA, provisioning and consolidation of resources. The proposed system will operate in the middleware level, transparently to the application. From the evaluations obtained in the prediction, the results indicate low intrusiveness in infrastructure, energy efficiency and predictions accuracy rate above 90 %.
197

Uma arquitetura de preservação a longo prazo de Big Data com gerenciamento de elasticidade em nuvem. / An architecture for long term preservation of Big Data with elasticity management in the cloud.

Viana, Phillip Luiz 13 June 2018 (has links)
Com o crescimento exponencial do volume de dados estruturados e não estruturados (Big Data) em sistemas de armazenamento corporativos, aliado à também crescente demanda por preservação de tais dados devido a regulamentações e auditorias, surge o problema da preservação a longo prazo de Big Data, e mais especificamente o de como estender sistemas existentes ao longo do tempo. Pesquisas recentes contemplam arquiteturas de preservação de dados estruturados ou de arquivamento a curto prazo de Big Data, porém carecem de um modelo para arquiteturas que suportem a preservação a longo prazo de Big Data com elasticidade. Na presente tese, propõe-se uma arquitetura para o arquivamento, preservação a longo prazo e recuperação de Big Data com elasticidade. Um método de criação de arquiteturas de referência foi seguido e obteve-se como resultado uma arquitetura de preservação a longo prazo que é reprodutível e capaz de adaptar-se a uma demanda crescente, recebendo Big Data de fontes heterogêneas continuamente. A arquitetura é compatível com computação em nuvem e foi testada com diversas mídias de armazenamento, como mídias magnéticas, nuvem e de estado sólido. É feito também um comparativo entre a arquitetura desenvolvida e outras arquiteturas disponíveis. / With the exponential growth in the volume of structured and unstructured data (Big Data) in enterprise storage systems, along with the also increasing demand for preservation of such data due to regulations and audits, there arises the problem of long-term preservation of Big Data, and more specifically of how to extend existing systems with time. Recent research projects encompass architectures for the preservation of structured data or short term archiving of Big Data, however they lack a model for architectures that support long-term preservation of Big Data with elasticity. In the present thesis, we propose an architecture for the archiving, longterm preservation and retrieval of Big Data with elasticity. A method for creating reference architectures was followed and as a result a reproducible long-term preservation architecture was obtained, which is capable of adapting to a growing demand receiving Big Data continuously. The architecture is compatible with cloud computing and was tested against several storage media, such as magnetic media, cloud and solid state. A comparison between the architecture and other available architectures is also provided. g Data. Unstructured data. Elasticity.
198

PEESOS-Cloud: Uma arquitetura para o planejamento e execução de experimentos em sistemas orientados a serviços considerando a carga de trabalho / PEESOS-Cloud: an architecture for the planning and execution of experiments in service-oriented systems considering the workload

Ferreira, Carlos Henrique Gomes 11 March 2016 (has links)
Este trabalho de mestrado tem como objetivo o desenvolvimento de uma arquitetura denominada PEESOS-Cloud para realização de experimentos em sistemas orientados a serviços capaz de verificar a carga de trabalho. Possíveis problemas durante a geração de carga em ambientes de experimentos foram identificados e sumarizados. Com base nesses problemas e limitandose às características dos sistemas distribuídos, dois módulos e um modelo para geração de carga foram desenvolvidos e associado à PEESOS-Cloud. Uma avaliação experimental foi realizada demonstrando a efetividade da proposta em atuar na avaliação de sistemas orientados a serviços. Para isso, cenários de experimentos foram definidos variando o ambiente de execução da arquitetura. Assim, o desempenho de uma aplicação sintética oferecida como serviço foi estudada e avaliada. Os resultados mostraram como a arquitetura proposta permite identificar a característica da carga de trabalho e verificar seu impacto sobre avaliação de um sistema alvo. Além disso, como uma carga de trabalho descaracterizada infere em uma avaliação de desempenho inconsistente. Por outro lado, como essa mesma carga de trabalho, sujeita a condições específicas, pode subsidiar uma avaliação de desempenho sólida. / This master thesis aims at developing an architecture called PEESOS-Cloud for conducting experiments in the service oriented systems capable of respecting the workload. Possible problems during the generation of load experiments environments were identified and summarized. Based on these problems and limited to the characteristics of distributed systems, two modules and a model for load generation were developed and associated with PEESOS-Cloud. An experimental evaluation was performed demonstrating the effectiveness of the proposal of acting in the evaluation of service-oriented systems. For this, experiments scenarios were defined by varying the architecture of execution environment. Thus, the performance of a synthetic application offered as a service has been studied and evaluated. The results showed how the proposed architecture allows us to identify the characteristics of the workload. In addition, uncharacterized workload can provide an inconsistent performance evaluation. On the other hand, as the same workload, subject to specific conditions, can support a solid performance evaluation.
199

A questão dos riscos em ambientes de computação em nuvem / The risks issue in cloud computing

Chaves, Sidney 24 October 2011 (has links)
Este documento apresenta e descreve o trabalho de pesquisa realizado com vistas a estabelecer recomendações destinadas a auxiliar consumidores de serviços de computação em nuvem a tratar a questão dos riscos inerentes a este ambiente, de modo tal a poder contratar serviços desta natureza com grau aceitável de risco. Para atender a este objetivo e aos demais objetivos secundários definidos, o estudo foi conduzido em cinco fases: revisão da literatura relativa à computação em nuvem, escolha e estruturação do método de pesquisa, aplicação do método de pesquisa, proposição das recomendações para o tratamento dos riscos e elaboração das conclusões. A revisão da literatura compreendeu um amplo levantamento bibliográfico sobre computação em nuvem, com ênfase na sua definição, nos modelos de referência e nos tópicos barreiras, benefícios e riscos. A escolha do método de pesquisa envolveu o processo de seleção do Delphi, acompanhado por outro extenso levantamento bibliográfico, desta feita sobre este método, e foi seguida da definição da sistemática a ser adotada para aplicá-lo especificamente nesta pesquisa; para aplicar o Delphi, foi escolhida a modalidade ranking form, por meio da qual se tornou possível determinar, após a realização de cinco rodadas do painel e contando com a participação de um grupo de especialistas formado por acadêmicos e profissionais de tecnologia da informação, rankings para as barreiras, os benefícios e os riscos associados à computação em nuvem. A partir do ranking dos riscos, foram estabelecidas as recomendações destinadas a satisfazer ao objetivo principal da pesquisa, que se traduzem, em linhas gerais, na indicação de quais riscos potenciais devem ser observados e tratados com maior grau de atenção pelas instituições, organizações e executivos de tecnologia da informação que pretendam dar seus primeiros passos no universo da computação em nuvem, bem como por aqueles que, já devidamente inseridos neste ambiente, queiram ou tenham a necessidade de rever conceitos e posições assumidos. Por fim, as conclusões e considerações finais contemplaram a análise dos resultados obtidos no painel Delphi relativamente às barreiras e aos benefícios. Como contribuição maior, este estudo oferece, acima de tudo, uma visão realista acerca da computação em nuvem e coloca à disposição daqueles que efetivamente por ela se interessam, por vontade própria ou dever de ofício, um rol de observações e recomendações úteis e oportunas. / This report presents and depicts the research carried out in order to find out recommendations that may possibly assist consumers of cloud computing services to deal with risks intrinsic to that architecture, so that consumers can be able to contract those kinds of services within an acceptable level of risk. The research comprised five phases to satisfy this main objective and also the secondary ones set up for it: review the literature related to cloud computing, choose and configure the research method, run the research method, find out the recommendations and make conclusions. The review of the literature consisted of an extensive bibliography research about cloud computing, putting emphasis on its definitions and reference models and on three other connected topics: barriers, benefits and risks. The choice of the research method encompassed the selection of the Delphi method seconded by another wide bibliography research, this time focused on the method itself, and was followed by the configuration of the Delphi method in order to get a script to be adopted to make properly use of the method in this research; to apply the Delphi method, it was chosen its \"ranking form\", that made possible, after five rounds and counting with the involvement of a group comprising academic people and information technology professionals, to establish rankings for barriers, benefits and risks, all related to cloud computing. Based on the ranking of risks, the recommendations destined to satisfy the research\'s main objective were thought up; in general, these recommendations can be viewed as indicatives of which potentials risks must be observed and treated in an upper attention level by institutions, organizations and information technology executives that intend to take their first steps toward cloud computing universe, as long as by those companies and people that, despite by now inserted in that architecture, want to or must review concepts and positions already took on. At last, conclusions and final considerations were written, both derived from the analysis of the results regarding barriers and benefits extracted from the Delphi panel. Above all, this study, as its major contribution, offers a realistic view on the subject of cloud computing and puts a list of useful and timely reflections and recommendations within reach of those who are effectively interested in them, by proper will or due to duties.
200

Alocação dinâmica de recursos em sistemas elásticos baseada em modelos de escalabilidade / Dynamic resource allocation for elastic systems based on scalability modeling

Moura, Paulo Bittencourt 17 March 2017 (has links)
Provedores de serviços de nuvem disponibilizam uma interface através da qual seus clientes podem solicitar, usar e liberar estes recursos. Muitos serviços implantados em nuvens incluem um componente para gerenciamento automatizado de recursos, encarregado de requisitar e librar recursos sem intervenção humana, à medida que a demanda varia. A técnica padrão para o gerenciamento de recursos se baseia em regras sobre utilização de recursos. Quando ocorre um aumento significativo na carga em um curto espaço de tempo, o sistema pode levar vários ciclos de monitoramento e ação até alcançar uma configuração adequada. Neste período, o sistema permanece sobrecarregado. Nesta pesquisa, investigamos como compreender adequadamente os efeitos da variação na disponibilidade de recursos sobre a capacidade de um sistema e como aplicar este conhecimento para melhorar sua elasticidade. Propomos uma estratégia que abrange avaliação da escalabilidade do sistema, visando sua modelagem, e a aplicação deste modelo nas estimativas de necessidade por recursos com base na carga de trabalho. Introduzimos um arcabouço para automatizar a avaliação de escalabilidade de sistemas distribuídos e efetuamos uma validação experimental da estratégia proposta. Comparamos a alocação de recursos e o desempenho obtido usando nossa estratégia e estratégia baseada em regras, fazendo a reprodução de carga real e usando cargas sintéticas. De forma geral, nossa proposta foi capaz de prover melhor desempenho, ao ponto que o uso de recursos cresceu, e consequentemente o custo de utilização. No entanto, a melhora de desempenho foi mais significativa que o aumento dos custos. / Cloud computing is a new paradigm in which virtual resources are leased in the short-term. Cloud providers publish an API through which users can request, use, and release those resources. Thus, a properly architected system can be quickly deployed and their infrastructure can be quickly updated to better accommodate workload fluctuations and limit expenses. Many services running in clouds comprise an automated resource management unit, which is in charge of requesting and releasing resources without human intervention, as demand changes. The rule based approach, commonlly applied to automate the resource management, is especially problematic in cases of load surge. When of a quick and drastic increase of the workload, the system may take many cycles of infrastructural redimensioning until achieve an adequate state. In this case, the system remains overloaded during all those cycles, affecting user experience. In this research, we investigate how we can properly understand what are the effects, in system capacity, incurred by variations in resource availability, and how this knowledge can be applied to improve elasticity. We propose a strategy that comprises performing scalability tests to model scalability and apply the model to estimate resource need, according to the arriving workload. We introduce a framework for automated scalability evaluation of distributed systems and experimentally evaluate the proposed strategy. We compare the allocation and performance obtained using our strategy with a rule based strategy in a trace-driven simulation and with synthetic workloads. We also evaluate six variations of the model-based approach. Generally, our approach can deliver better performance, while increasing resource allocation and, consequently, cost. The extent of the performance improvement is larger than the cost increment, though.

Page generated in 0.0562 seconds