• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 7
  • 6
  • 6
  • 6
  • 6
  • Tagged with
  • 20
  • 20
  • 20
  • 12
  • 10
  • 10
  • 9
  • 7
  • 7
  • 6
  • 5
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Abordagem icônica para modelagem e simulação de ambientes de computação em nuvem ? /

Silva, Diogo Tavares da. January 2015 (has links)
Orientador: Aleardo Manacero Junior / Coorientador: Renata Spolon Lobato / Banca: Norian Marragheto / Banca: Ricardo Menotti / Resumo: O uso de computação em nuvem tem se tornado cada vez mais popular nos últimos anos, impulsionado por fatores como portabilidade de aplicações e a tendência de redução nos investimentos em estrutura física de TI. Neste contexto, a avaliação de desempenho de sistemas de computação em nuvem é útil tanto para clientes, que precisam encontrar a melhor configuração de recursos para sua aplicação, quanto para provedores de serviço, que precisam estudar políticas mais eficientes de escalonamento e alocação de recursos e máquinas virtuais. Apesar de mais preciso, o uso de benchmarking não é a alternativa mais indicada para avaliar esses sistemas, uma vez que é caro usar o sistema apenas para medições de desempenho. Isso faz da simulação uma alternativa mais interessante, pois possui menor custo de implementação e maior facilidade de reconfiguração de parâmetros e reprodutibilidade de experimentos. Infelizmente, os simuladores de computação em nuvem conhecidos possuem problemas relativos a usabilidade e capacidade de modelagem. Este trabalho apresenta o desenvolvimento de uma abordagem icônica para modelagem e simulação de computação em nuvem no iSPD. A escolha do iSPD como base do projeto se justifica pois ele é um simulador que busca prover facilidade de uso, oferecendo uma interface icônica para a modelagem de sistemas. Resultados obtidos com a simulação de computação em nuvem mostram o sucesso do projeto, pois o simulador consegue representar corretamente execuções em nuvens reais, com custos de modelagem e execução bastante baixos / Abstract: The use of Cloud Computing is becoming increasingly more popular, driven by application's portability and the trend of reduction of investments in IT's physical infrastructure. These developments create scenarios where it is hard to know if the use of such environments is efficient or not. In this context, evaluate the performance of cloud computing systems is useful both for clients, that need to find the best resource configuration for their applications, as well as for providers, who need to evaluate which scheduling and resource and virtual machine allocation policies are more efficient. Although more accurate, the use of benchmarking is not an adequate option for this evaluation since it is expensive to use the system just for performance measuring. This makes simulation the most attractive option because it has a lower deployment cost and it is easier to reconfigure model parameters and reproduce the measurements in a system's model. Unfortunately, the known cloud computing simulators have issues related to their usability and modeling capability. This work presents the development of an iconic approach for modeling and simulation of cloud computing with the iSPD. The choice for iSPD as foundation for this project is justified because it is a simulator aimed to be user-friendly, offering an iconic interface to systems' modeling. Results achieved with cloud computing simulation show success, since the simulator was able to correctly mimic executions in a real cloud, with a reasonably low cost for modeling and execution / Mestre
12

Performance analysis of virtualization technologies in high performance computing enviroments / Análise do desempenho de tecnologias de virtualização para ambientes de computação de alto desempenho

Beserra, David Willians dos Santos Cavalcanti 13 September 2016 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Computação de Alto Desempenho (CAD) agrega poder computacional com o objetivo de solucionar problemas complexos e de grande escala em diferentes áreas do conhecimento, como ciência e engenharias, variando desde aplicações medias 3D ate a simulação do universo. Atualmente, os usuários de CAD podem utilizar infraestruturas de Nuvem como uma alternativa de baixo custo para a execução de suas aplicações. Apesar de ser possível utilizar as infraestruturas de nuvem como plataformas de CAD, muitas questões referentes as sobrecargas decorrentes do uso de virtualização permanecem sem resposta. Nesse trabalho foi analisado o desempenho de algumas ferramentas de virtualização - Linux Containers (LXC), Docker, VirtualBox e KVM – em atividades de CAD. Durante os experimentos foram avaliados os desempenhos da UCP, da infraestrutura de comunicação (rede física e barramentos internos) e de E/S de dados em disco. Os resultados indicam que cada tecnologia de virtualização impacta diferentemente no desempenho do sistema observado em função do tipo de recurso de hardware utilizado e das condições de compartilhamento do recurso adotadas. / High Performance Computing (HPC) aggregates computing power in order to solve large and complex problems in different knowledge areas, such as science and engineering, ranging from 3D real-time medical images to simulation of the universe. Nowadays, HPC users can utilize virtualized Cloud infrastructures as a low-cost alternative to deploy their applications. Despite of Cloud infrastructures can be used as HPC platforms, many issues from virtualization overhead have kept them almost unrelated. In this work, we analyze the performance of some virtualization solutions - Linux Containers (LXC), Docker, VirtualBox and KVM - under HPC activities. For our experiments, we consider CPU, (physical network and internal buses) communication and disk I/O performance. Results show that different virtualization technologies can impact distinctly in performance according to hardware resource type used by HPC application and resource sharing conditions adopted.
13

Modeling the performance impact of hot code misprediction in Cross-ISA virtual machines = Modelagem do impacto de erros de predição de código quente no desempenho de máquinas virtuais / Modelagem do impacto de erros de predição de código quente no desempenho de máquinas virtuais

Lucas, Divino César Soares, 1985- 04 September 2013 (has links)
Orientadores: Guido Costa Souza de Araújo, Edson Borin / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-23T12:28:12Z (GMT). No. of bitstreams: 1 Lucas_DivinoCesarSoares_M.pdf: 1053361 bytes, checksum: e29ab79838532619ba298ddde8ba0f39 (MD5) Previous issue date: 2013 / Resumo: Máquinas virtuais (MVs) são sistemas que se propõem a eliminar a incompatibilidade entre duas, em geral diferentes, interfaces e dessa forma habilitar a comunicação entre diferentes sistemas. Nesse sentido, atuando como mediadores, uma MV está em um ponto que a permite fomentar o desenvolvimento de soluções inovadoras para vários problemas. Tais sistemas geralmente utilizam técnicas de emulação, por exemplo, interpretação ou tradução dinâmica de binários, para executar o código da aplicação cliente. Para determinar qual técnica de emulação é a ideal para um trecho de código geralmente é necessário que a MV empregue algum tipo de predição para determinar se o benefício de compilar o código supera os custos. Este problema, na maioria dos casos, resume-se a predizer se o dado trecho de código será frequentemente executado ou não, problema conhecido pelo nome de Predição de Código Quente. Em geral, se o preditor sinalizar um trecho de código como quente, a MV imediatamente toma a decisão de compilá-lo. Contudo, um problema surge nesta estratégia, à resposta do preditor é apenas a decisão de uma heurística e é, portanto, suscetível a erros. Quando o preditor sinaliza como quente um trecho de código que não será frequentemente executado, ou seja, um código que de fato é "frio", ele está fazendo uma predição errônea de código quente. Quando uma predição incorreta é feita, ocorre que a técnica de emulação que a MV utilizará para emular o trecho de código não compensará o seu custo e, portanto a MV gastará mais tempo executando o seu próprio código do que o código da aplicação cliente. Neste trabalho, foi avaliado o impacto de predições incorretas de código quente no desempenho de MVs emulando vários tipos de aplicações. Na análise realizada foi avaliado o preditor de código quente baseado em limiar, uma técnica frequentemente utilizada para identificar regiões de código que serão frequentemente executadas. Para fazer esta análise foi criado um modelo matemático para simular o comportamento de tal preditor e a partir deste modelo uma série de resultados puderam ser explorados. Inicialmente é mostrado que este preditor frequentemente erra a predição e, como conseqüência, o tempo gasto fazendo compilações torna-se o maior componente do tempo de execução da MV. Também é mostrado como diferentes limiares de predição afetam o número de predições incorretas e qual o impacto disto no desempenho da MV. Também são apresentados resultados indicando qual o impacto do custo de compilação, tradução e velocidade do código traduzido no desempenho da MV. Por fim é mostrado que utilizando apenas o conjunto de aplicações do SPEC CPU 2006 para avaliar o desempenho de MVs que utilizam o preditor de código quente baseado em limiar pode levar a resultados imprecisos / Abstract: Virtual machines are systems that aim to eliminate the compatibility gap between two, possible distinct, interfaces, thus enabling them to communicate. This way, acting like a mediator, the VM lies at an important position that enables it to foster innovative solutions for many problems. Such systems usually rely on emulation techniques, such as interpretation and dynamic binary translation, to execute guest application code. In order to select the best emulation technique for each code segment, the VM typically needs to predict whether the cost of compiling the code overcome its future execution time. This problem, in the common case, reduce to predicting if the given code region will be frequently executed or not, a problem called Hot Code Prediction. Generally, if the predictor flags a given code region as hot the VM instantly takes the decision to compile it. However, a problem came out from this strategy, the predictor response is only a decision made by means of a heuristic and thus it can be incorrect. Whenever the predictor flags a code region that will be infrequently executed (cold code) as hot code, we say that it is doing a hotness misprediction. Whenever a misprediction happens it means that the technique the VM will use to emulate the code will not have its cost amortized by executing the optimized code and thus the VM will, in fact, spend more time executing its own code rather than the guest application code. In this work we measure the impact of hotness mispredictions in a VM emulating several kinds of applications. In our analysis we evaluate the threshold-based hot code predictor, a technique commonly used to predict hot code fragments. To do so we developed a mathematical model to simulate the behavior of such predictor and we use it to estimate the impact of mispredictions in several benchmarks. We show that this predictor frequently mispredicts the code hotness and as a result the VM emulation performance becomes dominated by miscompilations. Moreover, we show how the threshold choice can affect the number of mispredictions and how this impacts the VM performance. We also show how the compilation, interpretation and steady state execution cost of translated instructions affect the VM performance. At the end we show that using SPEC CPU 2006 benchmarks to measure the performance of a VM using the threshold-based predictor can lead to misleading results / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
14

Otimização de alocação de máquinas virtuais em datacenter heterogêneo de sistema de computação em nuvem /

Rodrigues, João Antonio Magri. January 2019 (has links)
Orientador: Aleardo Manacero Junior / Banca: Rafael Pasquini / Banca: Rodolfo Ipolito Meneguetti / Resumo: Computação em nuvem pode ser definida como uma tecnologia de oferta de serviços de computação por meio da Internet, utilizando virtualização de máquinas. A virtualização é um procedimento em que se estabelece um ambiente virtual para execução de tarefas consumindo parte dos recursos de uma máquina real. Desse modo, o desempenho de um sistema de computação em nuvem depende da eficiência da alocação de máquinas virtuais em máquinas reais, atendendo restrições e metas diversas. Neste trabalho se propõe uma nova abordagem para alocação de máquinas virtuais que tem como objetivo otimizar o número de máquinas físicas ativas e o tráfego na rede do sistema, tratando situações de conflito e balanço entre estes dois objetivos em sistemas heterogêneos.A solução proposta é baseada em uma modificação do algoritmo para particionamento de grafos de Kernighan-Lin para tratar os custos de comunicação, além de heurísticas para a minimização do número de máquinas físicas. O texto apresenta um levantamento bibliográfico a respeito de computação em nuvem, o estado da arte relacionado ao problema de alocação de máquinas virtuais, a implementação do algoritmo e sua avaliação. O algoritmo proposto é avaliado contra uma heurística convencional e um algoritmo do estado da arte em diversos cenários. Os resultados obtidos mostram que, apesar da dificuldade de conciliação entre estes dois objetivos em se tratando de sistemas heterogêneos, as soluções obtidos pela abordagem desenvolvida são de boa qualidade / Abstract: Cloud computing is a term referring to a computing service technology offered through the Internet using machine virtualization, which is a process where a virtual environment is deployed to run an application, consuming part of the real machine resources. Therefore, the performance of a cloud computing system depends on the efficiency of the virtual machines placement in real machines, given certain goals and constraints. This work aims to present a new approach for virtual machine placement that optimizes the number of active physical machines and network traffic in its datacenter, as well as evaluate the conflict between these goals in heterogeneous systems. The proposed approach is based in a modification of the Kernighan-Lin algorithm for graph partitioning to deal with communication costs, and heuristics to minimize the number of physical machines.The text presents a conceptual review about cloud computing,the state of art of the virtual machine placement problem, the algorithm implementation and its evaluation. The proposed algorithm is evaluated against a conventional heuristic and a state of art algorithm in various scenarios. The results reveal the hardness to balance the two defined goals in heterogeneous systems as well as the quality of the solution achieved by the proposed approach / Mestre
15

Proposta de uma ferramenta de visualização e realidade virtual para o monitoramento de tráfego de redes de computadores /

Rosante, Júnior César. January 2011 (has links)
Orientador: José Remo Ferreira Brega / Banca: Luis Carlos Trevelin / Banca: Roberta Spolon / Resumo: O crescimento das redes de computadores e telecomunicações assim como do número de dispositivos conectados a essas provoca um aumento expressivo da quantidade de tráfego de dados gerando maior dificuldade no seu gerenciamento e demandas crescentes da necessidade de prover segurança dos dados e continuidade dos serviços de rede prestados pelas instituições. Existem ferramentas para auxiliar no trabalho de monitoramento de redes como o Tcpdump e o Snort. Este auxilia no trabalho de detecção e bloqueio de tráfegos maliciosos como portscans e ataques de denial of services (DoS) através da análise de tráfego por verificação de assinaturas e padrões. Ainda que sejam de suma importância, ferramentas deste tipo descartam a capacidade cognitiva do ser humano de aprendizado e reconhecimento de padrões. Para contornar essa carência e aproveitar a capacidade de cognição visual humana, este trabalho propõe o uso de conceitos de Realidade Virtual aliados a Visualização de Informação na implementação de uma ferramenta de visualização de informações. Esta deve apresentar os dados brutos do tráfego da rede através de novas perspectivas e metáforas visuais utilizando as técnicas de Realidade Virtual com suas características de imersão, interação e envolvimento em um espaço sintético tridimensional. A representação do tráfego de rede através de metáforas visuais pela ferramenta desperta o senso cognitivo do administrador de redes possibilitando a identificação de tráfego anômalo e de comportamentos estranhos. A ferramenta deve fornecer possibilidades de configurações para exibir diferentes aspectos do tráfego servindo tanto para auxílio administrativo de comportamentos dos usuários quanto para análise e detecção de acessos maliciosos / Abstract: The growth of computer networks and telecommunications as well as the number of devices connected to these causes a significant increase in the amount of data traffic generating greater difficulty in its management and growing demands on the need to provide data security and continuity of network services provided institutions. There are tools to assist in the work of monitoring networks such as Tcpdump and Snort. This helps in detecting and blocking malicious traffic and attacks such as portscans and denial of service (DoS) attacks by analyzing traffic for verification of signatures and patterns. Though they are very important, tool of this type discard the cognitive capacity of human learning and pattern recognition. To address this need and the ability to take advantage of human visual cognition, this work proposes the use of concepts of Virtual Reality to Information Visualization in the implementation of an information visualization tool. This should provide the raw data of network traffic through new perspectives and visual metaphors using Virtual Reality techniques to their characteristics of immersion, interaction and involvement in a synthetic three-dimensional space. The representation of network traffic through visual metaphors for the cognitive tool awakens the sense of enabling network administrators to identify anomalous traffic and strange behavior. The tool should give you plenty of settings to display different aspects of traffic serving both to assist administrators and users' behavior for analysis and detection of malicious access / Mestre
16

Uso de Refinamento Adaptativo em Escultura Virtual para Criação Livre de Detalhes em Malhas Triangulares / Use of Adaptive Refinement in Virtual Sculpting for Free Insertion of Details in Triangular Meshes

Sampaio, Artur Pereira January 2011 (has links)
SAMPAIO, Artur Pereira. Uso de Refinamento Adaptativo em Escultura Virtual para Criação Livre de Detalhes em Malhas Triangulares. 2011. 58 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2012. / Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-06-02T19:35:28Z No. of bitstreams: 1 2011_dis_apsampaio.txt: 25433 bytes, checksum: 9015898966f69dfce3b6faa62e988c32 (MD5) / Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-06-02T19:42:44Z (GMT) No. of bitstreams: 1 2011_dis_apsampaio.txt: 25433 bytes, checksum: 9015898966f69dfce3b6faa62e988c32 (MD5) / Made available in DSpace on 2016-06-02T19:42:44Z (GMT). No. of bitstreams: 1 2011_dis_apsampaio.txt: 25433 bytes, checksum: 9015898966f69dfce3b6faa62e988c32 (MD5) Previous issue date: 2011 / Modeling of virtual objects and characters can be tedious and difficult in many situations. A modeling system should be capable of representing any change or feature desired by the user as quickly and transparently as possible, allowing the modeler to focus on the act of creating, as opposed to having to specify the position of each vertex manually. Such a system, if on the one hand offers less control in determining the position of each vertex, being computationally more expensive in some situations, on the other hand greatly simplifies the work of the artist, allowing character modeling to be accessible to any user. This work addressed the problem of traditional sculpting techniques to add details on triangular meshes with adaptive resolution, in regions with low vertex density. The proposed algorithm splits faces and edges in the region of interest of the artist to ensure the existence of a sufficient number of vertices to represent the desired detail, without any additional input requested. The resulting system is capable of bridging the gap between traditional and virtual modeling, improving some of the main methods proposed in the literature regarding the location of the subdivisions. Moreover, it also helps to maintain a good mesh topology and geometric quality, with few vertices of high valence, even if the original mesh is poorly refined, allowing the incorporation of new details. / Modelar objetos e personagens virtuais pode ser uma tarefa tediosa e difícil em várias situações. Um sistema de modelagem ideal deve ser capaz de representar qualquer mudança ou característica desejada pelo usuário da forma mais rápida e transparente possível, abstraindo toda a complexidade topológica e matemática, permitindo ao modelador concentrar-se exclusivamente no ato de criar, em oposição a ter de especificar a posição de cada elemento de forma manual. Tal sistema, se por um lado pode oferecer menor controle na determinação da posição de cada vértice, além de poder ser mais caro computacionalmente em algumas situações, por outro simplifica enormemente o trabalho do artista, tornando a modelagem acessível a qualquer usuário. O presente trabalho abordou o problema das técnicas de sculpting tradicionais de adicionar detalhes em malhas triangulares, com resolução adaptativa e de forma interativa, em regiões com baixa densidade de vértices. O algoritmo proposto busca subdividir faces e arestas na região de interesse do artista de modo a garantir uma quantidade de vértices suficiente para representar o detalhe pretendido, sem necessidade de qualquer informação adicional por parte do usuário. O sistema resultante é capaz de encurtar a distância entre a modelagem tradicional e a virtual, superando alguns dos principais métodos propostos no meio acadêmico no que tange à localidade das subdivisões e a manutenção de uma malha de boa topologia e de boa qualidade geométrica, com poucos vértices de alta valência, ainda que o modelo original seja fracamente refinado, tornando possível a incorporação de novos detalhes.
17

Aplicação de escalonadores coexistentes para melhorar o desempenho de rede em máquinas virtuais / Assessing scheduling interference to improve network performance in virtual machines

Dionysio, Stephany Zanchi 18 August 2016 (has links)
Em um ambiente virtualizado, a distribuição de recursos de processamento entre as máquinas virtuais deve ser baseada nos aspectos requeridos pela carga de trabalho executando dentro de cada instância. Entretanto, a imprevisibilidade destas cargas de trabalho, em conjunto com a estratégia de compartilhamento equitativo adotada pelo escalonador no hipervisor, impactam a qualidade de serviço percebida por máquinas virtuais orientadas a eventos de entrada e saída de rede e processamento. Esta dissertação conduz um estudo para estimar a variação da qualidade de serviço percebida por esta classe de máquinas virtuais em cenários de consolidação de servidor. Posteriormente, é proposto um modelo de escalonadores coexistentes, que fundamenta-se no agrupamento de máquinas virtuais com cargas de trabalho similares. A validação deste modelo demonstra que o agrupamento oportuno de máquinas virtuais diminui a variação da qualidade de serviço ocasionada pela concorrência por recursos de processamento, atingindo níveis semelhantes aos cenários sem concorrência. / In a virtualized environment, time slice allocation should be based on virtual machines workloads requirements. However, the unpredictability of these workloads, combined with fair share nature of scheduling strategies, may impact the perceived quality of service of network I/O and CPU intensives virtual machines under server consolidation. This dissertation presents an in-depth analysis of quality of service variation under several scenarios, in order to assess this impact. Furthermore, a coexisting schedulers model, which aims to cluster virtual machines with similar workloads, is proposed as the main contribution of this research. The model validation argues that proper clustering based workload reduces the quality of service variation under server consolidation. In fact, the perceived quality of service under this model resemble a near native scenario.
18

Simulador de alta velocidade em FPGA de circuitos LUT de lógica combinacional de topologia arbitrária para algoritmos evolucionários

Cabrita, Daniel Mealha January 2015 (has links)
Este trabalho apresenta uma arquitetura para simulação de circuitos de lógica com binacional de topologia arbitrária, visando interfaceamento com algoritmos evolutivos para fins de geração de hardware. A implementação é em FPGA utilizando a técnica VRC. O simulador permite circuitos compostos por LUTs de número de entradas parametrizável. A livre interconectividade entre as LUTs permite a construção de circuitos cíclicos. A arquitetura é modular e de interfaceamento simples. Alta performance é obtida através do uso de múltiplos módulos de simulação em paralelo, trazendo resultados que ultrapassam os obtidos em outros trabalhos utilizando DPR. / This work presents an architecture for simulation of combinational logic circuits of arbitrary topology, meant to be interfaced with evolutionary algorithms for hardware generation. It was implemented in FPGA using the VRC technique. The simulator allows for circuits composed of LUTs of parametrizable number of imputs. The free interconectivity between LUTs allows the construction of cyclic circuits. The architecture is modular and of simple interfacing. High performance is obtained by the use of multiple simulation modules in parallel, bringing results that surpass the ones obtained from other works based on DPR.
19

Simulador de alta velocidade em FPGA de circuitos LUT de lógica combinacional de topologia arbitrária para algoritmos evolucionários

Cabrita, Daniel Mealha January 2015 (has links)
Este trabalho apresenta uma arquitetura para simulação de circuitos de lógica com binacional de topologia arbitrária, visando interfaceamento com algoritmos evolutivos para fins de geração de hardware. A implementação é em FPGA utilizando a técnica VRC. O simulador permite circuitos compostos por LUTs de número de entradas parametrizável. A livre interconectividade entre as LUTs permite a construção de circuitos cíclicos. A arquitetura é modular e de interfaceamento simples. Alta performance é obtida através do uso de múltiplos módulos de simulação em paralelo, trazendo resultados que ultrapassam os obtidos em outros trabalhos utilizando DPR. / This work presents an architecture for simulation of combinational logic circuits of arbitrary topology, meant to be interfaced with evolutionary algorithms for hardware generation. It was implemented in FPGA using the VRC technique. The simulator allows for circuits composed of LUTs of parametrizable number of imputs. The free interconectivity between LUTs allows the construction of cyclic circuits. The architecture is modular and of simple interfacing. High performance is obtained by the use of multiple simulation modules in parallel, bringing results that surpass the ones obtained from other works based on DPR.
20

Estudo da efetividade dos mecanismos de compartilhamento de memória em hipervisores / Study of the effectiveness of memory sharing mechanisms in hypervisors

Veiga, Fellipe Medeiros 28 August 2015 (has links)
A crescente demanda por ambientes de virtualização de larga escala, como os usados em datacenters e nuvens computacionais, faz com que seja necessário um gerenciamento eficiente dos recursos computacionais utilizados. Um dos recursos mais exigidos nesses ambientes é a memória RAM, que costuma ser o principal fator limitante em relação ao número de máquinas virtuais que podem executar sobre o mesmo host físico. Recentemente, hipervisores trouxeram mecanismos de compartilhamento transparente de memória RAM entre máquinas virtuais, visando diminuir a demanda total de memória no sistema. Esses mecanismos “fundem” páginas idênticas encontradas nas várias máquinas virtuais em um mesmo quadro de memória física, usando uma abordagem copy-on-write, de forma transparente para os sistemas convidados. O objetivo deste estudo é apresentar uma visão geral desses mecanismos e também avaliar seu desempenho e efetividade. São apresentados resultados de experimentos realizados com dois hipervisores populares (VMware e KVM), usando sistemas operacionais convidados distintos (Linux e Windows) e cargas de trabalho diversas (sintéticas e reais). Os resultados obtidos evidenciam diferenças significativas de desempenho entre os hipervisores em função dos sistemas convidados, das cargas de trabalho e do tempo. / The growing demand for large-scale virtualization environments, such as the ones used in cloud computing, has led to a need for efficient management of computing resources. RAM memory is the one of the most required resources in these environments, and is usually the main factor limiting the number of virtual machines that can run on the physical host. Recently, hypervisors have brought mechanisms for transparent memory sharing between virtual machines in order to reduce the total demand for system memory. These mechanisms “merge” similar pages detected in multiple virtual machines into the same physical memory, using a copy-on-write mechanism in a manner that is transparent to the guest systems. The objective of this study is to present an overview of these mechanisms and also evaluate their performance and effectiveness. The results of two popular hypervisors (VMware and KVM) using different guest operating systems (Linux and Windows) and different workloads (synthetic and real) are presented herein. The results show significant performance differences between hypervisors according to the guest system workloads and execution time.

Page generated in 0.1169 seconds