• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 63
  • 5
  • 5
  • 1
  • Tagged with
  • 78
  • 56
  • 32
  • 22
  • 22
  • 18
  • 18
  • 16
  • 16
  • 15
  • 15
  • 15
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Algoritmos para o problema do mapeamento de redes virtuais / Algorithms for the virtual network embedding problem

Silva, Igor Rosberg de Medeiros, 1986- 24 August 2018 (has links)
Orientadores: Eduardo Cândido Xavier, Nelson Luis Saldanha da Fonseca / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-24T12:31:15Z (GMT). No. of bitstreams: 1 Silva_IgorRosbergdeMedeiros_M.pdf: 1354578 bytes, checksum: 029116a11f51931ed73b6b4b5c6d6ff9 (MD5) Previous issue date: 2014 / Resumo: Virtualização de Redes tem recebido recentemente atenção da comunidade científica, uma vez que ela provê mecanismos para lidar com o problema da ossificação da atual arquitetura da Internet. Através da decomposição de Provedores de Serviço de Internet em Provedores de Infraestrutura e Provedores de Serviço, a Virtualização de Redes permite que várias redes virtuais heterogêneas compartilhem o mesmo substrato físico. Um dos principais problemas relacionados à Virtualização de Redes é o Problema do Mapeamento de Redes Virtuais no substrato, que é NP-Difícil. Muitos algoritmos e heurísticas para encontrar bons mapeamentos, de modo a otimizar o uso da banda passante na rede física, têm sido propostos. Neste trabalho, apresentam-se dois novos algoritmos baseados na metaheurística Busca Tabu, o VNE-TS e o VNE-TS-Clustering. Propõe-se também um algoritmo de seleção de redes virtuais, o 2ks-VN-Selector, que se baseia no Problema da Mochila Bidimensional, cujo objetivo é aumentar o rendimento em Provedores de Infraestrutura. Os resultados obtidos pelos uso das heurísticas VNE-TS e VNE-TS-Clustering, são comparandos com os resultados obtidos pelo algoritmo VNE-PSO,uma das melhores heurísticas de mapeamento proposta na literatura para o Problema do Mapeamento de Redes Virtuais. São comparados, também, os resultados da política de seleção 2ks-VN-Selector com os obtidos pela política Most Prize First. Resultados mostram tanto VNE-TS quanto VNE-TS-Clustering rejeitam menos requisições do que o VNE-PSO e que o algoritmo de seleção 2ks-VN-Selector é capaz de aumentar o rendimento de Provedores de Infraestrutura em relação ao algoritmo Most Prize First / Abstract: In recent years, network virtualization has gained considerable attention from the scientific community, since it provides mechanisms to overcome the ossification problem of the current Internet architecture. Through separation of Internet Service Providers into Infrastructure Providers and Service Providers, network virtualization allows multiple heterogeneous virtual networks to share the same physical substrate. One of the main problems regarding network virtualization is the Network Embedding Problem, which is NP-Hard. Several algorithms and heuristics to find a set of good mappings that optimize the use of the bandwidth in substrate networks have been proposed. In this work, we present two new embedding heuristics based on the Tabu Search metaheuristic: the VNE-TS and VNE-TS-Clustering. We also propose a virtual network selection policy, the 2ks-VN-Selector, based on the Bidimensional Knapsack Problem, which aims to increase the profit of Infrastructure Providers. We compare the results obtained by using the VNE-TS and VNE-TS-Clustering heuristics, to those obtained by using the VNE-PSO, one of the best heuristics proposed in the literature for the Embedding Problem. We also compare the effects of the 2ks-VN-Selector with those obtained by using another well known selection policy: Most Prize First. Results show that both VNE-TS and VNE-TS-Clustering reject less virtual network requests than VNE-PSO and that the selection algorithm 2ks-VN-Selector is able to increase the profit of Infrastructure Providers when compared to the Most Prize First algorithm / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
12

Os impactos da utilização da internet e outras tecnologias da informação sobre o setor industrial: uma análise de empresas de manufatura do estado de São Paulo

Graeml, Alexandre Reis 01 December 2004 (has links)
Made available in DSpace on 2010-04-20T20:48:20Z (GMT). No. of bitstreams: 3 61692.pdf.jpg: 12951 bytes, checksum: f21a26b2d67d24fa9df3402f15548227 (MD5) 61692.pdf: 6960724 bytes, checksum: ab8b6a805bb9a90839593c4cc351ad2f (MD5) 61692.pdf.txt: 649872 bytes, checksum: 22f48a3f65121b9e50ed809b225edafe (MD5) Previous issue date: 2004-12-01T00:00:00Z / This research project intended to bring light to the way manufacturing organizations use the Internet and other information technologies in order to add value to their customers and/or reduce costs. Special attention is given to the virtualization of products and services that companies provide to their customers and to the virtualization of business processes, including the relationship with suppliers and other business partners. The study was based on survey data, obtained from 665 manufacturers from the state of Sao Paulo, Brazil. The analysis was performed using quantitative methods. / Esta tese tem por objetivo aprofundar o conhecimento acadêmico sobre a maneira como as empresas do setor industrial estão se utilizando da Internet e outras tecnologias da informação para agregar valor para os seus clientes e/ou reduzir seus próprios custos, com foco na possibilidade de virtualização dos produtos/serviços oferecidos e dos processos utilizados na sua obtenção, incluindo o relacionamento com os parceiros comerciais. O estudo foi realizado com base em dados levantados a partir de pesquisa de campo, com aplicação de questionário, e na utilização de métodos quantitativos para a análise das informações obtidas. Responderam ao questionário 665 empresas industriais do estado de São Paulo.
13

FLEXLAB: Middleware de virtualização de hardware para gerenciamento centralizado de computadores em rede

Cruz, Daniel Igarashi [UNESP] 24 July 2008 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0 Previous issue date: 2008-07-24Bitstream added on 2014-06-13T18:39:30Z : No. of bitstreams: 1 cruz_di_me_sjrp.pdf: 2160735 bytes, checksum: 8010a7f3347625f0df8a2602dcebd330 (MD5) / O gerenciamento de um conglomerado de computadores em rede é uma atividade potencialmente complexa devido à natureza heterogênea destes equipamentos. Estas redes podem apresentar computadores com diferentes configurações em sua camada de software básico e aplicativos em função das diferenças de configuração de hardware em cada nó da rede. Neste cenário, cada computador torna-se uma entidade gerenciada individualmente, exigindo uma atividade manual de configuração da imagem de sistema ou com automatização limitada à camada de aplicativos. Tecnologias que oferecem gestão centralizada, como arquiteturas thin-client ou terminal de serviços, penalizam o desempenho das estações e oferecem capacidade reduzida para atender um número crescente de usuários uma vez que todo o processamento dos aplicativos dos clientes é executado em um único nó da rede. Outras arquiteturas para gerenciamento centralizado que atuam em camada de software são ineficazes em oferecer uma administração baseada em uma imagem única de configuração dado o forte acoplamento entre as camadas de software e hardware. Compreendendo as deficiências dos modelos tradicionais de gerenciamento centralizado de computadores, o objetivo deste trabalho é o desenvolvimento do FlexLab, mecanismo de gerenciamento de computadores através de Imagem de Sistema Única baseado em um middleware de virtualização distribuída. Por meio do middleware de virtualização do FlexLab, os computadores em rede de um ambiente são capazes de realizar o processo de boot remoto a partir de uma Imagem de Sistema Única desenvolvida sobre um hardware virtualizado. Esta imagem é hospedada e acessada a partir de um servidor central da rede, padronizando assim as configurações de software básico e aplicativos mesmo em um cenário de computadores com configuração heterogênea de hardware, simplificando... / Computer network management is a potentially complex task due to the heterogeneous nature of the hardware configuration of these machines. These networks may offer computers with different configuration in their basic software layer due to the configuration differences in their hardware layer and thus, in this scenario, each computer becomes an individual managed entity in the computer network and then requiring an individual and manually operated configuration procedure or automated maintenance restricted to application layer. Thin-client or terminal services do offer architectures for centralized management, however these architectures impose performance penalties for client execution and offer reduced scalability support in order to serve a growing number of users since all application processing is hosted and consume processing power of a single network node: the server. In the other hand, architectures for centralized management based on applications running over software layer are inefficient in offer computer management based on a single configuration image due to the tight coupling between software and hardware layers. Understanding the drawbacks of the theses centralized computer management solutions, the aim of this project is to develop the FlexLab, centralized computer management architecture through a Single System Image based on a distributed virtualization middleware. Through FlexLab virtualization middleware, the computers of a network environment are able to remote boot from a Single System Image targeting the virtual machine hardware. This Single System Image is hosted at a central network server and thus, standardizing basic software and applications configurations for networks with heterogeneous computer hardware configuration which simplifies computer management since all computers may be managed through a Single System Image. The experiments have shown that... (Complete abstract click electronic access below)
14

Memory Dispatcher: uma contribuição para a gerência de recursos em ambientes virtualizados. / Memory Dispatcher: a contribution to resource management in virtual environments.

Baruchi, Artur 26 March 2010 (has links)
As Máquinas Virtuais ganharam grande importância com o advento de processadores multi-core (na plataforma x86) e com o barateamento de componentes de hardware, como a memória. Por conta desse substancial aumento do poder computacional, surgiu o desafio de tirar proveito dos recursos ociosos encontrados nos ambientes corporativos, cada vez mais populados por equipamentos multi-core e com vários Gigabytes de memória. A virtualização, mesmo sendo um conceito já antigo, tornou-se novamente popular neste cenário, pois com ela foi possível utilizar melhor os recursos computacionais, agora abundantes. Este trabalho tem como principal foco estudar algumas das principais técnicas de gerência de recursos computacionais em ambientes virtualizados. Apesar de muitos dos conceitos aplicados nos projetos de Monitores de Máquinas Virtuais terem sido portados de Sistemas Operacionais convencionais com pouca, ou nenhuma, alteração; alguns dos recursos ainda são difíceis de virtualizar com eficiência devido a paradigmas herdados desses mesmos Sistemas Operacionais. Por fim, é apresentado o Memory Dispatcher (MD), um mecanismo de gerenciamento de memória, com o objetivo principal de distribuir a memória entre as Máquinas Virtuais de modo mais eficaz. Este mecanismo, implementado em C, foi testado no Monitor de Máquinas Virtuais Xen e apresentou ganhos de memória de até 70%. / Virtual Machines have gained great importance with advent of multi-core processors (on platform x86) and with low cost of hardware parts, like physical memory. Due to this computational power improvement a new challenge to take advantage of idle resources has been created. The virtualization technology, even being an old concept became popular in research centers and corporations. With this technology idle resources now can be exploited. This work has the objective to show the main techniques to manage computational resources in virtual environments. Although many of current concepts used in Virtual Machine Monitors project has been ported, with minimal changes, from conventional Operating Systems there are some resources that are difficult to virtualize with efficiency due to old paradigms still present in Operating Systems projects. Finally, the Memory Dispatcher (MD) is presented, a mechanism used to memory management. The main objective of MD is to improve the memory share among Virtual Machines. This mechanism was developed in C and it was tested in Xen Virtual Machine Monitor. The MD showed memory gains up to 70%.
15

Security architecture for network virtualization in cloud computing. / Arquitetura de segurança para virtualização de redes em computação em nuvem.

Barros, Bruno Medeiros de 10 October 2016 (has links)
Network virtualization has been a quite active research area in the last years, aiming to tackle the increasing demand for high performance and secure communication in cloud infrastructures. In special, such research eforts have led to security solutions focused on improving isolation among multiple tenant of public clouds, an issue recognized as critical both by the academic community and by the technology Industry. More recently, the advent of Software-Defined Networks (SDN) and of Network Function Virtualization (NFV) introduced new concepts and techniques for addressing issues related to the isolation of network resources in multi-tenant clouds while improving network manageability and flexibility. Similarly, hardware technologies such as Single Root I/O Virtualization (SR-IOV) enable network isolation in the hardware level while improving performance in physical and virtual networks. Aiming to provide a cloud network environment that effciently tackles multi-tenant isolation, we present three complementary strategies for addressing the isolation of resources in cloud networks. These strategies are then applied in the evaluation of existing network virtualization architectures, exposing the security gaps associated to current technologies, and paving the path for novel solutions. We then propose a security architecture that builds upon the strategies presented, as well as upon SDN, NFV and SR-IOV technologies, to implement secure cloud network domains. The theoretical and experimental analyses of the resulting architecture show a considerable reduction of the attack surface in tenant networks, with a small impact over tenants\' intra-domain and inter-domain communication performance. / Virtualização de redes é uma área de pesquisa que tem ganho bastante atenção nos últimos anos, motivada pela necessidade de se implementar sistemas de comunicação seguros e de alta performance em infraestruturas de computação em nuvem. Em particular, os esforços de pesquisa nesta área têm levado ao desenvolvimento de soluções de segurança que visam aprimorar o isolamento entre os múltiplos inquilinos de sistemas de computação em nuvem públicos, uma demanda reconhecidamente crítica tanto pela comunidade acadêmica quanto pela indústria de tecnologia. Mais recentemente, o advento das Redes Definidas por Software (do inglês Software-Defined Networks - SDN) e da Virtualização de Funções de Rede (do inglês Network Function Virtualization - NFV) introduziu novos conceitos e técnicas que podem ser utilizadas para abordar questões de isolamento de redes virtualizadas em sistemas de computação em nuvem com múltiplos inquilinos, enquanto aprimoram a capacidade de gerenciamento e a flexibilidade de suas redes. Similarmente, tecnologias de virtualização assistida por hardware como Single Root I/O Virtualization - SR-IOV permitem a implementação do isolamento de recursos de hardware, melhorando o desempenho de redes físicas e virtualizadas. Com o intuito de implementar uma solução de virtualização de redes que aborda de maneira eficiente o problema de isolamento entre múltiplos inquilinos, nós apresentamos três estratégias complementares para o isolamento de recursos de rede em sistemas computação em nuvem. As estratégias apresentadas são então aplicadas na avaliação de arquiteturas de virtualização de rede existentes, revelando lacunas de segurança associadas às tecnologias utilizadas atualmente, e abrindo caminho para o desenvolvimento de novas soluções. Nós então propomos uma arquitetura de segurança que utiliza as estratégias apresentadas, e tecnologias como SDN, NFV e SR-IOV, para implementar domínios de rede seguros. As análises teórica e experimental da arquitetura proposta mostram considerável redução das superfícies de ataque em redes virtualizadas, com um pequeno impacto sobre o desempenho da comunicação entre máquinas virtuais de inquilinos da nuvem.
16

Taming NFV orchestration using decentralised cognitive components / Orquestrador NFV descentralizado baseado em raciocínio BDI

Schardong, Frederico January 2018 (has links)
Network Functions Virtualisation (NFV) separa as funções de rede dos dispositivos físicos, simplificando a implantação de novos serviços. As típicas funções de rede, como firewalls, aceleradores de tráfego, sistemas de detecção de intrusão e sistemas de prevenção de intrusões, são tradicionalmente realizadas por equipamentos físicos proprietários, que devem ser instalados manualmente pelos operadores de rede. A implantação de equipamentos físicos é desafiadora porque eles têm requisitos específicos de encadeamento e ordenação. Ao contrário dos equipamentos físicos tradicionais, as funções de rede virtuais (VNFs) podem ser dinamicamente implementadas e reconfiguradas sob demanda, colocando desafios de gerenciamento rigorosos aos sistemas em rede. A seleção das VNFs mais apropriadas para atingir um objetivo específico e a decisão sobre onde implantar essas VNFs e por quais caminhos elas se comunicarão são responsabilidades de um orquestrador de NFV. Nesta dissertação, propomos orquestrar VNFs usando componentes cognitivos interativos estruturados com a arquitetura belief-desire-intention (BDI), levando a soluções emergentes para enfrentar os desafios da rede. A arquitetura BDI inclui um ciclo de raciocínio que fornece aos agentes um comportamento racional, permitindo que lidem com diferentes cenários nos quais o comportamento flexível e inteligente é necessário. Estendemos a arquitetura NFV substituindo seu orquestrador centralizado por agentes BDI. Nossa proposta inclui um protocolo de leilão reverso e uma nova heurística de licitação que permite que os agentes tomem decisões sobre as tarefas de orquestração. Por fim, nós fornecemos uma plataforma de testes que integra uma plataforma para o desenvolvimento de agentes BDI com um emulador de rede, permitindo que os agentes controlem as VNFs e percebam a rede. Essa plataforma de testes é usada para implementar VNFs e avaliar empiricamente nosso modelo teórico em um ataque de negação de serviço distribuído. Os resultados da avaliação mostram que uma solução para o ataque DDoS surge através da negociação de agentes, mitigando com sucesso o ataque. / Network Functions Virtualisation (NFV) decouples network functions from physical devices, simplifying the deployment of new services. Typical network functions, like firewalls, traffic accelerators, intrusion detection systems and intrusion prevention systems, are traditionally performed by proprietary physical appliances, which must be manually installed by network operators. Their deployment is challenging because they have specific chaining requirements. As opposed to traditional physical appliances, virtual network functions (VNFs) can be dynamically deployed and reconfigured on demand, posing strict management challenges to networked systems. The selection of the most appropriate VNFs to achieve a particular objective, the decision on where to deploy these VNFs and through which paths they will communicate are the responsibilities of an NFV orchestrator. In this dissertation, we propose to orchestrate VNFs using interacting cognitive components structured with the belief-desire-intention (BDI) architecture, leading to emergent solutions to address network challenges. The BDI architecture includes a reasoning cycle, which provides agents with rational behaviour, allowing agents to deal with different scenarios in which flexible and intelligent behaviour is needed. We extend the NFV architecture, replacing its centralised orchestrator with BDI agents. Our proposal includes a reverse auction protocol and a novel bidding heuristic that allow agents to make decisions regarding the orchestration tasks. Finally, we provide a testbed that integrates a platform for developing BDI agents with a network emulator, allowing agents to control VNFs and perceive the network. This testbed is used to implement VNFs and empirically evaluate our theoretical model in a distributed denial-of-service (DDoS) attack. The evaluation results show that a solution to the DDoS attack emerges through the negotiation of agents, successfully mitigating the attack.
17

Uma arquitetura para processamento de grande volumes de dados integrando sistemas de workflow científicos e o paradigma mapreduce

Zorrilla Coz, Rocío Milagros 13 September 2012 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2017-08-10T17:48:51Z No. of bitstreams: 1 RocioZorrilla_Dissertacao.pdf: 3954121 bytes, checksum: f22054a617a91e44c59cba07b1d97fbb (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2017-08-10T17:49:05Z (GMT) No. of bitstreams: 1 RocioZorrilla_Dissertacao.pdf: 3954121 bytes, checksum: f22054a617a91e44c59cba07b1d97fbb (MD5) / Made available in DSpace on 2017-08-10T17:49:17Z (GMT). No. of bitstreams: 1 RocioZorrilla_Dissertacao.pdf: 3954121 bytes, checksum: f22054a617a91e44c59cba07b1d97fbb (MD5) Previous issue date: 2012-09-13 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / With the exponential growth of computational power and generated data from scientific experiments and simulations, it is possible to find today simulations that generate terabytes of data and scientific experiments that gather petabytes of data. The type of processing required for this data is currently known as data-intensive computing. The MapReduce paradigm, which is included in the Hadoop framework, is an alternative parallelization technique for the execution of distributed applications that is being increasingly used. This framework is responsible for scheduling the execution of jobs in clusters, provides fault tolerance and manages all necessary communication between machines. For many types of complex applications, the Scientific Workflow Systems offer advanced functionalities that can be leveraged for the development, execution and evaluation of scientific experiments under different computational environments. In the Query Evaluation Framework (QEF), workflow activities are represented as algebrical operators, and specific application data types are encapsulated in a common tuple structure. QEF aims for the automatization of computational processes and data management, supporting scientists so that they can concentrate on the scientific problem. Nowadays, there are several Scientific Workflow Systems that provide components and task parallelization strategies on a distributed environment. However, scientific experiments tend to generate large sizes of information, which may limit the execution scalability in relation to data locality. For instance, there could be delays in data transfer for process execution or a fault at result consolidation. In this work, I present a proposal for the integration of QEF with Hadoop. The main objective is to manage the execution of a workflow with an orientation towards data locality. In this proposal, Hadoop is responsible for the scheduling of tasks in a distributed environment, while the workflow activities and data sources are managed by QEF. The proposed environment is evaluated using a scientific workflow from the astronomy field as a case study. Then, I describe in detail the deployment of the application in a virtualized environment. Finally, experiments that evaluate the impact of the proposed environment on the perceived performance of the application are presented, and future work discussed. / Com o crescimento exponencial do poder computacional e das fontes de geração de dados em experimentos e simulações científicas, é possível encontrar simulações que usualmente geram terabytes de dados e experimentos científicos que coletam petabytes de dados. O processamento requerido nesses casos é atualmente conhecido como computação de dados intensivos. Uma alternativa para a execução de aplicações distribuídas que atualmente é bastante usada é a técnica de paralelismo baseada no paradigma MapReduce, a qual é incluída no framework Hadoop. Esse framework se encarrega do escalonamento da execução em um conjunto de computadores (cluster), do tratamento de falhas, e do gerenciamento da comunicação necessária entre máquinas. Para diversos tipos de aplicações complexas, os Sistemas de Gerência de Workflows Científicos (SGWf) oferecem funcionalidades avançadas que auxiliam no desenvolvimento, execução e avaliação de experimentos científicos sobre diversos tipos de ambientes computacionais. No Query Evaluation Framework (QEF), as atividades de um workflow são representadas como operadores algébricos e os tipos de dados específicos da aplicação são encapsulados em uma tupla com estrutura comum. O QEF aponta para a automatização de processos computacionais e gerenciamento de dados, ajudando os cientistas a se concentrarem no problema científico. Atualmente, existem vários sistemas de gerência de workflows científicos que fornecem componentes e estratégias de paralelização de tarefas em um ambiente distribuído. No entanto, os experimentos científicos apresentam uma tendência a gerar quantidades de informação que podem representar uma limitação na escalabilidade de execução em relação à localidade dos dados. Por exemplo, é possível que exista um atraso na transferência de dados no processo de execução de determinada tarefa ou uma falha no momento de consolidar os resultados. Neste trabalho, é apresentada uma proposta de integração do QEF com o Hadoop. O objetivo dessa proposta é realizar a execução de um workflow científico orientada a localidade dos dados. Na proposta apresentada, o Hadoop é responsável pelo escalonamento de tarefas em um ambiente distribuído, enquanto que o gerenciamento das atividades e fontes de dados do workflow é realizada pelo QEF. O ambiente proposto é avaliado utilizando um workflow científico da astronomia como estudo de caso. Logo, a disponibilização da aplicação no ambiente virtualizado é descrita em detalhe. Por fim, são realizados experimentos para avaliar o impacto do ambiente proposto no desempenho percebido da aplicação, e discutidos trabalhos futuros.
18

Redes de equipamentos sem fio de uso pessoal: comparação de tecnologias emergentes e análise de tendências. / Wireless network equipment for personal use comparison of emerging technology trends and analysis.

Rivera, Antonio D\'Acosta 06 October 2010 (has links)
No mundo globalizado em que vivemos os sistemas, as aplicações e as pessoas precisam estar conectadas permanentemente à Internet, e a uma variedade de redes de comunicação, com vários dispositivos, simultaneamente. O ideal, devido a esse contexto, seria ter um único dispositivo com uma única interface de rede e um único programa que permitisse fazer diversas conexões com diversos protocolos usados simultaneamente, tornando o sistema simples de usar e fácil de instalar e operar, conseguindo, desta forma, o nível de estabilidade e confiabilidade desejadas. Por isso, as redes de área pessoal (WPAN) estão crescendo em importância desde seu aparecimento em 1991. Diversas tecnologias foram propostas para sua implementação sem que haja um consenso sobre a aplicabilidade de cada opção. Este trabalho realiza uma avaliação crítica das diversas tecnologias propostas e por meio de um laboratório de prototipação procurou obter dados que permitam uma avaliação mais objetiva dessas tecnologias. Esse documento apresenta uma descrição desse laboratório e apresenta a metodologia proposta para comparação das tecnologias para WPAN, e os resultados obtidos em laboratório. O estudo apresentado demonstra, através de uma avaliação critica, que as principais alternativas no momento são Wi-Fi e Bluetooth e que com os dados obtidos na prototipação em laboratório se provou que hoje há possibilidade de virtualizar diferentes redes e tipos de interface em uma única interface física. A economia de escala, multiplicada pelo efeito da virtualização das interfaces, leva a conclusão que as tecnologias Wi-Fi e Bluetooth deverão dominar o mercado de WLAN e WPAN nos próximos anos. / In todays globalized world, systems, applications and people need to be permanently connected to the Internet, a variety of communications networks and several different devices simultaneously. Ideally, faced with this context, there should be a single device with a single network interface, and a single program that enables several connections and protocols to be used simultaneously, making the entire systems simple to use and easy to install and operate, thus leading to the desired levels of stability and reliability. So the personal area networks (WPAN) are growing in importance since its debut in 1991. Several technologies have been proposed for its implementation without a consensus on the applicability of each option The proposed work will conduct a critical evaluation of the various proposed technologies and, through a laboratory prototype seek information to enable a more objective evaluation of these technologies. This document provides a description of the laboratory and presents the proposed methodology to compare technology for WPAN.
19

A influência das informações de hardware e software nos serviços de IaaS: uma abordagem sobre desempenho de máquinas virtuais em nuvem / The influence of hardware and software information in the laaS services: an approach about performance in virtual machines in clouds

Leite Filho, Dionisio Machado 18 February 2016 (has links)
Esta tese apresenta um conjunto de avaliações experimentais com o objetivo de identificar como as camadas de hardware e software podem ser determinantes na obtenção de desempenho em máquinas virtuais em nuvem. A computação em nuvem apresenta benefícios no fornecimento de serviços de infraestrutura de forma conveniente e sob demanda. Essa oferta de serviços, sob demanda, pode conduzir os clientes à contratação de serviços virtualizados que atendam às suas necessidades com bom desempenho. Quando os serviços de infraestrutura são vendidos ou alugados com a descrição apenas das características das máquinas virtuais, o desempenho obtido pode não ser o desejado devido às restrições dos recursos físicos. Sendo assim, é proposto um levantamento sobre quais informações são fornecidas pelos provedores de nuvem. De posse das informações coletadas, um conjunto de experimentos demonstra a importância da camada de virtualização para os serviços de infraestrutura. Os resultados apresentados nesta tese demonstram que apesar de os provedores terem tipos de máquinas virtuais semelhantes nos recursos virtuais, os recursos físicos são determinantes na obtenção do desempenho. Além dos recursos físicos, os recursos de software também são determinantes na obtenção do desempenho, devido principalmente à marcante influência do virtualizador considerado. / This thesis presents a set of experimental evaluations in order to identify how the hardware and software layers can be crucial in getting services with good performance levels. Cloud computing offers benefits in providing a convenient way of infrastructure services and on demand. This services offer, on demand, can drive customers hiring virtualized services that meet their needs with good performance. When the infrastructure services are sold or leased with a description only of the characteristics of virtual machines, the obtained performance may not be desired due to the restrictions of physical resources. Thus, a survey on what information is provided by cloud providers is proposed. Armed with the information collected, a set of experiments demonstrates the importance of the virtualization layer for infrastructure services. The results presented demonstrate that although providers have similar types of virtual machines in virtual resources, physical resources are determinant in obtaining performance. In addition to the physical resources, the resources of software are also critical in getting the performance, mainly due to the strong influence of the considered virtualizer.
20

Análise de desempenho de interfaces de rede virtualizadas com NAPI / Performance analysis of virtualized network interfaces with NAPI

Kuroda, Eduardo Hideo 26 November 2013 (has links)
Em ambientes virtualizados, como nuvens computacionais, a capacidade efetiva de transmissão de dados via rede tende a ser inferior à de ambientes não virtualizados quando aplicações que fazem uso intensivo da rede são executadas. Uma das principais causas para essa diferença na capacidade de transmissão é a arquitetura da virtualização de rede, que adiciona passos para o sistema operacional transmitir e receber um pacote. Esses passos adicionais acarretam em maior utilização de memória e de processamento. Em ambientes virtualizados com o sistema operacional GNU/Linux, a New Application Programming Interface (NAPI) é utilizada para reduzir os impactos negativos da virtualização por meio de agregação de interrupções. Nesta dissertação de mestrado, são estudados mecanismos que modificam a configuração da NAPI. Experimentos mostram que esses mecanismos afetam o desempenho de máquinas virtuais e tem consequências diretas nas aplicações que fazem uso intensivo de rede e que são executadas em ambientes com os softwares de virtualização Xen, VMware e VirtualBox. / In virtualized environments, such as cloud computing, the effective capacity of data transmission via network cards tends to be lower than that in non-virtualized environments, when network intensive applications are executed. A major cause for this difference in the transmission capacity is the architecture of network virtualization, which adds some steps to be performed by the system when packets are transmitted or received. These additional steps cause more memory and processing usage. In virtualized environments with the GNU/Linux operating system, the New Application Programming Interface (NAPI) is used to reduce the negative impacts of virtualization through interrupt coalescence. In this dissertation, mechanisms that modify the configuration of NAPI are studied. Experiments show that these mechanisms affect the performance of virtual machines and have direct effects in applications that make intensive use of the network in environments with Xen, VMware and VirtualBox.

Page generated in 0.0366 seconds