• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 63
  • 5
  • 5
  • 1
  • Tagged with
  • 78
  • 56
  • 32
  • 22
  • 22
  • 18
  • 18
  • 16
  • 16
  • 15
  • 15
  • 15
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

MECANISMO DE TOLERÂNCIA A FALHAS PARA O EICIDS: sistema de detecção de intrusão elástico e interno baseado em nuvem / MECHANISM OF FAULT TOLERANCE FOR EICIDS ELASTIC AND INTERNAL CLOUD-BASED INTRUSION DETECTION SYSTEM

RODRIGUES, Dhileane de Andrade 16 June 2014 (has links)
Made available in DSpace on 2016-08-17T14:53:29Z (GMT). No. of bitstreams: 1 DISSERTACAO Dhileane de Andrade Rodrigues.pdf: 3735040 bytes, checksum: e5dbef2dca083d027d13e79c9e57a595 (MD5) Previous issue date: 2014-06-16 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Cloud computing is increasingly in evidence in the world for its elasticity, in providing resources. The characteristics of cloud computing make the environment attractive for intrusion and therefore vulnerable to attack. Therefore, there is a need for adequate tools to provide security in the cloud. A tool that is currently proposed to maintain security in the cloud is the Intrusion Detection Systems (IDS), since its objective is to identify individuals who attempt unauthorized use an or abusive the system with its privileges . Although numerous studies aimed at detection area intrusion into the cloud computing environment, there are many problems faced in area, such as: the elasticity of the components, selfprotection, the availability of the services, self-resilient study with no single point of failure and automatic response actions based on the set of policies. To properly perform the function in the cloud, the IDS should have the ability to quickly increase or decrease the number of sensors, according to the elasticity of the cloud. Besides providing the ability to expand, the SDI should ensure reliability and availability of their own applications. An SDI in the cloud should continue its services even before failures, especially failures arising from malicious actions. This dissertation proposes a mechanism for fault tolerance and Internal Elastic Cloudbased Intrusion Detection System (EICIDS), an intrusion detection system based on dynamic virtualization. The mechanism uses some technique: monitoring system, echo and replication. The mechanism has a group of components that monitor the system to collect the IDS behavior and information of the Virtual machines (VMs) to provide adequate recovery. Using the information that is collected, the system can: find the inactive VMs; discover VMs with malicious actions and discover applications being used in an improper form. Replication occurs at the moment no communication exists between the components of SDI nodes that are located in the element and Central. In addition, this monitoring allows also perform other important tasks such as signal output for all VMs if a malicious action is detected, block malicious user, and monitoring of the central element, to ensure the safety of SDI itself (selfprotection). The implementation of the proposed architecture and testing demonstrate the feasibility of the solution. / A computação em nuvem está cada vez mais em evidencia no mundo pela sua forma de disponibilizar recursos e sua elasticidade. Tais características tornam esse ambiente um atrativo para a intrusão e consequentemente vulnerável a ataques. Portanto, há uma necessidade de ferramentas adequadas para prover a segurança na nuvem. Entre as diversas ferramentas que atualmente foram propostas para manter a segurança na nuvem destaca-se o Sistema de Detecção de Intrusão (SDI), uma vez que seu objetivo é identificar indivíduos que tentam usar um sistema de forma não autorizado ou abusivo, ou seja, abusa dos privilégios concedidos aos mesmos. Embora inúmeras pesquisas direcionadas à área de detecção de intrusão no ambiente de CN, muitos são os problemas enfrentados por essa técnica, tais como: a elasticidade dos componentes, a autoproteção, a disponibilidade dos seus serviços, a auto resistente sem nenhum ponto único de falha e proporcionar ações de resposta automática com base no conjunto de políticas. Um SDI para realizar corretamente sua função na nuvem, deve possuir a capacidade de aumentar ou diminuir rapidamente a quantidade de sensores, de acordo com a elasticidade da nuvem. Além de prover a capacidade de expandir-se o SDI deve garantir a confiabilidade e disponibilidade de suas próprias aplicações. Assim sendo, um SDI aplicado na nuvem deve dar continuidade aos seus serviços mesmo diante de falhas, principalmente falhas oriundas de ações maliciosas. Esta dissertação propõe um mecanismo de tolerância a falhas para o Elastic and Internal Cloud-based Intrusion Detection System (EICIDS), um sistema de detecção de intrusão baseado em virtualização e dinâmico. O mecanismo utiliza algumas técnicas: o monitoramento do sistema, emissão de echo e a replicação. O mecanismo possui um grupo de componentes que monitoram o sistema para coletar informações relacionadas aos comportamento do próprio SDI e das Virtual machines (VMs) para prover a recuperação adequada. Usando a informação que é coletada, o sistema pode: descobrir as VMs inativas; descobrir VMs com ações maliciosas e descobrir aplicações que estão sendo usadas de forma indevidas. A replicação ocorre no momento em que não existe comunicação entre os componentes do SDI que se localizam nos nodes e o elemento central. Além disso, esse monitoramento também permite realizar outras importantes tarefas tais como: emissão de sinal para todas as VMs se uma ação maliciosa for detectada, bloquei de usuário mal intencionado, e monitoramento do elemento central, para garantir a segurança do próprio SDI (Self protection). A implementação da arquitetura proposta e os testes realizados demostram a viabilidade da solução.
72

A virtualização de processo com o uso de mundos virtuais: um estudo do processo ensino-aprendizagem a partir da perspectiva dos participantes do processo

Noveli, Márcio 06 February 2013 (has links)
Submitted by Marcio Noveli (marcionoveli@yahoo.com.br) on 2013-03-05T13:50:15Z No. of bitstreams: 1 TESE MARCIO NOVELI 2013.pdf: 5213550 bytes, checksum: ec32da7d5c1562fbeea63c0e73a23045 (MD5) / Approved for entry into archive by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br) on 2013-03-05T17:16:39Z (GMT) No. of bitstreams: 1 TESE MARCIO NOVELI 2013.pdf: 5213550 bytes, checksum: ec32da7d5c1562fbeea63c0e73a23045 (MD5) / Made available in DSpace on 2013-03-05T17:31:18Z (GMT). No. of bitstreams: 1 TESE MARCIO NOVELI 2013.pdf: 5213550 bytes, checksum: ec32da7d5c1562fbeea63c0e73a23045 (MD5) Previous issue date: 2013-02-06 / As Tecnologias de Informação e Comunicação (TIC) têm permitido, no contexto organizacional, que processos que dependiam da presença física dos envolvidos, sejam eles indivíduos ou objetos, em um mesmo lugar e ao mesmo tempo, ocorram sem esses limites. A explicação para esse fenômeno tem passado por diversos modelos e teorias, baseados em diferentes áreas e, a partir de vários níveis de análise, acompanhando a evolução das capacidades dessas tecnologias ao longo dos anos, inclusive na área de Sistemas de Informação (SI). Partindo dessa área, especificamente da corrente de estudos que assume que processos tornam-se virtuais quando as TICs usadas para viabiliza-los são adotadas/utilizadas pelos indivíduos envolvidos no processo, essa pesquisa delimitou-se a estudar empiricamente a divergência acerca da adequação dos mundos virtuais, para a virtualização do processo ensino-aprendizagem, partindo de um modelo geral, baseado na Teoria de Virtualização de Processo (TVP), com o objetivo de identificar a relação entre os requisitos de um processo e as capacidades das TICs na virtualização de um processo. Para isso, utilizou a estratégia de estudo de casos múltiplos, que contou com 3 casos e diversas fontes de evidências, permitindo, por meio de técnicas de análise de conteúdo: (1) identificar cinco constructos que se destacaram como requisitos do processo ensino-aprendizagem, inclusive um constructo adicional ao modelo da TVP, duas capacidades dessa tecnologia, três indicadores da virtualização, além de três outros fatores que estiveram presentes nesse processo; (2) descrevê-los quanto a como eram avaliados e (3) mapear como estavam associados, a partir da perspectiva dos participantes do processo. Isso possibilitou identificar um quadro sistematizado de relações entre os fatores identificados e avaliados, o qual aponta que capacidades das TICs estão relacionadas ao preenchimento de requisitos de processo, viabilizando a virtualização, e que outros fatores identificados estão envolvidos na virtualização de um processo. / Information and Communication Technologies (ICT) have allowed that, in the organizational context, processes which depended on the physical presence of those involved, individuals or objects, at the same place and time, occur without these limits. The explanation for this phenomenon has gone through several models and theories, based on different areas and from different levels of analysis, following the evolution of the capabilities of these technologies over the years, including in the area of Information Systems (IS). From this area, specifically from the group of studies which assumes that processes become virtual when the ICT used to enable them are adopted/used by individuals involved in the process, this research was delimited to an empirical study on the divergence about the adequacy of virtual worlds in teaching-learning process virtualization, starting from a general model based on the Process Virtualization Theory (PVT), aiming to identify the relationship between the requirements of a process and the capabilities of ICTs in a process virtualization. Thus, it was used the multiple case studies strategy, which included 3 cases and various sources of evidence, allowing, through techniques of content analysis: (1) identify five constructs which stood out as requirements of the teachinglearning process , including an additional construct to the PVT model, two capabilities of this technology, three indicators of virtualization, plus three other factors that were present in this process, (2) describe them as to how they were evaluated and (3) map how they were associated, from the perspective of the participants in the process. It also identified a systematic framework of relations between the factors identified and evaluated, which indicates that ICT capabilities are related to the filling of the process requirements, enabling virtualization, and other factors identified are involved in process virtualization.
73

Uma abordagem para a definição e localização de máquinas virtuais para aplicações de alto desempenho em ambientes de nuvem / An approach for the definition and placement of virtual machines for high performance applications on clouds

MC EVOY VALENZANO, GIACOMO VICTOR 09 June 2014 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2015-04-07T17:08:19Z No. of bitstreams: 1 Tese Valenzano.pdf: 6171673 bytes, checksum: a6e9df33d246d4212e78a76bcac3eaf2 (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2015-04-07T17:08:37Z (GMT) No. of bitstreams: 1 Tese Valenzano.pdf: 6171673 bytes, checksum: a6e9df33d246d4212e78a76bcac3eaf2 (MD5) / Made available in DSpace on 2015-04-07T17:08:48Z (GMT). No. of bitstreams: 1 Tese Valenzano.pdf: 6171673 bytes, checksum: a6e9df33d246d4212e78a76bcac3eaf2 (MD5) Previous issue date: 2014-06-09 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / The efficient deployment of HPC (High Performance Computing) applications on Clouds offers many challenges, in particular, for communication-intensive applications. One strategy to mitigate performance overheads caused by high communication latency is to schedule requested Virtual Machines (VMs) effectively onto physical resources by optimizing VM placement. In this work, we study the case of scientific applications in virtual clusters by analyzing how different VM profiles and placements can affect observed performance of a parallel application that uses distributed memory. The main contribution of this thesis is a methodology with the following features: a) the representation of VM placement and virtual clusters through the placement of virtual cores; b) a software for systematic execution and obtainment of metrics under different configurations; c) performance analysis aware of core placement, resource contention and resource usage patterns; d) modeling and prediction of performance by feature extraction using Canonical Correlation Analysis on kernel metrics, according to the Dwarf classification. / A disponibilização eficiente de aplicações de Computação de Alto Desempenho em Clouds apresenta muitos desafios, em particular, para aplicações intensivas de comunicação. Uma estratégia para mitigar a queda de desempenho, causada por alta latência, consiste em escalonar as Máquinas Virtuais (VMs) de forma eficiente nos recursos físicos através da otimização da localização de VMs. Neste trabalho, é estudado o caso de aplicações científicas em clusters virtuais, por meio da análise da forma como diferentes perfis e localizações de VM podem afetar o desempenho observado de uma aplicação paralela que utiliza memória distribuída. A contribuição principal consiste em uma metodologia com as seguintes característicias: a) a representação da localização de VMs e de clusters virtuais através da localização de núcleos virtuais; b) um novo software para a execução sistemática de clusters virtuais e a obtenção de métricas sob diferentes configurações; c) análise de desempenho ciente da localização dos núcleos virtuais, a contenção de recursos e os padrões de utilização de recursos; d) modelagem e predição do desempenho por meio de extração de características utilizando a Análise de Correlação Canônica, segundo a classificação de Dwarfs.
74

Uma abordagem SDN para virtualização de redes

PINHEIRO, Billy Anderson 25 November 2016 (has links)
Submitted by camilla martins (camillasmmartins@gmail.com) on 2017-03-21T12:37:31Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_UmaAbordagemSDN.pdf: 2193397 bytes, checksum: 45872b52d1e24310a8874b1bb9a90bcb (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2017-03-22T14:31:54Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_UmaAbordagemSDN.pdf: 2193397 bytes, checksum: 45872b52d1e24310a8874b1bb9a90bcb (MD5) / Made available in DSpace on 2017-03-22T14:31:54Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_UmaAbordagemSDN.pdf: 2193397 bytes, checksum: 45872b52d1e24310a8874b1bb9a90bcb (MD5) Previous issue date: 2016-11-25 / As Redes Virtuais Denidas por Software (virtual SDN networks - vSDNs) surgiram da associac~ao de virtualizac~ao e Redes Denidas por Software (Software-Dened Networking - SDN), proporcionando maior controle e melhor utilização dos recursos de rede. Vários trabalhos ja mostraram a viabilidade e benefícios dessa abordagem. No entanto, o tema ainda carece de soluções que possam virtualizar uma rede de forma escalável, intuitiva e simplificada. Desta forma, esta Tese propõe uma abordagem SDN para a virtualização de redes com o objetivo de reduzir as limitações em vSDNs. Sendo assim, sugere-se adotar na virtualização de rede a separação entre planos de dados (distribuído) e controle (centralizado), visão global da rede e uso de abstração de fluxo para gerir a comunicação entre os diferentes pontos. Para sustentar nossa proposição, três soluções foram desenvolvidas: o CIM-SDN (Common Information Model for Software-Dened Networking), para viabilizar o uso de representação formal dos novos elementos das vSDNs; o NVP (Network Virtualization Proxy), para prover maior escalabilidade através da separação do plano de controle em partes centralizadas e descentralizadas; e o GVL (Graph Virtualization Layer), para fornecer maior uso de abstrações entre o hypervisor e os controladores simplicando, assim, o entendimento e uso da rede. Foram realizadas provas de conceitos para as três soluções propostas, demonstrando a viabilidade da abordagem. / The virtual SDN networks (vSDNs) have emerged from the association of virtualization and Software-Dened Networking (SDN), providing greater control and better use of network resources. Several studies have already shown the feasibility and benets of this approach. However, the issue still lacks solutions that can virtualize a network in a scalable, intuitive and simplied manner. Thus, this thesis proposes an SDN approach to network virtualization with the aim of reducing the limitations on vSDNs. Therefore, it is suggested to adopt in network virtualization the separation between data plans (distributed) and control (centralized), the global network view and use of ow abstraction to manage the communication between the dierent points. To support our proposition, three solutions were developed: the CIM-SDN (Common Information Model for Software-Dened Networking), to enable the use of formal representation of the new elements of vSDNs; The NVP (Network Virtualization Proxy), to provide greater scalability by separating the control plane into centralized and decentralized parts; And Graph Virtualization Layer (GVL), to provide greater use of abstractions between the hypervisor and controllers, thereby simplifying the understanding and use of the network. Proof of concept tests was carried out for the three proposed solutions, demonstrating the feasibility of the approach.
75

Avaliação de desempenho de plataformas de virtualização de redes. / Performance evaluation of network virtualization plataforms.

Leopoldo Alexandre Freitas Mauricio 27 August 2013 (has links)
O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP. / The aim of this work is to evaluate the performance of routing virtual environments built on x86 machines and network devices existing on the Internet today. Among the most widely used virtualization platforms, we want to identify which best meets the requirements of a virtual routing to allow programming of the core production networks. Virtualization platforms Xen and KVM were installed on modern large capacity x86 machines, and they were compared for efficiency, flexibility and isolation between networks, which are the requirements for good performance of a virtual network. The tests results show that, despite being a full virtualization platform, KVM has better performance than Xen in forwarding and routing packets when the VIRTIO is used. Furthermore, only Xen had isolation problems between networks. We also evaluate the effect of the NUMA architecture, very common in modern x86 servers, on the performance of VMs when lots of memory and processor cores are allocated to them. The results show that Input and Output (I/O) network performance can be compromised whether the amounts of virtual memory and CPU allocated to VM do not respect the size of the existing hardware NUMA nodes. Finally, we study the OpenFlow. It allows slicing networks into routers, switches and x86 machines to create virtual environments with different routing forwarding rules. We found that, when installed with Xen and KVM, it enables the migration of virtual networks among different physical nodes, without interruptions in the data streams, and allows to increase the performance of packet forwarding in the virtual networks created. Thus, it was possible to program the core network to implement alternatives to IP protocol.
76

Avaliação de desempenho de plataformas de virtualização de redes. / Performance evaluation of network virtualization plataforms.

Leopoldo Alexandre Freitas Mauricio 27 August 2013 (has links)
O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP. / The aim of this work is to evaluate the performance of routing virtual environments built on x86 machines and network devices existing on the Internet today. Among the most widely used virtualization platforms, we want to identify which best meets the requirements of a virtual routing to allow programming of the core production networks. Virtualization platforms Xen and KVM were installed on modern large capacity x86 machines, and they were compared for efficiency, flexibility and isolation between networks, which are the requirements for good performance of a virtual network. The tests results show that, despite being a full virtualization platform, KVM has better performance than Xen in forwarding and routing packets when the VIRTIO is used. Furthermore, only Xen had isolation problems between networks. We also evaluate the effect of the NUMA architecture, very common in modern x86 servers, on the performance of VMs when lots of memory and processor cores are allocated to them. The results show that Input and Output (I/O) network performance can be compromised whether the amounts of virtual memory and CPU allocated to VM do not respect the size of the existing hardware NUMA nodes. Finally, we study the OpenFlow. It allows slicing networks into routers, switches and x86 machines to create virtual environments with different routing forwarding rules. We found that, when installed with Xen and KVM, it enables the migration of virtual networks among different physical nodes, without interruptions in the data streams, and allows to increase the performance of packet forwarding in the virtual networks created. Thus, it was possible to program the core network to implement alternatives to IP protocol.
77

Um orquestrador flexível de recursos de rede e computação para o aprimoramento de qualidade de serviço (QoS) em aplicações multimídia baseadas em funções virtualizadas de rede (NFV)

Moreira, Rodrigo 31 July 2017 (has links)
Pessoas e organizações ao redor do globo utilizam aplicações multimídia para interação e comunicação. Existe notável crescimento de tráfego característico dessas aplicações, uma vez que há convergência de voz e dados para um modelo único de transporte. As redes de computadores, por suportar tais aplicações cadenciam desafios e oportunidades de negócios que os operadores têm aproveitado. Por outro lado, os usuários experimentam serviços com qualidades cada vez mais refinados, mesmo assim, existem aspectos que devem ser tratados para elevar a qualidade de experiência percebida pelos usuários ao consumir serviços ofertados sobre a internet. Métricas de QoS usualmente são baseadas nos usuários ou na rede, por isso, conceitos como NFV e SDN permitem aprimorar e expandir a perspectiva de oferta de uma camada de abstração para desenvolvimento de soluções flexíveis, que visam lidar com aplicações multimídia ofertadas em nuvem. Não obstante, a construção dessas soluções deve ser calcada em aspectos intrínsecos ao conceito de Internet do Futuro que preconiza soluções virtualizadas, flexíveis, convergentes, escaláveis, orientadas a contexto, seguras e melhor gerenciadas. Este trabalho propõe uma abordagem para mitigar a distância das aplicações com os recursos de rede e computação. Usualmente as aplicações desconhecem características de hardware sobre o qual elas operam; quanto a rede, mesmo com esforços em vários níveis da pilha de protocolos, desconhece especificidades das aplicações em execução. Há também dificuldade de gerenciamento global de recursos, integração de políticas e acordos de serviço entre operadores. O trabalho visa adicionar uma camada de gerenciamento para elevar os níveis de QoS para aplicações multimídia baseadas em NFV. Para realizar isso, é proposto uma entidade que atua no plano de dados e controle, capaz de orquestrar recursos de rede e de computação simultaneamente para aprimorar QoS em aplicações multimídia. A incorporação dessa entidade conquista melhoramento de QoS por meio da oferta de resiliência na comunicação fim-a-fim de entidades consumidoras dessas aplicações, provê um balanceamento de carga adequado a fim de não comprometer parâmetros de QoS como tempo de resposta, provê escalabilidade sob demanda, promove o conceito de inspeção de pacotes para segmentação de políticas de rede orientada à aplicação, finalmente realiza a separação de plano de dados e controle. A construção e experimentação da solução permitiu diminuir tempos de resposta nas aplicações multimídia; a solução reagiu adequadamente frente a cargas de trabalho heterogêneas no sentido de prover confiabilidade para garantia de QoS; também, o conceito de inspeção de pacotes foi capaz de atuar para diminuir a distância que as aplicações possuem da rede e o hardware sobre o qual elas operam. / People and organizations around the globe use multimedia applications for interaction and communication. There is notable traffic growth characteristic of these applications since there is a convergence of voice and data for a single transport model. Computer networks, because they support such applications, meet the challenges and business opportunities that operators have taken advantage of. On the other hand, users use services with increasingly refined qualities, nevertheless, there are aspects that must be addressed to raise the quality of experience for users when consuming services offered over the internet. QoS metrics are usually user-based or network-based, hence concepts such as NFV and SDN allow to improve and expand the perspective of offering an abstraction layer for the development of flexible solutions that deal with multimedia applications offered in the cloud. Nevertheless, the construction of these solutions must be based on intrinsic aspects to the Future Internet concept that advocates virtualized solutions, flexible, convergent, scalable, context-aware, secure and better managed. This dissertation proposes an approach to mitigate the distance of the applications with the resources of compute and network. Usually, the applications are unaware of the hardware characteristics on which they operate, as for the network, even with several efforts at various levels of the protocol stack, the specificities of running applications are unknown. There is also challenges of managing global resources, integrating policies and service agreements between operators. This work aims to add a management layer to raise the levels of QoS for multimedia applications based on NFV. To accomplish this, an entity that acts on the data and control plane is proposed, capable of orchestrating network and computing resources simultaneously to enhance QoS in multimedia applications. The incorporation of this entity achieves QoS improvement through resiliency in the end-to-end communication of the consumer entity of these applications, provides adequate load balancing in order to avoid compromising QoS parameters such as response time, provides on-demand scalability, improves the concept of package inspection for the segmentation of application-oriented network policies, and finally performs the separation of data and control plane. The construction and experimentation of the solution allowed to reduce response times in the multimedia applications. The solution reacted adequately to heterogeneous workloads in order to provide reliability for QoS guarantee. Furthermore, the concept of packet inspection was able to act to decrease the distance that the applications have from the network and the hardware on which they operate. / Dissertação (Mestrado)
78

Cognitive radio virtual networks environment: definition, modeling and mapping of secondary virtual networks onto wireless substrate

BALIEIRO, Andson Marreiros 28 August 2015 (has links)
Submitted by Haroudo Xavier Filho (haroudo.xavierfo@ufpe.br) on 2016-04-06T17:23:43Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Andson_M_Balieiro_PhDThesis_ComputerScience_2015.pdf: 2709720 bytes, checksum: 2432ca198603426dffdf0ce2f34f3162 (MD5) / Made available in DSpace on 2016-04-06T17:23:43Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Andson_M_Balieiro_PhDThesis_ComputerScience_2015.pdf: 2709720 bytes, checksum: 2432ca198603426dffdf0ce2f34f3162 (MD5) Previous issue date: 2015-08-28 / FACEPE / The wireless technologies are progressing at a rapid pace such that the future of digital communication will be dominated by a dense, ubiquitous and heterogeneous wireless network. Along with this, there is a growing demand for wireless services with different requirements. In this respect, the management of this complex wireless ecosystem becomes challenging, and the wireless virtualization is pointed as an efficient solution to perform it, where different virtual wireless networks can be created, sharing and running on the same wireless infrastructure, and providing differentiated services to users. However, to satisfy the high demand for mobile communications, it is necessary the availability of a natural and scarce resource, the electromagnetic spectrum. Although the insertion of virtualization in wireless networks provides better resources utilization, the current approaches to employ the wireless virtualization can cause resource underutilization. To overcome this underutilization and enable that new wireless virtual networks can be deployed, the wireless virtualization can be combined with the cognitive radio technology and dynamic spectrum access (DSA) techniques in order to achieve the deepest level of wireless virtualization and to improve the resource utilization through the deployment of opportunistic resource sharing. Thus, virtual wireless networks with different access priorities to the resources (e.g. primary and secondary) can be deployed in an overlay form, sharing the same substrate wireless network, where the secondary virtual network (SVN) accesses the resources only when the primary one (PVN) is not using them. However, this new scenario brings new challenges: from the mapping to operation of these networks. The SVN mapping is a NP-hard problem and presents some constraints and objectives related to both PVNs and SVNs. Achieving all objectives simultaneously is a challenging process. This thesis addresses the SVNs mapping problem onto substrate network considering the existence of the PVNs on the same substrate network. It discloses the environment composed by these networks, denoted as cognitive radio virtual network environment (CRVNE), models this environment by using a M/M/N/N queue with preemptive and priority service, and delineates a multi-objective problem formulation for the SVNs mapping. Moreover, a scheme based on Genetic Algorithms to solve the SVNs mapping problem is proposed and evaluated in terms of collision, secondary user (SU) dropping, and SU blocking probabilities, and joint utilization, achieving better results than other based on the First-Fit strategy. / Recentemente, as tecnologias sem fio estão progredindo rapidamente de modo que o futuro da comunicação digital será dominado por uma rede sem fio densa, ubíqua e heterogênea. Adicionado a isso, existe uma demanda crescente por serviços sem fio com diferentes requisitos. Neste aspecto, o gerenciamento deste ecossistema complexo se tona desafiador e a virtualização sem fio é apontada como uma solução eficiente para realizá-lo, onde redes virtuais sem fio diferentes podem ser criadas, compartilhando e executando sobre a mesma infraestrutura de rede sem fio e provendo serviços diferenciados aos usuários. Entretanto, para satisfazer à alta demanda por comunicação móvel é necessária a disponibilidade de um recurso natural e escasso, o espectro eletromagnético. Embora a inserção de virtualização em redes sem fio forneça maior utilização dos recursos, as abordagens atuais para empregar a virtualização sem fio podem causar subutilização de recursos. Para superar esta subutilização, a virtualização sem fio pode ser combinada com a tecnologia de rádio cognitivo e técnicas de acesso dinâmico ao espectro (DSA) para alcançar o mais profundo nível de virtualização sem fio e melhorar a utilização de recursos através do compartilhamento oportunista deles. Assim, redes virtuais sem fio com diferentes prioridades de acesso aos recursos (ex. primária e secundária) podem ser implantadas sobrepostas, compartilhando a mesma infraestrutura de rede sem fio, onde as redes virtuais secundárias (SVNs) acessam os recursos somente quando as redes virtuais primárias (PVNs) não os estiverem utilizando. Entretanto, este novo cenário traz novos desafios, desde o mapeamento até a operação destas redes. O mapeamento de SVNs é um problema NP-difícil e apresenta restrições e objetivos relacionados tanto às PVNs quanto às SVNs. Alcançar todos os objetivos simultaneamente é um processo desafiador. Esta tese aborda o problema de mapeamento de SVNs em redes de substrato considerando a existência de PVNs na mesma rede de substrato. Ela apresenta o ambiente de redes virtuais de rádio cognitivo (CRVNE), modela este ambiente utilizando uma fila M/M/N/N preemptiva e com prioridade e delineia uma formulação multiobjetivo para o mapeamento de SVNs. Além disso, um esquema baseado em Algoritmos Genéticos (GA) para resolver o problema de mapeamento de SVNs é proposto e avaliado em termos das probabilidades de colisão, descarte de usuário secundário (US), bloqueio de US e utilização conjunta, alcançando melhores resultados do que um esquema baseado na estratégia First-Fit.

Page generated in 0.0734 seconds