Spelling suggestions: "subject:"redes : computadores"" "subject:"redes : computadores1""
281 |
Projeto de um serviço configurável de detecção de defeitos / Design of a configurable failure detection serviceBalbinot, Jeysonn Isaac January 2007 (has links)
A detecção de defeitos pode ser usada como base no projeto de algoritmos e aplicações distribuídas que dependem, de alguma forma, de informações de estado sobre processos distribuídos. O problema de acordo entre processos (consenso), que é um dos problemas fundamentais da computação distribuída, bem como difusão atômica (atomic broadcast), eleição de líder (leader election) e gerenciamento de grupos (membership) necessitam de informações de estado dos processos envolvidos, portanto, do resultado da atividade dos detectores. Esses protocolos, geralmente, são usados como blocos básicos para a construção de outros algoritmos, serviços ou aplicações distribuídas tolerantes a falhas. Os detectores de defeitos, de forma prática, têm sido desenvolvidos com base em parâmetros funcionais de redes locais e não operam bem no contexto de sistemas distribuídos de larga escala e de redes de longa distância (WANs). Sistemas conectados por WANs, geralmente, oferecem um ambiente mais hostil do que as LANs e clusters, devido aos atrasos longos e variáveis e à maior probabilidade de ocorrência de defeitos de temporização (flutuações na latência de comunicação) e omissão (perdas de mensagens), impondo um desafio na concepção de mecanismos que detectem defeitos de forma completa, precisa e que atendam a requisitos de dependabilidade exigidos pelas aplicações. A detecção de defeitos, também, pode ser oferecida na forma de um serviço, podendo ser este serviço utilizado por diferentes aplicações, sem que estas necessitem agregar a implementação do detector em seus projetos. Neste trabalho, foram pesquisadas estratégias aplicáveis à organização e à comunicação entre módulos de detecção de defeitos, focando sistemas de larga escala que operem sobre WANs. Está sendo proposto um modelo de serviço configurável que opera sob demanda das aplicações, e utiliza uma organização hierárquica dos módulos detectores de defeitos. Com base nesse modelo, foi implementado e testado um protótipo, utilizando o framework de simulação Neko. Os testes avaliaram a utilização da estratégia hierárquica com base no tipo e número de mensagens trocadas pelo serviço durante sua operação. Os resultados mostraram que adotar a hierarquia em dois níveis (LAN e WAN) resulta em poucas mensagens adicionais de controle e significativa redução do número de mensagens trafegando entre redes locais. O serviço tirou proveito do conhecimento da topologia da rede e escalou bem, quando um número maior de máquinas foi utilizado. Adicionalmente, para ajustar dinamicamente a detecção aos atrasos impostos pelas WANs, foi utilizado o pacote de predição de timeout do AFDService. / The failure detection may be used as basis for the design of algorithms and distributed applications that need information about the state of distributed processes. The agreement problem among processes (consensus) is one of the fundamental problems in distributed computing as well as other protocols such as atomic broadcast, leader election and membership that also need information about involved processes and consequently need also the results from the failure detector activity. These protocols are generally used as basic blocks to design other algorithms, services or fault-tolerant distributed applications. The failure detectors, in practice, have been developed based on local network parameters; consequently they are not tuned for the context of large-scale distributed systems nor wide area networks (WANs). Systems interconnected by WANs generally are environments more adverse than LAN and traditional clusters, due to variable and long delays and more prone to timing and omission failures. A natural consequence is that it is challenging to develop mechanisms that can accurately detect failures and give the needed support for dependability requirements of the applications. The failure detection may also be offered as a service for the different applications, which do not need to include their own detectors in their design. In this work are investigated strategies previously defined and applied on the communication of failure detector modules, focusing the analysis on large scale systems on WANs. From this, we propose a configurable failure detection service model that works on demand of applications and adopts the hierarchical organization of failure detection modules. Based on this model, a prototype implementation has been developed and tested using Neko simulation framework. The tests evaluate the utilization of hierarchical strategy based on the type and number of messages exchanged by the service during its operation. The experiments show that the two-level (LAN and WAN) hierarchical structure adopted results in a few additional control messages and a significant reduction on the message traffic between local networks. The service uses the knowledge of the topology and scales well when many machines are used. Additionally, to dynamically adjust the delay imposed by WANs on time detection, the timeout prediction package of AFDService has been used.
|
282 |
Suporte a cooperação em sistemas de gerenciamento de redes utilizando tecnologias peer-to-peer / Cooperation support in network management systems using peer-to-peer technologiesRosa, Diego Moreira da January 2007 (has links)
O gerenciamento das redes de comunicações modernas frequentemente requer que operadores de diferentes domínios administrativos interajam uns com os outros de modo a realizar uma tarefa de gerenciamento de maneira cooperativa. Nesse contexto, pode-se observar que há distribuição tanto na execução das ações como na tomada das decisões pelos operadores participantes da sessão de gerenciamento. As soluções tradicionais de gerenciamento de redes praticamente não oferecem suporte algum ao gerenciamento baseado na cooperação entre humanos, pois foram concebidas levando em consideração um único domínio administrativo sendo gerenciado por um único operador ou por um grupo de operadores pertencentes a uma mesma organização. Visando solucionar esse problema, é introduzido nesse trabalho o uso de tecnologias peer-to-peer (P2P) em soluções de gerenciamento de redes de modo a permitir o gerenciamento baseado na cooperação entre humanos. Nessa abordagem, operadores de rede usam ferramentas híbridas que, ao mesmo tempo, gerenciam os seus domínios locais e fazem parte de um sistema P2P de gerenciamento. A proposta de gerenciamento apresentada foi implementada através de uma ferramenta chamada ManP2P, a qual combina funcionalidades de gerenciamento de redes e trabalho cooperativo. / Modern networks not rarely require human operators from different administrative domains to interact with one another in order to accomplish a management task in a cooperative fashion. In this scenario one observes that not only management actions are executed in a distributed way, but also the management decisions are cooperatively taken by all autonomous operators participating in a management session. Traditional management solutions fail to support human centered cooperative management because they were conceived considering a single administrative domain being managed by a single operator or by a group of operators belonging to the same organization. In order to address this issue, we introduce in this paper the use of peer-to-peer (P2P) technologies in network management solutions to enable human-centered cooperative management. In this approach, network operators use hybrid tools that both manage their local domains and are peers of an overlay management system. We have implemented the proposed management approach through a tool called ManP2P, which combines network management and groupware functionalities.
|
283 |
Uso de gerenciamento por delegação para controle e administração de no-breaks / Use of management by delegation for control and administration of UPSPolina, Everton Rafael January 2007 (has links)
Atualmente há grande investimento por parte das empresas em sistemas que não podem parar e, conseqüentemente, em sistemas de gerenciamento para perceber a ocorrência de falhas ou prevê-las e evitar que elas aconteçam. Para amenizar os efeitos de falhas no fornecimento de energia elétrica, que são ainda comuns no país e em boa parte do mundo, são utilizados os no-breaks. Esses equipamentos são projetados para garantir o fornecimento de energia por um tempo definido e limitado nos momentos em que a concessionária de energia elétrica interrompe esse fornecimento. O objetivo principal do presente trabalho é investigar uma solução de gerenciamento de no-breaks que possui como grande diferencial a utilização do paradigma de gerenciamento distribuído por delegação, com o uso do protocolo SNMP, apresentando as vantagens desse paradigma. Para a distribuição de tarefas, a solução utiliza a MIB Script e uma implementação deste padrão (JASMIN – Java Script MIB Implementation) de forma que toda a interatividade com a ferramenta e a automatização dos processos que compõem a solução foi implementada com o uso das ferramentas livres Apache e PHP. O trabalho apresenta uma breve descrição sobre o funcionamento dos no-breaks e destaca a UPS-MIB, MIB padrão para gerenciamento desses equipamentos, além de objetos importantes disponibilizados em outras MIBs proprietárias utilizadas para o gerenciamento de no-breaks. Além disso, o presente estudo sugere o uso de ferramentas para que o sistema de gerência seja responsável pelas estações alimentadas pelos nobreaks, ou seja, quando identificado que está próximo o momento do no-break não conseguir mais alimentar a carga, deve-se desligar a carga com segurança para que não ocorra uma perda de dados maior nem haja danos em componentes. Nota-se que o gerenciamento utilizado neste trabalho, realizado através da ferramenta desenvolvida, facilita a detecção de falhas no sistema de fornecimento de energia, de modo a interagir satisfatoriamente com no-breaks para verificar condições da rede elétrica e tomar decisões pró-ativas com o intuito de manter uma rede de computadores em funcionamento, sem que haja percalços por problemas de falta de energia. / Nowadays most companies are investing in non-stop systems, which leads to investments in management systems to know when a fault occurs or to foresee and avoid them. To reduce the effects of power supply faults (which are common in Brazil and in other parts of the world), people use UPS systems. These equipments are designed to guarantee the power supply for a pre-defined limited time, just in case the power company interrupts the supply. The main goal of this work is to present the implementation of a management application for UPS systems, which has the differential of using the management-bydelegation paradigm, based on SNMP, showing the advantages of this paradigm. The application uses Script MIB and an implementation of this standard (JASMIN - Java Script MIB Implementation) for task distribution, in such a way that all the tool interactivity and process automation was done using the free tools Apache and PHP. The work also presents a brief description about the UPS functioning, and shows UPS-MIB, the standard MIB for UPS management. Additionally the work presents some important objects available in some custom MIBs that are used for UPS management too. This study suggests the use of a set of tools to make the management system responsible for the workstations plugged on the UPS, which means that when the UPS is about to be unable to maintain the load, it should be turned off safely to avoid data losses or hardware faults. One can note that the management done in this work through the developed tool makes easy the fault detection in the power supply system. This leads to a good interaction with the UPS to verify the conditions of the power network in order to take decisions to maintain the computer network running safely.
|
284 |
Uma proposta para medição de complexidade e estimação de custos de segurança em procedimentos de tecnologia da informação / An approach to measure the complexity and estimate the cost associated to Information Technology Security ProceduresMoura, Giovane Cesar Moreira January 2008 (has links)
Segurança de TI tornou-se nos últimos anos uma grande preocupação para empresas em geral. Entretanto, não é possível atingir níveis satisfatórios de segurança sem que estes venham acompanhados tanto de grandes investimentos para adquirir ferramentas que satisfaçam os requisitos de segurança quanto de procedimentos, em geral, complexos para instalar e manter a infra-estrutura protegida. A comunidade científica propôs, no passado recente, modelos e técnicas para medir a complexidade de procedimentos de configuração de TI, cientes de que eles são responsáveis por uma parcela significativa do custo operacional, freqüentemente dominando o total cost of ownership. No entanto, apesar do papel central de segurança neste contexto, ela não foi objeto de investigação até então. Para abordar este problema, neste trabalho aplica-se um modelo de complexidade proposto na literatura para mensurar o impacto de segurança na complexidade de procedimentos de TI. A proposta deste trabalho foi materializada através da implementação de um protótipo para análise de complexidade chamado Security Complexity Analyzer (SCA). Como prova de conceito e viabilidade de nossa proposta, o SCA foi utilizado para avaliar a complexidade de cenários reais de segurança. Além disso, foi conduzido um estudo para investigar a relação entre as métricas propostas no modelo de complexidade e o tempo gasto pelo administrador durante a execução dos procedimentos de segurança, através de um modelo quantitativo baseado em regressão linear, com o objetivo de prever custos associados à segurança. / IT security has become over the recent years a major concern for organizations. However, it doest not come without large investments on both the acquisition of tools to satisfy particular security requirements and complex procedures to deploy and maintain a protected infrastructure. The scientific community has proposed in the recent past models and techniques to estimate the complexity of configuration procedures, aware that they represent a significant operational cost, often dominating total cost of ownership. However, despite the central role played by security within this context, it has not been subject to any investigation to date. To address this issue, we apply a model of configuration complexity proposed in the literature in order to be able to estimate security impact on the complexity of IT procedures. Our proposal has been materialized through a prototypical implementation of a complexity scorer system called Security Complexity Analyzer (SCA). To prove concept and technical feasibility of our proposal, we have used SCA to evaluate real-life security scenarios. In addition, we have conducted a study in order to investigate the relation between the metrics proposed in the model and the time spent by the administrator while executing security procedures, with a quantitative model built using multiple regression analysis, in order to predict the costs associated to security.
|
285 |
Uma arquitetura baseada em políticas para o provimento de QoS utilizando princípios de Autonomic Computing / A policy-based architecture for QoS provisioning using autonomic computing principlesFranco, Theo Ferreira January 2008 (has links)
Sistemas corporativos modernos cada vez mais dependentes da rede e a integração de serviços entorno do modelo TCP/IP elevam a exigência de Qualidade de Serviço da infraestrutura de TI. Neste cenário, o dinamismo das redes atuais em conjunto com os novos requisitos de QoS exigem que a infra-estrutura de TI seja mais autônoma e confiável. Para tratar esta questão, o modelo de Gerenciamento de Redes Baseado em Políticas, proposto pelo IETF, vem se consolidando como uma abordagem para controlar o comportamento da rede através do controle das configurações dos seus dispositivos. Porém, o foco deste modelo é o gerenciamento de políticas internas a um domínio administrativo. Esta característica faz com que o modelo possua algumas limitações, tais como a incapacidade de estabelecer qualquer tipo de coordenação entre diferentes PDPs e a impossibilidade de reagir a eventos externos. Visando agregar autonomia ao modelo de gerenciamento baseado em políticas, este trabalho propõe uma arquitetura em camadas que empregue os conceitos de Autonomic Computing relacionados a: i) adaptação dinâmica dos recursos gerenciados em resposta às mudanças no ambiente, ii) integração com sistemas de gerenciamento de outros domínios através do recebimento de notificações destes, iii) capacidade de planejar ações de gerenciamento e iv) promoção de ações de gerenciamento que envolvam mais de um domínio administrativo, estabelecendo uma espécie de coordenação entre PDPs. Para a implementação destes conceitos, a arquitetura prevê o uso de uma camada peerto- peer (P2P) sobre a plataforma de políticas. Desta forma, a partir de uma notificação recebida, a camada P2P planeja ações visando adaptar o comportamento da rede aos eventos ocorridos na infra-estrutura de TI. As ações planejadas traduzem-se em inclusões ou remoções de políticas da plataforma de políticas responsável por gerenciar a configuração dos dispositivos de rede. Para notificações que envolvam recursos de mais de um domínio administrativo, os peers de gerenciamento agem de forma coordenada para implantar as devidas ações em cada domínio. A arquitetura proposta foi projetada com foco em prover QoS em uma rede com suporte à DiffServ, embora acredite-se que a sua estrutura seja genérica o bastante para ser aplicada a outros contextos. Como estudo de caso, foi analisado o emprego da arquitetura em resposta a eventos gerados por uma grade computacional. Foi elaborado ainda um protótipo da arquitetura utilizando o Globus Toolkit 4 como fonte de eventos. / Modern corporative systems becoming more dependent of the network and the integration of services around the TCP/IP model increase the requirement of Quality of Service (QoS) of the IT infrastructure. In this scene, the dynamism of current networks together with the new requirements of QoS demands a more autonomous and reliable IT infrastructure. To address this issue, the model of Police Based Network Management, proposed by IETF, has been consolidated as an approach to control the behavior of the network through the control of the configurations of its devices. However, the focus of this model is the management of the policies internal to an administrative domain. This feature brings some limitations to the model, such as the incapacity to establish any kind of coordination between different PDPs and the impossibility to react to external events. Aiming at to add autonomy to the model of Policy Based Network Management, this work proposes a layered architecture based on the concepts of Autonomic Computing related to: i) the dynamic adaptation of the managed resources in response to changes in the environment, ii) integration with management systems of other domains through the reception of notifications of these systems, iii) ability of planning the management actions and iv) execution of multi-domain management actions, establishing a kind of coordination between PDPs. To implement these concepts, the architecture was designed with a peer-to-peer layer above the policy platform. Thus, from a received notification, the P2P layer plans actions aiming to adapt the network behavior in response to the events occurred in the IT infrastructure. The planned actions are, actually, inclusions or removals of policies in the policy platform responsible for the management of the network devices configuration. For notifications related with resources of more than one administrative domain, the management peers act in a coordinated way in order to establish the suitable actions in each domain. The proposed architecture was designed with focus in providing QoS in a network with support to DiffServ, although we believe that its structure is generic enough to be applied to other contexts. As case study, it was analyzed the use of the architecture in response to events generated by a computational grid. Additionally, a prototype of the architecture was build making use of Globus Toolkit 4 as an event source.
|
286 |
Desenvolvimento e análise de desempenho de um 'packet/session filter' / Development and performance analysis of a packet/session filterSpohn, Marco Aurelio January 1997 (has links)
A segurança em sistemas de computação é uma das áreas mais críticas nas ciências da informação. Freqüentemente se ouve falar em alguma "brecha" descoberta em algum sistema. Não importando quão grave seja o problema, já existe certa paranóia em relação a questões de segurança. Esses furos na segurança podem ser explorados de diversas maneiras: para obter benefícios financeiros indevidos, personificação maliciosa a custos de uma pretensa "brincadeira", perda de informações sigilosas, danos em arquivos do sistema, etc. Esses são alguns dos motivos porque se investe cada vez mais em segurança. Como se não bastasse, ainda existem os problemas relativos a legislação: por um lado, o governo pode vir a exigir que a segurança em sistemas de informação seja encarada como um problema federal e impor controle sobre tudo que seja utilizado nos mecanismos de proteção; por outro lado, outros podem reclamar a necessidade de privacidade e liberdade de escolha em problemas relativos a segurança. Os sistemas são, a medida que agregam mais recursos, muito complexos e extensos, propiciando um meio fértil para acúmulo de erros e conseqüentes problemas de segurança. A conectividade alterou a realidade da computação: as redes de computadores estão aí para provar. Entretanto, os sistemas em rede a medida que facilitam a realização de uma série de tarefas também apresentam vulnerabilidades. As redes públicas são um exemplo crítico, pois todas as informações passam por meios não confiáveis sujeitos a alteração ou utilização por terceiros. A Internet talvez represente um dos ambientes mais críticos a nível de segurança. Devido a sua abrangência e velocidade com que cresce, ela é um dos ambientes mais propícios a disseminação e exploração de "furos" de segurança. Existem, entretanto, um esforço constante em desenvolvimento de mecanismos para protegê-la. "Internet Firewalls", são um conjunto de mecanismos utilizados para formar uma barreira de segurança entre a rede interna e a Internet. isolando-a das principais ameaças. Os componentes básicos de um "firewall" são o "packet filter" e o "proxy server". Basicamente, o que esses componentes fazem é uma filtragem dos pacotes. 0 "packet filter", como o nome sugere, faz uma filtragem dos pacotes até o nível de transporte (UDP e TCP). 0 "proxy server" atua como um procurador entre o cliente e o servidor real realizando uma filtragem a nível de aplicação; portanto, é uma tarefa mais apurada. Cada um desses componentes básicos apresentam os seus benefícios à segurança da rede interna. Um dos problemas desses mecanismos, é que eles acarretam em um "overhead" ao sistema, degradando o desempenho. Um "packet filter" tem de ser suficientemente rápido para que não seja o gargalo do sistema. De fato, como é apresentado nesse trabalho, pode-se conseguir um filtro tão rápido quanto necessário. A filtragem dos pacotes é baseada nas regras de filtragem que são elaboradas segundo a política de segurança, a qual estabelece qual o tipo de tráfego que pode existir entre a rede interna e a Internet. Cada pacote que passa pelo filtro é comparado com as regras de filtragem na ordem em que elas foram especificadas pelo administrador. Dependendo do número de regras, e este é um fator relevante porque são em grande número os serviços utilizados na rede, o tempo médio de filtragem aumenta. Uma solução para melhorar o desempenho na filtragem, é realizar a filtragem dos pacotes por sessão ("session filter"). Nesse caso somente se consegue atender aos serviços baseados no TCP (que é orientado a conexão); entretanto, considerando que os serviços mais utilizados na rede são baseados no TCP esse é um mecanismo viável. Na filtragem por sessão apenas o pacote de solicitação de conexão é comparado com a lista de regras de filtragem. Os pacotes subsequentes são verificados junto a uma "cache" de sessões ativas. Caso o pacote pertença a alguma sessão válida ele é passado adiante; caso contrário, ele é descartado. O acesso a "cache" deve ser suficientemente rápido para justificar esse procedimento. Além do ganho em desempenho, o filtro de sessões apresenta a vantagem de monitoramento: todas as sessões ativas entre a rede interna e a Internet estão registradas na "cache". Esta dissertação apresenta o projeto e a implementação de um "Packet/session filter". O filtro foi implementado como um módulo do "kernel" do sistema operacional "FreeBSD". O filtro "ip_fw" disponível como "freeware" na referida plataforma, serviu como referência básica para o desenvolvimento do filtro proposto. O utilitário "ipfw", disponível para gerenciar o filtro de pacotes "ip_fw", foi adaptado para interagir com o filtro desenvolvido. Os testes de desempenho apresentam resultados esperados. Ou seja, o filtro de sessão melhora consideravelmente o processo de filtragem em relação a um filtro convencional. O recurso de monitoramento das sessões ativas também representa uma facilidade a mais no controle e obtenção de estatísticas para o "firewall". / Security in computer systems is one of the most critical areas in "information sciences". Often it is heard something about a new "hole" discovered in some system. No matter how important is such a problem, there is a "paranoia" regarding questions about security. These security holes could be explored in a diversity of ways: to obtain financial benefits, to impersonate somebody to spoofing, to obtain secret informations, to damage to file systems, etc. Those are some of the reasons because so much time and money are spent in security. There are also some problems concerning legislation: government can demand that security in information systems is a federal problem and it can lead to impose control over everything that is used in protection mechanisms; on the other hand, there is the question of privacy and freedom of choice concerning to security. By adding new resources to the systems, the complexity is increase and new bugs and security problems can arise. Connectivity has changed the computer reality: computer networks show that. However, network systems also present weak points. Public networks are a critical example because all information flow by untrusted medias subject to modification or misuse by outsiders. The Internet may be one of the most critical environments concerning security. Because the internet covers almost all the world and grows so fast, it's able to dissiminate "holes" in security. There is, however, a constant effort to develop new mechanisms to protect the Internet, Internet Firewalls are a set of mechanisms used to build a security barrier between the internal network and the internet, maintaining the internal network far away from the main threats. The basic components of a firewall are the packet filter and the proxy server. These two components basically do a packet screening. The "packet filter", as the name suggests, makes a packet filtering up to the transport layer (UDP and TCP). The Proxy Server acts like a proxy between the client and the real server, the proxy does a packet filtering at the application level; therefore, it's a refined task. Each one of these components present their own benefits to the internal network security. A problem of those mechanisms is that they bring an overhead to the system, slowing the performance. A packet filter must be fast enough, otherwise it'll be the bottleneck in the system. The present work slows that, it's possible to obtain a filter as fast as necessary. The packet filtering is based on the filter rules which are prepared following the security policy that establishes what kind of traffic can flow between the internal network and the Internet. Each packet that passes through the filter is compared with the filtering rules to check if it is in the sequence specified by the administrator. Depending on the number of rules, and this is an important issue because there is a great number of services available in the network, the filtering mean time increases. A solution to improve the filtering process is to make the packet filtering by session (session filter). In this case it's only possible to attend to TCP, based services (connection oriented); however, considering that the most used services in the internet are based on TCP this is a feasible mechanism. In the session filtering only the first packet is compared against the filtering rules. The next packets are verified against a session cache. If the packet refers to a valid session it's sent forward; otherwise, it's dropped. The access time to the cache must be fast enough in order to allow applying this procedure. Beyond the performance improvement the session filter presents the advantage of monitoring: all the active sessions are recorded in the "cache". This work presents the project and development of a "packet/session filter". The filter was developed as a kernel module of the operating system "FreeBSD". The filter "ip_fw" available as freeware served as a basic reference to the implementation of the filter here presented. The "ipfw" utility available to manage the "ipfw" packet filter was adapted to interact to the developed filter. The performance benchmark presents expected results. The session filter enhances the filtering process when compared to the conventional packet filter. The monitoring facility also represents an enhancement the control and statistics gathering.
|
287 |
GERAP : gerenciamento de redes de alta performance / GERAP - high performance netwoks managementLima, Maria de Fatima Webber do Prado January 1997 (has links)
Este trabalho apresenta um estudo dos mecanismos de policiamento de tráfego ATM (Asynchronous Transfer Mode) mais conhecidos e uma analise das condições de seu gerenciamento utilizando o protocolo SNMP (Simple Network Management Protocol). Para este fim foram considerados os objetos gerenciados integrantes de MIBs (Management Information Base) propostas por vários grupos de trabalho com o objetivo de averiguar a viabilidade de gerenciar o processo de policiamento de trafego mediante manipulação de tais objetos. Realizando este gerenciamento pode-se acompanhar o estado da rede e utilizar estas informações no planejamento da capacidade da rede, pois muitas vezes, o congestionamento não ocorre apenas por excesso de trafego e sim pelo mau dimensionamento dos componentes da rede de computadores. Foram estudados diversos mecanismos de controle de trafego e congestionamento. Estes mecanismos pertencem basicamente a dois procedimentos sugeridos pelo Fórum ATM: controle dos mecanismos de use/rede e controle de realimentação de fluxo. Os algoritmos estudados no processo de controle dos mecanismos de use/rede foram: balde furado, balde furado virtual, balde furado com memória, janelas saltitantes, janelas deslizantes, contadores de pico, escalonamento virtual, balde furado de estado continuo. No processo de controle de realimentação do fluxo existem dois mecanismos básicos: o credit-based e o rate-based. Como o segundo mecanismo foi melhor aceito internacionalmente, surgiram vários algoritmos que seguiam seus princípios. Entre eles pode-se citar: controle de fluxo baseado na taxa, controle de taxa explicita, VS/VD (Virtual Source Virtual Destination), PRCA (Proportional Rate Control Algorithm), EPRCA (Enhanced Proporcional Rate Control Algorithm), ERICA (Explicit Rate Indication for Congestion Avoidance) e CAPC (Congestion Avoidance using Proportional Control). Este trabalho estuda os dois mecanismos básicos assim como os algoritmos que seguem a filosofia rate-based. As MIBs inspecionadas para este trabalho foram: MIB da RFC 1695 [AHM 94], MIB dos objetos suplementares [LY 96], MIB da especificação UNI 3.1 do Fórum ATM[CHA 96], MIB da interface M4 do Fórum ATM [ATM 96] MIB da empresa Bay Networks [BAY 96] e MIBs da empresa Cisco [WAN 96] [CHA 96a], [GRO 96], [GRO 96a], [RBH 96] e [BAK 96]. Em resultado ao estudo dos mecanismos de controle de trafego e congestionamento e a análise das MIBs selecionadas, foram construídas tabelas que tentam relacionar os parâmetros necessários para controlar os mecanismos de tráfego e congestionamento com os objetos das MIBs selecionadas. A cada parâmetro de controle é verificado se existe um objeto gerenciado ou uma combinação de objetos que podem fornecer o valor do parâmetro. A partir desta análise é verificado se os objetos gerenciados podem monitorar os mecanismos de tráfego e congestionamento. / This work presents a study of the best known ATM traffic policing mechanism and an analysis of management conditions using the SNMP (Simple Network Management Protocol). For this reason the managed objects were considerated pertaining to MIBs (Management Information Base) proposed by many working groups. This work inquires the possibility of managing the traffic policing process using the objects of this selected MIBs. Realizing this management, it can follow the network state and to utilize these informations in the planning of network capacity, because many times, the congestion only not happen for traffic excess but it occurs by worse dimension of the computer networks components. It was studied many traffic and congestion control mechanisms. These mechanisms belong to two procedures proposed by the ATM Forum: usage/network parameter control and feedback control mechanism. The algorithms studied for the usage/network parameter control were: leaky bucket, virtual leaky bucket, buffered leaky bucket, jumping window, moving window, peak counters and generic cell rate algorithm. The feedback control has two variations: credit-based and rate-based. The second mechanism was better accepted internationally, and many algorithms followed its principles. The algorithms were: rate based flow control, explicit rate control, VS/VD (Virtual Source / Virtual Destination), PRCA (Proportional Rate Control Algorithm), EPRCA (Enhanced Proporcional Rate Control Algorithm), ERICA (Explicit Rate Indication for Congestion Avoidance) e CAPC (Congestion Avoidance using Proportional Control). This work studies the two basic mechanism and the rate-based algorithms. The inspected MIBs for this work were: RFC I695's MIB [AHM 94], definitions of supplemental managed objects for ATM management [LY 96], ATM Forum ATM UNI 3.1 Specification's MIB [CHA 96], ATM Forum M4 interface's MIB [ATM 96] , Bay Networks enterprise's MIB [BAY 96] and Cisco enterprise's MIB [WAN 96] [CHA 96a], [GRO 96], [GRO 96a], [RBH 96] e [BAK 96]. As a result of the study of the traffic and congestion control mechanisms and the analysis of selected MIBs, table were built that try to relate the necessary parameters to control traffic and congestion mechanisms with the managed objects. Each control parameter is examined if it has a managed object or a object arrangement that can supply the parameter value. This analysis will verify if managed objects can control traffic and congestion control.
|
288 |
Survivor : estratégias de posicionamento de controladores orientadas à sobrevivência em redes definidas por software / Survivor : enhanced controller placement strategies for improving sdn survivabilityMüller, Lucas Fernando January 2014 (has links)
O paradigma SDN simplifica o gerenciamento da rede ao concentrar todas as tarefas de controle em uma única entidade, o controlador. Nesse modo de operação, os dispositivos de encaminhamento só funcionam de forma completa enquanto conectados a um controlador. Neste contexto, a literatura recente identificou questões fundamentais, como o isolamento de dispositivos em função de disrupções na rede e a sobrecarga de um controlador, e propôs estratégias de posicionamento do controlador para enfrentá-las. Contudo, as propostas atuais têm limitações cruciais: (i) a conectividade dispositivo-controlador é modelada usando um único caminho, ainda que na prática possam ocorrer múltiplas conexões concorrentes; (ii) alterações no comportamento da chegada de novos fluxos são manipulados sob demanda, assumindo que a rede em si pode sustentar altas taxas de requisição; e (iii) mecanismos de recuperação de falhas requerem informações pré-definidas, que, por sua vez, não são otimizadas. Esta dissertação apresenta Survivor, uma nova abordagem de posicionamento do controlador para redes WAN que visa enfrentar esses desafios. A abordagem trata três aspectos de forma explícita durante o projeto da rede: a conectividade, a capacidade e a recuperação. Além disso, tais aspectos são planejados para dois estados distintos da rede: pré e pós-disrupção. Em outras palavras, a rede é configurada da melhor forma tanto para operação normal, quanto para operação após eventos de disrupção. Para este fim, a abordagem é dividida em duas etapas. A primeira define o posicionamento de instâncias do controlador, enquanto a segunda especifica uma lista de controladores de backup para cada dispositivo na rede. Ademais, são desenvolvidas duas estratégias com base na abordagem Survivor. A primeira, implementada em Programação Linear Inteira, garante uma solução ótima a um custo computacional alto. A segunda, implementada através de heurísticas, fornece soluções sub-ótimas a um custo computacional muito mais baixo. Comparações com o estado-da-arte mostram que a abordagem Survivor provê ganhos significativos na sobrevivência (identificado na probabilidade mais baixa de perda de conectividade) e no estado convergente da rede através de mecanismos de recuperação mais inteligentes. / The SDN paradigm simplifies network management by focusing all control tasks into a single entity, the controller. In this way, forwarding devices can only operate correctly while connected to a logically centralized controller. Within this context, recent literature identified fundamental issues, such as device isolation due to disruptions in the network and controller overload, and proposed controller placement strategies to tackle them. However, current proposals have crucial limitations: (i) device-controller connectivity is modeled using single paths, yet in practice multiple concurrent connections may occur; (ii) peaks in the arrival of new flows are only handled on-demand, assuming that the network itself can sustain high request rates; and (iii) failover mechanisms require predefined information which, in turn, has been overlooked. This dissertation presents Survivor, a novel controller placement approach for WAN networks that addresses these challenges. The approach explicitly considers the following three aspects in the network design process: connectivity, capacity and recovery. Moreover, these aspects are planned for two distinct states of the network: pre and postdisruption. In other words, the network is configured optimally for both normal operation and for operation after disruption events. To this end, the approach is divided into two steps. The first defines the positioning of the controller instances, and the second specifies a list of backup controllers for each device on the network. Moreover, two strategies based on Survivor are developed. The first strategy, implemented with Integer Linear Programming, guarantees an optimal solution with a high computational cost. The second strategy, implemented using heuristics, provides sub-optimal solutions with a much lower computational cost. Comparisons to the state-of-the-art show that the Survivor approach provides significant increases in network survivability (identified with the lowest probability of connectivity loss) and converged network state through smarter recovery mechanisms.
|
289 |
Network programming as a service : an innovation friendly business model / Programabilidade de redes como serviço : um modelo de negócios propício à inovaçãoJesus, Wanderson Paim de January 2014 (has links)
As redes de computadores têm evoluído para acomodar uma grande variedade de serviços, tais como streaming de vídeos de alta qualidade e entrega de conteúdo sensível a atrasos. Estes serviços têm aumentado a demanda por recursos não originalmente considerados na Internet. Com a promessa de atender novas demandas de rede rapidamente, pesquisadores propuseram Redes Programáveis, nas quais o comportamento dos dispositivos de rede pode ser alterado utilizando aplicativos. Entretanto, tal comportamento pode não ser um consenso entre usuários da rede. O surgimento de Redes Virtualizadas superou tal questão, ao permitir a coexistência de múltiplas redes virtuais sobre a mesma infraestrutura física. A fim de se obter redes virtuais isoladas com comportamento programável, foram propostas as Redes Virtuais Programáveis (RVP). Diante dessa nova realidade, os administradores de rede não estão mais olhando unicamente para dispositivos de rede. Eles estão olhando para um sistema composto de dispositivos e aplicativos de rede que definem o comportamento individual de cada rede virtual. Isso requer não apenas novas ferramentas e abordagens de gerenciamento, além disso, exige a revisão de conceitos tradicionais sobre redes. Implementações de RVP são encontradas principalmente em testbeds e ambientes de Computação em Nuvem. Testbeds são muito propícios à inovação, mas possuem fortes limitações no que diz respeito a migração de soluções experimentais para produção. Por outro lado, computação em nuvem é um ótimo ambiente de produção, mas possui restrições de flexibilidade e inovação, uma vez que as soluções de rede adotadas geralmente são proprietárias. Portanto, nesta dissertação introduz-se um novo modelo de negócio que permite a criação de soluções inovadoras em ambientes de produção, a Programabilidade de Redes como um Serviço (NPaaS). Diferente do modelo de negócio de redes tradicionais, onde os usuários finais são apenas consumidores dos serviços de rede já disponíveis, em NPaaS os usuários finais também são capazes de desenvolver e implantar novas soluções de rede. Para apoiar NPaaS, propõe-se uma plataforma de gerenciamento de rede virtual programável, chamada ProViNet. Essa plataforma fornece a arquitetura de software e estratégias necessárias para permitir a implantação e gestão NPaaS. Uma avaliação qualitativa do modelo de negócio NPaaS foi realizada, o resultado foi contrastado com alguns dos modelos de negócio praticados atualmente. Assim, enfatizando a singularidade do NPaaS. Enquanto isso, uma avaliação experimental foi realizada para demonstrar a viabilidade da plataforma ProViNet. Os resultados mostraram que NPaaS representa uma alternativa promissora para ambientes de rede virtual com acesso público, como as nuvens públicas. Além disso, uma avaliação quantitativa do protótipo da plataforma demonstrou a viabilidade técnica e provou que aplicativos de rede desenvolvidos usando BPMN são capazes de executar com desempenho aceitáveis. / Computer networks have evolved to accommodate a wide variety of services, such as streaming of high quality videos and delay-sensitive content delivery. These services have increased the demand for features not originally considered in the Internet. Aiming to address novel network demands quickly, some researchers proposed Programmable Networks, in which network devices behavior can be changed using applications. Notwithstanding, such behavior might not be a consensus between computer network stakeholders. The emergence of Virtualized Networks overcame this issue by allowing the coexistence of multiple virtual networks on the same physical infrastructure. Finally, the convergence of programmability and virtualization techniques are explored within a third concept, the Programmable Virtual Networks (PVN). Faced with this new reality, network administrators are no longer just looking at network devices. They are looking at a system made of virtual devices and applications that define each virtual network behavior. This requires not just new tools and management approaches, over and above that, requires new thinking. PVN deployments are found mostly in shared experimental facilities (also known as testbeds) and Cloud Computing environments. Testbeds are very innovation friendly, but with strong limitations in regards to taking experimental solutions to production. On the other hand, Cloud computing is a great production environment, but presents flexibility and innovation restrictions once network solutions adopted are usually proprietary. Therefore, in this dissertation it is introduced Network Programming as a Service (NPaaS), a new business model that aims to facilitate the conduct of innovative solutions for production environments. Different from traditional network business models, where end-users are just consumers of network services already available, in NPaaS, end-users are also able to develop and deploy novel network solutions. To support NPaaS, Programmable Virtual Network management platform is proposed. Such platform, named ProViNet, provides all architectural and technical features necessary to enable NPaaS deployment and management. A qualitative evaluation of the NPaaS business model was performed, and the result was contrasted with some of the current models, thus, emphasizing the singularity of NPaaS. In the meanwhile, an experimental evaluation was conducted to demonstrate the feasibility of ProViNet platform. Results have shown that NPaaS represent a promising alternative for virtual network environments with public access such as public clouds. Moreover, a quantitative evaluation of the platform prototype demonstrated the technical feasibility and proved that network applications developed using BPMN are able to run with acceptable performance rates.
|
290 |
A management by delegation smart object aware system for the internet of thingsMarotta, Marcelo Antonio January 2013 (has links)
Os objetos inteligentes (SObjs) são numerosos e irão comunicar-se diretamente através da Internet das Coisas (IoT). Esse grande número de SObjs, pode levar a IoT a enfrentar severas condições de rede, em termos de congestionamento na rede e atrasos na comunicação fim-a-fim. Assim, o gerenciamento de SObjs torna-se fundamental para evitar futuros problemas da IoT. Em tal gerenciamento, switches, network-boxes e roteadores, também chamados de gateways, são configurados para gerenciar SObjs através de reconfigurações e atualizações de software seguidas por reinicializações nos gateways. Entretanto, a dinamicidade da IoT, causa a necessidade de se reconfigurar os gateways frequentemente, i.e., a configuração vigente dos gateways torna-se rapidamente desatualizadas por lidar a todo momento com a entrada e saída de novos SObjs da rede. Assim, propõe-se uma abordagem chamada Management by Delegation Smart Object Aware System (MbDSAS), para reconfigurar gateways e gerenciar SObjs, sem a necessidade de uma atualização de software ou aplicação de patches, lidando com a dinamicidade da rede IoT. MbDSAS foi prototipado e uma avaliação foi realizada, através de um cenário, onde o fluxo de dispositivos existentes se assemelha com o de um aeroporto. Em adição, MbDSAS foi testado experimentalmente, em termos de desempenho, para avaliar sua qualificação como uma solução de gerenciamento para cenários da IoT e determinar a melhor combinação de tecnologias para implementar essa solução. Os resultados encontrados mostram que MbDSAS desempenha melhor quando desenvolvida com uma arquitetura de acesso baseada em recursos e através do uso de um módulo Open Service Gateway initiative (OSGi). MbDSAS quando comparada a um sistema de gerenciamento tradicional, se mostra superior em termos de consumo de memória e processamento, se classificando como uma importante solução para o gerenciamento de SObjs da IoT. / The smart objects (SObjs) are numerous and will communicate directly through the Internet of Things (IoT). Such huge number of SObjs may lead the IoT to face severe network conditions, in terms of network congestion and large delays. Thus, the management of SObjs is fundamental to avoid future IoT network problems. In such a management, network boxes, also called gateways, have been configured to manage SObjs with software updates or reconfiguration followed by a warm start. However, gateways configuration become soon outdated because SObjs join and leave the network quite frequently. Therefore, we propose an approach called MbDSAS to reconfigure gateways without the need of a software updating or patching to manage and detect SObjs and deal with the dynamicity of the IoT network. An evaluation of MbDSAS was performed through an airport modeled scenario. In addition, MbDSAS was experimentally tested to be qualified as a management solution to IoT scenarios and to determine the best performance combination of technologies to implement MbDSAS. The results shown that MbDSAS has its performance improved when developed with an architecture based on resources and through the use of a module textit Open Service Gateway Initiative (OSGi). Mb- DSAS when compared to a traditional management system shows superior in terms of memory consumption and processing, being classified as an important solution for the managing of SObjs from the IoT.
|
Page generated in 0.0761 seconds