1 |
Avaliaçao experimental de ferramentas para mediçao de largura de bandaAugusto, Mário Ezequiel, Murta, Cristina Duarte 25 October 2010 (has links)
No description available.
|
2 |
Detecção de alterações de conteúdo em Redes P2P para transmissões de mídia contínua ao vivoSchimidt, Emanuel Amaral 05 December 2011 (has links)
Resumo: E notável o crescente uso da Internet para a transmissão de vídeos, sejam eles estáticos, com conteúdo previamente armazenado, ou dinâmicos, com conteúdo gerado ao vivo, no momento de sua exibição. Enquanto em transmissães estáticas pode-se carregar completamente o conteúdo e assisti-lo sem saltos, em uma transmissão dinâmica essa característica é impraticável. As redes peer-to-peer (P2P) têm sido cada vez mais utilizadas para transmissões de mídias contínuas ao vivo. Um servidor fonte é responsável pela inserção inicial dos dados na rede. Cada usuário que está acompanhando a ransmissão, também chamado de peer, repassa os dados recebidos para outros usuários, ou seja, cada peer participante compartilha com os demais o conteúdo que possui. Essa estratégia diminui otencialmente a carga sobre o servidor fonte que realiza a transmissão. Como os usuários são esponsáveis pela difusão dos dados, um problema surge: a poluição de conteúdo. Um dado fica poluído quando, intencionalmente ou não, algum usuário repassa conteúdo incorreto para seus vizinhos, ou seja, um conteúdo diferente daquele gerado pelo fonte. O presente trabalho expõe uma nova solução para a detecção de alterações de conteúdo utilizando o diagnóstico baseado em comparações. Para realizar o diagnóstico, os participantes da rede P2P executam comparações sobre o conteúdo recebido de seus vizinhos. O resultado destas comparações permite a classificação dos peers em conjuntos com o objetivo de detectar se há poluição de conteúdo e quem são os peers poluídos. Essa estratégia foi implementada no Fireflies, um protocolo escalável para redes overlai tolerante a intrusões. Os resultados obtidos através de experimentos de simulação demonstraram que essa estratégia é viável para a detecção de alterações no conteúdo transmitido entre os usuários, além de apresentar baixa sobrecarga no tráfego da rede.
|
3 |
Assinalamentos de testes para um algoritmo de diagnóstico em nível de sistema para redes de sensores sem fioKutzke, Alexander Robert 20 June 2011 (has links)
Resumo: Este trabalho se propõe a comparar três abordagens de construção de assinalamentos de testes para um algoritmo de diagnóstico em nível de sistema. As abordagens apresentadas visam o problema da detecção de alarmes falsos (falsos positivos) em uma rede de sensores sem ó onde os sensores monitoram o ambiente com o objetivo de gerar alarmes sobre a ocorrência de determinados eventos. Considere uma rede de sensores onde um conjunto de t sensores próximos geograficamente enviam sinais de alarme a uma unidade central da rede, com maior capacidade de processamento, chamada sink, informando a detecção de determinado fenômeno. Para garantir que os alarmes gerados não são falsos, o sink solicita a execução de testes mútuos entre os sensores presentes na região que contém os nodos que reportaram os alarmes. O resultado dos testes é enviado ao sink que, então, utiliza um algoritmo de diagnóstico em nível de sistema para identificar os sensores falhos. O algoritmo de diagnóstico é bem sucedido na execução desta tarefa se os testes executados pelos sensores são suficientes para alcançar determinada diagnosticabilidade do sistema, a qual depende de propriedades topológicas da rede de sensores e de certas condições presentes na literatura para formar assinalamentos de teste t-diagnosticáveis. Este trabalho apresenta três estratégias de testes que asseguram que a iagnosticabilidade desejada para o sistema seja alcançada com um consumo minimizado de energia. Resultados experimentais avaliam o comportamento das estratégias e comparam o consumo de energia apresentado entre elas em redes com diferentes topologias e densidades, com diferentes valores de t e com variações na distância entre os sensores que geram alarmes.
|
4 |
Um protocolo ALM baseado em desigualdade triangular para distribuição de conteúdoHuzioka, Daniel Tetsuo 26 November 2010 (has links)
Resumo: A comunicação por difusão seletiva, ou multicast, permite que uma única transmissão seja feita para um grupo de destinatários. Aplicações de distribuição de conteúdo em larga escala na Internet demandam este tipo de comunicação. Por não haver amplo suporte à comunicação multicast na camada de rede da Internet, alguns protocolos (chamados protocolos ALM Application Layer Multicast) simulam a camada de rede através de redes sobrepostas na camada de aplicação, permitindo o uso da comunicação multicast sobre essas redes. Neste trabalho apresentamos o PALMS, um protocolo ALM voltado para a distribuição de contedo conteínuo proveniente de uma única fonte. Os objetivos principais do PALMS são a distribuição de conteúdo utilizando poucas mensagens de controle e a possibilidade de implantação na estrutura atual da Internet. A arquitetura do PALMS consiste de um servidor responsável pela geração de conteúdo, um tracker responsável pelo auxílio a entrada de nós na rede e pelos peers, que além de consumirem o conteúdo também são responsáveis por propaga-lo pela rede. Os peers se organizam em grupos, e acordos de compartilhamento nos grupos determinam de quem o peer recebe e para quais peers o uxo deve ser transmitido.O PALMS conta com um mecanismo que permite aos peers realizarem trocas de acordos além de diminuir o tempo de recebimento do conteúdo. Este mecanismo utiliza o round-trip-time (RTT) entre os peers, e baseia-se no conceito de desigualdades triangulares. Quando um peer atesta que, ao trocar os acordos de recebimento e transmissão com seu peer transmissor, o tempo de recebimento das mensagens diminui, os acordos são trocados assim como e as posições dos peers no grupo. O protocolo foi implementado no simulador PeerSIM utilizando a linguagem Java, e comparado a outros protocolos de distribuição de conteúdo. Experimentos demonstram que, além do PALMS apresentar-se como uma solução factível na Internet hoje, ele também utiliza menor largura de banda para mensagens de controle que as alternativas apresentadas.
|
5 |
Gerencia confiável de redes locais baseada em diagnóstico distribuídoBona, Luis Carlos Erpen de 07 February 2011 (has links)
Resumo: Este trabalho apresenta uma ferramenta para gerência confiável de redes baseada em diagnóstico distribuído. A ferramenta utiliza os serviços do protocolo de gerência SNMP (Simple Network Management Protocol) e implementa o algoritmo Hi-ADSD with Timestamps. A ferramenta é composta por um sistema onde múltiplos agentes SNMP, executando o algoritmo de diagnóstico distribuído, monitoram a si mesmos e a um conjunto de serviços e dispositivos da rede. A estratégia para garantir a monitoração destes serviços e dispositivos de redes no algoritmo Hi-ADSD with Timestamps é uma contribuição deste trabalho. A MIB (Management Information Base) chamada Test-MIB é especificada neste trabalho, esta MIB é implementada por cada unidade da ferramenta e fornece as estruturas utilizadas pelo algoritmo de diagnóstico. A Test-MIB também permite a definição de procedimentos de testes específicos para os elementos de rede monitorados. As informações obtidas pela ferramenta são disponíveis através da MIB, que pode ser acessada através de aplicações SNMP ou através de uma interface Web. Resultados práticos apresentados incluem a utilização da ferramenta para monitorar uma rede local. Um servidor Web tolerante a falhas usando a ferramenta de diagóstico também é apresentado.
|
6 |
Uma metodologia de avaliação de desempenho de sistemas Peer-To-Peer baseados em tabelas Hash DistribuídasZanoni, Paulo Ricardo 09 December 2011 (has links)
Resumo: As tabelas hash distribuídas (DHTs, distributed hash tables) são redes par-a-par (P2P, peer-to-peer) estruturadas que permitem a inserção de dados indexados por chaves. Elas são compostas por um conjunto de participantes (nodos ou pares) dinâmicos sem o controle de uma autoridade central. As DHTs tornaram-se populares ao longo da última década e hoje possuem diversas aplicações, algumas contendo milhões de nodos espalhados ao redor do planeta. Existe uma grande quantidade de DHTs, as quais podem possuir várias implementações e serem configuradas através de diversos parâmetros. Entretanto, não há um consenso sobre a melhor maneira de avaliar o desempenho de uma DHT, o que dificulta a comparação entre o grande número de DHTs existentes e, consequentemente, a escolha da DHT ideal para cada sistema. Esta dissertação apresenta uma revisão de trabalhos que propõem metodologias de avaliação de desempenho de DHTs e de trabalhos que simplesmente avaliam desempenho de DHTs, sem propor metodologias. Com base nesta revisão uma nova metodologia de avaliação de desempenho de DHTs é proposta. Esta metodologia define um conjunto de testes de desempenho composto por métricas e cargas de trabalho. Estas métricas e cargas de trabalho são baseadas nos pontos em comum encontrados nos diversos trabalhos estudados. A metodologia apresentada define também um modelo para a execução de avaliações de desempenho de DHTs composto por três entidades: mestre, controlador e nodo. Este trabalho apresenta também a ferramenta Dhtperf, que além de implementar a metodologia proposta permite facilmente a definição de novas métricas e cargas de trabalho. Esta ferramenta foi utilizada para realizar avalia- ções de desempenho de diversas DHTs existentes em dois ambientes distintos, validando a metodologia proposta. Os resultados obtidos nas avaliações realizadas são apresentados e discutidos.
|
7 |
Uma estratégia para diagnóstico distribuído de redes de topologia arbitráriaSiqueira, Jadson Igor 10 February 2011 (has links)
Resumo: Considere um sistema formado por nodos interconectados por enlaces. Tanto os nodos quanto os enlaces podem assumir o estado falho ou sem-falha. Os algoritmos de diagnóstico distribuido têm como objetivo a identificação dos estados dos componentes de um sistema a partir de seus nodos sem-falha. O algoritmo NBND (Non-Broadcast Network Diagnosis) permite o diagnóstico distribuido de eventos em redes de topologia arbitrária. Através de testes periódicos, novos eventos são detectados e posteriormente propagados para os demais nodos. Com base no estado dos enlaces da rede, é possível executar, a partir de qualquer ponto da rede, um algoritmo de conectividade para descobrir quais nodos estão acessíveis e quais estão inacessíveis. O SNMP {Simple Network Management Protocolí) é o protocolo padrão utilizado na Internet para gerência de redes. O SNMP trabalha com informações organizadas numa estrutura hierárquica chamada MIB (.Management Information Base). Neste trabalho uma nova versão do algoritmo NBND é proposta e descrita formalmente. Um sistema distribuído de monitoramento de redes com agentes SNMP baseado no algoritmo NBND para diagnóstico de redes de topologia arbitrária é proposto e sua implementação é descrita, incluindo a NBND MIB, utilizada pelos agentes. Este trabalho traz, ainda, resultados experimentais da utilização do sistema de monitoramento na detecção de falhas em enlaces de duas topologías de rede: hipercubo e anel.
|
8 |
Sistemas de gerenciamento de chaves públicas baseado em virtualização para redes AD HOC móveisSilva, Renan Fischer e 14 March 2011 (has links)
Resumo: MANETs (Mobile Ad Hoc Networks) são redes sem fio e sem infra-estrutura estabelecidas dinamicamente, sem a necessidade de uma administração centralizada. Devido ao roteamento distribuído nessas redes e ao meio de comunicação sem fio redes Ad Hoc podem apresentar todos os problemas de segurança existentes em redes convencionais e ainda novos desafios. O uso de criptografia é a principal técnica para garantir a transferência de dados em uma rede de forma segura. Nos sistemas criptográficos assimétricos, os nós utilizam uma chave para cifrar uma mensagem e outra chave para decifrar a mesma. A tarefa de administrar essas chaves é realizada por um Sistema de Gerenciamento de Chaves, que define a emissão, o armazenamento, a distribuição, a proteção e a revogação das mesmas. Esse trabalho apresenta um novo Sistema de Gerenciamento de chaves baseado em Virtualização. Nesse sistema, chamado de Virtual Key Management (VKM), ´e utilizado uma estrutura virtual, sem qualquer relação com as coordenadas físicas dos nós da rede, para estabelecer a confiança entre os mesmos. Dessa forma, os nós seguem as regras estabelecidas por essa estrutura para realizar a emissão, o armazenamento, a distribuição, a proteção e a revogação de chaves públicas e de chaves privadas na rede. O VKM é 100% resistente a ataques de Criação de Identidades Falsas. Quando comparado com o Sistema de Gerenciamento de Chaves Públicas Auto-organizado (PGP-Like), o VKM mostra maior resistência contra ataques de Personificação e a mesma resistência contra ataques de Falta de Cooperação. Quando comparado com o Group-based Key Management (GKM), o VKM mostra maior resistência contra ataques de Criação de Identidades Falsas por ser 100% resistente ao mesmo. O Virtual Routing Protocol (VRP) e o Virtual Distance Vector (VDV) são dois protocolos de roteamento híbridos que utilizam uma estrutura virtual para definir a parte pró-ativa do protocolo. Esse trabalho também mostra que o impacto no roteamento causado pela incorporação do VKM nesses protocolos de roteamento causa queda na taxa de entrega de dados, aumento do atraso no envio de mensagens e aumento da sobrecarga gerada na rede.
|
9 |
HidraGomes, Everaldo 29 November 2010 (has links)
Resumo: A integridade dos documentos armazenados em dispositivos eletrônicos no longo prazo é garantida pelo arquivamento digital. Comumente, as redes Peer-to-Peer (P2P) são utilizadas nessa tarefa, pois elas permitem a construção de sistemas escaláveis e tolerantes á falhas. Além disso, técnicas de replicação e auditoria dos objetos armazenados são utilizadas na contenção das ameaças à integridade dos dados. Neste trabalho é proposto o modelo de arquivamento digital confiável Hidra, que utiliza algumas premissas inicialmente propostas por Vignatti[1][2]: o arquivamento digital ´e distribuído, utilizando máquinas com confiabilidades distintas; uma confiabilidade desejada, informada para cada documento, é garantida através de replicação; e através das múltiplas hashes de um documento são determinadas as máquinas que podem ser selecionadas para receber réplicas. Hidra utiliza uma nova estratégia de seleção de repositórios para a inserção de réplicas e propõe um novo procedimento de auditoria periódica responsável pela verificação da integridade e recuperação das réplicas falhas com o passar do tempo. Um protótipo não-funcional foi implementado num simulador de redes P2P e os resultados experimentais da inserção e auditoria dos documentos digitais são apresentados na avaliação do modelo.
|
Page generated in 0.0358 seconds