• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • Tagged with
  • 11
  • 11
  • 9
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Avaliaçao experimental de ferramentas para mediçao de largura de banda

Augusto, Mário Ezequiel, Murta, Cristina Duarte 25 October 2010 (has links)
No description available.
2

Detecção de alterações de conteúdo em Redes P2P para transmissões de mídia contínua ao vivo

Schimidt, Emanuel Amaral 05 December 2011 (has links)
Resumo: E notável o crescente uso da Internet para a transmissão de vídeos, sejam eles estáticos, com conteúdo previamente armazenado, ou dinâmicos, com conteúdo gerado ao vivo, no momento de sua exibição. Enquanto em transmissães estáticas pode-se carregar completamente o conteúdo e assisti-lo sem saltos, em uma transmissão dinâmica essa característica é impraticável. As redes peer-to-peer (P2P) têm sido cada vez mais utilizadas para transmissões de mídias contínuas ao vivo. Um servidor fonte é responsável pela inserção inicial dos dados na rede. Cada usuário que está acompanhando a ransmissão, também chamado de peer, repassa os dados recebidos para outros usuários, ou seja, cada peer participante compartilha com os demais o conteúdo que possui. Essa estratégia diminui otencialmente a carga sobre o servidor fonte que realiza a transmissão. Como os usuários são esponsáveis pela difusão dos dados, um problema surge: a poluição de conteúdo. Um dado fica poluído quando, intencionalmente ou não, algum usuário repassa conteúdo incorreto para seus vizinhos, ou seja, um conteúdo diferente daquele gerado pelo fonte. O presente trabalho expõe uma nova solução para a detecção de alterações de conteúdo utilizando o diagnóstico baseado em comparações. Para realizar o diagnóstico, os participantes da rede P2P executam comparações sobre o conteúdo recebido de seus vizinhos. O resultado destas comparações permite a classificação dos peers em conjuntos com o objetivo de detectar se há poluição de conteúdo e quem são os peers poluídos. Essa estratégia foi implementada no Fireflies, um protocolo escalável para redes overlai tolerante a intrusões. Os resultados obtidos através de experimentos de simulação demonstraram que essa estratégia é viável para a detecção de alterações no conteúdo transmitido entre os usuários, além de apresentar baixa sobrecarga no tráfego da rede.
3

Compressão sem perdas de projeções de tomografia computadorizada usando a transformada Wavelet

Sanches, Ionildo José 27 October 2010 (has links)
No description available.
4

Assinalamentos de testes para um algoritmo de diagnóstico em nível de sistema para redes de sensores sem fio

Kutzke, Alexander Robert 20 June 2011 (has links)
Resumo: Este trabalho se propõe a comparar três abordagens de construção de assinalamentos de testes para um algoritmo de diagnóstico em nível de sistema. As abordagens apresentadas visam o problema da detecção de alarmes falsos (falsos positivos) em uma rede de sensores sem ó onde os sensores monitoram o ambiente com o objetivo de gerar alarmes sobre a ocorrência de determinados eventos. Considere uma rede de sensores onde um conjunto de t sensores próximos geograficamente enviam sinais de alarme a uma unidade central da rede, com maior capacidade de processamento, chamada sink, informando a detecção de determinado fenômeno. Para garantir que os alarmes gerados não são falsos, o sink solicita a execução de testes mútuos entre os sensores presentes na região que contém os nodos que reportaram os alarmes. O resultado dos testes é enviado ao sink que, então, utiliza um algoritmo de diagnóstico em nível de sistema para identificar os sensores falhos. O algoritmo de diagnóstico é bem sucedido na execução desta tarefa se os testes executados pelos sensores são suficientes para alcançar determinada diagnosticabilidade do sistema, a qual depende de propriedades topológicas da rede de sensores e de certas condições presentes na literatura para formar assinalamentos de teste t-diagnosticáveis. Este trabalho apresenta três estratégias de testes que asseguram que a iagnosticabilidade desejada para o sistema seja alcançada com um consumo minimizado de energia. Resultados experimentais avaliam o comportamento das estratégias e comparam o consumo de energia apresentado entre elas em redes com diferentes topologias e densidades, com diferentes valores de t e com variações na distância entre os sensores que geram alarmes.
5

Um protocolo ALM baseado em desigualdade triangular para distribuição de conteúdo

Huzioka, Daniel Tetsuo 26 November 2010 (has links)
Resumo: A comunicação por difusão seletiva, ou multicast, permite que uma única transmissão seja feita para um grupo de destinatários. Aplicações de distribuição de conteúdo em larga escala na Internet demandam este tipo de comunicação. Por não haver amplo suporte à comunicação multicast na camada de rede da Internet, alguns protocolos (chamados protocolos ALM Application Layer Multicast) simulam a camada de rede através de redes sobrepostas na camada de aplicação, permitindo o uso da comunicação multicast sobre essas redes. Neste trabalho apresentamos o PALMS, um protocolo ALM voltado para a distribuição de contedo conteínuo proveniente de uma única fonte. Os objetivos principais do PALMS são a distribuição de conteúdo utilizando poucas mensagens de controle e a possibilidade de implantação na estrutura atual da Internet. A arquitetura do PALMS consiste de um servidor responsável pela geração de conteúdo, um tracker responsável pelo auxílio a entrada de nós na rede e pelos peers, que além de consumirem o conteúdo também são responsáveis por propaga-lo pela rede. Os peers se organizam em grupos, e acordos de compartilhamento nos grupos determinam de quem o peer recebe e para quais peers o uxo deve ser transmitido.O PALMS conta com um mecanismo que permite aos peers realizarem trocas de acordos além de diminuir o tempo de recebimento do conteúdo. Este mecanismo utiliza o round-trip-time (RTT) entre os peers, e baseia-se no conceito de desigualdades triangulares. Quando um peer atesta que, ao trocar os acordos de recebimento e transmissão com seu peer transmissor, o tempo de recebimento das mensagens diminui, os acordos são trocados assim como e as posições dos peers no grupo. O protocolo foi implementado no simulador PeerSIM utilizando a linguagem Java, e comparado a outros protocolos de distribuição de conteúdo. Experimentos demonstram que, além do PALMS apresentar-se como uma solução factível na Internet hoje, ele também utiliza menor largura de banda para mensagens de controle que as alternativas apresentadas.
6

Gerencia confiável de redes locais baseada em diagnóstico distribuído

Bona, Luis Carlos Erpen de 07 February 2011 (has links)
Resumo: Este trabalho apresenta uma ferramenta para gerência confiável de redes baseada em diagnóstico distribuído. A ferramenta utiliza os serviços do protocolo de gerência SNMP (Simple Network Management Protocol) e implementa o algoritmo Hi-ADSD with Timestamps. A ferramenta é composta por um sistema onde múltiplos agentes SNMP, executando o algoritmo de diagnóstico distribuído, monitoram a si mesmos e a um conjunto de serviços e dispositivos da rede. A estratégia para garantir a monitoração destes serviços e dispositivos de redes no algoritmo Hi-ADSD with Timestamps é uma contribuição deste trabalho. A MIB (Management Information Base) chamada Test-MIB é especificada neste trabalho, esta MIB é implementada por cada unidade da ferramenta e fornece as estruturas utilizadas pelo algoritmo de diagnóstico. A Test-MIB também permite a definição de procedimentos de testes específicos para os elementos de rede monitorados. As informações obtidas pela ferramenta são disponíveis através da MIB, que pode ser acessada através de aplicações SNMP ou através de uma interface Web. Resultados práticos apresentados incluem a utilização da ferramenta para monitorar uma rede local. Um servidor Web tolerante a falhas usando a ferramenta de diagóstico também é apresentado.
7

Uma metodologia de avaliação de desempenho de sistemas Peer-To-Peer baseados em tabelas Hash Distribuídas

Zanoni, Paulo Ricardo 09 December 2011 (has links)
Resumo: As tabelas hash distribuídas (DHTs, distributed hash tables) são redes par-a-par (P2P, peer-to-peer) estruturadas que permitem a inserção de dados indexados por chaves. Elas são compostas por um conjunto de participantes (nodos ou pares) dinâmicos sem o controle de uma autoridade central. As DHTs tornaram-se populares ao longo da última década e hoje possuem diversas aplicações, algumas contendo milhões de nodos espalhados ao redor do planeta. Existe uma grande quantidade de DHTs, as quais podem possuir várias implementações e serem configuradas através de diversos parâmetros. Entretanto, não há um consenso sobre a melhor maneira de avaliar o desempenho de uma DHT, o que dificulta a comparação entre o grande número de DHTs existentes e, consequentemente, a escolha da DHT ideal para cada sistema. Esta dissertação apresenta uma revisão de trabalhos que propõem metodologias de avaliação de desempenho de DHTs e de trabalhos que simplesmente avaliam desempenho de DHTs, sem propor metodologias. Com base nesta revisão uma nova metodologia de avaliação de desempenho de DHTs é proposta. Esta metodologia define um conjunto de testes de desempenho composto por métricas e cargas de trabalho. Estas métricas e cargas de trabalho são baseadas nos pontos em comum encontrados nos diversos trabalhos estudados. A metodologia apresentada define também um modelo para a execução de avaliações de desempenho de DHTs composto por três entidades: mestre, controlador e nodo. Este trabalho apresenta também a ferramenta Dhtperf, que além de implementar a metodologia proposta permite facilmente a definição de novas métricas e cargas de trabalho. Esta ferramenta foi utilizada para realizar avalia- ções de desempenho de diversas DHTs existentes em dois ambientes distintos, validando a metodologia proposta. Os resultados obtidos nas avaliações realizadas são apresentados e discutidos.
8

Uma estratégia para diagnóstico distribuído de redes de topologia arbitrária

Siqueira, Jadson Igor 10 February 2011 (has links)
Resumo: Considere um sistema formado por nodos interconectados por enlaces. Tanto os nodos quanto os enlaces podem assumir o estado falho ou sem-falha. Os algoritmos de diagnóstico distribuido têm como objetivo a identificação dos estados dos componentes de um sistema a partir de seus nodos sem-falha. O algoritmo NBND (Non-Broadcast Network Diagnosis) permite o diagnóstico distribuido de eventos em redes de topologia arbitrária. Através de testes periódicos, novos eventos são detectados e posteriormente propagados para os demais nodos. Com base no estado dos enlaces da rede, é possível executar, a partir de qualquer ponto da rede, um algoritmo de conectividade para descobrir quais nodos estão acessíveis e quais estão inacessíveis. O SNMP {Simple Network Management Protocolí) é o protocolo padrão utilizado na Internet para gerência de redes. O SNMP trabalha com informações organizadas numa estrutura hierárquica chamada MIB (.Management Information Base). Neste trabalho uma nova versão do algoritmo NBND é proposta e descrita formalmente. Um sistema distribuído de monitoramento de redes com agentes SNMP baseado no algoritmo NBND para diagnóstico de redes de topologia arbitrária é proposto e sua implementação é descrita, incluindo a NBND MIB, utilizada pelos agentes. Este trabalho traz, ainda, resultados experimentais da utilização do sistema de monitoramento na detecção de falhas em enlaces de duas topologías de rede: hipercubo e anel.
9

Avaliação de mecanismos de caching com discos de estado sólido em estruturas de armazenamento secundário

Santos, Leonardo Antônio dos January 2015 (has links)
Orientador : Prof. Dr. Carlos Alberto Maziero / Co-orientador : Prof. Dr. Luís Carlos Erpen de Bona / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 31/08/2015 / Inclui referências : f. 68-72 / Resumo: Recentemente, os discos de estado sólido (SSDs - Solid State Disks) elevaram muito o desempenho no acesso ao armazenamento secundário. Contudo, seu custo e baixa capacidade inviabilizam a substituição integral dos discos rígidos (HDDs - Hard Disk Drives) por SSDs a curto prazo, sobretudo em instalações de maior porte. Por outro lado, é possível aliar o desempenho dos SSDs à capacidade e baixo custo dos HDDs, usando SSDs como cache dos HDDs para os dados mais acessados, de forma transparente às aplicações. Essa abordagem é usada nos discos híbridos, que são HDDs com um pequeno cache interno em estado sólido, geralmente gerenciado pelo firmware do próprio disco. Também é possível usar SSDs independentes como cache de HDDs subjacentes, com o gerenciamento feito pelo sistema operacional. O núcleo Linux oferece dois subsistemas de gerenciamento de caches em SSD, DMCache e BCache, que usam abordagens e algoritmos distintos. Este trabalho avalia estes dois subsistemas em diversas configurações de SSDs, HDDs e RAID, sob diversas cargas de trabalho, com o objetivo de compreender seu funcionamento e definir diretrizes para a configuração de tais subsistemas em ambientes computacionais de médio/grande porte. Dentre os resultados apontados neste trabalho, foi verificado que em workloads mais sequenciais, como em servidores de arquivos, o uso de cache pode alcançar até 72% a mais de desempenho se comparado aos RAIDs de HDDs. Em workloads aleatórios, como em bancos de dados, o uso de caching SSD pode apresentar pouco desempenho diante de custos elevados por GB, chegando a 79%. / Abstract: Recently, Solid State Disks (SSDs) has elevated performance in secondary storage access. However, its high cost and low capacity make it impossible to fully replace Hard Disk Drives (HDDs) for SSDs in a short-term, especially in larger environments. On the other hand, it is possible to combine the performance of SSDs and low cost of HDDs, using SSDs as cache of HDDs for the most accessed data, transparently to applications. This approach is used in hybrid drives, which are HDDs with a small internal solid state cache, usually managed by device firmware itself. You can also use independent SSDs as underlying HDDs cache with the management assigned to operating system. Linux kernel offers two subsystems caches management in SSD, DMCache and BCache, using different approaches and algorithms. This work evaluates these two subsystems in various configurations of SSDs, HDDs and RAID over various arranges and workloads, in order to understand its operation in specific scenarios and set guidelines for setting up such subsystems in computing environments of medium and large scales. Among the presented results, it was found that in most sequential workloads, such as file servers, the use of cache can achieve up to 72% more performance compared to RAID of HDDs. In random workloads, such as databases, the use of SSD caching may have little performance before high costs per GB, which could reach up to 79%.
10

Sistemas de gerenciamento de chaves públicas baseado em virtualização para redes AD HOC móveis

Silva, Renan Fischer e 14 March 2011 (has links)
Resumo: MANETs (Mobile Ad Hoc Networks) são redes sem fio e sem infra-estrutura estabelecidas dinamicamente, sem a necessidade de uma administração centralizada. Devido ao roteamento distribuído nessas redes e ao meio de comunicação sem fio redes Ad Hoc podem apresentar todos os problemas de segurança existentes em redes convencionais e ainda novos desafios. O uso de criptografia é a principal técnica para garantir a transferência de dados em uma rede de forma segura. Nos sistemas criptográficos assimétricos, os nós utilizam uma chave para cifrar uma mensagem e outra chave para decifrar a mesma. A tarefa de administrar essas chaves é realizada por um Sistema de Gerenciamento de Chaves, que define a emissão, o armazenamento, a distribuição, a proteção e a revogação das mesmas. Esse trabalho apresenta um novo Sistema de Gerenciamento de chaves baseado em Virtualização. Nesse sistema, chamado de Virtual Key Management (VKM), ´e utilizado uma estrutura virtual, sem qualquer relação com as coordenadas físicas dos nós da rede, para estabelecer a confiança entre os mesmos. Dessa forma, os nós seguem as regras estabelecidas por essa estrutura para realizar a emissão, o armazenamento, a distribuição, a proteção e a revogação de chaves públicas e de chaves privadas na rede. O VKM é 100% resistente a ataques de Criação de Identidades Falsas. Quando comparado com o Sistema de Gerenciamento de Chaves Públicas Auto-organizado (PGP-Like), o VKM mostra maior resistência contra ataques de Personificação e a mesma resistência contra ataques de Falta de Cooperação. Quando comparado com o Group-based Key Management (GKM), o VKM mostra maior resistência contra ataques de Criação de Identidades Falsas por ser 100% resistente ao mesmo. O Virtual Routing Protocol (VRP) e o Virtual Distance Vector (VDV) são dois protocolos de roteamento híbridos que utilizam uma estrutura virtual para definir a parte pró-ativa do protocolo. Esse trabalho também mostra que o impacto no roteamento causado pela incorporação do VKM nesses protocolos de roteamento causa queda na taxa de entrega de dados, aumento do atraso no envio de mensagens e aumento da sobrecarga gerada na rede.

Page generated in 0.0534 seconds