• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 282
  • 12
  • 12
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • 9
  • 1
  • Tagged with
  • 292
  • 292
  • 197
  • 94
  • 78
  • 70
  • 68
  • 61
  • 49
  • 47
  • 38
  • 38
  • 32
  • 32
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Um servidor de arquivos para um cluster de computadores

Plentz, Patrícia Della Méa January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós -Graduação em Computação. / Made available in DSpace on 2012-10-18T08:56:44Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T19:48:05Z : No. of bitstreams: 1 181838.pdf: 2244045 bytes, checksum: 80fa311ad7dc77c34758a496e5b82160 (MD5) / O objetivo deste trabalho é o de propor um servidor de arquivos para um cluster de computadores derivado do multicomputador Crux [COR99]. Este cluster oferece um ambiente para a execução de programas paralelos organizados como redes de processos comunicantes. A arquitetura do cluster é composta de um determinado número de nós de trabalho e um nó de controle. Os nós de trabalho são interligados por uma rede de interconexão dinâmica reconfigurável conforme a demanda dos programas paralelos. Esse servidor é implementado com processos regulares do sistema operacional Linux, executando em um único nó de trabalho. Processos clientes, executando em outros nós de trabalho, comunicam-se com o processo servidor de arquivos pela troca de mensagens através da rede de interconexão dinâmica.
92

Avaliação de desempenho de algoritmos de escalonamento de tempo real para o ambiente do multicomputador crux

Cancian, Rafael Luiz January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós -Graduação em Computação. / Made available in DSpace on 2012-10-18T10:17:25Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T20:29:59Z : No. of bitstreams: 1 181859.pdf: 5954201 bytes, checksum: e36ecb2a1322842d42695b5f9b076320 (MD5) / Nesta dissertação é desenvolvido um modelo computacional do multicomputador CRUX, que foi utilizado para simulação e avaliação de seu desempenho em relação à execução de aplicações de tempo-real, representadas por atividades hard e multimídia soft. Foram simulados diversos algoritmos de escalonamento de tempo-real consagrados na literatura.
93

Uma solução reflexiva para gerenciamento de objetos distribuídos em Aurora

Balzan, José Rodrigo January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-19T07:34:45Z (GMT). No. of bitstreams: 1 189375.pdf: 571677 bytes, checksum: fd10546ba5838e982829d4994a1cff76 (MD5) / Devido ao crescimento na utilização das redes de computadores e a necessidade de novas tecnologias no desenvolvimento de sistema, nota-se um avanço especial na área de orientação a objeto, onde idealistas estão criando novos significados para computação distribuída. Ambientes como CORBA e DCOM são sinalizadores destas mudanças, tais ambientes aliados às linguagens orientadas a objetos como C++, Java e outras, estão motivando o uso crescente do modelo de objetos na solução de sistemas distribuídos. Este trabalho buscou uma solução para o gerenciamento de objetos distribuídos no contexto de Aurora [Zan97], um sistema operacional modelado em termo de reflexão sobre objetos. O resultado obtido foi uma estrutura reflexiva, capaz de gerenciar a identificação e localização de objetos, de forma distribuída e totalmente transparente ao usuário e ao sistema.
94

Uma metodologia de avaliação de desempenho de sistemas Peer-To-Peer baseados em tabelas Hash Distribuídas

Zanoni, Paulo Ricardo 09 December 2011 (has links)
Resumo: As tabelas hash distribuídas (DHTs, distributed hash tables) são redes par-a-par (P2P, peer-to-peer) estruturadas que permitem a inserção de dados indexados por chaves. Elas são compostas por um conjunto de participantes (nodos ou pares) dinâmicos sem o controle de uma autoridade central. As DHTs tornaram-se populares ao longo da última década e hoje possuem diversas aplicações, algumas contendo milhões de nodos espalhados ao redor do planeta. Existe uma grande quantidade de DHTs, as quais podem possuir várias implementações e serem configuradas através de diversos parâmetros. Entretanto, não há um consenso sobre a melhor maneira de avaliar o desempenho de uma DHT, o que dificulta a comparação entre o grande número de DHTs existentes e, consequentemente, a escolha da DHT ideal para cada sistema. Esta dissertação apresenta uma revisão de trabalhos que propõem metodologias de avaliação de desempenho de DHTs e de trabalhos que simplesmente avaliam desempenho de DHTs, sem propor metodologias. Com base nesta revisão uma nova metodologia de avaliação de desempenho de DHTs é proposta. Esta metodologia define um conjunto de testes de desempenho composto por métricas e cargas de trabalho. Estas métricas e cargas de trabalho são baseadas nos pontos em comum encontrados nos diversos trabalhos estudados. A metodologia apresentada define também um modelo para a execução de avaliações de desempenho de DHTs composto por três entidades: mestre, controlador e nodo. Este trabalho apresenta também a ferramenta Dhtperf, que além de implementar a metodologia proposta permite facilmente a definição de novas métricas e cargas de trabalho. Esta ferramenta foi utilizada para realizar avalia- ções de desempenho de diversas DHTs existentes em dois ambientes distintos, validando a metodologia proposta. Os resultados obtidos nas avaliações realizadas são apresentados e discutidos.
95

Construindo sistemas distribuídos tolerantes a falhas e eficientes em redes SDN com NFV

Turchetti, Rogério C. January 2017 (has links)
Orientador : Elias P. Duarte Jr. / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 15/08/2017 / Inclui referências : f. 111-117 / Resumo: Os sistemas de virtualização estão mudando a maneira de projetar e operar as redes de computadores. A Virtualização de Funções de Rede (NFV - Network Function Virtualization) é uma tecnologia emergente que implementa, utilizando técnicas de virtualização, funções de rede tradicionalmente fornecidas em dispositivos de hardware específicos. O presente trabalho tem por objetivo tirar proveito destas novas tecnologias para implementar, dentro da própria rede, componentes clássicos para a construção de sistemas tolerantes a falhas. A primeira parte do trabalho descreve implementações de serviços de detecção de falhas. A função virtualizada de rede NFV-FD (FD - Failure Detector) é executada em uma rede SDN (Software Defined Network), utilizando informações disponibilizadas por um controlador e por switches para monitorar o estado de processos e enlaces de comunicação. A NFV-FD foi implementada e seus benefícios são apresentados através de experimentos reportados no trabalho. Foi também implementado um serviço para detecção de falhas para a Internet (IFDS - Internet Failure Detection Service), que pode ser configurado de acordo com as necessidades de QoS (Quality of Service) das aplicações. Em particular, são propostas estratégias que permitem a configuração do IFDS tendo em vista os requisitos de múltiplas aplicações. O IFDS é composto por uma MIB (Management Information Base) SNMP (Simple Network Management Protocol) denominada f dMIB. Um protótipo do serviço foi implementado e resultados experimentais são apresentados, obtidos tanto em redes locais como na Internet. Outra contribuição desta tese relacionada aos detectores de falhas trata da questão do cômputo do timeout, sendo proposta uma estratégia denominada tuning_ que reajusta o valor do timeout de acordo com os tempos de comunicação observados. Nos experimentos, tuning_ apresentou um excelente desempenho, reduzindo de forma expressiva o número de falsas suspeitas. Em outra contribuição tratamos do problema da sincronização consistente entre múltiplos controladores SDN. Uma função virtualizada de rede denominada de VNF-Consensus, é proposta para garantir a sincronização consistente entre os controladores envolvidos. VNF-Consensus implementa o algoritmo de consenso Paxos e com sua utilização os controladores ficam desacoplados da sincronização. Os experimentos mostraram que utilizando a VNF-Consensus, o plano de controle é sincronizado sem aumentar a carga de trabalho nos controladores. Por último, propomos AnyBone, uma NFV que oferece as primitivas de difusão confiável para garantir a entrega ordenada das mensagens transmitidas na rede. O AnyBone é baseado em um sequenciador que gerencia as transmissões e entrega as mensagens ordenadas aos processos, além de oferecer uma API para as aplicações trocarem mensagens utilizando as primitivas de difusão atômica e confiável. Os resultados experimentais demonstram a eficiência da estratégia proposta, bem como seu custo, em termos da latência da difusão em diferentes cenários, ou seja, variando o número de participantes e o tamanho das mensagens transmitidas. O conjunto de contribuições desta tese permite concluir que é viável utilizar a própria rede para implementar com eficiência componentes clássicos de tolerância a falhas que podem ser disponibilizados como serviços para aplicações distribuídas diversas. Palavras-chave: Função Virtualizada de Rede, Tolerância a Falhas, Sistemas Distribuídos, Redes Definidas por Software. / Abstract: Virtualization systems are changing the way networks are designed and deployed. Network Function Virtualization (NFV) is an emerging technology that employs virtualization to transform network devices into virtual entities. In this thesis, we take advantage of this technology to implement classical distributed systems abstractions within the network. As a result, we aim to be able to build efficient fault-tolerant distributed applications. Initially, we describe implementations of failure detectors. A virtual network function called NFV-FD (FD stands for - Failure Detector) is implemented in a Software Defined Network (SDN) and uses information obtained from a SDN controller to monitor processes and determine their state. In addition, NFV-FD also provides information about the state of communication links. NFV-FD was implemented and experimental results are reported. We also implemented an Internet Failure Detection Service (IFDS), which can be used to provide the Quality of Service (QoS) level required by the applications. In particular, we proposed two strategies to configure IFDS when multiple processes are monitored with diferent QoS requirements. IFDS was implemented with SNMP (Simple Network Management Protocol). We have implemented a prototype of the service and experimental results are presented running both on a single LAN and on the Internet. Another contribution of this thesis also related to failure detectors addresses the question of how to compute a precise timeout interval. We propose the tuning strategy that dynamically adjusts the timeout interval in a way that better reflects a varying behavior of the communication channel. Experimental results obtained from running tuning show that the strategy reduces significantly the number of false detections. The next contribution of the thesis refers to achieving consistent synchronization across multiple SDN controllers. In order to ensure consistent synchronization among controllers of a SDN distributed control plane, we propose the virtual network function VNF-Consensus. VNF-Consensus implements the Paxos consensus algorithm so that controllers are decoupled from synchronization tasks. Experimental results show that our solution is able to guarantee a consistent control plane without increasing the number of tasks a controller has to execute. Finally, we propose AnyBone, a VNF that others reliable and atomic broadcast primitives, which ensures that messages are delivered by all the processes and in the same total order. AnyBone relies on a sequencer to manage the transmissions and enforce the order. Furthermore, AnyBone provides an API for applications to be able to employ atomic and reliable broadcast primitives. Experimental results show that AnyBone provides an efficient strategy to ensure the ordered message delivery to all processes. We measured the broadcast latency in diferent scenarios, i. e., increasing the number of processes involved in the communication and also the size of the transmitted messages. By taking into account the results of the contributions of this thesis, we can conclude that it is not only feasible, but also efficient to use the network itself in order to deploy classic fault tolerance abstractions which can be used to build fault-tolerant distributed applications. Keywords: Network Function Virtualization, Fault Tolerance, Distributed Systems, Software Defined Networking.
96

FlexGroup: um ambiente flexível para comunicação em grupo

Rivera, Rodrigo Dias January 1999 (has links)
Mecanismos de comunicação entre processos são fundamentais no desenvolvimento de sistemas distribuídos, já que constituem o único meio de compartilhar dados entre processos que não dispõem de memória comum. Um dos principais mecanismos de comunicação utilizados é a troca de mensagens entre os processos componentes do sistema. Existem muitas aplicações que são compostas por um conjunto de processos que cooperam para realizar uma determinada tarefa e que são mais facilmente construídas se o sistema operacional oferecer a possibilidade de se enviar uma mensagem a diversos destinos. Neste caso são necessários mecanismos que permitam a difusão confiável de uma mensagem para um grupo de processos em uma única operação. Tendo em vista esta necessidade, diversos protocolos têm sido apresentados na literatura para permitir a comunicação entre um grupo de processos com diferentes graus de complexidade e de desempenho. Este trabalho apresenta um ambiente para desenvolvimento e utilização de protocolos de comunicação em grupo, denominado FlexGroup. O ambiente divide os protocolos em suas características fundamentais, permitindo que estas características possam ser desenvolvidas separadamente como subprotocolos. Os subprotocolo são interligados através de uma interface comum e gerenciados pelo núcleo do ambiente. A comunicação entre as diversas máquinas da rede é gerenciada pelo FlexGroup, permitindo que o desenvolvedor de um novo subprotocolo possa somente se focar nas características específicas do seu protocolo. Esta modularidade permite, ainda, que apenas as partes de interesse de um novo protocolo precisem ser implementadas, além de também viabilizar a criação de um protocolo baseado nos já existentes no ambiente. Além disso, o ambiente permite que as aplicações de comunicação em grupo possam definir, através de uma biblioteca, o conjunto de subprotocolos que desejam utilizar, em tempo de execução, sem necessidade de conhecer a implementação interna dos subprotocolos.. Da mesma forma, alguém que se proponha a realizar comparações com os protocolos existentes, pode utilizar os diversos subprotocolos e as aplicações existentes, bastando alterar os protocolos utilizados em tempo de execução e avaliando somente as características que deseje analisar.
97

ORPIS: um modelo de consistência de conteúdo replicado em servidores Web distribuídos

Lima, Cristiano Cachapuz e January 2003 (has links)
O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.
98

Implementação de objetos replicados usando java

Ferreira Filho, Joao Carlos January 2000 (has links)
Este trabalho busca a implementação da replicação de objetos através da linguagem Java e de seu sistema de invocação remota de métodos (Remote Method Invocation - RMI). A partir deste sistema, define-se uma classe de replicação - a máquina de replicação – onde a implementação de grupos de objetos é estruturada de acordo com a arquitetura cliente/servidor, sendo o cliente o representante (a interface) de um grupo de objetos e os servidores representam os demais componentes do grupo. A classe de replicação atende a uma necessidade importante dos sistemas distribuídos - o desenvolvimento de aplicações tolerantes a falhas. Fundamentalmente, a tolerância a falhas é obtida por redundância e, no caso de mecanismos de tolerância a falhas por software, esta redundância significa basicamente replicação de dados, processos ou objetos. A tolerância a falhas para tal tipo de sistema é importante para garantir a transparência do mesmo, visto que, assim como um sistema distribuído pode auxiliar muito o usuário pelas facilidades oferecidas, o não cumprimento de suas atividades de acordo com o esperado pode, em algumas situações, causar-lhe transtornos e erros irrecuperáveis nas aplicações. Finalmente, como principal contribuição, este trabalho descreve e implementa a solução completa para a construção de uma biblioteca de classes que oferece a replicação de forma totalmente transparente para o usuário.
99

Validação experimental de sistemas de arquivos baseados em journaling para o sistema operacional Linux

Mello, Leonardo Garcia de January 2004 (has links)
Alta disponibilidade (muitas vezes referenciada como HA, de High Availability) é uma característica de sistemas computacionais que são projetados para evitar ao máximo as interrupções, planejadas ou não, na prestação de serviços. Em alta disponibilidade, o ideal é haver poucas falhas e, mesmo quando estas acontecerem, que o seu tempo médio de reparo (ou MTTR, de Mean Time To Repair) seja tão pequeno quanto possível. Sistemas operacionais têm um papel importante em alta disponibilidade, sendo preferível o uso daqueles que possuam sistemas de arquivos seguros e relativamente independentes de ações por agentes humanos para a recuperação. Uma das abordagens para auxiliar a obter-se uma alta disponibilidade em sistemas de arquivos é a do tipo journaling, ou meta-data logging. Existe uma série de sistemas de arquivos para o sistema operacional Linux baseando-se nela, tais como ext3, JFS, ReiserFS e XFS. Este trabalho tem por objetivo propor uma metodologia de validação experimental para avaliar a eficiência do mecanismo para recuperação de sistemas de arquivos baseados em journaling, na ocorrência de falhas. Para isso, a técnica de validação empregada é a da injeção de falhas e o sistema sob teste é uma implementação do XFS. Foram utilizados os recursos de depuração do sistema operacional Linux (que permitem a utilização de métodos para interceptação e manipulação de chamadas de sistema) para a implementação de um injetor de falhas específico para sistemas de arquivos baseados em journaling, o qual foi chamado de FIJI (Fault Injector for Journaling fIlesystems). Manipular os parâmetros de chamadas de sistema (ou system calls) através do FIJI equivale a alterar as requisições feitas ao sistema operacional. A eficiência do mecanismo de journaling é medida injetando-se falhas e medindose o MTTR e a cobertura de falhas. Basicamente, o que procura-se fazer através do injetor de falhas FIJI é ignorar os logs do journaling e manipular uma quantidade de informações diferente daquela que foi solicitada originalmente.
100

Sistema de arquivos distribuído flexível e adaptável

Fernandes, Silas Evandro Nachif [UNESP] 13 April 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:24:01Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-04-13Bitstream added on 2014-06-13T20:51:10Z : No. of bitstreams: 1 fernandes_sen_me_sjrp.pdf: 941362 bytes, checksum: e0e07c896853141b27f27af08088487b (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Com o aumento do volume de dados e a incerteza dos recursos de hardware e software, a descentralização dos dados em sistema de arquivos surgiu com a finalidade de diminuir a probabilidade de perda total desses dados. Com isso, este trabalho propõe um modelo de sistema de arquivos distribuído que incorpora características de transparência, escalabilidade, tolerância a falhas, criptografia, suporte a hardware de baixo custo, facilidade na implantação e manipulação dos arquivos / With the increasing volume of data and uncertainty of hardware and software resources, the decentralization of data in file systems came up with the aim of reducing the likelihood of total loss of such data. Thus, this paper proposes a model of distributed file systems that integrates features of transparency, scalability, fault tolerance, encryption, support for low cost hardware, easy management and handling of files

Page generated in 0.1232 seconds