• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 271
  • 29
  • 20
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 320
  • 290
  • 120
  • 113
  • 103
  • 65
  • 62
  • 56
  • 52
  • 51
  • 43
  • 40
  • 36
  • 34
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Uma arquitetura de aplicação utilizando agentes móveis para um sistema de imobiliárias

Magro Júnior, Dorival January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T05:05:54Z (GMT). No. of bitstreams: 1 194755.pdf: 496899 bytes, checksum: d2d33f56edc3e20ca0c5ea5612782e6c (MD5)
92

Esquemas de segurança para sistemas de informação baseados em intranets

Passerino, Oswaldo José Rodi January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T09:06:42Z (GMT). No. of bitstreams: 1 198135.pdf: 540210 bytes, checksum: df55d1f6b5fe38f7f5171d30e53b901e (MD5) / Este trabalho foi desenvolvido visando um estudo das tecnologias de Internet e Intranet enfocando a vulnerabilidade de segurança existente. Após os estudos desenvolvidos, partiu-se para a definição dos perfis de intranet e os serviços a serem disponibilizados. Com o levantamento destes serviços verificou-se quais são suas vulnerabilidades e maneira de protegê-los. Após estes estudos elaborou-se o esquema de segurança para os diferentes perfis de Intranet.
93

Redes de confiança em sistemas de objetos CORBA

Mello, Emerson Ribeiro de January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-20T10:24:44Z (GMT). No. of bitstreams: 0Bitstream added on 2013-07-16T19:08:55Z : No. of bitstreams: 1 195589.pdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Nos modelos clássicos de segurança em sistemas distribuídos, a autenticação e autorização são moldadas através de uma autenticação centralizada, baseada em domínios de nomes e precedendo autorização, que geralmente possui seus controles distribuídos. Tais modelos, amplamente empregados em ambiente corporativos, não mostram-se muito adequados em ambiente de larga escala, como no caso a Internet, sabendo que o cliente muita vezes não é conhecido de antemão. Os modelos de confiança baseados em uma entidade centralizadora, além de propiciarem a criação de pontos de vulnerabilidades e de falhas, impõem ao sistema restrições ao desempenho e à escalabilidade. As abordagens que se propõem a atender o problema da escalabilidade, estão baseadas em infra-estruturas de chaves públicas (PKI), sendo o X.509 a mais famosa e utilizada atualmente. Porém, o X.509 é dependente de uma estrutura hierárquica que não é ideal em ambientes que estejam propícios à conflitos de interesse. Desenvolvido para facilitar a concepção de sistemas computacionais escaláveis e seguros, o SPKI/SDSI provê um fino controle de acesso, utilizando espaços de nomes locais e um modelo simples de autorização, baseado em redes de confiança. Este trabalho propõe um modelo de autenticação e autorização, resultado da integração da infra-estrutura SPKI/SDSI com o CORBAsec. São apresentadas as principais facilidades providas pelo modelo proposto, demonstrando as vantagens do uso da infra-estrutura SPKI/SDSI. O CORBA adiciona ao modelo as vantagens de objetos distribuídos interoperáveis em ambientes heterogêneos. A idéia sustentada nesta dissertação é a maior adaptação de redes de confiança, como o SPKI/SDSI, com as características da rede mundial.
94

Uma metodologia de avaliação de desempenho de sistemas Peer-To-Peer baseados em tabelas Hash Distribuídas

Zanoni, Paulo Ricardo 09 December 2011 (has links)
Resumo: As tabelas hash distribuídas (DHTs, distributed hash tables) são redes par-a-par (P2P, peer-to-peer) estruturadas que permitem a inserção de dados indexados por chaves. Elas são compostas por um conjunto de participantes (nodos ou pares) dinâmicos sem o controle de uma autoridade central. As DHTs tornaram-se populares ao longo da última década e hoje possuem diversas aplicações, algumas contendo milhões de nodos espalhados ao redor do planeta. Existe uma grande quantidade de DHTs, as quais podem possuir várias implementações e serem configuradas através de diversos parâmetros. Entretanto, não há um consenso sobre a melhor maneira de avaliar o desempenho de uma DHT, o que dificulta a comparação entre o grande número de DHTs existentes e, consequentemente, a escolha da DHT ideal para cada sistema. Esta dissertação apresenta uma revisão de trabalhos que propõem metodologias de avaliação de desempenho de DHTs e de trabalhos que simplesmente avaliam desempenho de DHTs, sem propor metodologias. Com base nesta revisão uma nova metodologia de avaliação de desempenho de DHTs é proposta. Esta metodologia define um conjunto de testes de desempenho composto por métricas e cargas de trabalho. Estas métricas e cargas de trabalho são baseadas nos pontos em comum encontrados nos diversos trabalhos estudados. A metodologia apresentada define também um modelo para a execução de avaliações de desempenho de DHTs composto por três entidades: mestre, controlador e nodo. Este trabalho apresenta também a ferramenta Dhtperf, que além de implementar a metodologia proposta permite facilmente a definição de novas métricas e cargas de trabalho. Esta ferramenta foi utilizada para realizar avalia- ções de desempenho de diversas DHTs existentes em dois ambientes distintos, validando a metodologia proposta. Os resultados obtidos nas avaliações realizadas são apresentados e discutidos.
95

Construindo sistemas distribuídos tolerantes a falhas e eficientes em redes SDN com NFV

Turchetti, Rogério C. January 2017 (has links)
Orientador : Elias P. Duarte Jr. / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 15/08/2017 / Inclui referências : f. 111-117 / Resumo: Os sistemas de virtualização estão mudando a maneira de projetar e operar as redes de computadores. A Virtualização de Funções de Rede (NFV - Network Function Virtualization) é uma tecnologia emergente que implementa, utilizando técnicas de virtualização, funções de rede tradicionalmente fornecidas em dispositivos de hardware específicos. O presente trabalho tem por objetivo tirar proveito destas novas tecnologias para implementar, dentro da própria rede, componentes clássicos para a construção de sistemas tolerantes a falhas. A primeira parte do trabalho descreve implementações de serviços de detecção de falhas. A função virtualizada de rede NFV-FD (FD - Failure Detector) é executada em uma rede SDN (Software Defined Network), utilizando informações disponibilizadas por um controlador e por switches para monitorar o estado de processos e enlaces de comunicação. A NFV-FD foi implementada e seus benefícios são apresentados através de experimentos reportados no trabalho. Foi também implementado um serviço para detecção de falhas para a Internet (IFDS - Internet Failure Detection Service), que pode ser configurado de acordo com as necessidades de QoS (Quality of Service) das aplicações. Em particular, são propostas estratégias que permitem a configuração do IFDS tendo em vista os requisitos de múltiplas aplicações. O IFDS é composto por uma MIB (Management Information Base) SNMP (Simple Network Management Protocol) denominada f dMIB. Um protótipo do serviço foi implementado e resultados experimentais são apresentados, obtidos tanto em redes locais como na Internet. Outra contribuição desta tese relacionada aos detectores de falhas trata da questão do cômputo do timeout, sendo proposta uma estratégia denominada tuning_ que reajusta o valor do timeout de acordo com os tempos de comunicação observados. Nos experimentos, tuning_ apresentou um excelente desempenho, reduzindo de forma expressiva o número de falsas suspeitas. Em outra contribuição tratamos do problema da sincronização consistente entre múltiplos controladores SDN. Uma função virtualizada de rede denominada de VNF-Consensus, é proposta para garantir a sincronização consistente entre os controladores envolvidos. VNF-Consensus implementa o algoritmo de consenso Paxos e com sua utilização os controladores ficam desacoplados da sincronização. Os experimentos mostraram que utilizando a VNF-Consensus, o plano de controle é sincronizado sem aumentar a carga de trabalho nos controladores. Por último, propomos AnyBone, uma NFV que oferece as primitivas de difusão confiável para garantir a entrega ordenada das mensagens transmitidas na rede. O AnyBone é baseado em um sequenciador que gerencia as transmissões e entrega as mensagens ordenadas aos processos, além de oferecer uma API para as aplicações trocarem mensagens utilizando as primitivas de difusão atômica e confiável. Os resultados experimentais demonstram a eficiência da estratégia proposta, bem como seu custo, em termos da latência da difusão em diferentes cenários, ou seja, variando o número de participantes e o tamanho das mensagens transmitidas. O conjunto de contribuições desta tese permite concluir que é viável utilizar a própria rede para implementar com eficiência componentes clássicos de tolerância a falhas que podem ser disponibilizados como serviços para aplicações distribuídas diversas. Palavras-chave: Função Virtualizada de Rede, Tolerância a Falhas, Sistemas Distribuídos, Redes Definidas por Software. / Abstract: Virtualization systems are changing the way networks are designed and deployed. Network Function Virtualization (NFV) is an emerging technology that employs virtualization to transform network devices into virtual entities. In this thesis, we take advantage of this technology to implement classical distributed systems abstractions within the network. As a result, we aim to be able to build efficient fault-tolerant distributed applications. Initially, we describe implementations of failure detectors. A virtual network function called NFV-FD (FD stands for - Failure Detector) is implemented in a Software Defined Network (SDN) and uses information obtained from a SDN controller to monitor processes and determine their state. In addition, NFV-FD also provides information about the state of communication links. NFV-FD was implemented and experimental results are reported. We also implemented an Internet Failure Detection Service (IFDS), which can be used to provide the Quality of Service (QoS) level required by the applications. In particular, we proposed two strategies to configure IFDS when multiple processes are monitored with diferent QoS requirements. IFDS was implemented with SNMP (Simple Network Management Protocol). We have implemented a prototype of the service and experimental results are presented running both on a single LAN and on the Internet. Another contribution of this thesis also related to failure detectors addresses the question of how to compute a precise timeout interval. We propose the tuning strategy that dynamically adjusts the timeout interval in a way that better reflects a varying behavior of the communication channel. Experimental results obtained from running tuning show that the strategy reduces significantly the number of false detections. The next contribution of the thesis refers to achieving consistent synchronization across multiple SDN controllers. In order to ensure consistent synchronization among controllers of a SDN distributed control plane, we propose the virtual network function VNF-Consensus. VNF-Consensus implements the Paxos consensus algorithm so that controllers are decoupled from synchronization tasks. Experimental results show that our solution is able to guarantee a consistent control plane without increasing the number of tasks a controller has to execute. Finally, we propose AnyBone, a VNF that others reliable and atomic broadcast primitives, which ensures that messages are delivered by all the processes and in the same total order. AnyBone relies on a sequencer to manage the transmissions and enforce the order. Furthermore, AnyBone provides an API for applications to be able to employ atomic and reliable broadcast primitives. Experimental results show that AnyBone provides an efficient strategy to ensure the ordered message delivery to all processes. We measured the broadcast latency in diferent scenarios, i. e., increasing the number of processes involved in the communication and also the size of the transmitted messages. By taking into account the results of the contributions of this thesis, we can conclude that it is not only feasible, but also efficient to use the network itself in order to deploy classic fault tolerance abstractions which can be used to build fault-tolerant distributed applications. Keywords: Network Function Virtualization, Fault Tolerance, Distributed Systems, Software Defined Networking.
96

Protocolo de recuperação por retorno, coordenado, não determinístico

Cechin, Sergio Luis January 2002 (has links)
O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.
97

Uma proposta de arquitetura de um ambiente de desenvolvimento de software distribuído baseada em agentes

Pascutti, Márcia Cristina Dadalto January 2002 (has links)
A crescente complexidade das aplicações, a contínua evolução tecnológica e o uso cada vez mais disseminado de redes de computadores têm impulsionado os estudos referentes ao desenvolvimento de sistemas distribuídos. Como estes sistemas não podem ser facilmente desenvolvidos com tecnologias de software tradicionais por causa dos limites destas em lidar com aspectos relacionados, por exemplo, à distribuição e interoperabilidade, a tecnologia baseada em agentes parece ser uma resposta promissora para facilitar o desenvolvimento desses sistemas, pois ela foi planejada para suportar estes aspectos, dentre outros. Portanto, é necessário também que a arquitetura dos ambientes de desenvolvimento de software (ADS) evolua para suportar novas metodologias de desenvolvimento que ofereçam o suporte necessário à construção de softwares complexos, podendo também estar integrada a outras tecnologias como a de agentes. Baseada nesse contexto, essa dissertação tem por objetivo apresentar a especificação de uma arquitetura de um ADS distribuído baseada em agentes (DiSEN – Distributed Software Engineering Environment). Esse ambiente deverá fornecer suporte ao desenvolvimento de software distribuído, podendo estar em locais geograficamente distintos e também os desenvolvedores envolvidos poderão estar trabalhando de forma cooperativa. Na arquitetura proposta podem ser identificadas as seguintes camadas: dinâmica, que será responsável pelo gerenciamento da (re)configuração do ambiente em tempo de execução; aplicação, que terá, entre os elementos constituintes, a MDSODI (Metodologia para Desenvolvimento de Software Distribuído), que leva em consideração algumas características identificadas em sistemas distribuídos, já nas fases iniciais do projeto e o repositório para armazenamento dos dados necessários ao ambiente; e, infra-estrutura, que proverá suporte às tarefas de nomeação, persistência e concorrência e incorporará o canal de comunicação. Para validar o ambiente será realizada uma simulação da comunicação que pode ser necessária entre as partes constituintes do DiSEN, por meio da elaboração de diagramas de use case e de seqüência, conforme a notação MDSODI. Assim, as principais contribuições desse trabalho são: (i) especificação da arquitetura de um ADS distribuído que poderá estar distribuído geograficamente; incorporará a MDSODI; proporcionará desenvolvimento distribuído; possuirá atividades executadas por agentes; (ii) os agentes identificados para o DiSEN deverão ser desenvolvidos obedecendo ao padrão FIPA (Foundation for Intelligent Physical Agents); (iii) a identificação de um elemento que irá oferecer apoio ao trabalho cooperativo, permitindo a integração de profissionais, agentes e artefatos.
98

FlexGroup: um ambiente flexível para comunicação em grupo

Rivera, Rodrigo Dias January 1999 (has links)
Mecanismos de comunicação entre processos são fundamentais no desenvolvimento de sistemas distribuídos, já que constituem o único meio de compartilhar dados entre processos que não dispõem de memória comum. Um dos principais mecanismos de comunicação utilizados é a troca de mensagens entre os processos componentes do sistema. Existem muitas aplicações que são compostas por um conjunto de processos que cooperam para realizar uma determinada tarefa e que são mais facilmente construídas se o sistema operacional oferecer a possibilidade de se enviar uma mensagem a diversos destinos. Neste caso são necessários mecanismos que permitam a difusão confiável de uma mensagem para um grupo de processos em uma única operação. Tendo em vista esta necessidade, diversos protocolos têm sido apresentados na literatura para permitir a comunicação entre um grupo de processos com diferentes graus de complexidade e de desempenho. Este trabalho apresenta um ambiente para desenvolvimento e utilização de protocolos de comunicação em grupo, denominado FlexGroup. O ambiente divide os protocolos em suas características fundamentais, permitindo que estas características possam ser desenvolvidas separadamente como subprotocolos. Os subprotocolo são interligados através de uma interface comum e gerenciados pelo núcleo do ambiente. A comunicação entre as diversas máquinas da rede é gerenciada pelo FlexGroup, permitindo que o desenvolvedor de um novo subprotocolo possa somente se focar nas características específicas do seu protocolo. Esta modularidade permite, ainda, que apenas as partes de interesse de um novo protocolo precisem ser implementadas, além de também viabilizar a criação de um protocolo baseado nos já existentes no ambiente. Além disso, o ambiente permite que as aplicações de comunicação em grupo possam definir, através de uma biblioteca, o conjunto de subprotocolos que desejam utilizar, em tempo de execução, sem necessidade de conhecer a implementação interna dos subprotocolos.. Da mesma forma, alguém que se proponha a realizar comparações com os protocolos existentes, pode utilizar os diversos subprotocolos e as aplicações existentes, bastando alterar os protocolos utilizados em tempo de execução e avaliando somente as características que deseje analisar.
99

Ambiente baseado em componentes para o desenvolvimento de sistemas computacionais microcontrolados distribuídos

Villela, Cláudio Vianna January 2001 (has links)
A modelagem e desenvolvimento de sistemas embarcados ("embedded systems") de forma distribuída, tende a ser uma tarefa extremamente complexa, especialmente quando envolve sistemas heterogêneos e sincronização de tarefas. Com a utilização do modelo de componentes de software é possível descrever, de uma forma simplificada, todos os elementos de distribuição e de comunicação para este tipo de sistemas. Neste sentido, a especificação de uma ferramenta capaz de auxiliar na modelagem e no desenvolvimento deste tipo de aplicação, certamente irá tornar o trabalho mais simples. Esta dissertação inicia por uma análise comparativa entre as tecnologias passíveis de serem utilizadas na definição de sistemas distribuídos heterogêneos, focando-se principalmente nas metodologias de modelagem, e nos mecanismos e middlewares de comunicação. Dos conceitos formados a partir desta análise é descrita uma ferramenta, baseada em componentes de software. A ferramenta é uma extensão do projeto SIMOO-RT, onde foram adicionados os conceitos de componente de software, biblioteca de componentes e diagrama de implantação. Além disso, foram realizadas modificações no sistema de geração de código, para dar suporte aos novos conceitos da ferramenta. A dissertação termina com a descrição de alguns estudos de caso utilizados para validar a ferramenta.
100

Posicionamento de réplicas em sistemas distribuídos

Zampieri, André January 2001 (has links)
Replicação de objetos é usada para garantir uma maior disponibilidade de recursos em um sistema distribuído. Porém, com a replicação, surgem problemas como o controle da consistência das réplicas e onde estas réplicas devem estar posicionadas. A consistência é garantida por um protocolo de consistência de réplicas. Para facilitar a implementação dos protocolos de controle de réplicas, pode-se utilizar mecanismos de comunicação de grupo como suporte para a replicação. Outro problema importante que surge com a replicação é o posicionamento das réplicas. A carga de processamento em um sistema distribuído muda continuamente e num determinado instante pode ser necessário mudar a distribuição atual das réplicas pela adição de novas réplicas, remoção de réplicas desnecessárias ou pela mudança de posicionamento das réplicas. Um sistema de gerenciamento de réplicas pode realizar esta tarefa. Este trabalho apresenta o sistema RPM – Replica Placement Manager – responsável por fornecer ao serviço de gerenciamento de réplicas uma lista ordenada de nodos potencialmente ideais, num determinado momento do processamento, para receber uma réplica de um objeto. Esta lista é criada pelo RPM, considerando um pequeno conjunto de variáveis estáticas e dinâmicas, facilmente obtidas nos nodos do sistema distribuído.

Page generated in 0.0764 seconds