• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 79
  • 3
  • Tagged with
  • 82
  • 82
  • 54
  • 51
  • 47
  • 35
  • 31
  • 25
  • 18
  • 16
  • 16
  • 16
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

API.NET para execução paralela e distribuída

Queiroz, Micael Filipe Moreira January 2009 (has links)
Tese de mestrado integrado. Engenharia Informática e Computação. Faculdade de Engenharia. Universidade do Porto. 2009
2

Uma proposta para modelagem de funções de gerenciamento para processamento distribuido aberto

Garcia, Claudio Martins 21 December 1994 (has links)
Orientador: Edmundo Roberto Mauro Madeira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de MAtematica, Estatisca e Ciencia da Computação / Made available in DSpace on 2018-07-19T17:30:59Z (GMT). No. of bitstreams: 1 Garcia_ClaudioMartins_M.pdf: 3048264 bytes, checksum: a9a9c06453827d0331e81aa244357c95 (MD5) Previous issue date: 1994 / Resumo: Este trabalho cobre um estudo do modelo de referência para processamento distribuído aberto da ISSO/ITU-T (RM-ODP Reference Model for Open Distributed Processing) com ênfase nas funções de gerenciamento descritas no modelo. Sendo que é apresentado um estudo de tais funções e um refinamento das mes­mas, e como forma de validação das idéias a implementação de um protótipo do modelo. O Capítulo 1 do texto apresenta uma descrição geral do que é ODP e o RM-ODP com seus principais conceitos e ainda alguns conceitos relativos a plataformas existentes que tentam prover processamento distribuído. No capítulo 2 é realizado um estudo detalhado do chamado modelo de engenharia do RM-ODP, descrevendo seus objetos componentes, e também as funções propostas no RM-ODP, realizando um estudo da interação entre as mesmas. O enfoque maior será dado às funções de gerenciamento que consistem no ponto central desse trabalho. Tais funções serão apresentadas em um nível de detalha­mento maior no capítulo 3. O quarto capítulo apresenta um conjunto de estruturas de dados e conceitos para modelagem das funções de gerenciamento. Os conceitos aqui levantados são resultado da implementação de um protótipo do modelo com ênfase nas funções de gerenciamento. No último capítulo são levantadas as dificuldades na realização do trabalho, bem como as principais contribuições que acreditamos ter apresentado, ainda aqui são apresentadas as limitações existentes no trabalho e possíveis extensões e trabalhos futuros / Abstract: This work performs a study of the ISO ITU-T Open Distributed Processing Reference Model, with emphasis on the management functions of the model. A study of the management functions is presented, with a refinement of the functions, and to validate the main ideas a prototype implementation of the model was developed. The chapter 1 of the text presents a general description about the ODP and RM-ODP with their main concepts. In chapter 2 is showed a study in details of the engineering model of the RM­ODP and it is described their component objects and the RM-ODP functions, besides a study of the interaction of the functions. The principal focus is the management functions that are the central point of this work, such functions are presented in chapter 3 with more details. The fourth chapter presents a set of data structures and concepts to the mo­deling of the management functions, this chapter is result of the implementation of a prototype with emphasis to the management functions. In the last chapter the main difficults in the elaboration of this work, and the main contribuitions of this work, are presented. The existent limitation and possibles extensions of the work are also presented, such as suggestions to the future works / Mestrado / Mestre em Ciência da Computação
3

Uma arquitetura baseada em sistemas de agentes para suporte de qualidade de serviço em aplicações multimidia distribuidas

Oliveira, Luiz Affonso Henderson Guedes de 04 May 1999 (has links)
Orientador: Eleri Cardozo / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-09-11T20:55:39Z (GMT). No. of bitstreams: 1 Oliveira_LuizAffonsoHendersonGuedesde_D.pdf: 9659948 bytes, checksum: b01ffff60d7a43938114787084589d8e (MD5) Previous issue date: 1999 / Resumo: Sistemas multimídia têm emergido como uma grande área de pesquisa e desenvolvimento, devido à ampla possibilidade de aplicações. Em decorrência da natureza dinâmica de tais aplicações, a noção de qualidade de serviço (QoS) se tornou uma característica chave em tais sistemas. QoS intuitivamente tenta expressar quão satisfatórios são os serviços fornecidos por uma determinada aplicação. Apesar de seu caráter fortemente subjetivo, QoS pode ser expressa a partir de parâmetros bem definidos, tais como: atraso, jitter e perda de pacotes de dados. Via de regra, QoS é estabelecida através de negociação entre usuários e provedores de serviços. O processo de suporte de QoS, que envolve negociação e gerência, é relativamente simples caso os recursos sejam gerenciados por uma entidade centralizada (sistema operacional, por exemplo) ou por um conjunto de entidades que empregam protocolos simples de negociação e gerência. Infelizmente, em sistemas multimídia distribuídos a negociação e gerência de recursos é uma atividade não trivial, uma vez que os recursos existentes são bastante diversificados, dispersos e mantidos por diferentes entidades. Para minimizar essas dificuldades, nesta tese se objetivou basicamente a proposição de uma arquitetura para o suporte de QoS em sistemas multimídia distribuídos de modo a privilegiar na sua concepção características como encapsulação, flexibilidade e extensibilidade. ...Observação: O resumo, na íntegra, poderá ser visualizado no texto completo da tese digital / Abstract: Distributed multimedia systems (DMS) have emerged as an important area of research and development due to the wide range of applications that can benefit from this area. In this field, the notion of quality of service (QoS) is a key concept. Intuitively, QoS states how satisfactory the services offered by an application are. Although strongly subjective, QoS. Can be stated in terms of well defined parameters such as delay, jitter and package error rate. Usually, QoS is negotiated between users and service providers. The negotiation process can be simple if the environment is homogeneous, or complex if the environment is heterogeneous. Since DMS runs frequently on heterogeneous environments, the negotiation and management of QoS-related parameters are non trivial. The complexity of this problem motivated us in proposing a new approach for incorporating quality of service into distributed systems. In order to contribute to this research area, this thesis proposes an open architecture for QoS negotiation and management for DMS. This architecture is based on the Agent paradigm in order to favor encapsulation, extensibility and fiexibility. In the first step this work tries to characterize the requirements necessary to incorporated QoS into distributed applications. Next, an Agent-based architecture is presented based on the requirements previously investigated. In the sequence a protocol for QoS negotiation and management among the architecture components (agents) is detailed, including its formal specification. Finally, an application in the domain of QoS monitoring and adaptation is developed following the proposed architecture. ...Note: The complete abstract is available with the full electronic digital thesis or dissertations / Doutorado / Doutor em Engenharia Elétrica
4

Uma arquitetura de referência para o processamento distribuído de stream de dados em soluções analíticas de near real-time / A reference architecture for distributed processing streams of data for near real-time analytics

Souza, Daniel da Cunha Rodrigues de 20 May 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2015. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-03-01T13:03:54Z No. of bitstreams: 1 2015_DanieldaCunhaRodriguesdeSouza.pdf: 2516436 bytes, checksum: 2544cf7044dbad7f1b7a38eca39b11ab (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2016-05-26T16:32:54Z (GMT) No. of bitstreams: 1 2015_DanieldaCunhaRodriguesdeSouza.pdf: 2516436 bytes, checksum: 2544cf7044dbad7f1b7a38eca39b11ab (MD5) / Made available in DSpace on 2016-05-26T16:32:54Z (GMT). No. of bitstreams: 1 2015_DanieldaCunhaRodriguesdeSouza.pdf: 2516436 bytes, checksum: 2544cf7044dbad7f1b7a38eca39b11ab (MD5) / Os novos requisitos para o processamento em baixa latência de streams de dados distribuídos desafiam as arquiteturas tradicionais de processamento de dados. Uma nova classe de sistemas denominados Distributed Stream Processing Systems (DSPS) emergiram para facilitar a analise desses dados em baixa latência. Entretanto, a diversidade de arquiteturas, modelos de processamento e Application Programming Interfaces (APIs) nesses DSPSs aumentaram a complexidade no processo de desenvolvimento de sistemas para o processamento de dados. Nesse contexto, este trabalho propõe uma arquitetura de referência para o processamento de streams para soluções analíticas de near real-time. Essa arquitetura tem como base conceitos arquiteturais que estabelecem uma separação em camadas com responsabilidades bem definidas, resultando em um modelo de referência que promove o reuso de decissões de projeto e suporta a gestão da complexidade no desenvolvimento de sistemas de processamento de stream de dados. Para validar a solução proposta, essa arquitetura de referência é instanciada em um experimento que aborda o uso de dois algoritmos algorítimos probabílisticos: HyperLogLog e Count-Min Sketch. / The current requirement of low latency processing for high volume of data streams is pushing the limits of the traditional data processing architectures. A new class of applications called Distributed Stream Processing Systems (DSPS) has emerged to facilitate such large scale real time data analytics. Nevertheless the diversity of architectures, data models and APIs introduced by the use of these systems resulted in a greater complexity to the development of data processing systems. In this context, a reference architecture to data stream processing for near real-time analytics is proposed in this work. This proposal is based on a layered architecture pattern, with clearly defined responsibilities providing a strong reference model, to improve the maintainability and reuse for data stream processing systems. In order to evaluate the proposed architecture and its framework, a case study is used in which two probabilistic algorithms are applied: the HyperLogLog and the Count-Min Sketch.
5

p2pBIOFOCO : um framework Peer-to-Peer para processamento distribuido do BLAST

Ribeiro, Edward de Oliveira 27 March 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2006. / Submitted by Diogo Trindade Fóis (diogo_fois@hotmail.com) on 2009-11-24T10:46:45Z No. of bitstreams: 1 2006_Edward de Oliveira Ribeiro.pdf: 1709738 bytes, checksum: 915e695fb5277b397e2455f5ea396348 (MD5) / Approved for entry into archive by Carolina Campos(carolinacamposmaia@gmail.com) on 2010-01-11T16:46:22Z (GMT) No. of bitstreams: 1 2006_Edward de Oliveira Ribeiro.pdf: 1709738 bytes, checksum: 915e695fb5277b397e2455f5ea396348 (MD5) / Made available in DSpace on 2010-01-11T16:46:22Z (GMT). No. of bitstreams: 1 2006_Edward de Oliveira Ribeiro.pdf: 1709738 bytes, checksum: 915e695fb5277b397e2455f5ea396348 (MD5) Previous issue date: 2006-03-27 / Uma área promissora para o projeto e desenvolvimento de sistemas distribuídos tem sido a Bioinformática, um campo de pesquisa interdisciplinar que usa conhecimentos de Ciência da Computação, Matemática e Estatística para resolver problemas de Biologia Molecular. Entretanto, apesar do amplo desenvolvimento e uso de tecnologias distribuídas no comércio, indústria e meio acadêmico, os sistemas distribuídos baseados no modelo Peer-to-Peer (P2P) ainda permanecem relativamente inexplorados no campo científico. Nesta dissertação, propomos uma nova arquitetura distribuída para a execução de aplicações em Bioinformática, particularmente o BLAST (Basic Local Alignment Search Tool), utilizando o modelo P2P. O BLAST é uma família de ferramentas que identifica a similaridade entre seqüências de DNA ou RNA fornecidas pelo usuário e seqüências existentes em bancos de dados de aminoácidos e nucleotídeos. Neste trabalho, projetamos e desenvolvemos um framework, baseado na plataforma P2P JXTA, para distribuir o processamento do BLAST entre dois ou mais domínios remotos utilizando um algoritmo de escalonamento de tarefas do tipo "alternância circular" (round robin) em uma rede privada virtual. O sistema conta ainda com um mecanismo de presença para anunciar o estado (ativo/inativo) dos Peers, e a flexibilidade de adicionar e remover serviços de forma dinâmica, isto é, sem a necessidade de reiniciar a aplicação. Os resultados do processamento do BLAST foram armazenados em um diretório FTP através de uma conexão segura. O banco de dados utilizado pelo BLAST foi o nr, o maior banco de dados de nucleotídeos disponível no National Center for Biotechnology Information (NCBI). Analisamos os ganhos reais de execução de arquivos contendo seqüências de DNA em 10 máquinas, distribuídas entre três domínios remotos, de forma a verificar a aplicabilidade da abordagem P2P em um ambiente de testes real, e o impacto que as limitações de memória RAM de cada máquina exerce sobre o tempo de execução total do sistema. Os bons resultados obtidos motivam novas melhorias no modelo atual, como inclusão de novos algoritmos de escalonamento de tarefas ou mecanismos de tolerância a falhas, além do uso desta arquitetura em projetos reais de Bioinformática. ___________________________________________________________________________________________ ABSTRACT / A rewarding area for the project and design of distributed systems has been Bioinformatics, an interdisciplinary research field that uses knowledge from Computer Science, Mathematics and Statistics to solve problems in Molecular Biology. Nevertheless, in spite of the development and use of distributed technologies in business, industry and academia, distributed systems based on the Peer-to- Peer (P2P) model are still relatively unexplored in the scientific field. In this dissertation, we propose a new distributed architecture to the execution of Bioinformatics applications, particularly the BLAST (Basic Local Alignment Search Tool), using a P2P computing model. The BLAST is a suite of tools that verify the similarity between DNA or RNA sequences issued by the user and the sequences stored in nucleotides and aminoacids databases. In this work, we designed and developed a framework, based on JXTA P2P platform, to distribute BLAST processing among two or more remote sites according to a round robin task-scheduling algorithm in a virtual private network. The system has also a presence mechanism to advertise the status of the Peers (online/offline), and the flexibility to dynamically add or remove services, that is, without restarting the application. The results of the BLAST processing were stored in a FTP directory through a secure connection. The database used by BLAST was nr, the largest nucleotide database available at the National Center for Biotechnology Information (NCBI). We analyzed the real gains of the execution of DNA sequence files in 10 machines, distributed among three remote sites, to verify the applicability of the P2P approach in a real testbed environment, and the impact that RAM memory limitations of each machine has over the total execution time of the system. The good results obtained motivate us new improvements in the current model, like the inclusion of new task scheduling algorithms or fault tolerance mechanisms, and the use of this architecture in real Bioinformatics projects.
6

Suporte a grupos cooperativos em ambiente distribuido aberto

Costa, Fabio Moreira 03 October 1995 (has links)
Orientador: Edmundo Roberto Mauro Madeira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-20T16:20:33Z (GMT). No. of bitstreams: 1 Costa_FabioMoreira_M.pdf: 3555530 bytes, checksum: 994b9d7bba3f5a531831562a0bf7fef2 (MD5) Previous issue date: 1995 / Resumo: O estilo de interação em grupo entre os usuários é característica básica de aplicações de trabalho cooperativo. Neste contexto, é fundamental a existência de suporte apropriado de sistemas distribuídos para a estruturação das aplicações em termos de grupos de objetos, permitindo a interação cooperativa entre eles. Este trabalho propõe um modelo para um serviço de suporte a grupos de objetos, a ser usado como ferramenta na construção de aplicações cooperativas. O modelo provê mecanismos para a manutenção consistente dos conjuntos de membros associados aos grupos, bem como para o suporte à coordenação e transparência da comunicação de grupo. A proposta fundamenta-se no Modelo de Referência para Processamento Distribuído Aberto da ISO (RM-ODP) e sua implementação utiliza os recursos da arquitetura CORBA (Common Object Request Broker Architecture), de forma a permitir o uso dos serviços em ambientes computacionais heterogêneos. O trabalho descreve a implementação de um protótipo, no ambiente da Plataforma Multiware, o qual provê os serviços básicos do modelo de suporte a grupos. / Abstract: Computer supported cooperative work applications can be characterized by the style of group interactions among their users. In this context, it is essential the provision of mechanisms that offer suitable support to structure applications in terms of cooperating object groups. This work proposes a model of a group support service to be used as a tool for building cooperative applications. The model provides mechanisms to consistently maintain group membership, as well as to support the coordination and transparency of group communication. The work is based on the ISO Reference Model for Open Distributed Processing (RM-ODP) and its implementation uses resources from the Common Object Request Broker Architecture (CORBA), allowing the services to be used in a heterogeneous computing environment. It is also described the implementation of a prototype, in the Multiware Platform environment, which provides the basic services from the group support model. / Mestrado / Mestre em Ciência da Computação
7

RUP extension for development of distributed systems.

Carlos Eduardo de Barros Paes 13 May 2008 (has links)
The increasing number of distributed systems results from the progress of computing and communication technology. This progress contributed to the expansion of Internet, increasing both availability and decentralization of the storage and processing. Nowadays the development of mature software for those systems is accomplished through the use of good practices of software engineering. The software engineering discipline provides processes, methods, techniques and tools that allow a suitable organization of the development process, as well as a quality result. Security, performance and fault tolerance are considered essential requirements for distributed systems. In this way, it is important that during the system development that these quality requirements be considered from the initial to end phases of software development lifecycle. Most of the software development processes were proposed before this understanding and they do not provide appropriate support for the development of distributed systems yet. RUP (Rational Unified Process) is a well-known software engineering process that provides a disciplined approach to assigning tasks and responsibilities; however, it has little support for development of distributed systems. The proposal of this work is to propose an extension to RUP for the development of distributed systems. In this proposal we considered security, fault tolerance and performance as important aspects of distributed systems design. All these aspects are embodied in RUP as a knowledge area (discipline), named distributed systems, with activities and roles defined according to the architecture of process engineering UMA (Unified Method Architecture). Examples were elaborated to clarify and show the feasibility of the proposal for both each knowledge areas and all the knowledge areas.
8

Modelo de confiança para a troca de arquivos em uma nuvem privada / Trust model for the exchange of files in a private cloud

Canedo, Edna Dias 15 August 2012 (has links)
Tese (doutorado)—Universidade de Brasília, Departamento de Engenharia Elétrica, 2012. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2013-01-30T12:54:21Z No. of bitstreams: 1 2012_EdnaDiasCanedo.pdf: 3527692 bytes, checksum: dccac5ed56bcd753445633a84bb339eb (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-01-30T13:52:04Z (GMT) No. of bitstreams: 1 2012_EdnaDiasCanedo.pdf: 3527692 bytes, checksum: dccac5ed56bcd753445633a84bb339eb (MD5) / Made available in DSpace on 2013-01-30T13:52:04Z (GMT). No. of bitstreams: 1 2012_EdnaDiasCanedo.pdf: 3527692 bytes, checksum: dccac5ed56bcd753445633a84bb339eb (MD5) / Os recentes avanços na tecnologia de computação em nuvem demonstram um aumento nos problemas relacionados à segurança, privacidade e confiança em diferentes aspectos, os quais não haviam sido previstos na concepção dos ambientes de computação em nuvem. Entre estes, o problema da confiança entre os usuários e a garantia do acesso seguro aos recursos destes ambientes tem merecido uma atenção especial. Neste trabalho, é apresentada uma revisão dos conceitos da confiança e reputação, da computação em nuvem e são abordadas algumas questões em aberto relacionadas à confiança e segurança em ambientes de computação em nuvem. A representação da confiança e da reputação em sistemas computacionais tem sido amplamente discutida e aplicada em diversos cenários da tecnologia da informação, se tornando objeto de pesquisas científicas tanto do ponto de vista teórico quanto prático. Como resultado, diversos trabalhos estão sendo apresentados na tentativa de minimizar e solucionar os problemas decorrentes da segurança e confiabilidade nestes ambientes. Esta pesquisa propõe a criação de um modelo de confiança de alto nível para garantir a troca confiável de arquivos entre os usuários de uma nuvem privada, bem como o cálculo da confiança entre os respectivos usuários, de acordo com as métricas estabelecidas. Para validar o modelo proposto foi utilizado um ambiente de simulação com a ferramenta CloudSim. A sua utilização para executar as simulações dos cenários adotados permitiu: calcular a tabela de confiança dos nós (máquinas virtuais) e selecionar os considerados mais confiáveis; identificar que as métricas adotadas influenciam diretamente no cálculo da confiança em um nó; avaliar a adequação das métricas utilizadas, possibilitando identificar e selecionar as mais adequadas em relação ao histórico do comportamento dos nós pertencentes ao ambiente analisado; verificar que o modelo de confiança proposto permite efetivamente a escolha da máquina mais adequada para efetuar a troca de arquivos. ______________________________________________________________________________ ABSTRACT / Recent advances in cloud computing have shown an increase in problems related to security, privacy and trust in different aspects, which had not been anticipated in the design of cloud computing environments. Among these, the lack of trust between users and ensuring secure access to the resources in these environments has deserved special attention. In this work, it is presented a review of concepts of cloud computing, trust and reputation and some open issues related to trust and security in cloud computing environments are addressed. The representation of trust and reputation in computer systems has been widely discussed and applied in various Information Technology scenarios, becoming the subject of scientific research, both from the theoretical and practical point of view. As a result, several studies are being presented in an attempt to minimize and solve problems relating to security and reliability in these environments. This research proposes the creation of a high level trust model to ensure the reliable files exchange between the users of a private cloud as well as the measurement of their trust, according to the metrics established. To validate the proposed model, a simulation environment with the tool CloudSim was used. Its use to run the simulations of the adopted scenarios allowed us to calculate the nodes (virtual machines) trust table and select those considered more reliable; identify that the metrics adopted by us directly influenced the measurement of trust in a node; assess the adequacy of metrics used, allowing to identify and select the most appropriate in relation to the historical behavior of the nodes belonging to the analyzed environment; verify that the trust model proposed effectively allows the selection of the most suitable machine to perform the exchange of files.
9

Visões progressivas de computações distribuidas

Garcia, Islene Calciolari, 1971- 18 December 2001 (has links)
Orientador : Luiz Eduardo Buzato / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-29T03:55:29Z (GMT). No. of bitstreams: 1 Garcia_IsleneCalciolari_D.pdf: 7273210 bytes, checksum: 2bc04d2a705337b28f6c598e011ecde7 (MD5) Previous issue date: 2001 / Resumo: Um checkpoint é um estado selecionado por um processo durante a sua execução. Um checkpoint global é composto por um checkpoint de cada processo e é consistente se representa urna foto­grafia da computação que poderia ter sido capturada por um observador externo. Soluções para vários problemas em sistemas distribuídos necessitam de uma seqüência de checkpoints globais consistentes que descreva o progresso de urna computação distribuída. Corno primeira contri­buição desta tese, apresentamos um conjunto de algoritmos para a construção destas seqüências, denominadas visões progressivas. Outras contribuições provaram que certas suposições feitas na literatura eram falsas utilizando o argumento de que algumas propriedades precisam ser válidas ao longo de todo o progresso da computação. Durante algumas computações distribuídas, todas as dependências de retrocesso entre check­points podem ser rastreadas em tempo de execução. Esta propriedade é garantida através da indução de checkpoints imediatamente antes da formação de um padrão de mensagens que poderia dar origem a urna dependência de retrocesso não rastreável. Estudos teóricos e de simu­lação indicam que, na maioria das vezes, quanto mais restrito o padrão de mensagens, menor o número de checkpoints induzidos. Acreditava-se que a caracterização minimal para a obtenção desta propriedade estava estabelecida e que um protocolo baseado nesta caracterização precisa­ria da manutenção e propagação de informações de controle com complexidade O(n2), onde n é o número de processos na computação. A complexidade quadrática tornava o protocolo base­ado na caracterização mimimal menos interessante que protocolos baseados em caracterizações maiores, mas com complexidade linear.A segunda contribuição desta tese é uma prova de que a caracterização considerada minimal podia ser eduzida, embora a complexidade requerida por um protocolo baseado nesta nova caracterização minimal continuasse indicando ser quadrática. A terceira contribuição desta tese é a proposta de um pequeno relaxamento na caracterização minimal que propicia a implementação de um protocolo com complexidade linear e desempenho semelhante à solução quadrática. Como última contribuição, através de um estudo detalhado das variações da informação de controle durante o progresso de urna computação, propomos um protocolo que implementa exatamente a caracterização minimal, mas com complexidade linear / Abstract: A checkpoint is a state selected by a process during its execution. A global checkpoint is composed of one checkpoint from each process and it is consistent if it represents a snapshot of the computation that could have been taken by an external observer. The solution to many problems in distributed systems requires a sequence of consistent global checkpoints that describes the progress of a distributed computation. As the first contribution of this thesis, we present a set of algorithms to the construction of these sequences, called progressive views. Additionally, the analysis of properties during the progress of a distributed computation allowed us to verify that some assumptions made in the literature were false. Some checkpoint patterns present only on-line trackable rollback-dependencies among check­points. This property is enforced by taking a checkpoint immediately before the formation of a message pattern that can produce a non-trackable rollback-dependency. Theoretical and simula­tion studies have shown that, most often, the more restricted the pattern, the more efficient the protocol. The minimal characterization was supposed to be known and its implementation was supposed to require the processes of the computation to maintain and propagate O(n2) control information, where n is the number of processes in the computation. The quadratic complexity makes the protocol based on the minimal characterization less interesting than protocols based on wider characterizations, but with a linear complexity. The second contribution of this thesis is a proof that the characterization that was supposed to be minimal could be reduced. However, the complexity required by a protocol based on the new minimal characterization seemed to be also quadratic. The third contribution of this thesis is a protocol based on a slightly weaker condition than the minimal characterization, but with linear complexity and performance similar to the quadratic solution. As the last contribution, through a detailed analysis of the control information computed and transmitted during the progress of distributed computations, we have proposed a protocol that implements exactly the minimal characterization, but with a linear complexity / Doutorado / Doutor em Ciência da Computação
10

Estudo comparativo de algoritmos para checkpointing

Vieira, Gustavo Maciel Dias 18 December 2001 (has links)
Orientador : Luiz Eduardo Buzato / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-01T02:33:00Z (GMT). No. of bitstreams: 1 Vieira_GustavoMacielDias_M.pdf: 3096254 bytes, checksum: 30b7155e50de3e9afd753dd40520b771 (MD5) Previous issue date: 2001 / Resumo: Esta dissertação fornece um estudo comparativo abrangente de algoritmos quase-síncronos para checkpointing. Para tanto, utilizamos a simulação de sistemas distribuídos que nos oferece liberdade para construirmos modelos de sistemas com grande facilidade. O estudo comparativo avaliou pela primeira vez de forma uniforme o impacto sobre o desempenho dos algoritmos de fatores como a escala do sistema, a freqüência de check points básicos e a diferença na velocidade dos processos da aplicação. Com base nestes dados obtivemos um profundo conhecimento sobre o comportamento destes algoritmos e produzimos um valioso referencial para projetistas de sistemas em busca de algoritmos para check pointing para as suas aplicações distribuídas / Abstract: This dissertation provides a comprehensive comparative study ofthe performance of quase synchronous check pointing algorithms. To do so we used the simulation of distributed systems, which provides freedom to build system models easily. The comparative study assessed for the first time in an uniform environment the impact of the algorithms' performance with respect to factors such as the system's scale, the basic checkpoint rate and the relative processes' speed. By analyzing these data we acquired a deep understanding of the behavior of these algorithms and were able to produce a valuable reference to system architects looking for check pointing algorithms for their distributed applications / Mestrado / Mestre em Ciência da Computação

Page generated in 0.0991 seconds