• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 282
  • 12
  • 12
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • 9
  • 1
  • Tagged with
  • 292
  • 292
  • 197
  • 94
  • 78
  • 70
  • 68
  • 61
  • 49
  • 47
  • 38
  • 38
  • 32
  • 32
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Estrutura Reflexiva para Sistemas Operacionais Multiprocessados / Reflective structure for multiprocessor operating system

Zancanella, Luiz Carlos January 1997 (has links)
É crescente, nos últimos anos, a utilização da tecnologia de orientação a objetos para a construção de sistemas complexos. A aceitação de que tal tecnologia, alem de facilitar a modularização e proporcionar maior reusabilidade, permitindo uma visão unificada dos sistemas, tem encorajado sua utilização na construção de sistemas operacionais, onde recursos do sistema e aplicações do usuário passam a ser modelados em termos da mesma abstração. Na realidade, esta nova tecnologia de desenvolvimento de software, aliada a evolução do hardware, da tecnologia de comunicações e a necessidade de um incremento qualitativo, principalmente no que diz respeito a ambientes de programação e interfaces, está provocando o surgimento de uma nova geração de sistemas operacionais, mais dinâmicos, mais flexíveis e capazes de suportar de forma transparente a presença de processamento cooperativo, distribuído ou não, heterogêneo ou não. Todavia, ainda que a literatura científica demonstre a aceitação do paradigma de orientação a objetos como um enfoque promissor a ser adotado na nova geração de sistemas operacionais, o estado atual da tecnologia de implementação e gerenciamento de objetos esta aquém da consolidação. Este trabalho surgiu neste contexto com o objetivo de contribuir na busca de um modelo apropriado ao gerenciamento de objetos e capaz de proporcionar a existência de um modelo uniforme, tanto para o nível do sistema operacional como para o nível da aplicação. O resultado da pesquisa desenvolvida foi o surgimento de um modelo estrutural orientado a objetos e baseado nas idéias da reflexão computacional, não somente como disciplina de implementação, mas como modelo conceitual para a implementação de sistemas operacionais multiprocessados. / The use of object-oriented technology for the construction of complex systems has been increasing in recent years. The assumption that such technology, besides facilitating modularization, increases reusability and maintainability, providing a unified view of the systems, has encouraged its use in building operating systems, where the system resources and the user's applications come to be modeled in terms of the same abstraction. Actually this new technology for development of software, associated with the evolution of hardware, as well as communication technology and the need for qualitative enhancement, mainly concerning programming and interface environments, is giving rise to a new generation of operating systems, more dynamic, more flexible and capable of maintaining, in a transparent way, the presence of cooperative processing, distributed or non-distributed, heterogeneous or homogeneous. However, although the scientific literature shows an acceptance of the object-oriented paradigm as a promising focus(insight) to be adopted in the new generation of operating systems, the current state of technology for object management is still far from being one of consolidation. This project has emerged in this context, with the aim of contributing to the search for an appropriate model for office management that is able to provide a uniform model, not only on the operating system level, but also on the application level. The result of the research is a new object-oriented structural model, based on the concepts of computational reflection, both as an implementation discipline and as a conceptual model for the utilization of multiprocessor operating systems. These features are very useful in developing operating systems which contain components, including resources and applications that are modeled in the same way, using object-oriented abstraction.
182

Yali : uma extensão do modelo linda para programação paralela em redes heterogêneas / Yali, an extension to the linda model intended for parallel programming in heterogeneous computer networks

Charao, Andrea Schwertner January 1996 (has links)
Com a disponibilidade de redes que ligam estações cada vez mais poderosas a baixos custos, o interesse em torno de ferramentas que suportam a programação paralela em arquiteturas deste tipo tem aumentado significativamente. Esta dissertação trata do projeto e implementação de YALI (Yet Another Linda Implementation), uma ferramenta destinada ao desenvolvimento e execução de programas paralelos em redes heterogêneas de computadores. Com o objetivo de oferecer uma interface simples e flexível para os usuários programadores, YALI baseia-se no modelo Linda[GEL85], que destaca-se por utilizar uma abstração de alto nível para a cooperação entre processos. Em Linda, processos interagem por intermédio de uma memória associativa logicamente compartilhada, denominada Espaço de Tuplas. Entre outras vantagens deste modelo pode-se citar a simplicidade de suas primitivas e a possibilidade de incorporá-las a uma linguagem seqüencial conhecida, o que contribui fortemente para sua fácil assimilação, mesmo por usuários com pouca experiência em programação paralela. Após uma descrição detalhada do modelo Linda, este trabalho discute varias questões envolvidas no projeto e implementação de sistemas nele baseados. Para oferecer uma visão pratica das soluções mais freqüentemente adotadas para estas questões, quatro sistemas que implementam o modelo para programação paralela em redes são apresentados e avaliados. São eles: Glenda, uma implementacao do modelo baseada na ferramenta PVM (Parallel Virtual Machine); POSYBL (PrOgramming SYstem for distriButed appLications), um sistema construído através de recursos de sistemas operacionais compatíveis com Unix; p4-Linda, construído a partir da ferramenta de programação paralela p4 e, por fim, Network-Linda, uma implementação comercial do modelo. Depois do estudo dos quatro sistemas acima, o projeto de YALI e discutido detalhadamente. Decidiu-se, inicialmente, que YALI deveria incorporar o modelo Linda a linguagem C, que é largamente utilizada no desenvolvimento de programas de propósito geral. Além disso, optou-se por estender o modelo com algumas novas primitivas, de modo a oferecer maior poder de expressão ao usuário. Basicamente, as primitivas que YALI acrescenta ao modelo servem para dar suporte a operações globais e a criação dinâmica de threads. Operações globais servem para expressar a comunicação e a sincronização entre múltiplos processos, sendo utilizadas com bastante freqüência em vários tipos de programas paralelos. YALI suporta operações globais de maneira totalmente ortogonal ao modelo Linda, garantindo melhor desempenho sem afetar o nível de abstração oferecido. o suporte a criação dinâmica de threads, por outro lado, tem o objetivo de permitir a exploração de um paralelismo de granularidade fina, adequado ate mesmo a execução de rotinas simples em paralelo. Para suportar o desenvolvimento e execução de aplicações paralelas, YALI e implementado através de três componentes distintos. O primeiro e um pré-processador, que garante uma interface simplificada com o usuário. 0 segundo e uma biblioteca, que contem as rotinas de suporte as primitivas YALI e deve ser ligada aos programas de usuários. O terceiro componente, por fim, e um utilitário destinado a controlar a inicialização e o termino de aplicações paralelas, que baseia-se em uma configuração estabelecida pelo usuário para distribuir processos sobre uma rede de computadores. Ao contrário da maioria dos sistemas baseados em Linda, YALI implementa um espaço de tuplas distribuído entre os processos que compõem uma aplicação paralela, dispensando o use de processos especializados no gerenciamento de tuplas. Para isso, YALI utiliza múltiplas threads em cada processo definido pelo usuário, e distribui tuplas sobre estes processos através de um mecanismo baseado em hashing. A implementação de YALI leva em conta a heterogeneidade inerente a ambientes de rede, permitindo que maquinas com diferentes arquiteturas e sistemas operacionais sejam utilizadas na execução de programas paralelos. Por fim, YALI é totalmente implementado a partir de recursos presentes em sistemas compatíveis com Unix, de modo a aumentar sua portabilidade e garantir sua eficiência. / With the availability of networks connecting powerful workstations at a low cost, increasing interest has been devoted to systems that support parallel programming in such architectures. This document describes the design and implementation of YALI (Yet Another Linda Implementation), a tool that allows the development and execution of parallel programs in heterogeneous computer networks. Aiming to provide a simple and flexible interface for its users, YALI is based on the Linda parallel programming model[GEL85], that outstands in providing a high level abstraction for cooperation between processes. In Linda, communication and synchronization take place through an associative, logically shared memory called Tuple Space. Among the advantages of this model, one can mention the simplicity of its primitives, and the possibility of incorporate them in a well-known sequential language. These characteristics make Linda easy to learn, even to users with little experience in parallel programming. After a detailed description of the Linda model, this document discusses some design and implementation issues related to Linda-based systems. In order to provide a practical view of some usual solutions to address these issues, four Linda-based systems are presented and evaluated. These systems are: Glenda, an implementation of Linda built on top of PVM (Parallel Virtual Machine); POSYBL (PrOgramming SYstem for distriButed appLications), that relies on features provided by Unix-like operating systems to implement the model; p4-Linda, built on top of p4 parallel programming tool and, at last, Network-Linda, a comercial product based on Linda. All these systems, as YALI, are specially tailored to parallel programming in computer networks. Following the study of the four systems, this documents presents the design of the YALI system. One of the first design decisions was to incorporate the Linda primitives to the C language, that is broadly used as a general purpose programming language. In addition, a set of new primitives was designed as an extension to the original model, in order to increase YALI's expressivenes. Basically, the new primitives support global operations and dynamic thread creation. Global operations are useful to express communication and synchronization among multiple processes, and are frequently used many classes of parallel programs. YALI gives support to global operations in a way that is totally ortoghonal to the Linda model, ensuring better performance without affecting the abstraction level inherent to Linda-based systems. The support to dynamic thread creation, on the other hand, is helpful to explore lightweight parallelism, which allows the execution of simple routines in parallel. To support the development and execution of parallel applications, YALI is made up of three distinct components. The first is a pre-processor, that provides a simple user interface. The second is a library, that must be linked to the user programs since it's where YALI primitives are actuall y implemented. Finally, the third component is an utility that controls initialization and termination of parallel applications, which takes configuration parameters from the user to distribute processes over a newtork. In contrast with most Linda-based systems, YALI relies on a tuple space that is distributed among the processes in the same parallel application, so that intermediate tuple managers are not necessary To implement that, multiple threads are embedded in each user process, and tuples are spread over the processes in the basis of a hashing mechanism. YALI's implementation takes in account the inherent heterogeneity of network environments, allowing machines with different architectures and operating systems to be used in the execution of parallel programs. Finally, YALI is build on top of common features of Unix-like operating systems, in order to increase its efficiency and portability.
183

Modelos analíticos para interconexão de processadores : avaliação de desempenho de alocação simultânea de recursos / Analytic models for processors interconnections: performance evaluation of simultaneous resource allocation / Modèles analytiques pour les interconnexions de processeurs: evaluation des performances d'allocation simultanée de ressources

Fernandes, Paulo Henrique Lemelle January 1990 (has links)
On décrit l'application de deux méthodes analytiques à un même problème avec l'utilisation simultanée de ressources, l'évaluation des performances des interconnexions de processeurs du type multistage. On applique d'abord la méthode traditionnelle utilisant les réseaux de files d'attente et les chaînes de Markov. Aprés, on utilise une méthode avec modélisation basée sur les réseaux de Petri et l'extraction à travers des pondérations des résultats déterministes. Les modèles développés par chacun des méthodes sont comparés selon trois aspects distincts: facilité de modélisation, vitesse d'évaluation et précision des résultats. La première méthode employée, la méthode analytique traditionnelle, utilise les réseaux de files d'attente (théorie des réseaux) pour faire la modélisation et l'algorithme de convolution (constante de normalisation) pour faire l'extraction des résultats. La resolution est faire à travers l'approche stochastique traditionnelle avec les formules derivées des chaînes de Markov. La méthode d'évaluation apliquée après est basée sur les dévelopment des modèles en réseaux des Petri temporisées. Cette méthode est composée de deux parties: l'application d'une méthode analytique pure (modéle Q) et l'application des méthode approximatives. Ces méthodes approximatives font la décomposition d'un problème avec comportement variable en plusiers problèmes avec comportement déterministes et probabilitées associées. Les modèles des interconnexions multistage ont été développées avec plusiers degrés de rafinement dans tout les deux méthodes dejà citées. Les modèles de base avec des imprecisions ont été rafinés jusqu'à avoir une description la plus proche possible de la realité (les interconnexions multistage). La comparaison de tout les modèles développés est faite en trois parties pour établir les modèles les plus adequés à l'évaluation des performances des interconnexions multistage. L'adequation doit envisager la facilité de dévelopement du modèle, la vitesse et la précision des résultats. Ces informations sont prises selon la taille du problème (dimension de l'interconnexion), l'enfoque de modélisation (les paramètres à considerer) et les objectify qualitatifs de l'evaluation (ce qu'on veux savoir). / Descreve-se a aplicação de dois métodos analíticos para um mesmo problema com alocação simultânea de recursos: a avaliação de desempenho de interconexões de processadores do tipo multi-estágios. Aplica-se o método analítico tradicional com redes de filas de espera e cadeias de Markov. utiliza - se apos um método com modelagem através de redes de Petri temporizadas e extração através de ponderação de resultados determinísticos. Os modelos desenvolvidos por cada um dos métodos são comparados segundo três diferentes aspectos: facilidade de modelagem, velocidade de extração e acuracidade de resultados. O primeiro método de avaliação empregado, método analítico tradicional, consiste no use de redes de filas de espera (teoria de filas) para a modelagem e do algoritmo de convolução (cálculo da constante de normalização) para a extração de resultados. A abordagem de resolução é clássica (abordagem estocástica) resultando nas formulas derivadas do modelo de cadeias de Markov. O método de avaliação aplicado em seguida esta baseado no desenvolvimento de modelos em redes de Petri temporizadas. Este método se divide na aplicação de um método analítico puro (modelo Q) e na aplicação de métodos aproximativos. Estes métodos aproximativos consistem na decomposição de um problema com comportamento variável em diversos problemas com comportamento determinístico e probabilidades associadas. Os modelos para as interconexões multi-estágios em ambos os métodos já citados são desenvolvidos com diferentes graus de refinamento. Modelos básicos com imprecisões de descrição são refinados ate ser estabelecido um modelo tão próximo quanto possível da realidade descrita (interconexão multiestágios). A comparação de todos os modelos desenvolvidos é feita em três etapas visando estabelecer quais modelos são adequados a avaliação de desempenho de interconexões multi-estágios. A adequação deve considerar aspectos como facilidade de desenvolvimento do modelo, rapidez e precisão na obtenção de resultados. Estas informações são consideradas segundo o tamanho do problema (dimensão da interconexão), o enfoque de modelagem (parâmetros relevantes) e os objetivos qualitativos da avaliacão (o que se pretende descobrir). / This work describes the application of two analytic models to the multistage processor interconnections, a simultaneous resource allocation problem. First, the traditional method based on queueing networks and Markov chains is applied. After, a Petri nets based method with deterministic weigthed results is used. The models developed in each method are compared in three levels: modeling facility, evaluation speed and precision. The first evaluation method used is based on the queueing network classic method (queueing theory) to model and the convolution algorithm (normalization constant calculus) to obtain results. The classic stochastic approach is used through formules derived from Markov chains. The second method used is based on temporised Petri nets models. This method has two parts: the application of a pure analitical method (model Q) and the application of approximatives methods. This approximatives methods decompose a problem with non-fixed behaviour in several weighted problems with deterministic behaviour. The multistage interconnections models are developped with different degrees of accuracy for both methods cited. Basic models without description precision are refined until as accurate as possible model is obtained for the choosen reality (multistage interconnections). The comparison of all developped models is made in three steps aiming the qualitative judgment of the models for multistages performance evaluation. This judgment should consider the dificulty to develop the model, the speed and the precision of the results. These informations are considered taking into account the the problem size (number of elements in the interconnection), the modelling approach (relevant parameters) and the the qualitative evaluation goals (the evaluation purpose).
184

Método para a avaliação de servidores WWW no ambiente corporativo

Côrte, Leandro January 2002 (has links)
O principal objetivo deste trabalho é apresentar um método e métricas para a avaliação do serviço Internet mais amplamente utilizado: a World Wide Web. As características básicas e funcionamento do serviço, bem como algumas ferramentas de avaliação de desempenho, serão descritas. Estes capítulos servirão de base para os demais, onde serão apresentados o método para avaliação do serviço web e métricas usadas para análise de desempenho, disponibilidade, confiabilidade, facilidades de administração e recursos. Por fim, o método e métricas serão aplicados na Procempa – Companhia de Processamento de Dados do Município de Porto Alegre, onde será possível verificá-los na prática. Além disto, dados importantes sobre a infra-estrutura web da Procempa serão fornecidos, os quais permitem uma análise do ambiente web atual e futuro da empresa.
185

Tolerância a falhas para sistemas legados : um estudo de caso no exército brasileiro

Santos Junior, Fausto Andrade dos 24 August 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2015. / Submitted by Tania Milca Carvalho Malheiros (tania@bce.unb.br) on 2016-02-15T14:14:06Z No. of bitstreams: 1 2015_FaustoAndradedosSantosJúnior.pdf: 6574380 bytes, checksum: 41fcc46e8c9d7d7e08850d8ac1c9ae82 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-02-15T17:12:22Z (GMT) No. of bitstreams: 1 2015_FaustoAndradedosSantosJúnior.pdf: 6574380 bytes, checksum: 41fcc46e8c9d7d7e08850d8ac1c9ae82 (MD5) / Made available in DSpace on 2016-02-15T17:12:22Z (GMT). No. of bitstreams: 1 2015_FaustoAndradedosSantosJúnior.pdf: 6574380 bytes, checksum: 41fcc46e8c9d7d7e08850d8ac1c9ae82 (MD5) / Soluções modernas de arquitetura de sistemas indicam, muitas vezes, a computação distribuída como meio de satisfazer características desejáveis de desempenho. Uma classe de arquitetura distribuída em especial é o MOM ou Middleware Orientado à Mensagem. Esta arquitetura é capaz de conceder um mecanismo de comunicação assíncrona, em que é possível implementar fatores como escalabilidade e tolerância à falhas, de maneira transparente. O Exército Brasileiro conta com diversos sistemas que proporcionam fatores similares aos proporcionados pela arquitetura MOM, embora boa parte dos sistemas legados não admita esta abordagem. O Departamento-Geral do Pessoal - DGP, responsável pelos processos que envolvem recursos humanos no Exército, utiliza sistemas legados ao prover vários serviços. Alguns destes sistemas participam de processos sensíveis, como é o caso observado do processo de concessão de benefícios do sistema previdenciário, em que o sistema Papiro cataloga e concentra a documentação comprobatória de direitos. Seu objetivo é prover o acesso aos documentos cadastrados para consulta e averiguação de direitos pelos beneficiários, e que deve ocorrer na região onde reside a pessoa interessada. A arquitetura do sistema Papiro utiliza dados do negócio armazenados diretamente em arquivos, e não possui mecanismos para oferecer escalabilidade e tolerância a falhas nativamente. Seu uso é limitado em função da disponibilidade do sistema no território nacional, tendo em vista que seus usuários o acessam a partir das organizações militares presentes nas regiões centrais e fronteiras do país. Esta pesquisa tem por objetivo compor uma proposta de infraestrutura de armazenamento para sistemas legados do DGP, que proporcione a tolerância à falhas e a escalabilidade, sem que para isso deva-se ajustar as aplicações legadas hospedadas. A arquitetura elaborada baseia-se no StackSync, um MOM capaz de sincronizar espaços de armazenamento em ambientes heterogêneos. Os serviços necessários para a construção da arquitetura são detalhados, de acordo com sua participação no ambiente. O estudo foi realizado utilizando dados extraídos do sistema Papiro. Com os resultados obtidos, foi possível avaliar a aplicação da infraestura e o custo de hardware necessário para sua implementação pelo Exército Brasileiro. ______________________________________________________________________________________________ ABSTRACT / Modern solutions of systems architecture indicates, often, the distributed computing as a mean to meet desired performance characteristics. An distributed architecture class in particular is MOM or Message Oriented Middleware. This architecture is able to provide a mechanism for asynchronous communication, in which it is possible to implement such factors as scalability and fault tolerance in a transparent manner. The Brazilian Army has several systems that provide similar factors to those provided by MOM architecture, although much of the legacy systems will not admit this approach. The Departamento-Geral do Pessoal - DGP, responsible for processes that involve human resources in the Army, uses legacy systems to provide various services. Some of these systems participate in sensitive cases, such as observed from the concession of benefits concerning the social security system process, in which the Papiro system catalogs and concentrates supporting documentation. Its goal is to provide access to registered documents for inquiry and investigation about recipient rights, and that should occur in the region where the person concerned resides. The Papiro system’s architecture uses business data stored directly in files, and does not have mechanisms to provide scalability and fault tolerance natively. Its use is limited depending on system availability in the country, given that their users access from military organizations present in the central regions and the country’s borders. This research aims to compose a storage infrastructure proposal to the DGP legacy systems, which provides the fault tolerance and scalability, without adjusting the hosted legacy applications. The developed architecture is based on StackSync, a MOM capable of storage synchronization between heterogeneous environments. The services needed for the construction of the architecture are detailed, according to their participation in the environment. The study was carried out using data extracted from Papiro system. With the results obtained, it was possible to evaluate the infrastructure’s implementation and the cost of hardware needed to deliver this solution to the Brazilian Army.
186

Integração dos requisitos temporais de um Kernel de tempo-real e de sua comunicação em redes.

Rossler, Daniel Augusto 27 May 2004 (has links)
Made available in DSpace on 2016-06-02T19:05:32Z (GMT). No. of bitstreams: 1 DissDAR.pdf: 536399 bytes, checksum: da765d999fc6079f5c4af3d81c941c78 (MD5) Previous issue date: 2004-05-27 / The study performed on this paper is intended to extend the message exchange between process of a real time kernel, that nowadays is executed between processes on the same station, in order to cover also distinguish stations. In order to allow location transparency to the processes, a name server is used to manage the system processes. And to optimize the server access, the cache and pre-fetching techniques are utilized. Also, during the arrival of a new message to a system node, the Priority Ceiling Protocol will be used to define the priority of the process that will receive the message. As result of this work, it was developed a Real Time Operating System with all the features described above. The name of this Operating System is Sao Carlos. / O estudo realizado neste trabalho tem por foco estender a troca de mensagens entre processos em um kernel de tempo-real, que atualmente é executada entre processos de uma mesma estação, de modo a abranger também processos em estações distintas. De modo a garantir a transparência de localização dos processos utilizaremos um servidor de nomes para gerenciar os processos do sistema. E para melhorar o desempenho de acesso a este servidor, as técnicas de cache e prefetching serão empregadas. Também, durante a transmissão de uma mensagem pelo sistema, o protocolo de Priority Ceiling é utilizado para definir a prioridade do processo receptor da mensagem. Como resultado deste trabalho, foi desenvolvido um Sistema Operacional de Tempo Real com as características descritas acima, e com o nome de São Carlos.
187

CSK: uma abordagem para estruturação de kernel de tempo real em componentes.

Correia, Lúcio José Herculano 27 May 2004 (has links)
Made available in DSpace on 2016-06-02T19:06:02Z (GMT). No. of bitstreams: 1 DissLJHC.pdf: 911507 bytes, checksum: 0af483c56c4aeb6304f9100fe71cccb9 (MD5) Previous issue date: 2004-05-27 / Financiadora de Estudos e Projetos / Generally, operating systems offer a set of services through primitives that are used on demand by applications. Similarly, software components implement and provide services through well-defined interfaces, which are reused in different software projects of a problem domain. Based upon this similarity, it is researched the reuse of software components in real time operating systems projects. It is presented CSK (Computer Structured Kernel) approach for structuring a real time kernel with software components. The approach is divided in two phases. In the first one software components are built from the legacy code and documentation of a preexisting kernel. In the second one, that kernel is rebuilt by reusing the produced components. A case study applies CSK to real time kernel Virtuoso. / Sistemas operacionais em geral oferecem um conjunto de serviços através de primitivas, as quais são utilizadas sob demanda pelas aplicações. Similarmente, componentes de software implementam e disponibilizam serviços através de interfaces bem definidas, sendo reutilizados em diferentes projetos de software de um domínio de problema. Baseado nesta similaridade, é pesquisado o reuso de componentes de software na área de tempo-real, nos projetos de sistemas operacionais. É apresentada uma abordagem para a estruturação de kernels de tempo-real utilizando componentes de software, denominada CSK (Component Structured Kernel). Esta abordagem é dividida em duas grandes fases. Na primeira fase, constroem-se os componentes a partir do código legado e da documentação de um kernel já existente. Na segunda fase é feita a reestruturação do kernel, através do reúso de componentes. Um estudo de caso aplica a abordagem CSK ao kernel Virtuoso.
188

Modelo estrutural para compartilhamento de arquivos peer-to-peer

Rezende, Evandro da Silva [UNESP] 27 July 2009 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0 Previous issue date: 2009-07-27Bitstream added on 2014-06-13T19:38:59Z : No. of bitstreams: 1 rezende_es_me_sjrp.pdf: 541725 bytes, checksum: e9bdd04ef5d9de1ce630cff828619883 (MD5) / O processo de compartilhamento de arquivos passou por grande evolução desde a criação dos computadores, até os dias atuais. Esta evolução teve início com o compartilhamento de dados em computadores de grande porte, passando pela criação das mídias removíveis e, posteriormente, beneficiando-se dos avanços nas tecnologias de redes de computadores. Nesta última, é possível verificar duas fases distintas, a primeira, em que a arquitetura predominante foi cliente/servidor, e a segunda, na qual busca-se voltar às origens da Internet, e utilizar largamente o conceito de computação peer-to-peer. Apesar de todo avanço ocorrido com o compartilhamento de arquivos peer-to-peer, desde seu surgimento no final da década de noventa até os dias atuais, verifica-se que todo o avanço ocorrido ainda não foi suficiente para garantir a plena excelência no que esta tecnologia foi proposta, facilitar a troca de arquivos entre usuários e sistemas. Assim, esta dissertação apresenta um modelo de indexação e acesso a arquivos compartilhados, de maneira totalmente descentralizada e autônoma. Além disso, busca-se criar mecanismos de acesso ao conteúdo compartilhado através de padrões da indústria, oferecendo acesso a estes arquivos para diversas aplicações e sistemas, por exemplo, navegadores web, o qual foi foco de um estudo de caso neste trabalho, onde foi possível verificar todos os benefícios e viabilidade de tal modelo. / The file sharing process has evolved significantly since the creation of the first personal computers to the present days. Such evolution begun with the possibility of data sharing among the users of a same supercomputer, passed through the creation of removable storage devices and, after that, took advantage in the technology advances in computer networks. In this last phase, it is possible to distinguish two different approaches one based on a client-server architecture, and another aiming to use the peer-to-peer concepts for data access. The growth in the adoption of peer-to-peer approaches, however, still have not been enough to guarantee the primary goal of this approach, which is to simplify access to shared data, due to the existence of multiple incompatible peer-to-peer networks. In this context, this dissertation presents a completely decentralized and autonomic approach to data indexing and access. In this sense, this approach intends to provide mechanisms to access data stored on independent peer-to-peer networks using industry standards, and offering access to such data to user and system applications, such as the web browsers, which was the focus of study case in this work, and made possible to verify all it’s benefits and feasibility.
189

Sistema de arquivos distribuído flexível e adaptável /

Fernandes, Silas Evandro Nachif. January 2012 (has links)
Orientador: Renata Spolon Lobato / Banca: Sarita Mazzini Bruschi / Banca: Norian Marranghello / Resumo: Com o aumento do volume de dados e a incerteza dos recursos de hardware e software, a descentralização dos dados em sistema de arquivos surgiu com a finalidade de diminuir a probabilidade de perda total desses dados. Com isso, este trabalho propõe um modelo de sistema de arquivos distribuído que incorpora características de transparência, escalabilidade, tolerância a falhas, criptografia, suporte a hardware de baixo custo, facilidade na implantação e manipulação dos arquivos / Abstract: With the increasing volume of data and uncertainty of hardware and software resources, the decentralization of data in file systems came up with the aim of reducing the likelihood of total loss of such data. Thus, this paper proposes a model of distributed file systems that integrates features of transparency, scalability, fault tolerance, encryption, support for low cost hardware, easy management and handling of files / Mestre
190

Um algoritmo de diagnóstico distribuído para redes particionáveis de topologia arbitrária

Weber, Andrea 2010 October 1914 (has links)
Este trabalho apresenta um novo algoritmo de diagnóstico distribuído em nível de sistema, Distributed Network Reachability (DNR). O algoritmo permite que cada nodo de uma rede particionável de topologia arbitrária determine quais porções da rede estão alcançáveis e inalcançáveis. DNR é o primeiro algoritmo de diagnóstico distribuído que permite a ocorrência de eventos dinâmicos de falha e recuperação de nodos e enlaces, inclusive com partições e healings da rede. O estado diagnosticado de um nodo é ou sem-falha ou inatingível; o estado diagnosticado de um enlace é ou sem-falha ou não-respondendo ou inatingível. O algoritmo consiste de três fases: teste, disseminação e cálculo de alcançabilidade. Durante a fase de testes cada enlace é testado por um de seus nodos adjacentes em intervalos de teste alternados. Após a detecção de um novo evento, o testador inicia a fase de disseminação, na qual a nova informação de diagnóstico é transmitida para os nodos alcançáveis. A cada vez que um novo evento é detectado ou informado, a terceira fase é executada, na qual um algoritmo de conectividade em grafos é empregado para calcular a alcançabilidade da rede. O algoritmo DNR utiliza o número mínimo de testes por enlace por rodada de testes e tem a menor latência possível de diagnóstico, assegurada pela disseminação paralela de eventos. A correção do algoritmo é provada formalmente. Uma prova de correção no arcabouço bounded correctness também foi elaborada, incluindo latência delimitada de diagnóstico, latência delimitada de inicialização e acuidade. Um simulador do algoritmo foi implementado. Experimentos foram executados em diversas topologias incluindo grafos aleatórios (k-vertex connected e Power-Law) bem como grafos regulares (meshes e hipercubos). Extensivos resultados de simulação de eventos dinâmicos de falha e recuperação em nodos e enlaces são apresentados. / This thesis introduces the new Distributed Network Reachability (DNR) algorithm, a distributed system-level diagnosis algorithm that allows every node of a partitionable general topology network to determine which portions of the network are reachable and unreachable. DNR is the first distributed diagnosis algorithm that works in the presence of network partitions and healings caused by dynamic fault and repair events. A node is diagnosed as either working or unreachable and a link is diagnosed either as working or unresponsive or unreachable. The algorithm is formally specified and consists of three phases: test, dissemination, and reachability computation. During the testing phase each link is tested by one of the adjacent nodes at alternating testing intervals. Upon the detection of a new event, the tester starts the dissemination phase, in which the new diagnostic information is received by every reachable node in the network. New events can occur before the dissemination completes. After a new event is detected or informed, a working node runs the third phase, in which a graph connectivity algorithm is employed to compute the network reachability. The algorithm employs the optimal number of tests per link per testing interval and the best possible diagnosis latency, assured by the parallel dissemination of event information. The correctness of the algorithm is proved, including the bounded diagnostic latency, bounded start-up and accuracy. Experimental results obtained from simulation are presented. Simulated topologies include random graphs (k-vertex connected and Power-Law) as well as regular graphs (meshes and hypercubes). Extensive simulation results of dynamic fault and repair events on nodes and links are presented.

Page generated in 0.0947 seconds