271 |
A basis for intrusion detection in distributed systems using kernel-level data tainting. / Détection d'intrusions dans les systèmes distribués par propagation de teinte au niveau noyauHauser, Christophe 19 June 2013 (has links)
Les systèmes d'information actuels, qu'il s'agisse de réseaux d'entreprises, deservices en ligne ou encore d'organisations gouvernementales, reposent trèssouvent sur des systèmes distribués, impliquant un ensemble de machinesfournissant des services internes ou externes. La sécurité de tels systèmesd'information est construite à plusieurs niveaux (défense en profondeur). Lors de l'établissementde tels systèmes, des politiques de contrôle d'accès, d'authentification, defiltrage (firewalls, etc.) sont mises en place afin de garantir lasécurité des informations. Cependant, ces systèmes sont très souventcomplexes, et évoluent en permanence. Il devient alors difficile de maintenirune politique de sécurité sans faille sur l'ensemble du système (quand bienmême cela serait possible), et de résister aux attaques auxquelles ces servicessont quotidiennement exposés. C'est ainsi que les systèmes de détectiond'intrusions sont devenus nécessaires, et font partie du jeu d'outils desécurité indispensables à tous les administrateurs de systèmes exposés enpermanence à des attaques potentielles.Les systèmes de détection d'intrusions se classifient en deux grandes familles,qui diffèrent par leur méthode d'analyse: l'approche par scénarios et l'approchecomportementale. L'approche par scénarios est la plus courante, et elle estutilisée par des systèmes de détection d'intrusions bien connus tels queSnort, Prélude et d'autres. Cette approche consiste à reconnaître des signaturesd'attaques connues dans le trafic réseau (pour les IDS réseau) et des séquencesd'appels systèmes (pour les IDS hôtes). Il s'agit donc de détecter descomportements anormaux du système liés à la présence d'attaques. Bien que l'onpuisse ainsi détecter un grand nombre d'attaques, cette approche ne permet pasde détecter de nouvelles attaques, pour lesquelles aucune signature n'estconnue. Par ailleurs, les malwares modernes emploient souvent des techniquesdites de morphisme binaire, afin d'échapper à la détection parsignatures.L'approche comportementale, à l'inverse de l'approche par signature, se basesur la modélisation du fonctionnement normal du système. Cette approche permetainsi de détecter de nouvelles attaques tout comme des attaques plus anciennes,n'ayant recours à aucune base de données de connaissance d'attaques existantes.Il existe plusieurs types d'approches comportementales, certains modèles sontstatistiques, d'autres modèles s'appuient sur une politique de sécurité.Dans cette thèse, on s'intéresse à la détection d'intrusions dans des systèmesdistribués, en adoptant une approche comportementale basée sur une politique desécurité. Elle est exprimée sous la forme d'une politique de flux d'information. Les fluxd'informations sont suivis via une technique de propagation de marques (appeléeen anglais « taint marking ») appliquées sur les objets du systèmed'exploitation, directement au niveau du noyau. De telles approchesexistent également au niveau langage (par exemple par instrumentation de lamachine virtuelle Java, ou bien en modifiant le code des applications), ou encoreau niveau de l'architecture (en émulant le microprocesseur afin de tracer lesflux d'information entre les registres, pages mémoire etc.), etpermettent ainsi une analyse fine des flux d'informations. Cependant, nous avons choisi de nous placer au niveau du système d'exploitation, afin de satisfaire les objectifs suivants:• Détecter les intrusions à tous les niveaux du système, pas spécifiquement au sein d'une ou plusieurs applications.• Déployer notre système en présence d'applications natives, dont le code source n'est pas nécessairement disponible (ce qui rend leur instrumentation très difficile voire impossible).• Utiliser du matériel standard présent sur le marché. Il est très difficile de modifier physiquement les microprocesseurs, et leur émulation a un impact très important sur les performances du système. / Modern organisations rely intensively on information and communicationtechnology infrastructures. Such infrastructures offer a range of servicesfrom simple mail transport agents or blogs to complex e-commerce platforms,banking systems or service hosting, and all of these depend on distributedsystems. The security of these systems, with their increasing complexity, isa challenge. Cloud services are replacing traditional infrastructures byproviding lower cost alternatives for storage and computational power, butat the risk of relying on third party companies. This risk becomesparticularly critical when such services are used to host privileged companyinformation and applications, or customers' private information. Even in thecase where companies host their own information and applications, the adventof BYOD (Bring Your Own Device) leads to new security relatedissues.In response, our research investigated the characterization and detection ofmalicious activities at the operating system level and in distributedsystems composed of multiple hosts and services. We have shown thatintrusions in an operating system spawn abnormal information flows, and wedeveloped a model of dynamic information flow tracking, based on taintmarking techniques, in order to detect such abnormal behavior. We trackinformation flows between objects of the operating system (such as files,sockets, shared memory, processes, etc.) and network packetsflowing between hosts. This approach follows the anomaly detection paradigm.We specify the legal behavior of the system with respect to an informationflow policy, by stating how users and programs from groups of hosts areallowed to access or alter each other's information. Illegal informationflows are considered as intrusion symptoms. We have implemented this modelin the Linux kernel (the source code is availableat http://www.blare-ids.org), as a Linux Security Module (LSM), andwe used it as the basis for practical demonstrations. The experimentalresults validated the feasibility of our new intrusion detection principles.
|
272 |
Desenvolvimento e automatização de um método teórico para a avaliação quantitativa da seletividade de proteínas do MHC por diferentes antígenos / Development and automation of a theoretical method for quantitative evaluation of the MHC proteins of different antigens selectivitySilva, Jackson Gois da 25 June 2004 (has links)
Realizamos neste trabalho a automatização da nova metodologia MHCalc, desenvolvida anteriormente em nosso laboratório, que teve como resultado o programa homônimo escrito em linguagem C para ambiente GNU/Linux, o qual avalia quantitativamente a seletividade de uma determinada proteína MHC. Esta avaliação quantitativa possibilita o estabelecimento de uma escala de preferência dos resíduos de ocorrência natural para cada uma das posições de interação da fenda de apresentação do MHC; por permutação destes resíduos, podem-se derivar regras de composição para peptídeos reconhecíveis em cada alelo estudado, inclusive na ausência de dados experimentais. A metodologia desenvolvida em nosso laboratório se baseia na avaliação da seletividade de cada bolsão independentemente, através da energia de interação do mesmo com cada aminoácido de ocorrência natural. O programa MHCalc utiliza o pacote de programas THORMM [Moret, 1998] de modelagem molecular para otimização geométrica das estruturas descritas, e tem como entrada unicamente um arquivo de coordenadas em formato POB contendo as coordenadas de um complexo MHC/peptídeo, tendo como saída uma tabela de dados contendo os resíduos de ocorrência natural em ordem de preferência para cada bolsão. Testamos o programa MHCalc para o complexo formado pela molécula HLA-DR1 (DRA DRB1 *01 01) e o peptídeo de Hemaglutinina, obtido no Brookhaven Protein Data Bank com a entrada 10LH, sendo este sistema escolhido por ser altamente estudado e com abundância de dados experimentais e teóricos para comparação de resultados. Até o presente momento obtivemos os dados referentes ao bolsão 1, os quais estão em pleno acordo com a literatura. / In this work we automated the new methodology MHCalc, developed previously in our laboratory, which resulted in the computational program with the same name, written in C language to GNU/Linux environment. The program MHCalc evaluates quantitatively the selectivity of a given MHC protein. This quantitative evaluation allows the establishment of a preference scale of the naturally occurring residues for each pocket of a MHC molecule. From such a study it may be derived composition rules to peptides recognizable in each allele studied, even in the absence of experimental data. The methodology developed in our laboratory is based on the selectivity evaluation of each pocket independently, through its interaction energy with each naturally occurring amino acid. The program MHCalc uses the molecular modeling package THORMM [Moret, 1998] to optimize the geometry of the structures described below, and needs as only entry the PDS like file with the coordinates of the MHC/peptide complex. The program finishes printing out a data file containing the naturally occurring residues in preference order for each pocket and the data used to order these residues. We tested the program MHCalc to the complex molecule HLA-DR1 (DRA DRB1 *01 01) with the Hemaglutinin peptide, obtained at the BrookHaven Prote in Data Bank (1 DLH entry). This system was chosen because it has been highly studied and so offers abundant experimental and theoretical data to compare our results. We obtained data referring to pocket 1 so far, which is in full agreement with the literature.
|
273 |
Virtualização de redes de computadores - uma abordagem focada em mobilidade e georreferenciamento / Virtualization of computer networks - approach focused on mobility and georeferencingGurgel, Paulo Henrique Moreira 03 October 2014 (has links)
Ferramentas de virtualização de redes podem ser utilizadas com a finalidade de criar experimentos envolvendo redes de computadores e sistemas distribuídos em diversas aplicações, seja este para avaliação e validação de um sistema distribuído, teste de novas configurações em um ambiente de produção, ou mesmo para uso educacional. Várias são as opções de ferramentas disponíveis para a realização de tais experimentos. Entretanto, as ferramentas disponíveis não oferecem um suporte adequado a virtualização de redes móveis. O presente trabalho de mestrado apresenta uma proposta para a modificação de uma ferramenta de virtualização de código livre chamada Netkit, de modo a viabilizar a criação de experimentos que envolvam redes móveis. Neste caso, a ferramenta prevê que os dispositivos possam ser localizados em um espaço virtual e deslocados, de modo que variações como intensidade de sinal, trocas de pontos de acesso e experimentos que envolvam a localização espacial dos dispositivos possam ser efetuados. / Network virtualization tools can be used to create several experiments like distributed systems evaluation and validation, test new software configuration in a virtual production environment or educational research. Although many tools enable a user to execute such experiments, few have mobile network support, presenting only wired network. The current project aims to present a proposal to modify a open source virtual network emulator called Netkit, enabling mobile network experimentation. The modified tool is capable to create virtual devices that can be located in a virtual space and moved along it, providing signal intensity variation, handovers, and able to address experimentation scenarios that requires spatial and geodesic location of the virtual mobile devices.
|
274 |
Sistemas de Arquivos Distribuídos / Distributed File SystemsKon, Fabio 08 November 1994 (has links)
Este trabalho se inicia com uma discussão sobre as principais características dos Sistemas de Arquivos Distribuídos, ou seja, espaço de nomes, localização, cache, consistência, replicação, disponibilidade, escalabilidade, heterogeneidade, tolerância a falhas e segurança. Analisamos diversos sistemas de arquivos existentes quanto a estas características dando especial atenção aos sistemas NFS, Andrew, Coda, Sprite, Zebra, Harp, Frolic e Echo. Descrevemos alguns modelos analíticos para o comportamento de sistemas de arquivos distribuídos e, em seguida, apresentamos um novo modelo para sistemas baseados em leases - um mecanismo para a garantia de consistência em sistemas distribuídos. Finalmente, descrevemos a nossa implementação do sistema de arquivos distribuído SODA - que utiliza leases - apresentando dados sobre o seu desempenho. / We begin with a discussion of some of the main characteristics of Distributed File Systems, namely locality, name space, cache, consistency, replication, availability, scalability, heterogeneity, fault tolerance and security. We analyze several file systems based on these characteristics. We focus mainly on NFS, Andrew, Coda, Sprite, Zebra, Harp, Frolic, and Echo. We then describe some analytical models of the behavior of distributed file systems. After that we present a new model of systems based on leases - a mechanism to assure consistency on a distributed system. Finally we describe our implementation of the SODA distributed file system - which uses leases - presenting some results on its performance.
|
275 |
One kernel to rule them all : An experimental study inspecting the Meltdown patch effects on the costs of system calls in systemd-nspawn containers / En kärna att härska över dem alla : En experimental studie som inspekterar effekterna av Meltdown uppdateringen i samband med systemd-nspawn containersKooijman, Ben January 2018 (has links)
Context. The paradigm of virtualization is rapidly changing due to hardware optimization and capabilities, while also due to rapid development and deployment strategies used in the modern day IT industry. Just like the positive changes, negative effects are necessary to occur in order to improve modern day technologies.This final year project takes a look at both the positive and negatives by exploring how containers are relevant to modern day computing and how they are affected by the patch that mitigates the Meltdown CPU vulnerabilities discovered in mid-2017 in terms of performance. Looking at the trade-off between information security and performance by taking an in-depth approach with a take on the core functionalities of the Linux Kernel. This paper succeeded to identify system call costs that between a secure and non-secure Linux kernel in the context of a containerized environment. Objectives. This study examines the effects of the KAISER security patch aimed to mitigate microprocessor vulnerabilities related to Meltdown. The investigated effect is the performance as the cost of system calls under the condition of a non-KAISER and a KAISER enabled Linux kernel. The intent is to increase the transparency of how a major security patch such as KAISER affects the system. Methods. A quantitative experimental study is conducted. One single Debian Stretch node is used with two different treatments. First micro-benchmarks are run without a KAISER enabled kernel which later is compared with a KAISER enabled kernel. The measuring point is the time one single system call takes in a sequence of 1 000 000 system calls. Results. First macro-benchmarks were conducted to see what a performance loss would look like on an application level. This proved to introduce many superfluous factors which made it difficult to use system calls as a measuring point. In the end a comparison between the two kernels was done. This indicated that the cost per system differed roughly 29% in time. Conclusions. The results indicate that a large performance loss is identified. However, this does not indicate that all activities on a computer will suffer from this loss. The performance loss the end-user will experience all depends on the amount of system calls generated from one single set of instructions. The performance loss can be neglected if these instructions generating a low amount of system calls. These results should notbe used as evidence to favor performance over information security in real life applications and implementations but rather as a motivation to meet the two aspects. / Kontext. Användning kring virtualisering håller snabbt på att förändras tack vare bättre hårdvaruoptimeringar och förmågor. Samtidigt ändras många olika utplaceringstrategier av datorresurser iden moderna IT industrin. Likväl alla positiva förändringar så introduceras det även effekter med negativa följder. Det här är ett examensarbete som ämnar att utforska båda dessa positiva och negativa effekter. Genom att titta på hur den populära virtualiserings tekniken som består av containers påverkas av uppdateringen som ska lösa sårbarhter i moderna processorer som går under namnet Meltdown. Påverkningarna definieras i form av prestanda vilket tillåter en djupare inspektering av de fundementala funktioner av Linux kärnan, där systemanrop kan användas som mätningspunkt. Metoden samt resultat i det här examensarbetet har med framgång lyckats hitta en kostnads skillnad per systemanrop under förhållandetav en osäker samt en säker Linux kärnna i en miljö som består av containers. Mål. Examensarbetet tittar på effekterna av uppdateringen som ska åtgärda sårbarheterna i moderna mikroprocessorer relaterade till Meltdown. De investigerade effekterna är definierade som prestandan där kostanden av systemanrop används som mätningspunkt. Meningen med det här examensarbetet att öka transparansen av vad en stor säkerhetsuppdatering gör med ett modernt datorsystem. Metod. En kvantitativ experimental studie utförs där en Debian Stretch nod används för att observera två olika behandlingar. Till början så körs det ”mikrobenchmarks” under förhållandet av en osäker Linux kärna. Sedan så följs detta upp med en säker Linux kärna. Till slut jämförs de olika resultat med varandra för att identifera hur mycket ett system anrop kostar under en sekvens av 10’000’000 systemanrop. Resultat. Som pilot studie utfördes det en rad olika tester som använder många olika verktyg för att se om det går att identifiera en prestanda förlust på applikations nivå. Genom att utföra tester utav den karaktären blev det tydligt att överflödiga faktorer förhindrade ett utfall som ansågs vara tillräcklig. Till slut hittades rätt typ av verktyg för att få fram ett utfall som visade att en prestanda skillnad på ~29% existerade mellan en osäker samt en säker Linux kärna. Sammanfattning. Resultatet indikerar att en prestanda förlust existerar. Dock påverkas inte den generella prestandan nödvändigtvis. Prestanda förlusten en slutanvändare kommer att uppleva beror helt på av hur stort antal systemanrop som genereras under sekvensen av aktiviteten som utförs. Resultatet som redovisas i detta examensarbete bör inte användas som motivation att prioritera prestanda över informations säkerhet i produktions miljöer men hellre som en motivation att kunna bemöta båda aspekterna.
|
276 |
Virtualização de redes de computadores - uma abordagem focada em mobilidade e georreferenciamento / Virtualization of computer networks - approach focused on mobility and georeferencingPaulo Henrique Moreira Gurgel 03 October 2014 (has links)
Ferramentas de virtualização de redes podem ser utilizadas com a finalidade de criar experimentos envolvendo redes de computadores e sistemas distribuídos em diversas aplicações, seja este para avaliação e validação de um sistema distribuído, teste de novas configurações em um ambiente de produção, ou mesmo para uso educacional. Várias são as opções de ferramentas disponíveis para a realização de tais experimentos. Entretanto, as ferramentas disponíveis não oferecem um suporte adequado a virtualização de redes móveis. O presente trabalho de mestrado apresenta uma proposta para a modificação de uma ferramenta de virtualização de código livre chamada Netkit, de modo a viabilizar a criação de experimentos que envolvam redes móveis. Neste caso, a ferramenta prevê que os dispositivos possam ser localizados em um espaço virtual e deslocados, de modo que variações como intensidade de sinal, trocas de pontos de acesso e experimentos que envolvam a localização espacial dos dispositivos possam ser efetuados. / Network virtualization tools can be used to create several experiments like distributed systems evaluation and validation, test new software configuration in a virtual production environment or educational research. Although many tools enable a user to execute such experiments, few have mobile network support, presenting only wired network. The current project aims to present a proposal to modify a open source virtual network emulator called Netkit, enabling mobile network experimentation. The modified tool is capable to create virtual devices that can be located in a virtual space and moved along it, providing signal intensity variation, handovers, and able to address experimentation scenarios that requires spatial and geodesic location of the virtual mobile devices.
|
277 |
Uma arquitetura de mobilidade para redes IP e sua realização sobre o protocolo MPLS / A mobility architecture for IP networks and its realization over MPLS protocolBadan, Tomás Antônio Costa 16 August 2018 (has links)
Orientador: Eleri Cardozo / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-16T06:51:09Z (GMT). No. of bitstreams: 1
Badan_TomasAntonioCosta_D.pdf: 1510212 bytes, checksum: 73618c2b1cfc1df892bb1bd071694ef9 (MD5)
Previous issue date: 2010 / Resumo: A próxima geração da telefonia celular, 4G, será totalmente baseada no protocolo IP. Para o usuário final, a expectativa é estar constantemente conectado à esta rede, no qual a característica fundamental será a mobilidade transparente do dispositivo móvel, entre as várias subredes que compõem um domínio administrativo. Esta tese tem por objetivo propor uma solução para o problema da mobilidade transparente do dispositivo móvel em redes IP. Como consequência, duas contribuições são alcançadas. A primeira é a especificação de uma arquitetura que permita localizar e rastrear o dispositivo móvel em um domínio administrativo, que seja independente da tecnologia de túneis utilizada na camada de rede. A segunda é a proposição de um método de rastreamento do dispositivo móvel em redes MPLS, preservando as especificações do protocolo MPLS. É mostrado também como este método foi integrado com a arquitetura previamente definida. Por fim, é descrita como essa proposta de rastreamento em redes MPLS foi implementada sobre o sistema operacional Linux e os testes realizados para avaliar, tanto a implementação desta proposta, quanto a sua integração com essa arquitetura / Abstract: The next generation of cellular telephony, 4G, is going to be totally based on the IP protocol. The end user expects to be constantly connected to this network, in which the key feature Will be the seamless mobility of the mobile device among the various subnets within an administrative domain. This thesis has as objective to propose a solution to the problem of seamless mobility of the mobile device in IP networks. As such, two contributions are achieved. The first one is the specification of an architecture able to locate and track the mobile device inside an administrative domain, being independent of the tunnel technology used in the network layer. The second one is the proposition of a method to track the mobile device inside a MPLS networks, keeping intact the specifications of the MPLS protocol. It is also shown how this method was integrated with the previously defined architecture. Finally, it is described how the proposed method to track mobile devices inside a MPLS network was implemented on the Linux operating system, and the tests performed in order to assess both the implementation of this proposal and its integration with this architecture / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
|
278 |
Metodologia para classificação de padrões de consumo de memória no linux baseada em mapas auto-organizáveis / A Methodology for Classification of Memory use Pattern in Linux based on Auto-Organized Maps.Lin, Maurício Tia Ni Gong 10 February 2006 (has links)
Made available in DSpace on 2015-04-11T14:02:53Z (GMT). No. of bitstreams: 1
Mauricio Tia Ni Gong Lin.pdf: 636193 bytes, checksum: f576d0b7751120d8c4eaafb2517b1e22 (MD5)
Previous issue date: 2006-02-10 / The growth of Linux operating system has taken it to become a worthy competitor to commercial software such as Microsoft s Windows and Sun s Solaris. Although the development and the improvement of several Linux s features, the problem related to Linux out of memory and the current mechanism used to solve it, named as OOM Killer, has brought a long discussion at Linux kernel community. The lack of scientific works related to OOM Killer process selection algorithm motivates this dissertation to propose a mechanism for identifying and classifying memory consumption patterns of Linux applications. Such mechanism is based on a neural network technique known as Self Organizing Maps. The development of a tool based on Self Organizing Maps presented the possibility of applying such approach for memory consumption patterns classification related to Linux applications use cases. / A evolução do sistema operacional Linux possibilitou que o mesmo se tornasse o principal concorrente dos sistemas operacionais do mercado como o Windows da Microsoft e Solaris da Sun. Apesar de diversas funcionalidades e melhorias desenvolvidas no Linux, o problema relacionado à falta de memória e o mecanismo existente de solucioná-lo, chamado
de OOM Killer, ainda é motivo de longas discussões na comunidade do kernel Linux. A carência de pesquisas científicas relacionada ao algoritmo de seleção de processos do OOM Killer leva esta dissertação a propor um mecanismo de identificação e classificação de padrões de consumo de memória no Linux baseada no modelo de rede neural auto-organizável. A ferramenta desenvolvida nesta dissertação mostra a possibilidade de utilizar Mapas Auto-Organizáveis para classificar e identificar os padrões de consumo de memória de determinadas aplicações inseridas em contextos de casos de uso.
|
279 |
SwTOI (Software Test Ontology Integrated): uma Ontologia com Aplicação em Teste do Linux.Bezerra, Daniella Rodrigues 22 February 2008 (has links)
Made available in DSpace on 2015-04-11T14:03:11Z (GMT). No. of bitstreams: 1
DISSERTACAO DANIELLA.pdf: 2040757 bytes, checksum: 21b1bef3ce0330932763dc1d246abb39 (MD5)
Previous issue date: 2008-02-22 / Fundação de Amparo à Pesquisa do Estado do Amazonas / This work encompasses elements of a study of knowlwedge representation founded on ontologies that have Linux testing as target domain. The study aims at demonstrating that once knowledge is formalised, it is possible to reuse it, to perform
inference, to process it throuch computers, and, what is more, it becames amenable to being communicated between people and software. Towards that, three ontlogies have been developed: OSOnto (Operating System Ontology) which represents concepts of the operating system domain, SwTO (Software Test Ontology) which deals with the software testing domain, and SwTOI (SwTO Integrated) which represents concepts of both the above domains in an integrated way. For implementing the ontologies, OWL DL as ontology specification language, Prot´eg´e as ontology edition
environment and Racer as the main reasoner, have been used. A quantitative and qualitative evaluation of the SwTOI ontology has been performed. / Este trabalho reúne elementos de um estudo sobre representacão do conhecimento fundamentado em ontologias tendo como domínio alvo o teste do Linux. O estudo visa demonstrar que uma vez que o conhecimento é formalizado, é possível reusá-lo, realizar inferência, processá-lo computacionalmente, como também tornase passível de comunicação entre pessoas e software. Para tal, foram desenvolvidas três ontologias: a OSOnto (Operating System Ontology) que representa conceitos do domínio de Sistema Operacional, a SwTO (Software Test Ontology) que trata do dom´ıniodetestedesoftware, e a SwTOI (SwTOIntegrated) que representa conceitos destes dois domínios integrados. Para a implementação das ontologias foi utilizada OWL DL como linguagem de especificação, o Protégé como ambiente de edição e o Racer como principal raciocinador. Uma avaliação quantitativa e qualitativa foi realizada da ontologia SwTOI.
|
280 |
Sistemas de Arquivos Distribuídos / Distributed File SystemsFabio Kon 08 November 1994 (has links)
Este trabalho se inicia com uma discussão sobre as principais características dos Sistemas de Arquivos Distribuídos, ou seja, espaço de nomes, localização, cache, consistência, replicação, disponibilidade, escalabilidade, heterogeneidade, tolerância a falhas e segurança. Analisamos diversos sistemas de arquivos existentes quanto a estas características dando especial atenção aos sistemas NFS, Andrew, Coda, Sprite, Zebra, Harp, Frolic e Echo. Descrevemos alguns modelos analíticos para o comportamento de sistemas de arquivos distribuídos e, em seguida, apresentamos um novo modelo para sistemas baseados em leases - um mecanismo para a garantia de consistência em sistemas distribuídos. Finalmente, descrevemos a nossa implementação do sistema de arquivos distribuído SODA - que utiliza leases - apresentando dados sobre o seu desempenho. / We begin with a discussion of some of the main characteristics of Distributed File Systems, namely locality, name space, cache, consistency, replication, availability, scalability, heterogeneity, fault tolerance and security. We analyze several file systems based on these characteristics. We focus mainly on NFS, Andrew, Coda, Sprite, Zebra, Harp, Frolic, and Echo. We then describe some analytical models of the behavior of distributed file systems. After that we present a new model of systems based on leases - a mechanism to assure consistency on a distributed system. Finally we describe our implementation of the SODA distributed file system - which uses leases - presenting some results on its performance.
|
Page generated in 0.0668 seconds